Warning: Use of undefined constant user_level - assumed 'user_level' (this will throw an Error in a future version of PHP) in /home/customer/www/pisitoenmadrid.com/public_html/blog/wp-content/plugins/ultimate_ga_1.6.0.php on line 524
El término Singularity o Singularidad no ha dejado de sonar a mi alrededor en los últimos meses, desde la portada a Ray Kurzweil en la revista WIRED hasta amigos cercanos que han estado en la Singularity University. El caso es que este término lleva desde la década de los 90 generando ruido, polémica, esperanza, y con cada avance tecnológico vuelve a renacer, a resonar, siempre de la mano de futurólogos de renombre. ¿Os suena de algo la imagen que os muestro a continuación?

Es la carta de presentación de 2045 el proyecto de Dmitry Itskov, un billonario ruso que quiere reunir a los mayores millonarios del mundo para que aporten dinero al proyecto y conseguir la ansiada inmortalidad. Obviamente, el camino y objetivo es alcanzar la Singularidad. Vamos a hacer un breve repaso por la historia de este término, los avances y su futuro con la universidad de Kurzweil.
Singularidad, historia y definición
El término, también conocido por Singularidad tecnológica, proviene de una analogía del mundo matemático y físico. En matemáticas se puede dar el caso de obtener un resultado que tiende a infinito (al dividir por cero por ejemplo) y en física existe el concepto de singularidad espaciotemporal, el punto que se observa en los agujeros negros en el que las reglas de la física dejan de ser válidas. Trasladándolo al mundo tecnológico, la Singularidad es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán, tendiendo a infinito, debido al desarrollo de una inteligencia artificial que supera a la de los humanos y comienza a superarse a sí misma.
Aunque el término de Singularidad fue acuñado por John von Neumann para determinar el progreso tecnológico en la década de los 50, la definición actual y la fama llegaría de la mano de Vernor Vinge. Este escritor estadounidense, uno de los máximos representantes de la ciencia ficción dura (subgénero de la ciencia ficción caracterizado por conceder una especial relevancia a los detalles científicos o técnicos de la narración), definió en 1993 la Singularidad como el punto donde se crea una inteligencia sobrehumana de manera tecnológica.
El testigo de la Singularidad lo cogió Raymond Kurzweil, inventor, empresario, escritor y científico estadounidense que hace unos meses fue nombrado Director de Ingeniería mundial en Google. En su libro «The Singularity is Near», Kurzweil la define como un periodo futuro durante el cual el ritmo del cambio tecnológico será tan rápido y su impacto tan profundo, que la vida humana será transformada irreversiblemente. Obviamente el término va más allá de la Ley de Moore y de un factor cuantitativo a nivel hardware. La clave según Ray es que todo se vuelva «tecnología de la información», incluida nuestra propia biología.
Los caminos para llegar a la Singularidad
La clave indiscutible de la Singularidad es alcanzar la Superinteligencia y una infraestructura tecnológica que la soporte. Aunque Vinge define la Superinteligencia tecnológica como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste; la definición que más me gusta es la de Nick Bostrom, filósofo transhumanista, un movimiento intelectual que apoya el empleo de las nuevas ciencias y tecnologías para mejorar las capacidades mentales y físicas con el objeto de corregir aspectos indeseables de la condición humana como el sufrimiento, la enfermedad o el envejecimiento. Bostrom la define como un comportamiento vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial en: creatividad científica, sabiduría en general y desempeño científico.
Una vez se tiene ubicado el concepto de Superinteligencia, se deben definir los caminos a recorrer para alcanzar la Singularidad. Vinge definió los cuatro tipos de Superinteligencia que marcan cuatro vías distintas para ello:
- Superinteligencia artificial. Construcción de una inteligencia artificial por parte de los humanos que iguale la inteligencia biológica y que a partir de ahí se supere a sí misma (autorreplicación)
- Superinteligencia colectiva. Creación de redes de computadoras donde humanos y máquinas estén conectados y a partir de este escenario «despierte» un cerebro distribuido como ente inteligente (Internet)
- Superinteligencia híbrida. Interconexión entre humanos y máquinas, mejorando lo existente y creando seres superinteligentes (Cyborgs)
- Superinteligencia biológica. Manipulaciones biológicas que permitan mejorar la inteligencia de los seres humanos (Bioingeniería)
Aunque la clave sea la Superinteligencia, hemos visto que las vías para alcanzarla requieren una evolución tecnológica muy potente. Aquí es donde entra la parte cuantitativa y la Ley de rendimientos acelerados. Antes de hablar de esta Ley merece la pena destacar el libro «Mindsteps to the Cosmos» publicado en 1983 por Gerald S. Hawkins. En él ampliaba la Ley de Moore de 1965 incluyendo el concepto de mindsteps: cambios radicales e irreversibles de los paradigmas o visiones del mundo. Kurzweil volvió a tomar el testigo en 2001 escribiendo un ensayo en el que introducía la Ley de rendimientos acelerados:
Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión ‘lineal intuitiva’ del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso (al ritmo de hoy). Los ‘rendimientos’, tales como la velocidad de los chips y la relación coste-efectividad, también se incrementarán exponencialmente. En el plazo de unas pocas décadas, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la singularidad (cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana). Las consecuencias incluyen el surgimiento de inteligencia biológica y no biológica, software inmortal basado en humanos y niveles de inteligencia ultra-elevados que se expandirán hacia el universo a la velocidad de la luz.
En la entrevista de Redes, Kurzweil deja claro que nuestra mente piensa de forma lineal, piensan que las cosas evolucionarán como han evolucionado hasta ahora, al mismo ritmo. No podemos estar más equivocados
La Singularidad será una realidad
Existen motivos para creer que la Singularidad será una realidad a partir del 2040. Kurzweil enumera una serie de hitos que tiene en cuenta para enunciar todas estas teorías:
- La innovación técnica se acelera, se duplica cada década.
- El poder de las TI crece exponencialmente, se duplica cada año.
- Para las TI hay un segundo nivel de crecimiento exponencial, alimentado por el beneficio económico que representa su crecimiento.
- La exploración del cerebro humano es una de las tecnologías que mejora exponencialmente.
- Tendremos modelos efectivos de inteligencia humana para la mitad de los años 20 de este siglo.
- Con la disponibilidad del software y hardware para emular el cerebro humano, hacia finales se podrá aprobar el Test de Turing hacia finales de siglo.
- El ciclo de la inteligencia de las máquinas, que iterativamente mejora su diseño se hará más rápido cada vez.
Los hitos de Kurzweil son respaldados por otros autores como Muehlhauser y su publicación Facing The Singularity (2012). Algunos números son:
- La velocidad de procesamiento, donde nuestras neuronas pueden llevar datos a 75 metros por segundo o menos, cuando una máquina puede superar esas velocidades por 4 millones.
- Profundidad serial. El cerebro humano no puede ejecutar rápidamente cálculos que requieren más de 100 pasos secuenciales, por lo cual se apoya en la computación paralela. En el ámbito computacional hoy en día es posible acudir a ambos tipos de procesamiento (serial y paralelo) para superar esta limitación.
- Recursos computacionales. El cerebro humano está limitado por el tamaño del cráneo (razones anatómicas y fisiológicas) mientras que las máquinas de cómputo pueden construirse tan grandes como ciudades, sólo limitadas por el consumo de energía y la arquitectura, lo cual es un obstáculo que se busca eliminar con sistemas de menor consumo y nuevos diseños.
- Racionalidad. No está claro que los cerebros humanos hagan decisiones racionales de manera nativa y perfecta. Las computadoras se crean desde cero con el juego de instrucciones para ser racionales en las decisiones.
- Acceso introspectivo / editabilidad. No podemos introducirnos en nuestro cerebro para editar o mejorar los algoritmos cognitivos. Es evidente que esa posibilidad existe en sistemas diseñados por los humanos.
Parece que hay muchos hitos que respaldan la teoría de Kurzweil. De hecho, su último libro How to Create a Mind, sigue indagando en lo mismo. Para la presentación, Ray dio una charla en TEDxSiliconAlley. Os la dejo a continuación
La Singularidad es ciencia ficción
La otra cara de la moneda muestra a muchos detractores de esta visión del futuro. Uno de ellos es David Chalmers, filósofo australiano especializado en la mente humana. Algunos de los argumentos en contra son:
- La inteligencia no es solamente un tema de procesamiento de información. Hay factores cruciales en la inteligencia humana que se omiten en la IA: el entendimiento, personificación y cultura.
- El diseño de una inteligencia equivalente al menos a la humana requiere de un profundo entendimiento del yo y una psicología cognitiva total. Estos campos del conocimiento están lejos de llegar a sus límites hoy en día, por lo cual no se puede esperar en un futuro cercano (y quizá nunca se llegue a la meta) que se desarrolle la IAD.
- Los sistemas de nivel Turing (M2) no pueden crear sistemas de nivel super-Turing (M3), por lo cual a partir de la IA no se puede llegar a la IA+ ni a IA++.
Otra de las críticas viene desde el Malthusianismo, teoría demográfica, económica y sociopolítica según la cual el ritmo de crecimiento de la población responde a una progresión geométrica, mientras que el ritmo de aumento de los recursos para su supervivencia lo hace en progresión aritmética. Desde este punto de vista hay dudas sobre la energía necesaria para mantener activos los equipos de procesamiento y almacenamiento necesarios para la Singularidad o el calor generado por los mismos.
Existe una larga lista de reconocidos tecnólogos como Paul Allen o PZ Myers, que también están en desacuerdo:
Un cerebro adulto es una cosa finita, por lo que su funcionamiento básico en última instancia, puede ser desvelado a través del esfuerzo humano. Pero si la singularidad llega en 2045, será debido a avances impredecibles, y no porque sea el resultado inevitable de un progreso exponencial producido por la ley de rendimientos acelerados.
Al igual que en la neurociencia, el camino basado en la inteligencia artificial IA, para lograr la singularidad a nivel de la inteligencia computacional, parece requerir muchos más descubrimientos, algunas nuevas teorías con calidad de Premio Nobel y probablemente nuevos enfoques de investigación que son inconmensurables con lo que pensamos ahora. Este tipo de avances científicos básicos no se produce en una curva de crecimiento exponencial fiable.
Lograr una comprensión científica completa de la cognición humana es uno de los problemas más difíciles que hay. Seguimos haciendo progresos alentadores. Pero hacia el final del siglo, en nuestra opinión, todavía nos estaremos preguntando si la singularidad está cerca.
Es curioso pero la posición de Kurzweil parece mucho más solida y argumentada que la de sus detractores. Aún así, hay acontecimientos totalmente impredecibles como por ejemplo la comercialización de todos los «servicios» que están por llegar. Una visión la muestra el vídeo que dejo a continuación:
El futuro y Singularity University
Ahora el futuro de Singularity se centra en dos ámbitos: formación de la personas para el cambio, tanto para entenderlo como para motivarlo; como estudiar los escenarios de la Superinteligencia cuando ésta llegue. A día de hoy se plantean 3 posibles escenarios:
- IA Amistosa. Interacción amable y respetuosa. Esta la relaciono con las tres leyes de la robótica.
- Relación de exterminio humano. Debido a la falta de elementos morales en la IA y los procesos racionales de pensamiento de la misma, las máquina se vuelven contra los humanos. ¿Alguien se acuerda de Cyberdyne Systems y Skynet?
- IA ininteresada. El resultado es ignorar la existencia humana como los
humanos ignoran la existencia de insectos a menos que se enfrenten con ellos.
El debate está abierto y toca centrarse en la formación. La Universidad de la Singularidad es una institución académica en Silicon Valley, ubicada en el Centro de Investigación Ames de la NASA, cuya misión es preparar a la humanidad para la aceleración de cambios tecnológicos.

Según el artículo de Wired, los días que pasaron allí fueron impresionantes y estuvieron centrados en recorrer los avances más punteros de biotecnología, nanotecnología, inteligencia artificial, robótica, neurociencia y sistemas energéticos. El mensaje que interiorizan los alumnos (emprendedores, filántropos, estudiantes, inversores… que estén dispuestos a pagar un mínimo de 12.000 dólares por una semana de estancia) es la exponencialidad de la innovación tecnológica siguiendo la Ley de rendimientos acelerados. ¡Incluso la contraseña de la WiFi es 12481632! Algunos hechos que comunican para reforzar el mensaje son: «Un smartphone actual es más potente que el ordenador más potente que existía hace 20 años» o «Antes, el coste de obtener el genoma de una persona era el equivalente a comprar un equipo de fútbol. Ahora equivaldría a comprar tickets para los mejores asientos de un Mundial».
Todo está respaldado por el prestigio de Pete Diamandis y las predicciones de Kurzweil. Un ejemplo es el Proyecto del Genoma Humano: el equipo encargado dijo que era un fracaso cuando llevaban el 1% descifrado añadiendo que tardarían 700 años en terminar de descifrarlo todo. Kurzweil dijo que continuaran y 7 años después se terminó con éxito.
Algo interesante es que Singularity University no es puramente teórico sino que cuentan con sitios como bioCurious o TechShop, una fábrica-laboratorio donde se puede construir cualquier cosa y donde se han fabricado muchos inventos de renombre. Además, motivan a los alumnos a emprender sus propios proyectos y haber estado allí da una cierta garantía. Algunos ejemplos son Matternet, ModernMeadow, PopQuake, Cambrian Genomics o GetAround.
Singularidad es ese momento en el que desaparecen las fronteras entre inteligencia biológica y artificial, en el que la fusión entre la tecnología y la biología es completa. En un momento en el que ya existen implantes avanzadísimos que poco a poco van dando forma al concepto «Cyborg» y que los desarrollos tecnológicos han llegado al punto de permitir la impresión de órganos, ¿creéis que estamos cerca de la Singularidad? ¿Qué pensáis de la Singularity University? ¡Comentad!
Warning: Use of undefined constant user_level - assumed 'user_level' (this will throw an Error in a future version of PHP) in /home/customer/www/pisitoenmadrid.com/public_html/blog/wp-content/plugins/ultimate_ga_1.6.0.php on line 524
miguel angel
David, qué buen artículo has creado, mi enhorabuena!
«The Singularity is near»
MA
Warning: Use of undefined constant user_level - assumed 'user_level' (this will throw an Error in a future version of PHP) in /home/customer/www/pisitoenmadrid.com/public_html/blog/wp-content/plugins/ultimate_ga_1.6.0.php on line 524
Grey Goo, la plaga gris del fin del mundo | Pisito en Madrid
Warning: Use of undefined constant user_level - assumed 'user_level' (this will throw an Error in a future version of PHP) in /home/customer/www/pisitoenmadrid.com/public_html/blog/wp-content/plugins/ultimate_ga_1.6.0.php on line 524
Lo que ha sido el 2013 | Pisito en Madrid
Warning: Use of undefined constant user_level - assumed 'user_level' (this will throw an Error in a future version of PHP) in /home/customer/www/pisitoenmadrid.com/public_html/blog/wp-content/plugins/ultimate_ga_1.6.0.php on line 524
Jose Luis Méndez González
Interesante …
Inquietante …
Inevitable ….
Saludos y enhorabuena. Buen artículo inicial-divulgativo. ¿Algo más intenso en breve?
Warning: Use of undefined constant user_level - assumed 'user_level' (this will throw an Error in a future version of PHP) in /home/customer/www/pisitoenmadrid.com/public_html/blog/wp-content/plugins/ultimate_ga_1.6.0.php on line 524
Antonio
Muy interesante y desde luego inquietante.
En mi opinión, la humanidad no tiene otro camino que acelerar el desarrollo de todo tipo incluido el tecnológico. ¿ Lleva esto a la Singularidad ?. ¿ Es la velocidad de crecimiento exponencial ?. ¿ Puede haber estancamiento o retracción en el desarrollo ?.
Me contestaré a mi última pregunta: el estancamiento o retracción en el desarrollo de todo tipo, incluido el tecnológico, es inviable; quiero decir que, en mi opinión, no sería compatible con el mantenimiento de nuestras sociedades y formas de vida actuales. Es esperable que el número de habitantes en la Tierra siga aumentando (India y China…) y eso acrecienta las necesidades de todo tipo, incluidas las energéticas, infraestructuras, etc. Necesitamos (por supuesto, lo deseamos) mejorar la eficiencia pero también mejorar nuestras capacidades de todo tipo.
Bueno, dejo plasmadas esas pocas inquietudes inquietudes a la espera de seguir en la expectativa.
Un saludo.