¿Suplantará la IA a la inteligencia humana en 2045?

El reto de una inteligencia artificial.

Anthony Laurent (Mediapart)

"Dentro de treinta años dispondremos de los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana llegará a su fin". Estas líneas fueron escritas en 1993 por el escritor americano de ciencia ficción Vernor Vinge. En su famoso ensayo The Coming Technological Singularity: How to Survive in the Post-Human Era (La próxima singularidad tecnológica: cómo sobrevivir en la era post-humana), el escritor, que fue profesor de informática y matemáticas en la Universidad de California en San Diego, predijo el advenimiento, para 2023, de "un cambio comparable al surgimiento de la vida humana en la Tierra": la singularidad tecnológica, ese momento disruptivo en la historia de la humanidad en el que la inteligencia artificial (IA) acabará suplantando a la inteligencia humana, provocando cambios sociales y societarios impredecibles e incomprensibles para la gente corriente.

 “La causa precisa de este cambio", escribió Vernor Vinge, "es la inminente creación por parte de la tecnología de entidades con una inteligencia superior a la humana". “Hay varias medios con los que la ciencia puede lograr ese rápido avance, y ésta es otra razón para creer que el acontecimiento se producirá", afirmó. El escritor cita los ordenadores "inteligentes"  "despiertos" (awake), escribe, cuyo desarrollo sería posible gracias a los avances en IA, las grandes redes informáticas como Internet, las interfaces hombre-máquina y los conocimientos cada vez más especializados en biología, que permitirían "encontrar formas de mejorar la inteligencia humana natural".

La hipótesis de una "singularidad tecnológica" generada por la aceleración de los avances informáticos no es nueva. Ya en los años 50, el matemático y físico húngaro-americano John von Neumann, que entonces sentaba las bases del funcionamiento del ordenador, fue uno de los primeros científicos en mencionar explícitamente ese momento "en la historia de la evolución de la especie más allá del cual la actividad humana, tal como la conocemos, no podría continuar".

Desde la Segunda Guerra Mundial y los trabajos seminales del matemático inglés Alan Turing, se ha especulado mucho sobre las supuestas proezas de las máquinas "ultrainteligentes", supuestamente capaces de superar a los seres humanos en todas las actividades intelectuales. El estadístico británico Irving John Good, otro pionero de la informática, lo aventuró en 1965 con un famoso artículo en el que afirmaba que "estas máquinas podrán crear otras más inteligentes". Argumentaba que "eso daría lugar sin duda a una ‘explosión de inteligencia’, mientras que la humana casi se detendría”. “El resultado es que esta máquina será el último invento que el hombre necesitará hacer, siempre que sea lo suficientemente dócil como para obedecerle constantemente".

Más cerca en el tiempo, pensadores inspirados por los avances más espectaculares de la IA y en particular por el auge de los sistemas de aprendizaje automático han hecho suya la hipótesis de la "singularidad tecnológica", como Nick Bostrom y Ray Kurzweil, dos líderes del movimiento transhumanista. El primero, filósofo sueco de la Universidad de Oxford y cofundador de la asociación transhumanista mundial WTA, publicó en 2014 un libro de referencia titulado Superinteligencia: caminos, peligros, estrategias. En él, escribe que crear una "superinteligencia" es el "mayor y más intimidante desafío al que se ha enfrentado la humanidad", de hecho, su "desafío final", "tanto si tenemos éxito como si fracasamos". El segundo, director de ingeniería de Google y cofundador de la Singularity University, autor en 2005 de The Singularity Is Near: When Humans Transcend Biology (La Singularidad ya está aquí: cuando los humanos trascienden la biología), considera que lo que él llama simplemente "Singularidad" se hará realidad de aquí a 2045. Una fecha y una perspectiva cuanto menos controvertidas.

“No creo en absoluto en ella", afirma Laurence Devillers, catedrática de informática de la Universidad de París-Sorbona e investigadora del Laboratorio de Informática para la Mecánica y las Ciencias de la Ingeniería del Centro Nacional de Investigaciones Científicas (CNRS), "por la sencilla razón de que no son más que proyecciones antropomórficas de sistemas informáticos automatizados. El ChatGPT es un buen ejemplo, sólo imita ciertas facultades humanas, como el lenguaje, lo que tiende a mantener la recurrente confusión entre hombre y máquina". Para ella, la superinteligencia, una noción que tiene "más de marketing" que de ciencia, "nunca llegará a ser consciente de sí misma y capaz de razonar, como un ser humano. Ha llegado el momento de desmitificar ese discurso".

Un análisis que comparte Jean-Gabriel Ganascia, profesor de informática en la Universidad de la Sorbona y autor de El mito de la Singularidad, que subraya la "ambigüedad" de ciertos científicos, en particular americanos, que trabajan en el desarrollo de sistemas de IA cada vez más eficaces y denuncian sus "riesgos existenciales", siguiendo el ejemplo de investigadores y personalidades como Elon Musk que pidieron una moratoria de estas investigaciones en una carta abierta publicada el pasado mes de marzo.

La Singularidad, concepto tomado de las matemáticas y la física y aplicado al campo de la informática, se basa sobre todo en una extrapolación de la famosa Ley de Moore, que debe su nombre al químico americano Gordon Moore, cofundador de la empresa Intel. Esta ley establece que la capacidad de almacenamiento de información y la velocidad de cálculo de los microprocesadores aumentan a un ritmo exponencial, gracias sobre todo a la miniaturización de los transistores de los chips electrónicos. Pero, como señala Jean-Gabriel Ganascia, "esta ley de observación empírica tiene un fin, incluso su inventor lo dijo. Pero los 'singularistas' creen que continuará indefinidamente, llevándonos un día a la llegada de máquinas más inteligentes que nosotros...". Y resume el profesor: "Ingenieros como Ray Kurzweil han interpretado la Ley de Moore como una ley fundamental porque, según ellos, todo se desarrolla exponencialmente en la naturaleza desde el alba de los tiempos, lo que es totalmente absurdo".

Para Marc Schoenauer, director de investigación del Instituto Nacional de Investigación en Ciencia y Tecnología Digitales (Inria), existen "límites físicos" a la expansión tecnológica y, por tanto, a la Ley de Moore. Por un lado", explica, "dados los conocimientos científicos actuales, una vez que alcanzamos la escala del átomo, resulta difícil miniaturizar más los componentes electrónicos. Por otro lado, nos toparemos muy pronto con la cuestión medioambiental y, en particular, con el problema del consumo de energía, ya que la proliferación de superordenadores cada vez más potentes no es ecológicamente sostenible.” "En realidad, es posible que el crecimiento exponencial del progreso tecnológico, en el que los singularistas basan sus predicciones, llegue un día a una meseta, una especie de estancamiento", añade Jean-Gabriel Ganascia.

La teoría de la Singularidad, hipotética, por no decir "paracientífica" por utilizar el término del físico y futurólogo griego Theodore Modis, plantea, no obstante, la cuestión de la dirección y el propósito de la investigación sobre IA. Para Patrick Albert, cofundador y ex presidente del Hub France IA, "desarrollar la superinteligencia es precisamente el proyecto inicial, el objetivo mismo del trabajo en IA", según los textos científicos fundadores de un campo que ahora está en pleno auge. Y añade: "Y el fondo del problema, en mi opinión, es la posibilidad de que esta superinteligencia surja en un futuro próximo de una IA general suficientemente dotada (comparable a la inteligencia humana), como parece anunciar, por ejemplo, la aparición de ChatGPT".

Es un escenario que no convence a Marc Schoenauer: "Todavía estamos muy lejos de la llegada de una IA general. Pero es cierto que en los próximos años tendremos sistemas cada vez más sofisticados, como la IA generativa, capaz de generar automáticamente textos, imágenes, sonidos y música, pero sin llegar nunca a la IA general, es decir, capaz de razonar, tener sentido común y conciencia de sí misma, como puede hacer, por ejemplo, un niño de siete años.”

Entre las investigaciones más activas en la actualidad, este investigador de Inria menciona los trabajos encaminados a integrar el razonamiento lógico en las herramientas de IA generativa. “Esta investigación permitirá crear sistemas de aprendizaje por refuerzo mucho más fiables que los actuales, lo que será útil sobre todo en robótica", explica. Y prosigue: "Investigar en esta dirección nos permitirá realizar progresos innegables, la mayoría de los cuales son aún imprevisibles".

Por su parte, Patrick Albert cree que el reciente lanzamiento de un nuevo agente como Auto-GPT, una versión avanzada del ya famoso programa que puede planificar y realizar tareas de forma autónoma, es un paso más hacia el desarrollo de la IA general. "Auto-GPT persigue y alcanza objetivos dividiéndolos en subobjetivos si es necesario y dirigiendo su ejecución. Esto es exactamente lo que hace nuestro cerebro cuando desarrolla redes neuronales especializadas para llevar a cabo una tarea concreta", argumenta. Refiriéndose al auge de los sistemas de aprendizaje profundo (deep learning) a principios de la década de 2010, este especialista en IA añade: "El hecho de que una máquina pueda aprender no es neutral. Para mí, es un punto de inflexión en la evolución general de la tecnología".

"La IA no es ese monstruo esperado. Los límites de ese campo aún se definen en términos de lo que los científicos pueden y no pueden hacer, calcular y no calcular. En otras palabras, no todo puede ser modelizado en algoritmos, empezando por las facultades cognitivas humanas", matiza Nicolas Sabouret, profesor de informática en la Universidad de París-Saclay.

Sin embargo, este investigador no descarta la posibilidad de una "revolución científica" que abra nuevos horizontes a la investigación sobre IA. “La cuestión está abierta", afirma. “En cualquier caso, mientras nos mantengamos dentro del paradigma informático actual, no habrá singularidad tecnológica. Pero si mañana aparece una tecnología disruptiva que nos permita ir más allá de los cálculos informáticos que utilizamos hoy, es posible que lo consigamos". Y Nicolas Sabouret menciona posibles descubrimientos futuros en biotecnología. "Es posible que el camino hacia la IA general no se encuentre en la informática, sino en la biología. Pero ya no será inteligencia artificial, será otra cosa", afirma el científico.

Todavía hay una pregunta fundamental que sigue sin respuesta: ¿qué es la inteligencia? Al igual que los biólogos, que por fin han renunciado a toda pretensión de definir la vida, ¿llegarán algún día los investigadores de IA y los patentados en la materia a aceptar el fracaso de su deseo de inspirarse y reproducir toda la complejidad de la inteligencia humana? "El término inteligencia, al ser polisémico e indefinido, encierra todos los malentendidos que rodean a la IA", concluye Jean-Gabriel Ganascia.

La inteligencia artificial impulsa la desinformación, pero también podría acabar con las 'fake news'

La inteligencia artificial impulsa la desinformación, pero también podría acabar con las 'fake news'

 

Traducción de Miguel López

 

Más sobre este tema
stats