LA PORTADA DE MAÑANA
Ver
El Gobierno recompone las alianzas con sus socios: salva el paquete fiscal y allana el camino de los presupuestos

"Serían máquinas con autoconciencia": Zuckerberg, Altman y Musk buscan ahora la superinteligencia artificial

Fotograma de la película 'Blade Runner 2049' en el que aparecen los personajes interpretados por Ana de Armas y Ryan Gosling.

"Es como creer en la magia", "unas películas de ciencia ficción como Terminator o Blade Runner", "una inteligencia sobrehumana y divina" o "una exageración" de Silicon Valley.

Así han calificado algunos expertos a la inteligencia artificial general, también llamada fuerte o AGI —por sus siglas en inglés—. Un término que designa una hipótesis sobre una supuesta superinteligencia artificial que no hay que confundir con la inteligencia artificial que tenemos actualmente —denominada estrecha o débil— pero que ha ganado mucha popularidad a lo largo del último año por el auge de ChatGPT pero también por la carrera en la que se han enfrascado las tecnológicas por llegar a una meta que, por ahora, es sólo una teoría.

Primero fueron OpenAI —que tiene detrás el dinero de Microsoft—, DeepMind —propiedad de Google— o Anthropic —financiado por Amazon y también por Google—, y, en este arranque de 2024, Meta se ha subido a este carro. El imperio de Mark Zuckeberg ha añadido esta tecnología a su lista de prioridades a pesar de las múltiples advertencias que han surgido desde la comunidad científica. 

"La inteligencia artificial general sería capaz de replicar y superar la inteligencia humana en todos los sentidos. Serían máquinas con autoconciencia, con conciencia de sí mismas, pero que también podrían generar otras máquinas ya que son autosuficientes", explica Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. En cambio, todo lo que hemos visto durante el último año, desde los sistemas como ChatGPT hasta herramientas para crear imágenes de todo tipo o doblar videos, son tecnologías "muy potentes, pero con limitaciones y, sobre todo, sin conciencia humana". 

Para el investigador de inteligencia artificial de la Universidad de Nueva York Julian Togelius creer en esta tecnología es "como creer en la magia": "Es una forma de abandonar el pensamiento racional y expresar esperanza o miedo por algo que no se puede entender". En cambio, para el neurocientífico cognitivo Gary Marcus, que ha publicado un un artículo junto al profesor Ernie David, esta superinteligencia es "una exageración de las grandes empresas del sector para captar inversión y esquivar así el escrutinio por externalidades negativas que ya son una realidad". 

¿Destellos de inteligencia artificial general en GPT-4?

Ciencia ficción, magia o exageración, lo cierto es que esta tecnología no es un concepto reciente: lo acuñó el psicólogo Charles Spearman en la primera mitad del siglo XX. Eso sí, no se popularizó hasta 1997 cuando Garry Kasparov perdió al ajedrez contra un programa de supercomputadora de IBM. Tal y como detalló MIT Technology Review en un artículo en 2020, desde entonces "todavía no estamos ni cerca de crear una inteligencia artificial con las capacidades multitarea de un humano, o incluso de un insecto". Esto no quiere decir que no se haya andado un camino exitoso en estos años, como muestra ChatGPT, pero las actuales "no se parecen a los humanos en la forma en que imaginaban los pioneros".

Es como creer en la magia, es una forma de abandonar el pensamiento racional

Julian Togelius — Profesor de la Universidad de Nueva York

Sobre todo porque el debate ahora está, por un lado, en su definición exacta y, por otro, en saber si los actuales modelos de lenguaje, como el GPT-4 detrás de ChatGPT, son formas tempranas de AIG. Sobre todo, después de la publicación en marzo de un estudio elaborado por científicos de Microsoft en el que se aseguraba que habían visto destellos de inteligencia artificial general en esta tecnología de OpenAI

"No sé qué definición estarían utilizando pero, si la definen como un ser sintiente, veo imposible que ninguno de estos sistemas sea inteligencia artificial general", admite Ortiz de Zárate que, aunque reconoce que ChatGPT y similares hacen "cosas increíbles y que son muy potentes", no han llegado aún al punto de equiparse con un ser humano. "No sólo se necesita una reproducción idéntica del cerebro humano sino también características implícitas en la socialización entre personas como la interacción o el contacto físico", sostiene. 

Por su parte, los profesores Gary Marcus y Ernie David explican que "la próxima generación de sistemas tendrá mayores capacidades y aplicaciones más amplias y mitigará en cierta medida las debilidades". "Pero no hay ninguna justificación para afirmar que la tecnología actual ha logrado la inteligencia artificial general", añade. Eso sí, no hay que olvidarse que el estudio podría ser poco imparcial, ya que Microsoft ha invertido una ingente cantidad de dinero en OpenAI y tiene un acuerdo exclusivo para el uso de su modelo de lenguaje. 

La ¿irresponsabilidad? de Zuckerberg

Y es que en estos intereses, en esta obsesión de Silicon Valley, está la clave. En la exageración de la que hablaban Marcus y David o, según Ortiz de Zárate, en los "egos intelectuales o pretensiones de vanidad intelectual de la comunidad científica por querer siempre ir más allá y ponerse a prueba". "Lo que alimenta esta moda es la creencia de que la industria tecnológica está en camino de lograr una inteligencia sobrehumana y divina", apunta Alex Heath, editor en The Verge, durante su entrevista con Zuckerberg con motivo del anuncio de que Meta se va a subir a un carro en el que OpenAI, DeepMind o Anthropic son ya pioneros empujados, sobre todo, por el dinero de Microsoft y Google. 

Y como a Meta no le gusta quedarse rezagado en ninguna carrera, a pesar de que hace escasos tres años llegó a cambiar su nombre para reforzar la idea de que su objetivo ahora era el metaverso, esta tecnología también está entre las futuras metas de Zuckerberg. "Hemos llegado a la conclusión de que, para crear los productos que queremos, necesitamos crear inteligencia artificial general. Es importante transmitirlo porque muchos de los mejores investigadores quieren trabajar en problemas más ambiciosos", aseguró el CEO y fundador de la matriz de Facebook e Instagram en The Verge el pasado 18 de enero. Este nuevo enfoque supondrá, además, una reorganización interna para incorporar a su división de IA a desarrollo de producto. 

Lo que alimenta esta moda es la creencia de que la industria tecnológica está en camino de lograr una inteligencia sobrehumana y divina

Alex Heath — Editor en The Verge

Este anuncio de Zuckerberg ha sido calificado por la comunidad científica como "irresponsable". En concreto, y según detalla The Guardian, el mayor problema es la idea del fundador de Facebook de ponerla a disposición del público de forma gratuita abriendo el "código fuente". "Esto es realmente aterrador. En las manos equivocadas, una tecnología como ésta podría causar mucho daño", explicó Dame Wendy Hall, miembro del organismo asesor de la ONU sobre IA. 

El despido rectificado de Sam Altam

No es la primera vez que se usan palabras gruesas en este campo en los últimos doce meses. La última vez que esta superinteligencia artificial saltó a los titulares fue en noviembre después del extraño viaje de ida y vuelta de Sam Altam en OpenAI tras su despido rectificado. Según publicó Reuters, varios investigadores enviaron una carta a los miembros del consejo de administración informándoles de "un poderoso descubrimiento que podría amenazar a la humanidad". Se trataría de un programa secreto llamado Q* y que podría ser un punto de inflexión en el camino que ha emprendido la empresa para lograr desarrollar esta tecnología.

Esta misiva podría haber desencadenado el despido de Altman, que además de ser el CEO es el fundador de la compañía. No obstante, tras movimientos por parte de Microsoft y las críticas de gran parte de la plantilla, fue reincorporado a su puesto sólo cinco días después

Más allá de la rumorología, los motivos detrás de este extraño episodio son un misterio en Silicon Valley. Lo único claro es que Altman ha vuelto a ser el líder de OpenAI. Y en este papel acudió este mismo mes de enero al Foro Económico Mundial de Davos (Suiza) para participar en un evento organizado por Bloomberg. En este acto, y según publica la CNBC, aprovechó este escenario para asegurar que la inteligencia artificial general podría desarrollarse en un "futuro razonablemente cercano".

Previamente, la pasada primavera, en pleno boom de ChatGPT, cientos de académicos, investigadores y gurús de la industria firmaron una misiva que solicitaba parar "de inmediato y durante al menos seis meses el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4" porque podría representar "un cambio profundo en la historia".

Los mensajes apocalípticos siempre rodean a la inteligencia artificial

Estos mensajes de alerta unen a Meta y OpenAI en este empeño por avanzar en el desarrollo de la inteligencia artificial general. "Da miedo porque nosotros mismos la asociamos a escenarios apocalípticos", admite Ortiz de Zárate, que insiste en que la ciudadanía la suele a asociar a lo que vemos en "películas de ciencia ficción" en las que "normalmente está asociada a un peligro hacia la humanidad" ya que las máquinas suelen ser representadas "tan inteligentes como nosotros" o "se convierten en autónomas, autosuficientes y ya no siguen nuestras órdenes". Por ejemplo, en Terminator una inteligencia artificial de nombre Skynet esclaviza a la humanidad en 2029. Y en Blade Runner se fabrican humanos artificiales denominados replicantes. 

Sin embargo, no hay que llegar a este extremo para que esta tecnología sea un riesgo para la humanidad. "El hecho de que ya hayamos automatizado muchísimos aspectos de nuestra vida provoca que la inteligencia artificial no tenga que ser general para ser peligrosa porque ya de facto toma de manera autónoma muchas decisiones", señala Ortiz de Zárate, que recuerda que lo hace en "ámbitos lo suficientemente relevantes y en suficiente cantidad como para que cualquier fallo tenga consecuencias". 

"Deberíamos ser realistas y pensar en los problemas que tenemos ahora, no en esos supuestos problemas futuros, porque esos sistemas están lejos", incide esta experta. Por ejemplo, los de los sistemas como ChatGPT contribuyen a la desinformación, reproducen sesgos sociales machistas, racistas y con prejuicios sociales, o tienen un grave impacto en el medio ambiente. 

Para lograr nuevos avances, pero también para ser nuestros sirvientes

Con los riesgos más que claros gracias al imaginario colectivo creado durante años por la ciencia ficción, la clave será encontrarle beneficios a la inteligencia artificial general, si llega a desarrollar. La comunidad científica apunta que al superar la capacidad humana se producirán avances asombrosos en todas las disciplinas, por ejemplo en el ámbito de la salud, con nuevos tratamientos, o de la ciencia, con el desarrollo de nuevas fuentes de energía. "Si con nuestra inteligencia hemos sido capaces de curar enfermedades y haber avanzado lo que hemos avanzado, imagínate si tenemos unos compañeros tan inteligentes como nosotros o muchísimo más", explica Ortiz de Zárate.

No obstante, para esta experta hay otro punto a tener en cuenta en estos supuestos beneficios. "También está la idea de liberarnos de ciertas cargas, de ciertos trabajos que nosotros no queremos. Sería conseguir sirvientes o esclavos, sin la connotación moral, a priori, de que sean otros seres humanos o animales", sostiene Ortiz de Zárate. 

De 2025 a 2045

El extraño viaje de ida vuelta de Sam Altman alrededor de OpenAI: empieza la revolución de la inteligencia artificial

El extraño viaje de ida vuelta de Sam Altman alrededor de OpenAI: empieza la revolución de la inteligencia artificial

Con la balanza manipulada por parte de Silicon Valley señalando a estos supuestos beneficios más que a sus riesgos, ¿por qué seguir desarrollándola? "Hay un cierto orgullo intelectual por parte de la comunidad científica de querer reproducir la inteligencia humana, que es una tarea titánica", reconoce Ortiz de Zárate, que no ve esta tecnología futura en nuestras vidas "ni en corto ni a medio plazo, si es que se da alguna vez, sinceramente"

Los pronósticos sobre la llegada de esta tecnología a nuestras vidas son bastante variados. Por ejemplo, en 2020 Elon Musk, que fue uno de las figuras detrás del nacimiento de OpenAI, marcó en rojo en el calendario el año 2025. Un lustro después, es bastante poco probable que en doce meses sea posible una inteligencia artificial general. Desde algunos sectores de Google, se apunta a 2045.

¿Tiene sentido seguir intentándolo? "Para mí, rotundamente, no", responde Ortiz de Zárate que considera que se están destinando muchísimos recursos a una carrera que persigue una utopía mientras "tenemos tantos problemas reales que deben ser solucionados con inversión en ciencia y en tecnología: problemas de salud, del deterioro del clima, de redistribución de la riqueza, o de cómo vamos a alimentar a muchísimas personas por problemas políticos, geopolíticos o el cambio climático". 

Más sobre este tema
stats