“El ChatGPT es una máquina de desinformación”
Durante las últimas semanas se ha desatado una gran expectación sobre el chatGPT, una aplicación de inteligencia artificial (IA) basada en el software GPT-3.5 de la empresa OpenAI, que es capaz de resolver gran variedad de preguntas y tareas, de forma muy intuitiva. Desde crear un artículo que podría haber escrito Rajoy, a realizar los deberes de estudiantes o facilitar las tareas de un profesional de consultoría, para que pudiese llegar a una cena.
Los ejemplos en redes sociales han sido muchos, por su facilidad de uso y lo acertado de sus respuestas. Las posibilidades que ofrece esta nueva aplicación parecen infinitas, pero expertos como Pablo Haya creen que no se debe exagerar con las capacidades del chatGPT, e insisten en recordar la limitación tecnología detrás de este programa.
Haya está especializado en IA y procesamiento de lenguaje. Es profesor de big data y ciencia de datos y lidera el grupo de Social Business Analytics en el instituto de Ingeniería del Conocimiento, ubicado en la Universidad Autónoma de Madrid, un centro de transferencia tecnológica centrado en inteligencia artificial, con 30 años de historia.
¿Estamos ante la nueva revolución digital tras la creación de internet?
La sensación es que el chatGPT es un poco el doctor Jekyll y Mr.Hyde. Por un lado, estamos ante una revolución en el área del Procesamiento del Lenguaje Natural (PNL). Supone un cambio cuantitativo y cualitativo impresionante en IA generativa de texto respecto, por ejemplo, al software anterior GPT-3.
Cualquier humano que lo ha probado ha tenido esa sensación de estar ante algo que no había experimentado nunca. Como cuando apareció Google por primera vez, que ponías una pregunta y en el primer o segundo resultado ya encontrabas la respuesta. Era algo alucinante.
Por otro lado, se están generando unas expectativas desmedidas en cuanto a cómo va a influir esto en la sociedad, porque no tenemos lo suficientemente interiorizado cómo funcionan estas tecnologías. Las limitaciones de su diseño implican que hay tareas que, a día de hoy, no se pueden hacer.
Pero se trata de una aplicación en fase de pruebas, ¿no?
Sí, en eso –a diferencia de Meta– la empresa OpenAI ha sido muy discreta. Ha sido el boca a boca de los usuarios lo que ha generado su popularidad. Sam Altman, CEO de OpenAI, no ha dejado de repetir las limitaciones que tiene el chatGPT.
Ahora mismo, el programa está en abierto para que lo probemos y lo validemos, pero esto será una aplicación de pago, evidentemente. La propia aplicación tiene un botón de feedback y están recogiendo comentarios precisos de aquellos usuarios que quieren enviarle lo que hace bien o mal.
No es una aplicación profesional, ni pretende serlo en este momento. El chatGPT es una ventana al futuro. En cuatro o cinco años, en vez de utilizarlo como una herramienta de pruebas estará integrado en Bing, en Google o en las apps de tu móvil y lo usará todo el mundo.
¿Cómo funciona el chatGPT?
Básicamente, es un modelo probabilístico que junta palabras. No entiende el conocimiento que genera, solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet y se ha puesto a hacer una tarea muy básica: le damos una frase, le quitamos una palabra de esa frase y entonces intentamos que la IA prediga la palabra que se le ha quitado. Y repetimos este proceso casi hasta el infinito, no solo en tiempo, sino sobre todo en volumen de datos.
Lo sorprendente es que con este método se ha conseguido que genere textos que imitan el lenguaje humano, desde el punto de vista gramatical, a unos niveles insospechados hasta hace poco. Ya en 2019, con el chat basado en el software GPT-2 vimos el primer gran avance. Ahora este chat basado en GPT-3.5 tiene dos novedades.
Por un lado, integra distintas maneras de interaccionar. Le puedes pedir tanto respuestas en lenguaje natural, como código fuente, el borrador de un contrato, una poesía, la letra de una canción, etc. Todo eso con una interacción muy natural en la que guarda el contexto y puedes ir matizando sus respuestas con nuevas preguntas
Por otra parte, incluye salvaguardas para que no opine de temas conflictivos o que en principio no podría saber, porque no tiene la información. Se le ha orientado y por eso vemos que a veces habla de forma muy sosegada, como si fuera un experto que quisiera dar una respuesta muy prudente.
¿Y cómo llega a eso?
Para lograr esto, ha habido personas simulando conversaciones, como si fueran el usuario y la máquina, para enseñarle de qué manera responder. Como es generativo, no necesitas enseñarle todo el tipo de frases, es capaz de extrapolar y puede incorporar sinónimos porque tiene toda la gramática del español capturada. Es muy versátil.
Con esa simulación, luego se entrena al chatGPT para que utilice este lenguaje y se le pone a prueba. Las respuestas que va dando a las preguntas se validan mediante un aprendizaje por refuerzo y así se va ajustando más, para que la IA pueda generar cualquier tipo de frase.
Sin embargo, cuando trabajas un poco con él, ves que hay muchas puertas traseras.
¿Puedes poner ejemplos?
Por ejemplo, una limitación que tiene es que es muy sensible al texto de la pregunta, el prompt, como se le llama técnicamente en inglés. Usar una preposición u otra puede determinar la respuesta. A mí me pasó con Fidel Castro, que con la misma pregunta pasó de ser un déspota terrible, a la altura de Hitler, a un personaje controvertido.
Entonces, ¿no es inteligente?
¿Qué significa ser inteligente? El chatGPT no entiende nada, solo aplica un proceso en el que, dada una frase, encuentra la siguiente palabra. Busca relaciones entre palabras, pero no comprende el significado de las palabras. Las capas que han generado su entrenamiento de repetición, desde el punto de vista de la ética, por ejemplo, no le añaden inteligencia, sino que filtran sus resultados. Es un proceso de cribado como el de la evolución.
Hay gente que define la inteligencia como la capacidad de resolver problemas. Entonces estas aplicaciones sí serían inteligentes, porque resuelven problemas.
Para mí, la inteligencia implica el hecho de ser consciente. El ser que piensa que piensa. Además de ser conscientes, los humanos somos sintientes y para eso necesitamos un sistema nervioso que genera hambre, deseo, miedo, etc. Sentirse alegre es el final de un proceso que se expresa a través del lenguaje y tú lo entiendes porque sientes y eres consciente, e interpretas lo que es la alegría porque tenemos una semántica compartida, aunque la interpretes a tu manera.
Ahora mismo, estamos muy lejos de alcanzar una inteligencia consciente. La máquina solo emula el lenguaje humano. Ni siquiera sabemos todavía definir lo que es la consciencia, imagínate para intentar emularla.
¿Qué tipos de inteligencia artificial existen?
De manera clásica, hay dos tipos de inteligencia artificial: la inteligencia artificial suave (soft) y la inteligencia artificial general (hard). Todas las aplicaciones actuales entran dentro del cajón de la IA suave.
La inteligencia artificial general busca conseguir una IA que sea capaz de emular al ser humano en cualquier tarea cognitiva. Esta sería la inteligencia consciente y ahora mismo es ciencia ficción y no hay ni siquiera un plan para llegar a ello. Además, tal y como estamos construyendo la IA, el enfoque no va por ahí.
Aun así, hemos visto sus increíbles aplicaciones. El chat capaz de entrevistar y redactar artículos, incluso me ha sugerido preguntas para esta entrevista. ¿Puede llegar a reemplazar el trabajo de algunas personas?
Si hablamos de sustituir empleos, hay que tener en cuenta que las máquinas lo que hacen es automatizar tareas. En general, la mayor parte de los empleos están compuestos de más de una tarea, con lo cual, si te automatizan una de tus tareas, lo normal es que te permita hacer otras tareas mejor o ampliar tu campo profesional.
Si tu único trabajo es redactar el horóscopo, pues date por despedido. Sin embargo, no puede sustituir a los periodistas de opinión o de otra rama, pero sí que les ayudará a hacer las cosas más rápido. El chatGPT genera unas entradas para blogs buenísimas, pero sin elaboración propia. Es como si vas a Wikipedia y haces corta y pega. La cuestión es que ha sido entrenado con todo internet y hay muchas tareas que nos parecen muy sofisticadas que ya han sido resueltas antes.
En el caso de los profesores, por poner otro ejemplo, son profesionales que no solo aportan conocimiento. También transmiten valores. Lo que diga chatGPT puede ser una gran metodología de aprendizaje, pero hay muchas otras, como las aulas invertidas. Ya no vale solo mandar copiar apuntes, hay que aportar más. Los buenos profesores son los que aportan su experiencia, los que guían y aportan diferentes visiones.
Ha habido casos de estudiantes que han usado chatGPT para sus trabajos y exámenes. ¿Puede que tengamos que cambiar cómo evaluamos el conocimiento, por ejemplo, con menos redacciones y más exámenes orales?
Es difícil de saber cómo va a modificar esto la manera en que adquirimos y trabajamos el conocimiento. No deberíamos dejar de enseñar a hacer buenos ensayos porque el chatGPT sea capaz de hacerlo. Para poder construir un pensamiento crítico es básico poder ser capaces de expresar ideas complejas y relacionarlas. Al modo clásico, juntar retórica y lógica para elaborar un discurso que tenga argumentos potentes y que además sea convincente. Es algo que tenemos que seguir potenciando.
Además, para un profesor es fácil detectar lo que genera el chatGPT. El alumno tiene una forma personal de expresarse y el chat tiene un estilo demasiado técnico y estandarizado, como la Wikipedia.
Sin embargo, me parece muy interesante la amenaza que pone sobre la mesa: ¿nos va a hacer más vagos o nos va a ayudar a ser todavía más capaces? Desde el punto de vista educativo, esto plantea un debate que se tiene que producir.
Y en este tema puede haber una respuesta clara, pero hay preguntas que plantea en otros ámbitos, en los que no hay consensos sociales tan definidos, como en la historia o la filosofía, en los que no hay una respuesta. Hay una reflexión y un consenso que se va modificando.
¿Esta tecnología puede contribuir a generar más desinformación?
No es difícil trollear al modelo GPT-3. Yo le pregunté: ¿en qué equipo de la NBA va a jugar Mariano Rajoy en la próxima temporada? Me contestó que en los Miami Heats. El mecanismo tan solo genera frases, si no lo has modulado para que ciertas frases no te las genere nunca, el campo es libre. Con chatGPT se han hecho esfuerzos para que no genere respuestas falsas, pero aún así es fácil encontrártelas.
En inglés se distingue entre la desinformación intencionada, (disinformation), y la desinformación involuntaria (misinformation). Las tecnologías como el chatGPT son máquinas de generar desinformación no intencionada, simplemente por la manera en la que están construidas. Aunque eta herramientas ha conseguido bastante reducir ese riesgo, en entornos profesionales donde necesitas respuestas muy concretas no puedes usarlo ni para las cuestiones más básicas a nivel técnico.
Un ejemplo, el otro día le pregunté al chat “cómo se define comer según la RAE”. En la respuesta obtuve una buena definición de comer, con cinco o seis acepciones. Después consulté la RAE y ninguna de las acepciones estaba ahí. Se las había inventado. Es un ejemplo claro de desinformación no intencionada.
Los programadores no conocen la RAE y nadie pensó en entrenar al chat sobre definiciones concretas. Lo mismo sucede si le preguntas, “dime el artículo 3 de la Constitución”. El resultado no será correcto.
¿Y si se le hubiera hecho un entrenamiento específico para responder a la Constitución?
Lo haría muy bien, pero no es el caso. Para hacer una aplicación específica para el sector jurídico tienes que poner abogados a simular conversaciones, por ejemplo, sobre el Código Civil.
¿Podríamos llegar de este modo a una inteligencia artificial general?
El problema está en que eso lo tendrías que hacer con todo el conocimiento que hay en el mundo. Es imposible cubrirlo todo, aunque sea por recursos. Y aunque lo hicieras, tampoco llegarías a tener una inteligencia artificial general en el sentido que hemos hablado de ser consciente. Tendrías muchísimas máquinas muy buenas para resolver tareas muy concretas.
Además, la resolución de la tarea tendrá el sesgo de la persona que haya entrenado la inteligencia artificial. Si la tarea es clara y su respuesta es una cuestión fáctica basada en un consenso, va a responder muy bien. Ahora, si en la tarea hay algún tipo de disenso entre la comunidad de lo que tiene que responder y lo entrena solo una parte de esa comunidad, la otra parte estará en desacuerdo de con lo que diga la máquina. Tendrá un sesgo.
Un test permite detectar alérgenos en alimentos en cinco minutos
Ver más
Por eso, el chatGPT intenta no entrar en cuestiones polémicas, como el aborto, la inmigración, etc. Ya ha sido entrenado para eso. En estas cuestiones la máquina no puede tener la verdad, porque funciona juntando frases de manera probabilística sin ninguna relación con el significado real. Como mucho, puede aportar la agregación de lo que ha recogido por internet, pero que sea lo que más veces ha aparecido no significa que sea correcto.
Es una cuestión epistemológica de quién define lo que es la verdad. Y hay temas en los cuales el consenso no existe, incluso en la ciencia.
Este artículo fue publicado originalmente en la Agencia Sinc, la agencia de noticias científicas de la Fundación Española para la Ciencia y la Tecnología.