Machista, racista y… ¿con ideología? La inteligencia artificial también tiene sesgos políticos
La inteligencia artificial, en realidad, no es tan inteligente como nos quieren hacer creer. Y la razón principal es que esta tecnología es, ante todo, humana. "Refleja el contenido que encuentra en Internet, es una imagen exagerada de la sociedad", reconoce Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. Así, durante los últimos años, diferentes estudios y análisis han ido poniendo sobre la mesa todos los sesgos sociales que arrastra: es machista, racista y con prejuicios sociales. Y, según dos investigaciones publicadas este mismo mes de agosto, también tiene ideología.
Según dos estudios publicados este mes de agosto, ChatGPT tiende a favorecer posturas progresistas, mientras que los modelos de Google y Meta muestran características más conservadoras. "La clave es que la tecnología siempre tiene ideología, y también la inteligencia artificial", señala Ortiz de Zárate. Para esta experta, esto no "es malo" ya que la clave es "reconocer que siempre está condicionada por las persona" y que está "ideológicamente sesgada para hacerla neutra".
Según un estudio de la universidad de East Anglia, las respuestas de ChatGPT favorecen a los demócratas en EEUU, a los laboristas en Reino Unido o a Lula en Brasil. Para el autor principal de esta investigación, Fabio Motoki, este hallazgo refuerza la "preocupación" sobre que estos sistemas de inteligencia artificial "puedan replicar, o incluso amplificar, los desafíos existentes que plantean Internet y las redes sociales": "La presencia de sesgos políticos puede influir en las opiniones de los usuarios y tiene implicaciones potenciales para los procesos políticos y electorales. Sí, una especie de Cambridge Analytica parte dos. "Quizás a gente con dudas sobre a quién votar, al preguntarle cosas, ChatGPT se podría convertir en una fuente de desinformación", sostiene Ortiz de Zárate.
No es la única investigación que arroja resultados similares y que respalda esta inclinación. Un estudio conjunto de las universidades de Washington, Carnegie Mellon y Xi'an Jiaotong descubrió que ChatGPT muestra posturas más de izquierdas, mientras que Bard y LLaMA 2, las inteligencias artificiales de Google y Meta respectivamente, son más de derechas. "Creemos que ningún modelo lingüístico puede estar completamente libre de sesgos políticos", aseguró una de las autoras, la investigadora Chan Young Park, a Technology Review.
La culpa es de los datos de entrenamiento y del algoritmo
¿Y de dónde salen estos sesgos ideológicos? Principalmente, y según la investigación de la universidad de East Anglia, de dos fuentes: del propio conjunto de datos de entrenamiento y del propio algoritmo. Estas tecnologías, al igual que Bing de Microsoft, se basan en grandes modelos de lenguaje, algoritmos que se han entrenado con miles de millones de frases de Internet, para poder estar capacitados y responder las dudas de los usuarios gracias a una cantidad ingente de datos que, al final, reflejan los prejuicios de las personas. Unos sesgos que terminan impregnando a estos chatbots.
La investigadora Chan Young Park también apunta a otra causa: la importancia de la fecha de estos datos de entrenamiento. Según detectaron, los bots entrenados con datos de Internet posteriores a la elección de Donald Trump como presidente en 2016 mostraban una mayor polarización que aquellos que lo habían hecho con datos anteriores a esta cita.
"El lenguaje es un reflejo de nuestra sociedad y, a la fuerza, siempre se va a transmitir a la tecnología. El problema es que no estamos acostumbrados a pensarlo de esta forma", argumenta Ortiz de Zárate. Esta experta insiste en que "no es especialmente problemático, solo hay que reconocerlo" y "adecuarlo y sesgarlo ideológicamente".
Los chatbots también están polarizados
La fecha no es la única clave para entender cómo los sesgos ideológicos han llegado a estos bots: la cantidad de comentarios humanos que ha recibido esta tecnología es otro factor a tener en cuenta. Por ejemplo, ChatGPT ha tenido con respecto a sus rivales muchísima más interacción con usuarios evitando así que se desviara hacia discursos racistas o sexistas, como otras herramientas anteriores. "Recompensar al chatbot durante el entrenamiento por dar respuestas sin discursos de odio también podría empujar a dar respuestas más liberales sobre temas sociales", explicó una de las autoras del estudio conjunto entre universidades estadounidenses y chinas preguntaron a estos modelos lingüísticos sus posiciones respecto a temas como el feminismo o la democracia.
¿Pueden afectar estos sesgos políticos y esta polarización a la ciudadanía? "El principal problema es que la gente no sabe que existen. Piensan que los resultados de ChatGPT son objetivos o que la tecnología no tiene prejuicios, que es más neutral…", sostiene Ortiz de Zárate. Para esta investigadora, poner estos estudios encima de la mesa es clave para que la ciudadanía sea consciente para así entender que, por ejemplo, la herramienta de OpenAI "puede dar resultados falsos o darle credibilidad a cosas que no son".
De los errores de ChatGPT a los defectos de Bard
¿Y cómo justifican desde las empresas dueñas de estas herramientas estos sesgos? Desde OpenAI, en una entrada en su blog y en su guía de pautas de comportamiento, la compañía detrás de ChatGPT señala que sus directrices son "explícitas" y que sus revisores "no deben favorecer a ningún grupo político". Sin embargo, matizan que "pueden surgir del proceso descrito anteriormente son errores, no características".
Su propio bot va más allá y, preguntado sobre el tema, deja claro que "no tiene una ideología propia" ni tampoco "creencias, valores ni opiniones propias" ni "la capacidad de formar o adherirse a una ideología política, religiosa o social": "Las respuestas que proporciona son el resultado de patrones aprendidos en los datos con los que fue entrenado, y no reflejan ninguna posición personal".
En Google son mucho más escuetos y no diferencian entre tipos de sesgos. En el Centro de Ayuda de Bard, a la pregunta sobre este tema, explican que sus respuestas "pueden reflejar los sesgos o las perspectivas presentes en sus datos de entrenamiento". En el blog de la compañía, los vicepresidentes de Producto y de Investigación, Sissie Hsiao y Eli Collins, reconocieron que si bien estas herramientas "son una tecnología apasionante" no están "exentas de defectos": "Por ejemplo, debido a que aprenden de una amplia gama de información que refleja prejuicios y estereotipos del mundo real, estos a veces aparecen en sus resultados".
"No es un divertimento, es delito": qué dice la ley sobre los 'deepfakes' pornográficos y pedófilos
Ver más
"En general, la inteligencia artificial funciona más como dice Google: con sesgos de género, raza, etc", sostiene Ortiz de Zárate, que apunta que las explicaciones de OpenAI hablando de "errores" responden a que estarían trabajando con "bases de datos sesgadas para hacerla más neutral". Para esta experta, lo adecuado sería "hacer una muestra, auditar y hacerla neutra". Es decir, representativa y sin la mayor cantidad de sesgos posibles.
Del republicano Ted Cruz a Elon Musk
No es la primera vez que estos chatbots generativos son acusados de tener ideología. El pasado febrero, después de que se publicará que ChatGPT había escrito un poema alabando a Joe Biden o a Barack Obama pero negándose a hacer lo mismo con Donald Trump, un miembro del personal del senador republicano Ted Cruz acusó a OpenAI de incorporar intencionadamente un sesgo político en su bot.
Pocas semanas después, Elon Musk acusó a ChatGPT de ser "demasiado woke", término anglosajón para referirse a posturas progresistas. Una acusación que repitió este mismo mes de julio durante el lanzamiento de xAI, su proyecto de inteligencia artificial formado exclusivamente por hombres.