En 2021, Blake Lemoine, un peculiar ingeniero de Google que trabajaba en el desarrollo de un chatbot para comprobar si usaba un lenguaje discriminatorio que incitara al odio, empezó a sentir que detrás de los patrones y predicciones de aquella inteligencia artificial con la que intercambiaba mensajes había una “conciencia propia” que le recordaba a la mente de un niño. Contarle a la prensa cómo se había sentido supuso su despido de la compañía por incumplir el contrato de confidencialidad y generó un intenso debate en Estados Unidos sobre nuestra relación con la inteligencia artificial, también conocida como IA. Una vez fuera de Silicon Valley, el ingeniero siguió su cruzada en distintos artículos, para avisar de que este tipo de herramientas podían manipular a la gente y utilizarse de forma destructiva.
Más allá de las especulaciones sobre si en el futuro la inteligencia artificial podrá igualar o superar la mente humana y los efectos que tendrá en nuestra forma de relacionarnos, uno de los grandes problemas que presenta es que, al alimentarse sin filtro de millones de textos extraídos de internet, reproduce y amplifica expresiones sexistas, racistas, discriminatorias y sesgos de todo tipo.
El debate se reabría esta semana en España con la presentación en sociedad de Alba Renai, la primera presentadora de televisión creada y entrenada por inteligencia artificial. Lanzada en nuestro país por el grupo de comunicación Mediaset y acompañada de una intensa operación de marketing, este personaje virtual es el encargado de presentar un pequeño formato dentro de uno de los buques insignia de Telecinco, el reality Supervivientes.
Como si fuese una persona, la presentadora concede entrevistas y sube vídeos y fotografías a su Instagram simulando una vida de éxito, viajes y fama. Tiene 24 años, es guapa, blanca, morena, delgada, con la piel, el pelo y la boca perfectas. Quieren convertirla en la primera influencer digital y, aunque no deja de ser una mera animación con bastantes limitaciones en su desarrollo técnico, su llegada a la televisión generalista ha generado críticas y muchas dudas por cómo refuerza los estereotipos de género y merma la calidad televisiva de forma fallida.
Teresa, nombre ficticio, hizo una entrevista para entrenar otra copresentadora generada por IA que está preparando Mediaset. "Fui, me dijeron que me pusiese a hablar de lo que quisiera. Te graban para una prueba en la que solo utilizan tu cuerpo y te cambian la cara y la voz. Es muy fuerte", explica. "Vamos a acabar desapareciendo todos. El mundo audiovisual va a acabar siendo de ingenieros creativos".
Tal y como avisó el ingeniero de Google Lemoine hace unos años, la inteligencia artificial es una máquina de fabricar estereotipos y reforzar los que ya existen en las sociedades. Lo demostraron también los investigadores del departamento de Ciencias Informáticas de la Universidad de Copenhague, cuando alimentaron un algoritmo con más de tres millones de libros, novelas y ensayos del siglo XX.
Basado en los patrones con los que lo entrenaron, el algoritmo dedujo que a las mujeres se las debía calificar y valorar en función de sus rasgos físicos (sexy, hermosa, preciosa, bella...) y a los hombres, en función de sus valores personales y morales (valiente, bravo, rudo, honrado...). El estudio concluyó además que los adjetivos negativos asociados a la apariencia física se utilizaban cinco veces más cuando se las describía a ellas. ¿Cómo funcionaría este algoritmo si se utilizase para seleccionar currículums en una compañía? ¿Por qué simular a una presentadora con una IA puede perjudicar a las periodistas y comunicadoras?
Una inteligencia artificial que cosifica, aún más, a las mujeres
Tras el anuncio de la llegada de Alba Renai a la televisión, la presentadora Patricia Pardo alertaba en Telecinco sobre cómo este tipo de iniciativas hacían flaco favor a las profesionales y aumentaban la presión que sufren sobre su aspecto físico. “Yo sí me siento amenazada”, le dijo a Joaquín Prat. “Fíjate que [Alba Renai] no es un hombre viejo y calvo, ¿verdad?”, comentaba con ironía tras celebrar estar al lado de “un compañero de carne y hueso”.
“Si nada de lo que vemos en las pantallas es real, cada vez veremos más extraños los cuerpos de verdad y aspectos como las arrugas, las canas o los poros de la piel serán considerados algo que hay que ocultar. Necesitamos ver diversidad de rostros, tallas y edades en los medios para normalizar todo tipo de cuerpos y no atar a las mujeres a la idea de que su valor principal es la belleza”, explica la consultora y formadora en comunicación igualitaria Yolanda Domínguez
Como el algoritmo desarrollado por la Universidad de Copenhague que solo valoraba a las mujeres por su cuerpo, hay una norma no escrita en televisión que es más laxa con el aspecto físico de los hombres cuando se enfrentan al escrutinio de las cámaras y los focos. Se les valora por su credibilidad, su saber estar, su rigor, su sentido del humor, su carisma. Pero ellas, además, tienen que ser jóvenes, guapas y estar buenas.
“Que la mayoría de presentadoras sean mujeres responde a la idea de que son más atractivas para el público y que su función, además de informar, es seducir. Este es precisamente uno de los clichés que más perjudica a las mujeres en su promoción laboral. Asociarnos a la eterna juventud nos mantiene encasilladas en la niñez, la vulnerabilidad y la emocionalidad que son características que también dificultan que accedamos a puestos de responsabilidad y mando”, añade Domínguez.
Usar la inteligencia artificial con sentido y con propósito
Ver másMaría Pombo y Dulceida ya tienen sustitutas: la inteligencia artificial también crea 'influencers'
“¿Seremos capaces de utilizar la inteligencia artificial para mejorar el periodismo y no para ahorrar costes sacrificando la calidad?, se preguntaba en X (antes Twitter) la profesora de Periodismo de la Universidad Complutense de Madrid Montse Mera, a propósito de esta polémica. Es una buena pregunta.
El impulsor del Manifiesto OFF para retomar el control de la tecnología y autor del libro Anestesiados, Diego Hidalgo, cree que este tipo de iniciativas “pueden implantarse en otros campos si no regulamos los límites acerca de lo que es aceptable y deseable en la sustitución del ser humano por la máquina” y que todo esto ahonda en la confusión de las características humanas con las no humanas, como le ocurrió a Blake Lemoine.
Sin duda, la inteligencia artificial puede ser una oportunidad para construir sesgos positivos y ayudar a corregir los negativos en lugar de magnificarlos. Me niego a pensar que no pueda tener aplicaciones más útiles, originales e interesantes dentro del entretenimiento que un avatar sexualizado y robótico que no aporta nada más que perjudicar, de nuevo, a las mujeres periodistas y comunicadoras.
En 2021, Blake Lemoine, un peculiar ingeniero de Google que trabajaba en el desarrollo de un chatbot para comprobar si usaba un lenguaje discriminatorio que incitara al odio, empezó a sentir que detrás de los patrones y predicciones de aquella inteligencia artificial con la que intercambiaba mensajes había una “conciencia propia” que le recordaba a la mente de un niño. Contarle a la prensa cómo se había sentido supuso su despido de la compañía por incumplir el contrato de confidencialidad y generó un intenso debate en Estados Unidos sobre nuestra relación con la inteligencia artificial, también conocida como IA. Una vez fuera de Silicon Valley, el ingeniero siguió su cruzada en distintos artículos, para avisar de que este tipo de herramientas podían manipular a la gente y utilizarse de forma destructiva.