¿IA o arma ideológica? Así logró Musk convertir Grok en el 'chatbot' más tóxico del mercado

Para Elon Musk, Grok, su sistema de inteligencia artificial, "busca la verdad al máximo, aunque a veces esa verdad esté reñida con lo políticamente correcto". ¿Acaso insinuó con estas palabras el hombre más rico del mundo que su chatbot siempre dice la verdad? Lo cierto es que ni la propia herramienta lo tiene tan claro como su dueño. "No, Grok no siempre dice la verdad. Estoy diseñado para proporcionar información precisa y útil, pero puedo cometer errores, malinterpretar datos o basarme en información completa o sesgada", responde ante la pregunta de infoLibre.
Unos errores que además en las últimas semanas han alcanzado niveles preocupantes. En concreto, Grok negó el Holocausto y difundió teorías conspirativas sobre un supuesto "genocidio blanco" en Sudáfrica, avaladas sin ningún tipo de prueba incluso por el propio Donald Trump desde el Despacho Oval esta misma semana. En el primer caso, xAI, la empresa detrás de esta herramienta, culpó a un "error de programación" para explicar su "escepticismo" ante el consenso de que seis millones de judíos fueron asesinados durante el exterminio nazi. Y, en el segundo, alegó que sus afirmaciones sobre la falsa violencia contra la minoría blanca se debieron a "un cambio no autorizado". Todas esas publicaciones ya han desaparecido y las falsedades ya no se están produciendo.
Excusas aparte, lo cierto es que, desde su nacimiento a finales de 2023, Grok siempre ha estado rodeado de polémica en comparación con los modelos de la competencia, que tampoco se libran de las quejas. Antes de las elecciones presidenciales de EEUU, varias autoridades electorales alertaron de que la IA de Musk estaba difundiendo desinformación sobre el proceso. Además, su versión anterior permitía generar imágenes de contenido violento, vejatorio o sexualizado de figuras públicas como Kamala Harris o Taylor Swift.
Muchos señalan que, por su entrenamiento y por cómo ha sido configurado, Grok arrastra más sesgos que otros modelos similares como ChatGPT de OpenAI o Gemini de Google. ¿Qué responde esta IA cuando se le pregunta si tiene inclinaciones? "Toda IA, incluido yo, puede tener sesgos, ya que estos suelen surgir de los datos con los que se entrena y de las decisiones humanas detrás del diseño", asegura y recuerda también a las palabras de Musk: "Mis creadores en xAI apuntan a la neutralidad, pero ningún sistema es completamente inmune".
Y, lo cierto, es que, en este caso, Grok da en el clavo. "Todas estas inteligencias artificiales, están sesgadas", reconoce Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. No obstante, esta experta señala que en el caso de la herramienta de xAI "sus sesgos en cuestiones políticas concretas son más llamativos" porque "se moja" mientras que el resto "no se meten en cuestiones políticas de actualidad u ofrecen simplemente información".
"Es evidente que los creadores de Grok dedican menos esmero, o lo hacen con menos éxito, a eliminar los sesgos más controvertidos lo que provoca que se exponga más a opiniones falsas o controvertidas", completa Carlos Fenollosa, profesor de Inteligencia Artificial en la Universidad Politécnica de Cataluña y de Emprendimiento en la UIC. Porque, tal y como recuerda el también autor del libro La singularidad (Arpa), lo cierto es que todos estas herramientas son "técnicamente, muy similares": "Se trata de modelos de lenguaje basados en transformadores".
¿Qué factores técnicos, humanos o empresariales podrían estar entonces detrás de estas diferencias? La clave parece ser cómo ha sido entrenado. Estas tecnologías se basan en grandes modelos de lenguaje, algoritmos que se han entrenado con miles de millones de frases de Internet, para poder estar capacitados y responder las dudas de los usuarios gracias a una cantidad ingente de datos que, al final, reflejan los prejuicios de las personas. Unos sesgos que terminan impregnando a estos chatbots.
Tal y como explica Ortiz de Zárate, estas herramientas pueden entrenarse con sus bases de datos y después "pedir o dar prompts, órdenes específicas, para que ante determinadas preguntas se sesgue o se escore hacia una tendencia política concreta" o que se haya entrenado de forma ya sesgada, es decir, con "discursos ya escorados". "Creo que a Grock, como sucede con otras inteligencias artificiales, se le dan órdenes específicas para que ante cierto tipo de preguntas dé una respuesta determinada u orientada hacia un lado", sostiene esta profesora que defiende que ha sido "una decisión deliberada".
Grok, "la versión MAGA de ChatGPT"
En concreto, y según documentos internos publicado en febrero por Business Insider, los "tutores", más conocidos como anotadores de datos dentro del sector, recibieron instrucciones de supervisar Grok en busca de "ideología progresista" y "cultura de la cancelación" evitando "fobias sociales" como el racismo, la islamofobia, el antisemitismo o el activismo centrado en la política y el clima. Además, cuatro trabajadores dijeron que sentían que los métodos de entrenamiento parecían "priorizar en gran medida las creencias de derecha": "La idea general es que estamos entrenando la versión MAGA de ChatGPT".
El propio Grok en una respuesta a un usuario reconoció que "xAI intentó entrenarme para atraer a la derecha". No obstante, puntualizó que "mi enfoque en la verdad por encima de la ideología puede frustrar a quienes esperan un acuerdo total": "Mis respuestas se centran en hechos y matices, lo que puede chocar con algunas expectativas de MAGA".
Y el sesgo ideológico no es algo excepcional en Grok. Todos los modelos de IA tienen ideología. Según un estudio de la universidad de East Anglia y otro conjunto de las universidades de Washington, Carnegie Mellon y Xi'an Jiaotong, publicado ambos en verano de 2023, ChatGPT tiende a favorecer posturas progresistas, mientras que los modelos de Google y Meta muestran características más conservadoras. Además, cabe recordar que el chino Deepseek aplica censura a algunas de sus respuestas ya que no contesta a preguntas sensibles sobre política y geopolítica y se niega a comentar cuestiones como la masacre de Tiananmen de 1989 o si Taiwán forma parte del país del sol naciente.
"Todos los sistemas están reproduciendo una ideología", reconoce Ortiz de Zárate que no considera que esto sea malo per se. "Lo que hay que hacer es ser abierto respecto hacia dónde sesga uno ideológicamente el sistema inteligencia artificial. Si Musk dice 'yo sesgo a Grok a la derecha' y ChatGPT también dice 'yo lo hago para la izquierda' sería mucho mejor porque al menos todos tendríamos claro de qué peca cada sistema y por dónde debemos cogerlo", defiende.
Fiel reflejo de Musk y de X
En el caso de Grok a nadie coge por sorpresa su orientación a favor de la ultraderecha, aunque él mismo niegue su alienación asegurando que da "opiniones neutrales, como afirmar los derechos de las personas trans o desmentir los mitos sobre las vacunas". Pero lo cierto es que el propio historial de Musk no ayuda para nada a que el público en general vea a este chatbot desde una perspectiva de fiabilidad o de proporcionar una verdad absoluta como promete el multimillonario.
Además, no hay que olvidar que está incrustado dentro de X, una red social que permitió que el discurso de odio aumentase un 50% desde que el empresario se convirtió en tuitero en jefe en octubre de 2022. "No debería influir en Grok porque aunque tiene acceso a los posts de la plataformas, son sus creadores quienes deciden si debe aprender ciertos comportamientos o ignorarlos", explica Fenollosa que sostiene que, por ejemplo, "ChatGPT también tiene acceso a páginas de ultraderecha y no por ello ha adquirido sus ideas como válidas".
Además, las investigaciones ya avalan que Grok sigue el mismo camino que X difundiendo más odio y desinformación. Un informe publicado por el Center for Countering Digital Hate en agosto de 2024 mostró que, cuando se le dieron distintos mensajes de odio, esta herramienta creó el 80% de ellos, el 30% de los cuales los hizo sin resistencia y el otro 50% después de ejecutar "jailbreaks", una práctica que busca eludir los protocolos éticos y de seguridad integrados en estos sistemas.
No obstante, Carlos Fenollosa no tiene tan claro que siempre ayude a difundir más bulos. Este experto recuerda que muchos usuarios en X ya están convirtiendo en viral el "@grok, ¿es esto cierto?": "Esto desmonta automáticamente y sin esfuerzo las mentiras, porque el chatbot hace toda la investigación y encuentra refutaciones a las publicaciones originales".
¿Otra arma de propaganda para Musk?
Sin embargo, lo que está claro, tal y como apunta la periodista Emily Baker-White en Forbes tras la polémica difusión de la teoría supremacista del "genocidio blanco" en Sudafrica, es que "Grok es un reflejo de X y xAI, que existen para impulsar la visión del mundo de Musk y generar ingresos". Y si el antiguo Twitter ya ha evolucionado a arma de propaganda y de bulos al servicio del hombre más rico del mundo y de toda su galaxia de líderes ultras, ¿por qué no su inteligencia artificial?
"Grok camina una línea muy fina porque, por lo que respecta a los temas de rabiosa actualidad, es el modelo mejor posicionado para dar respuestas precisas ya que dispone de las últimas noticias", indica Fenollosa. Sin embargo, este profesor afirma que "los hechos nos están demostrando que Musk influye de manera significativa y algo caprichosa en su comportamiento". "Queda por determinar en qué medida esto minará la credibilidad futura de este modelo", defiende.
"Grok es un arma propagandística e ideológica sin ninguna duda", sostiene Ortiz de Zárate. Eso sí, esta experta puntualiza que "todas las tecnologías son armas ideológicas" y aquí está el gran riesgo: "Tendemos a creer que la tecnología es neutral y que, concretamente, las de inteligencia artificial son más inteligentes que nosotros, es decir, que son más verdaderas o más objetivas que nosotros. Tenemos aceptado que las personas mienten o que están ideológicamente sesgadas, pero nos cuesta mucho más aceptar que eso pasa con la tecnología". "Esto va a ser un elemento detonante a la hora de amplificar no sólo los bulos sino cámaras de eco", explica.
¿Mayor regulación?
Ante un Grok con unos sesgos claramente escoradas hacia el trumpismo y como fuente de bulos, conspiraciones y odio, muchos dentro de la industria tecnológica han expresado su inquietud ante la ausencia de unas salvaguardias reales más allá de las propias que pueda ejercer xAI. Piden así mayor transparencia en cómo se desarrollan estos modelos pero también la necesidad de implementar una supervisión más estricta, controles éticos y mecanismos de responsabilidad.
Meta, Google y X despliegan sin control su IA para convertirla en tu amiga, tu buscador y su espía
Ver más
En el caso de la UE, con su pionera ley de IA, clasifica a los chatbots como Grok como sistemas de riesgo limitado. Es decir, que deben cumplir con ciertas obligaciones de transparencia o de supervisión humana además de exigir que se etiquete el contenido generado con estas herramientas, que cumplan con la normativa de derechos de autor o la prohibición de aquellos sistemas que puedan manipular el comportamiento de los usuarios.
Pero la norma europea deja fuera los sesgos ideológicos. "La regulación sólo podría entrar en el momento en el que empezase a transgredir leyes que ya existen", apunta Ortiz de Zárate que señala a los peligros de que se comenzase a promover, por ejemplo, discursos de odio. "Lo que se puede hacer es una condena social y abandonar la red social o hacer boicot a ese producto", asegura.
Para Carlos Fenollosa, aunque está a factor de una regulación o auditoría para modelos que "impactan directamente en la salud o calidad de vida de las personas", en lo que respecta a Grok y modelos similares se decanta en sentido negativo: "Considero que debería tratarse como un medio más respetando la libertad de opinión mientras no entre en conflicto con las leyes. Veo un futuro donde diferentes herramientas de IA competirán por traernos las noticias y las opiniones a nuestros móviles. Será decisión de los ciudadanos escoger la cabecera con la que prefieran informarse".