Meta, Google y X despliegan sin control su IA para convertirla en tu amiga, tu buscador y su espía

Imágenes de Meta AI, una búsqueda de Google con 'AI Overviews' y de Grok de X.

La inteligencia artificial ya no suena a una tecnología que protagonice un nuevo capítulo de Black Mirror. Con la irrupción de ChatGPT a finales de 2022 y el posterior boom que generó, la herramienta de OpenAI se ha convertido en poco más de dos años en una presencia constante en nuestras vidas. De forma sutil, ha pasado a ser en un fiel compañero que responde a nuestras preguntas, resuelve nuestras búsquedas y nos facilita procesos. Y, esta primavera, también ha aterrizado de forma masiva en el día a día de millones de personas al instalarse casi de manera simultánea en nuestras redes sociales y en nuestras conversaciones bajo un disfraz de ayuda que esconde las dudas y peligros que genera. 

La primera en integrar la inteligencia artificial en su funcionamiento normal y habitual fue X: la red social de Elon Musk introdujo Grok a finales de 2024. En paralelo, Google comenzó a implementar Gemini en Gmail para ayudar a escribir correos o para resumirlos y, a finales de marzo, la incluyó en los resultados de su buscador en lo que se conoce como AI Overviews. El 20 de marzo, el imperio de Mark Zuckerberg lanzó Meta AI en la UE y, poco a poco, los usuarios han comenzado a encontrarse sus círculos azules en Facebook, Instagram y WhatsApp, donde incluso se puede chatear con esta función como si se tratase de un contacto más. 

"Hay mucha fragmentación porque hay varias según la aplicación y esto puede generar cierta confusión al usuario", reconoce Enrique Puertas, profesor de Big Data e inteligencia artificial en la Universidad Europea. Aún así, de golpe, esta tecnología ha dejado de ser una función más en el móvil con la que mejorar la última foto o una utilidad encerrada en la aplicación de ChatGPT para convertirse en una conversación más en nuestros dispositivos. Pero, ¿qué beneficios reales pueden aportar todas estas herramientas que ofrecen ahora X, Google o Meta? 

"La inteligencia artificial en este tipo de redes sociales ofrece un gran atractivo al servicio, dependiendo de la amplitud de sus funcionalidades", explica Elisa Gutiérrez García, profesora de la Universidad Complutense. Para esta experta en IA, derecho y derechos humanos, con esta integración se gana en "comodidad" porque aparece en apps que ya están instaladas y porque se puede usar para "informarse sobre cuestiones que vean en su timeline o para apoyar sus interacciones sin tener que abandonar el ecosistema de la propia plataforma". 

No obstante, Puertas no lo tiene tan claro. "Más allá de funciones para mejorar textos de publicaciones o que escriba mensajes para las publicaciones de Instagram… el usuario no le va a sacar demasiado partido", indica este profesor. 

Los riesgos: más perfilado y que usen los datos para seguir entrenando la IA

Pero más allá de la utilidad, poca o mucha, que pueda aportar la inteligencia artificial a redes sociales, aplicaciones de mensajería o buscadores, lo que está claro que desborda estas plataformas de desinformación. "En Instagram ya han incorporado el botón para alertar si ese contenido ha sido generado por IA y en LinkedIn ya se detectan muchos textos generados con esta tecnología", sostiene Puertas. 

Además, su incorporación genera más dudas que certezas en una industria señalada por sus pocos escrúpulos en materias como la privacidad en particular o los derechos digitales en general. "Es posible que la incorporación de esta tecnología suponga una mejora del servicio para sus usuarios y que paralelamente sirva para perfilarlos y moldearlos a gusto de los intereses de estas empresas", explica Gutiérrez García.

Para esta experta una de las grandes pegas de esta colonización de la inteligencia artificial de X, Google y Meta es que son servicios de "acceso y uso gratuito", y diseñar estos modelos y desplegarlos supone "una fuerte inversión de recursos". "El rédito existe a través de otras vías", admite Gutiérrez García, que apunta a que, por ejemplo, se puede generar una mayor "adicción" para retener aún más al usuario en la plataforma y que así pueda "ser impactado con más publicidad y, por extensión, ser más rentable". Porque, si una máxima reina en Silicon Valley, es que "si es gratis, el producto eres tú"

Pero esta incorporación masiva de la IA a las redes sociales no sólo genera incertidumbres sobre si estas nuevas herramientas aumentarán aún más el control que ya tienen sobre los usuarios; también sobre si usarán su información para seguir entrenando a la inteligencia artificial que están implementando. "Para las empresas supone un beneficio porque están consiguiendo recopilar más datos para seguir alimentando a sus modelos", reconoce Puertas, que señala que uno de los grandes retos actuales para la industria es que esta tecnología "se está quedando sin datos en Internet y está viendo de dónde puede sacar más información". Y los de sus usuarios son una fuente perfecta, en muchas ocasiones, sin que ellos sean conscientes de ello. 

"Creo que un usuario difícilmente va a gozar de cualquier certeza absoluta en este ámbito. Dependerá en gran parte de los términos y condiciones de cada red social, pero es un tema muy sensible que puede afectar a los derechos fundamentales de sus usuarios", asegura García Gutiérrez, que recuerda la opacidad de estos imperios y cómo muchos han permitido iniciativas "francamente reprochables" como, por ejemplo, el escándalo de Cambridge Analytica

El déjà vu con la IA de Meta 

Y las dudas han vuelto a situarse, sobre todo, en el imperio de Zuckerberg. Meta AI utiliza el modelo Llama 3.2 y es capaz de responder preguntas sobre prácticamente cualquier tema. Por ahora, los usuarios europeos no podrán usar la herramienta para generar o editar imágenes, funciones que sí están disponibles fuera del Viejo Continente. Si el aterrizaje de Meta AI en WhatsApp a partir de finales de marzo fue silencioso y sin prácticamente quejas, su llegada a Instagram está levantando más de una ceja entre sus habituales. 

Durante la última semana, los usuarios han comenzado a recibir correos electrónicos y notificaciones en la propia app bajo el título Conoce cómo afectará nuestra mejora de la IA en Meta al uso que hacemos de tu información. Con la típica jerga de las tecnológicas, lo que se explica es que Instagram va a utilizar la información pública de sus usuarios, como publicaciones, imágenes y comentarios, para entrenar su modelo de inteligencia artificial, exceptuando en todo caso a los usuarios menores de 18 años. 

A muchos, esto les sonará de haberlo ya vivido porque en mayo del año pasado la red social ya envió un mensaje similar. ¿Qué sucedió entonces? Que Meta tuvo que detener su proyecto para entrenar a la IA con publicaciones de Facebook e Instagram en Europa después de que la Autoridad de Protección de Datos irlandesa solicitase a la tecnológica de Zuckerberg que diera este paso ante las dudas sobre su legalidad. 

Casi doce meses después, vuelve a la carga con los deberes supuestamente hechos tras adaptarse al reglamento europeo de protección de datos. En realidad, tal y como detalla Puertas, este fenómeno es común a todas las tecnológicas con la IA: "Sacan nuevas versiones, las despliegan en EEUU y después llegan a Europa meses después porque las protecciones europeas son mucho más restrictivas". 

En el caso de Meta, el Comité Europeo de Protección de Datos ahora le ha dado "el visto bueno" porque, según sostiene García Gutiérrez, ofrece "la posibilidad a cada usuario de oponerse a dicho entrenamiento a través de un mecanismo sencillo implementado adecuadamente por la red social". Eso sí, estará activado por defecto y el usuario tendrá que negarse explícitamente.  

Cómo negarse a que Meta use nuestros datos para entrenar a su IA

¿Pero es realmente sencillo este proceso? La realidad es que ya de primeras está un poco escondido: hay que entrar el menú de configuración y actividad en el icono de las tres rayas de nuestros perfiles, aquí seleccionar la opción información y entrar en política de privacidad. En este punto, llegarás a una pantalla con mucho texto con el enlace oponerte resaltado casi al principio que te llevará a otra página que explica la información que se usa en este entrenamiento. Es aquí donde se encuentra un formulario donde el usuario debe detallar por qué no quiere permitir que usen tus datos. 

Existe otra opción. El grupo Citizen8 ha creado una web con dos enlaces que genera un correo electrónico y con un texto para solicitarle a Facebook o a Instagram que no recopilen tus datos. 

La Vista creada con IA llega a los resultados de Google

Y mientras Meta se preparaba para intentar por segunda vez conquistar Europa con su herramienta de inteligencia artificial, Google hacía lo propio de forma casi paralela en los resultados de su buscador en ocho países europeos, incluida España. Los usuarios ya pueden ver en algunas de sus búsquedas lo que se conoce como AI Overviews o Vista creada con IA, que proporciona respuestas sintetizadas directamente en la página de resultados. 

Estos resultados con IA generativa que usa la tecnología de Gemini solo se muestran cuando los algoritmos de Google entienden que añaden valor real; por ejemplo, en consultas complejas con información dispersa en múltiples fuentes. Aunque la función está activa por defecto, el buscador por excelencia ofrece la opción de desactivarla a través de un filtro web

La expansión de esta funcionalidad llega en un momento clave para Google. El imperio tecnológico lleva meses implementando Gemini con bastante éxito en Gmail, pero necesitaba dar este salto en su buscador para evitar perder su trono ante TikTok y, sobre todo, ante ChatGPT. Desde su irrupción, el chatbot de OpenAI le comía terreno gracias a sus respuestas ágiles y explicativas.

Las polémicas que rodean a Grok

Pero ni Meta ni Google han sido pioneros en la jugada de llevar sus modelos de inteligencia artificial a productos ya establecidos y exitosos. X tomó la delantera en 2024 al implementar sin ningún tipo de control ni filtro Grok en el antiguo Twitter, propiedad ahora de Elon Musk. Aunque no fue hasta diciembre del año pasado cuando dejó de ser una funcionalidad exclusiva para usuarios de pago. 

A pesar de esto, desde su irrupción en X, Grok se ha usado para generar todo tipo de imágenes hiperrealistas, incluidas aquellas racistas, violentas o sexuales, lo que puede ser un foco de desinformación o discurso de odio. Por poner solo un ejemplo, según publicó The Guardian, difundió información falsa sobre los plazos para registrarse para las elecciones estadounidenses.

Sin supervisión real

La IA te acabará robando el alma y la cartera: la última moda viral genera imágenes que clonan a Miyazaki

La IA te acabará robando el alma y la cartera: la última moda viral genera imágenes que clonan a Miyazaki

Ante esto, lo que está claro es que el despliegue de funciones de inteligencia artificial en plataformas que usamos a diario se está produciendo sin garantías suficientes para los usuarios, con una alarmante falta de transparencia y sin una supervisión efectiva por parte de los gobiernos. ¿Debería existir una mayor intervención institucional?

"Sí, pero igual que debería haberla habido con las redes sociales o con determinadas páginas en internet. Al final es muy complicado porque estamos hablando de un entorno, Internet, en el que es muy difícil regular porque es multinacional. Es muy complicado porque es complejo contar con una regulación común y global y porque cada región tiene sus normas e, incluso, su propia cultura", asegura el profesor Enrique Puertas. 

En el caso de Europa, y a pesar de contar con normas como el reglamento europeo de protección de datos o la ley de Servicios Digitales, la mayoría del articulado de la norma pionera de inteligencia artificial no estará en vigor hasta agosto de 2026. "Desde la UE se trata de proteger los intereses de sus ciudadanos, pero la regulación y la aplicación del derecho siempre van por detrás de los avances tecnológicos", reconoce Elisa García Gutiérrez. 

Más sobre este tema
stats