Zuckerberg entrena su IA con tus conversaciones públicas y tus fotos

Oficinas de Meta en Dublín, Irlanda.

"Estamos preparando nuevas funciones de inteligencia artificial para ti. Conoce cómo usamos tu información". Entre me gustas y avisos de nuevos comentarios o seguidores y también en forma de correo electrónico, este mensaje ha ido apareciendo entre las notificaciones de los usuarios europeos de Facebook —sí, aún queda gente en esta red social— e Instagram durante los últimos diez días. Por ahora, no se menciona ni a WhatsApp ni a Threads.

Al pinchar sobre esta notificación, la indicación es concisa: el imperio propiedad de Mark Zuckerberg tiene lista una actualización en la política de privacidad de ambas plataformas. ¿Qué cambia exactamente? "Nos estamos preparando para habilitar nuestras experiencias de inteligencia artificial en Meta en tu región. AI en Meta es nuestro conjunto de funciones y experiencias de inteligencia artificial generativa, como Meta AI y las herramientas creativas con IA, junto con los modelos que las sustentan". 

Así, esta nueva versión de su política de privacidad que entrará en vigor el próximo 26 de junio para los usuarios de Europa y Reino Unido detalla que para entrenar a su inteligencia artificial recogerá la información que comparten los usuarios en los productos y servicios de Meta. Por ejemplo, cita en concreto, publicaciones, fotos y descriptores de las imágenes tanto de Instagram como de Facebook

"La inteligencia artificial de hoy en día se basa en la ingesta de muchos datos y aprender patrones de repeticiones", explica Miguel Angel Román, doctor en Inteligencia Artificial, ingeniero de Telecomunicaciones e Informática y cofundador del Instituto de Inteligencia Artificial (IIA). ¿Y para qué son necesarios tantos datos? "Lo que se quiere hacer con esta tecnología es replicar el comportamiento humano y, para ello, es necesario enseñarle cómo se comporta un humano. Y por eso necesita un gran volumen de datos", indica Álvaro Sánchez, director del Máster en Data Science de la Universidad Europea.

Eso sí, la tecnológica californiana aclara que no usarán el contenido de los mensajes privados que hayan recibido o enviado los usuarios. Además, Meta también matiza que toda la información personal que recopilen no se vinculará específicamente con ninguna cuenta. "Hay que tener en cuenta que estas inteligencias artificiales no memorizan los datos de entrenamiento, si no que extraen patrones y características", reconoce Román que, eso sí, aclara que existe una pequeña probabilidad de que "de pronto regurgite íntegro algo que haya visto en su entrenamiento". 

¿Y qué va a hacer con todos estos datos? Para alimentar lo que el imperio de Zuckerberg llama experiencias IA de Meta y que ya presentó el pasado septiembre. Además de los stickers creados con esta tecnología y que ya están inundando WhatsApp e Instagram, la gran estrella es Meta IA, su asistente conversacional avanzado que comienza a estar disponible en las plataformas del conglomerado. "También los pueden usar para crear un generador de imágenes o para personalizar la experiencia de sus propios productos", apunta Román. 

Para Borja Adsuara, experto en Derecho, Estrategia y Comunicación Digital, que Meta entrene a su chatbot "en español actual y con información de usuarios que vivan en España" provocará que "las conversaciones que se generen tengan que ver con nosotros". "Lo que se intenta es que esta tecnología sea inclusiva y refleje la diversidad de culturas y costumbres", sostiene este experto. 

¿Y qué pasa con OpenAI y Google?

Lo que hace Meta ahora con este aviso es cubrirse las espaldas y cumplir con las normas europeas de protección de datos pero también señala al resto de compañías que están trabajando con inteligencia artificial. En concreto, a OpenAI y a su archiconocido ChatGPT, y a Google con Gemini, que está implementando esta tecnología en su buscador. 

¿Están haciendo lo mismo que el imperio de Zuckerberg? "No lo sabemos", reconoce Román que indica que se sospecha que OpenAI ha usado YouTube en Sora, su modelo de creación de vídeos. "En el caso de Google, la compañía ha aclarado que no usan ni Gmail ni Drive en Gemini, pero no es la única inteligencia artificial que tienen. Por ejemplo, en el correo tienen una que ofrece respuestas automáticas y para lograr esto ha tenido que entrenarse con tus datos", argumenta Sánchez. 

El debate ahora es si esto es legal o no. Desde Meta, en una nota del pasado 22 de mayo, explican que están comprometidos a implementar esta experiencia con inteligencia artificial "de forma responsable y cumpliendo con las normas de privacidad".

"El pecado de Meta es que lo ha dicho porque Open AI y Google lo están haciendo, todos lo están haciendo. Pedimos transparencia, y al que es transparente lo crucificamos", asegura Adsuara que apunta que lo que se está viendo estos últimos por redes sociales diciendo que Zuckerberg está robando a sus usuarios "fotos de sus hijos" para alimentar a su inteligencia artificial son "los típicos mensajes alarmistas" amparados, eso sí, por la mala fama y los escándalos relacionados con la privacidad, la manipulación política, la desinformación o los problemas de salud mental del imperio tecnológico

"Lo que va a hacer Meta es entrenar su inteligencia artificial generativa para tener así chatbots que hablen con los usuarios de forma natural y para ello necesitan el lenguaje que se usa en el día a día en las redes sociales. Aquí no se trata de reproducir ni una foto ni una conversación que es lo que hacen las aplicaciones piratas en las que se crean deepfakes pornográficos", defiende este abogado y consultor que recuerda que Facebook e Instagram están sujetas a las normas europeas. 

El RGPD y la puerta del interés legítimo 

En este lado del Atlántico, los usuarios tienen la suerte de que juegan con unas cartas marcadas por la UE y su legislación. Bruselas estableció ya hace tiempo con el reglamento de protección de datos unos estándares que no tienen en otros lugares del mundo, tampoco en EEUU. Sin olvidarse de que posteriormente han aterrizado la ley de servicios digitales, la de mercados digitales y la futura de inteligencia artificial. Y, aunque es cierto, que hecha la ley, hecha la trampa, las tecnológicas terminan plegándose ante las normas de un mercado con la friolera de más de 500 millones de potenciales clientes. 

En este caso, con lo que juega Meta es con el RGPD. "Esta normativa admite ciertos tratamientos sin necesidad de consentimiento porque hay un interés legítimo, es decir, usar los datos de los usuarios para prestar un mejor servicio", sostiene Adsuara. 

En este interés legítimo se ampara Meta para no haber pedido hasta ahora permiso a los usuarios para usar sus datos para entrenar a su inteligencia artificial ya que no hay una reproducción tal cual, si no extracción de patrones. En concreto, la compañía californiana detalla que este interés legítimo responde al "procesamiento de datos para crear estos servicios". "Tienen base legal, pero si hacen otra cosa con estos datos estarían cometiendo una infracción", explica este experto. 

El derecho de oposición

No obstante, ante la ausencia de este consentimiento, la UE establece el derecho de oposición de los ciudadanos, es decir, oponerse a que se realice un tratamiento de los datos personales cuando sean objeto de tratamiento basado en este interés legítimo. "Este enfoque es coherente con la forma en que otras empresas tecnológicas están desarrollando y mejorando sus experiencias de IA en Europa", defienden desde Meta

Por ello, las notificaciones de Facebook e Instagram incluyen un formulario para hacer efectiva esta negativa. "Esto hay que hacerlo bien y Meta lo ha hecho mal: lo ha escondido detrás de un montón de clics y no ha hecho pedagogía. Y esto provoca que salgan los alarmistas", reconoce Adsuara. 

"Casi hay que hacer un master para cubrir este formulario", apunta Álvaro Sánchez que recuerda que, si no se rellena y se continúa usando la plataforma, "la compañía da por hecho que lo aceptas". Lo primero que hay que tener en cuenta es que los procesos para rechazar que Meta use tus datos son distintos en Facebook y en Instagram. 

En el caso de la red social por excelencia, hay que entrar desde el ordenador, pinchar en la foto de perfil y a continuación ir a 'configuración y privacidad’ y seleccionar 'configuración’. Dentro de este menú de Facebook, hay que entrar en 'política de privacidad’ y después en 'derecho a objetar’. Una vez aquí, no llega con pulsar el botón si no que hay que rellenar un breve formulario en el que el usuario debe explicar por qué no quiere que usen sus datos. 

En Instagram, el proceso se puede hacer desde la propia aplicación. Desde el perfil, hay que seleccionar el menú de tres barras en la parte superior derecha de la pantalla, seleccionar 'información’ en este menú y a continuación pinchar en 'política de privacidad’, después en 'oponerte al tratamiento’ y finalmente hacer clic en la opción 'oponerte’. Aquí, como en Facebook, también hay que rellenar un breve formulario. 

Durante estos últimos días, sobre todo en X, se han viralizado mensajes alertando de problemas durante el proceso. Uno de los más habituales se resuelve cambiando 'España' por 'Spain'.

La letra pequeña de Meta

Aunque parezca que en esta ocasión Meta está, por primera vez, haciendo algo de forma lícita y sin saltarse ninguna línea roja, lo cierto es que la letra pequeña de cómo usan la información para los modelos y las funciones de inteligencia generativa genera bastantes dudas. Sobre todo en dos aspectos. 

El primero. Meta explica que, una vez rellenado este formulario del derecho a oposición , "si aceptamos tu solicitud, se aplicará de aquí en adelante". ¿Quiere decir esto que ya han estado usando los datos de los usuarios para entrenar a la inteligencia artificial?

"Es posible", defiende Miguel Ángel Román. Eso sí, este experto diferencia entre aquellas cuentas públicas, cuyos datos están a la vista de todos, y las privadas: "No creo que hayan llegado tan lejos". "Están obligados por ley a notificarlo, pero es probable que todo lo que esté ya publicado pueda haber sido utilizado", sostiene Álvaro Sánchez que recuerda que la regulación en materia digital siempre "va a rebufo" y que "ChatGPT está entrenado con todo Internet". 

Y el segundo problema. En la explicación que hacen sobre de dónde obtienen la información de entrenamiento detallan que "con el fin de desarrollar y mejorar la inteligencia artificial en Meta, podemos procesar información sobre ti incluso si no usas nuestros productos y servicios ni tienes una cuenta". Además, en esta misma línea, matizan en su servicio de ayuda para oponerte al uso de tu información que aunque se rellene el famoso formulario "podemos seguir procesando información sobre ti con el fin de desarrollar y mejorar la IA en Meta" en el caso, por ejemplo, de que alguien te etiquete en una foto o te menciona en algún texto. 

Del 'robo' a Scarlett Johansson a las estafas telefónicas, los riesgos de la clonación de voz de ChatGPT

Del 'robo' a Scarlett Johansson a las estafas telefónicas, los riesgos de la clonación de voz de ChatGPT

Con todos estos recovecos, ¿es posible realmente que Meta no use nuestros datos para entrenar a su inteligencia artificial? Los expertos consultados por infoLibre coinciden en que esto es "muy difícil de controlar" y que abre un montón de "casuística legal". "Es más fácil de vigilar cuando uno es el autor", asegura Sánchez. 

En este punto se abre otro punto a tener en cuenta con respecto al entrenamiento de la inteligencia artificial: los derechos de autor. Por ejemplo, OpenAI está comenzando a llegar a acuerdos con medios de comunicación, como los de la española Prisa, Le Monde, Associated Press o Axel Springer. "Lo que reconocen es que hay un derecho a oponerse o también derecho a autorizarlo a cambio de un dinero. Esto es lo que se está negociando y no está en ninguna ley", señala Adsuara. 

No hay que olvidarse de que The New York Times presentó a finales de 2023 una demanda contra OpenAI y Microsoft por usar sin permiso artículos periodísticos con derechos reservados para el desarrollo de su herramienta. Además, la huelga del verano pasado en Hollywood de actores y guionistas logró un acuerdo sobre el uso que los estudios puedan hacer de la inteligencia artificial con el pago de un canon a los sindicatos si se usa la inteligencia artificial. 

Más sobre este tema
stats