El peligro de los 'deepfakes' o cómo la IA es el arma de manipulación política con la que hubiera soñado Goebbels

"Otro de esos vídeos hechos con IA que sabemos que causan sensación". Así de claros se mostraron en el PP cuando el pasado 8 de marzo publicaron un nuevo vídeo generado con inteligencia artificial, popularmente conocidos como deepfakes, ultrasuplantaciones en castellano. Se trata del cuarto que publican de este estilo en los últimos treinta días. La propia secretaria general del partido, Cuca Gamarra, confirmó este mismo lunes que van a seguir con este tipo de contenidos. Desde Génova, aunque recuerdan que no detallan sus estrategias, reconocen a infoLibre que en redes sociales "se pueden utilizar diferentes contenidos según determinados momentos" y, en este caso, además "llegan bien a un público joven".
Estos ejemplos recientes del PP junto el publicado por Donald Trump el pasado febrero sobre la reconstrucción de Gaza son las últimas muestras de una tecnología cuyo objetivo por ahora responde más a sorprender que a engañar: nadie se ha creído, por ejemplo, que Pedro Sánchez sea un concursante de la La isla de las tentaciones o que la Franja sea un destino turístico actualmente. "Estamos en un punto en el que estos vídeos solo buscan reforzar ideas y un impacto emocional", explica Miquel Pellicer, consultor en comunicación digital en la Universitat Oberta de Catalunya (UOC).
Aunque esto puede cambiar en cualquier momento. Sobre todo con la existencia de gurús de la ultraderecha como Steve Bannon que se inspiran en uno de los padres de la propaganda y de las campañas electorales: Joseph Goebbels.
El ministro de Adolf Hitler utilizó todos los medios de comunicación a su alcance para expandir la propaganda nazi. Controló los periódicos, la industria cinematográfica de la mano de Leni Riefenstahl y también la radio, que por aquel entonces era una novedad en las casas alemanas. Y desde este dominio propagó, entre muchas cosas, el argumentario del odio al diferente para manipular, alimentar la infodemia y generar más desinformación.
¿Qué podría hacer Goebbels hoy en día con la inteligencia artificial? Aunque, por suerte, es prácticamente imposible dar respuesta a esta pregunta, lo cierto es que sí que se pueden analizar los riesgos que se asumen al usar esta tecnología en el terreno de la propaganda política. "Estamos en un momento en que la verdad es lo menos importante", reconoce Pellicer que asegura que con los deepfakes Goebbels podría sacar, por ejemplo, a judíos diciendo que se comían a niños.
"La capacidad de esta tecnología para desinformar es mayúscula, creando ecosistemas comunicativos bastante frágiles", admite Elisa Gutiérrez García, profesora de la Universidad Complutense. Esta experta en IA, derecho y derechos humanos apunta además que "los riesgos fundamentalmente dependerán de la intencionalidad del que los cree y generalmente difunda". Si su finalidad es la sátira o la parodia, será una herramienta más para "formular esa crítica más o menos mordaz al sistema". En cambio, si la intención es llevar a un engaño deliberado "incluso las democracias más asentadas podrán tambalearse ante semejante ejercicio de desinformación".
De la isla de las corrupciones al 8M, versión PP
En el caso del PP, por ahora, sus deepfakes son más satíricos que otra cosa. Los dos primeros, publicados a finales de febrero, apenas causaron revuelo, no superaron las 500.000 visualizaciones en X. En el primero se podía ver a un José Luis Ábalos prácticamente real y estático. En el segundo, publicado pocos días después, combinaba cifras y rótulos con Carles Puigdemont y Oriol Junqueras bañándose en una piscina llena de oro en el exterior de Moncloa.
Fue el tercero, el de La isla las corrupciones, el que traspasó fronteras y generó una crisis diplomática con República Dominicana: sobre imágenes del país caribeño y la estética del programa La isla de las tentaciones, cargaba contra el Gobierno y los presuntos casos de corrupción que afectan rodean a Pedro Sánchez y al PSOE.
Aunque se vieron obligados a borrarlo tras las críticas del país caribeño, solo dos días después volvieron a la carga con La manifestación que no verás hoy. En pleno 8M, en el vídeo se suceden imágenes de varios dirigentes o exdirigentes de la izquierda en la manifestación con motivo del día de las mujeres o a Pedro Sánchez junto al exministro José Luis Ábalos con un "catálogo" de mujeres en referencia al caso Koldo. Solo en su cuenta de X, lleva ya más de un millón de visualizaciones.
¿Qué objetivos buscan estos vídeos? "La IA generativa permite posicionar una idea vinculada a un partido rompiendo la veracidad y al mismo tiempo plasmarlo desde el punto audiovisual", sostiene Pellicer que recuerda que "los vídeos son el lenguaje de mayor impacto en redes sociales". Para este experto, este tipo de contenidos son como una hamburguesa para los usuarios: "Generan un placer inicial, pero son tóxicos para nuestra dieta, en este caso la dieta informativa".
Aunque en los dos primeros en ningún momento se identificaron como generados con inteligencia artificial, en los dos últimos, incluido el borrado por la crisis con República Dominicana, figuran en la parte de abajo de la grabación, una leyenda que lo identifica como "imágenes generadas con IA". ¿A qué se debe estas notas aclaratorias? "El reglamento europeo de IA impone ciertas obligaciones de transparencia a los usuarios, cómo hacer público que los contenidos o imágenes han sido generados o manipulados de manera artificial. Es decir, tienen que dejar claro al destinatario que el contenido de imagen, audio o vídeo que puede estar viendo o escuchando no se corresponde con la realidad, aunque parezca verosímil", explica Gutiérrez García.
Esta experta aclara que estas obligaciones de la nueva norma se "flexibilizan en ciertos casos" como, por ejemplo, "cuando estamos ante contenidos manifiestamente creativos, artísticos o satíricos, como puede ser el presente caso". "La sátira, la parodia o el humor han sido recursos tradicionales a los que se ha acudido para elaborar críticas sociales y políticas, y, en general, se entienden amparados por la libertad de expresión en sociedades democráticas como la nuestra", afirma Gutiérrez García.
Tras coquetear antes de las elecciones vascas con un chatbot de WhatsApp impulsado por inteligencia artificial que permitía navegar por el programa del partido, ahora el PP se ha subido sin mirar atrás a esta ola de los deepfakes. Aunque no pasa lo mismo al otro lado del arco parlamentario. Desde PSOE, Sumar y Podemos aseguran a infoLibre que no usan esta tecnología para crear este tipo de vídeos.
Los socialistas reconocen que usan la inteligencia artificial para mejorar procesos internos como la traducción o transcripción de discursos o para hacer búsquedas de información: "Es una lástima que de todo lo que ofrece la IA, el PP se haya instalado, una vez más, en su modo ultra, y solo la use para ofender y dar una imagen patética. Por nuestra parte, pueden seguir haciendo vídeos, los retratan más a ellos que a los aludidos". En el caso de Sumar, matizan que lo hacen porque no respetan los derechos de los trabajadores y contribuyen a la precariedad del sector cultural.
La Gaza con la que sueña Trump hecha con IA
Aunque estos casos del PP no son los únicos deepfakes que se han visto últimamente. El presidente de EEUU compartió a finales de febrero en sus redes cómo se imagina el futuro de Gaza: en treinta segundos, con una canción machacona alabando al inquilino de la Casa Blanca y con ocho horas de trabajo detrás según The New Yorker, se pasa de calles llenas de cascotes a un típico destino turísticos del mediterráneo con rascacielos, hoteles y playas llenas de turistas con Elon Musk disfrutando de la comida local y con Trump bailando o en bañador junto a Benjamin Netanyahu.
Tal y como explica Miquel Pellicer, el presidente de EEUU y el PP buscan lo mismo: posicionar una idea rompiendo la veracidad. Sin embargo, según este experto, en el caso de este vídeo en concreto presenta "una fantasía hiperbólica" y "una distopía" que "plasma el mundo como lo entiende Trump". Además, aquí también juega un papel la diseminación: "El éxito de un deepfakes no solo es ver el vídeo, si no que se comparta por los propios seguidores como por la gente que se indigna con la idea que plantea". "Todos caemos en esas trampas y al final se convierte en un meme de consumo masivo", afirma.
Pero, al contrario que en los últimos vídeos del PP, en el de Trump en ningún momento se dice o se identifica como imágenes generadas con inteligencia artificial según establece la norma europea. Y, aunque lo hiciese, tal y como sostiene Elisa Gutiérrez García, "no quiere decir que se pueda plasmar cualquier idea en el mismo". "Los límites éticos se han sobrepasado, aunque estamos viviendo en esta hiperbolización", reconoce Pellicer.
"A pesar de no estar engañando al destinatario, otros derechos pueden quedar afectados a partir de un contenido generado por IA, como el honor o la dignidad humana", argumenta Gutiérrez García. Esta experta señala que, en el caso del vídeo de Trump, el colectivo afectado, los gazatíes, no son ni "un oponente político" ni "un partido de la oposición": "Esto hace que la naturaleza del mensaje cambie y no pueda ser medido con la misma vara, más allá de su manifiesto mal gusto".
Y, si nos remontamos más atrás, Junts lanzó en 2023 una serie de spots protagonizados por Felipe VI, Pedro Sánchez o Santiago Abascal, el propio PP tuvo que retirar un vídeo manipulado de unas declaraciones del presidente del Gobierno y Ciudadanos presentó un anuncio antes de las elecciones catalanas de 2024 en el que aparecía el expresident de la Generalitat, Carles Puigdemont, en una celda. En EEUU, el Comité Nacional Republicano reaccionó a la candidatura a la reelección de Joe Biden con un vídeo con imágenes generadas con inteligencia artificial que mostraba una versión distópica y apocalíptica del futuro si volvía a ganar, mientras que el gobernador de Florida, el republicano Ron DeSantis, utilizó en su campaña una imagen generada por esta tecnología de Trump abrazando a su archienemigo durante la pandemia, el doctor Anthony Fauci.
Cada vez es más complicado deslindar realidad de ficción
Uno de los creadores del vídeo de Trump sobre Gaza, Solo Avital, afirmó en una entrevista con The New Yorker que aún podremos vivir un momento similar a lo que pasó en 1938 con la retransmisión por radio de La guerra de los mundos, de Orson Welles. Ahora, según relata, podría ser un clip de Trump anunciando que está empezando la Tercera Guerra Mundial tras lanzar un arma nuclear contra Rusia. "Si de verdad tuviéramos que hacer esto como una película, le dedicaremos una semana y no podrías distinguir si es real o no", afirmó.
Y muestras del uso de los deepfakes para engañar ya tenemos. En 2022, pocos días después del inicio de la guerra de Ucrania, un vídeo falso del presidente Volodimir Zelensky anunciando la rendición de Kiev se hizo viral. La pésima calidad del vídeo y la reacción inmediata del líder ucraniano desactivó su objetivo. "El contenido era un poco burdo y fácilmente identificable como falso, pero lo cierto es que la tecnología avanza a pasos agigantados y cada vez es más complicado deslindar la realidad de la ficción", reconoce Gutierrez García.
Aunque una imagen vale más que mil palabras, lo cierto es que los deepfakes de solo audio son mucho más complicados de identificar a estas alturas que los que van acompañados por imagen. "Esto es super peligroso porque aquí la manipulación de la realidad puede ser total", indica Pellicer.
Y de estos, también tenemos ya ejemplos. En enero de 2024, en medio de las primarias de New Hampshire en EEUU, los votantes recibieron mensajes de llamadas automáticas en una voz generada de forma artificial y que imitaba la de Joe Biden instándolos a no votar. Algo muy similar hizo antes de las elecciones europeas del año pasado cuando el portavoz del PP en el Congreso, Miguel Tellado, compartió en X un deepfake que simulaba la voz del expresidente José Luis Rodríguez Zapatero.
¿Hasta dónde se puede llegar? "El entorno político suele ser un ámbito en el que los márgenes de la libertad de expresión se amplían", argumenta Gutiérrez García. Para esta profesora hay que prestar especial atención y cuidado a su uso por parte de "actores políticos, como gobiernos extranjeros o activistas diversos": "Su uso puede ser francamente pernicioso, con un fuerte impacto para el derecho a la información de los votantes, deformando la formación de la opinión pública".
Necesaria una legislación
El Feijóo tuitero se impone al de 'la política para adultos': el PP baja al barro e imita la estrategia de Vox
Ver más
Así, en medio de este escenario, la semana pasada semana, el Gobierno dio luz verde al anteproyecto de ley de inteligencia artificial que traspone el reglamento europeo que se aprobó a finales de 2023. La norma ofrece un enfoque basado en el riesgo, que categoriza los niveles de riesgo y las restricciones que deben acompañar en función de la escala, lo que implica la prohibición en casos de riesgo "inasumible", como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.
Además de establecer el régimen sancionador, tal y como detalló el ministro Óscar López, el anteproyecto también recoge como infracción grave no cumplir con la obligación de etiquetar correctamente las ultrasuplantaciones. Sin embargo, lo que no se ha concretado aún es cómo se deberá realizar, más allá de lo que ya indica el reglamento europeo. "Esta aclaración tiene que facilitarse de manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición", apostilla Gutiérrez García. Para Pellicer, la solución puede estar en la propia inteligencia artificial: "Va a ser una muy buena herramienta para identificar deepfakes".
Desde Sumar y Podemos abogan por una regulación de esta tecnología ante el avance de los deepfakes. La formación de Díaz apuesta por hacerla en línea con cómo se hizo con la ley rider, mientras que la formación morada recuerda que promueven la creación de una legislación europea integral en esta materia y que en la legislatura pasada ya presentaron iniciativas para que los contenidos generados con IA estuvieran más regulados y, por ejemplo, tuvieran que estar expresamente advertidos.