"Que sea falso no implica que no tenga impacto": IA y 'deepfakes', una amenaza invisible para la democracia
"¿Qué son los deepfakes?". El concepto para Christian Schroeder de Witt, investigador postdoctoral de la Universidad de Oxford, se basa en "aquellos medios (incluidas imágenes, vídeos, textos o audio) que se generan o se manipulan total o parcialmente para que parezcan reales utilizando técnicas avanzadas de aprendizaje automático e IA." Esta peligrosa adulteración de la realidad pone en jaque a la comunidad internacional de cara, sobre todo, a defender el sistema democrático. Ahora, la investigación AI-Enabled Influence Operations: The Threat to the UK General Elections elaborada por el Science Media Centre (SMC), en colaboración con el Instituto Alan Turing y elaborada por 36 expertos de Reino Unido, Estados Unidos, Europa y Austria con datos recabados entre el 12 y el 18 de enero, estudia en su forma de actuación, sus efectos sociales y cómo afrontar las medidas para controlar su impacto.
Según esta investigación, de las 112 elecciones nacionales que han tenido lugar desde enero de 2023 o que se celebrarán en 2024, se identificó que solo 19 mostraron interferencia de la inteligencia artificial. Sin embargo, para Sam Stockwell, investigador asociado del Centro de Seguridad y Tecnología Emergentes (CETaS), la proliferación desinformativa de las deepfakes supone un peligro electoral.
"Existen amenazas durante la campaña, para manipular el comportamiento o las actitudes de los votantes sobre candidatos o cuestiones políticas; también amenazas a la información, para socavar la calidad del entorno informativo y perjudicar la integridad electoral; y amenazas a la infraestructura, para debilitar los sistemas responsables de la integridad de los procesos electorales", defiende Stockwell, sobre un "daño a la veracidad" que puede aparecer a lo largo de todo el ciclo electoral.
Para Schroeder de Witt, más allá de como afectan a las citas con las urnas, la clave es entender los detalles técnicos en la creación de los deepfakes. “Cuanto más entrenes a la inteligencia artificial con datos, más posibilidades tendrás de copiar la voz del hablante”, sostiene este experto mientras deslizaba a modo de ejemplo el funcionamiento de la clonación de voces. "Primero se recoge la transcripción, luego la grabación de la voz que queremos duplicar y por último se graba el texto transcrito", explica al tiempo que apunta que "todo ello a través de un modelo generativo de altavoces múltiples y una red neuronal profunda". Para acometer este proceso de copia, lo importante reside en las "transformaciones numéricas con pesos sintonizables".
"Probablemente sea cada vez más fácil falsificar vídeos o audios, y esperamos ver más de esto en el futuro. Tenemos que hacernos a la idea", apunta Björn Ross, profesor de ciencias sociales computacionales en la Universidad de Edimburgo. "Si es falso no implica que no vaya a tener impacto", sostiene este experto. Como factores de causa de esta corriente expansiva de bulos, alude, por un lado, a la libertad contenido de redes sociales, pero también a la falta de contextualización por parte del periodismo, el germen de la polarización o la poca o nula colaboración de los gobiernos.
La ONU adopta su primera resolución sobre IA: promueve un desarrollo "seguro" para evitar su uso "malicioso"
Ver más
Para clarificar tanto los retos como las posibles medidas para hacer frente a este instrumento falsificador, De Witt señala a una "buena formación en materia de inteligencia artificial, la inclusión de una marca de agua secreta para ocultar patrones de identificación en datos generados por esta tecnología y cumplir con la Coalición para la Procedencia y Autenticidad del Contenido (C2PA en inglés) para reunir el compromiso de las máximas organizaciones posibles".
En el caso de Stockwell, indica como clave "mejorar las comunicaciones estratégicas y la orientación pública en relación con la inteligencia artificial y sus capacidades de uso" y "recoger pruebas y material generado" de cara a "seguir de cerca las tendencias y preparar con seguridad los procesos electorales". Ross, no obstante, subraya que lo importante está en que el periodismo "apueste por el fast checking" para "volver a servir como referente para la comunidad".
A pesar de la advertencia del riesgo creciente de estas suplantaciones, el margen del maniobra no es nada amplio. Con las elecciones europeas a la vuelta de la esquina y un año en el que Reino Unido, EEUU o India también acuden a las urnas, es necesario reforzar el escudo democrático para “intentar proteger las elecciones por los derechos del pueblo", según apunta Stockwell.