Bordes sin nitidez, un fondo borroso y desproporciones corporales: las claves para detectar un 'deepfake'

La Universidad Carlos III de Madrid acaba de publicar un estudio sobre deepfakes (vídeos con recreaciones hiperrealistas falsas) generados por inteligencia artificial, en el que se analizan las principales características de las desinformaciones virales en España. El estudio también señala los principales afectados por esta práctica, entre los que se encuentran especialmente a políticos y artistas. 

Algunos líderes políticos como Trump o Macron eran en muchos casos víctimas de vídeos falsos que hacen referencia al consumo de drogas y actividades moralmente reprobables. Existe, además, una proporción considerable de deepfakes de carácter pornográfico que perjudica la integridad de las mujeres, especialmente a cantantes y actrices famosas. Estos son compartidos en muchas ocasiones desde cuentas no oficiales y difundidos también por aplicaciones de mensajería instantánea.

Raquel Ruiz Incertis, una de las autoras de la investigación, explica que entre los objetivos también estaban “hacer algunas propuestas de alfabetización mediática para que la ciudadanía pueda hacer frente a la desinformación”. Es por eso que el estudio propone estrategias educativas para mejorar la capacidad pública de discernir entre el contenido real y manipulado. 

“Existen herramientas para que la ciudadanía pueda comprobar la veracidad del contenido en un par de clicks”, afirma Ruiz. Entre estas opciones se encuentra la búsqueda inversa de imágenes en buscadores como Google o Bing, que se puede hacer arrastrando directamente la imagen de nuestro ordenador hasta la barra de búsqueda. 

Nvidia gana un 262% más en su primer trimestre fiscal gracias a la fuerte demanda por la inteligencia artificial

Ver más

Otros consejo para detectar deepfakes según la investigadora, es fijarse en la nitidez de los bordes de los elementos y en la definición del fondo de la imagen: si los movimientos están ralentizados en los vídeos o si existe algún tipo de alteración facial, desproporción corporal o juego extraño de luces y sombras, todo apunta a que podría ser un contenido generado por IA

La proliferación de deepfakes u otras imágenes y audios manipulados pueden ser muy dañinos en situaciones delicadas, como en períodos previos a unas elecciones o durante un conflicto como la guerra de Ucrania o la invasión de Gaza. “La guerra no se libra solo en el campo físico, sino también en el plano digital, y las falsedades tienen mayor calado que nunca”, dice Raquel Ruiz. El estudio sugiere que el empleo de la IA en redes sociales puede revolucionar la manera en la que mantenemos o no la autenticidad de la información

Los autores del estudio también consideran necesaria una legislación que obligue a las aplicaciones y programas como Midjourney o Dall-e a establecer una especie de “marca de agua” que los identifique, permitiendo a los usuarios saber de un vistazo que la imagen o vídeo que están viendo sufrió alguna modificación o fue creado totalmente por IA.

La Universidad Carlos III de Madrid acaba de publicar un estudio sobre deepfakes (vídeos con recreaciones hiperrealistas falsas) generados por inteligencia artificial, en el que se analizan las principales características de las desinformaciones virales en España. El estudio también señala los principales afectados por esta práctica, entre los que se encuentran especialmente a políticos y artistas. 

Más sobre este tema
>