LA PORTADA DE MAÑANA
Ver
El Gobierno responderá a la maniobra de Feijóo y Weber contra Ribera "con datos" y "sin caer en el barro"

Pornografía infantil creada con IA usando fotos reales: una nueva cara de la violencia sexual

5

Más de una veintena de madres han denunciado este lunes la difusión de imágenes pornográficas de sus hijas, falsas pero hiperrealistas, creadas a través de inteligencia artificial. La alarma acaba de saltar en el municipio de Almendralejo (Badajoz), pero por lo que han podido saber las afectadas, la práctica puede venir realizándose desde el pasado mes de julio. La Policía Nacional investiga ya los hechos y las primeras averiguaciones que han trascendido ponen en el foco a otros menores como presuntos responsables de lo sucedido. La creación y difusión de imágenes que atacan directamente a la integridad de las mujeres, el fenómeno conocido como deepfakes, comienza a permear en suelo español y emerge como una muestra más de la complicidad entre inteligencia artificial y cultura de la violación.

El primer vídeo que subió Miriam Al Adib a sus redes sociales fue fruto de la indignación. Su hija acababa de avisarle de unas imágenes que estaban corriendo como la pólvora entre sus compañeros de instituto y entre el alumnado de otros centros. Al Adib creyó, en un primer vistazo, que la fotografías eran una representación real de su hija de tan sólo catorce años. Pero no era así: las imágenes simuladas eran obra de la inteligencia artificial. En el segundo vídeo que publicó la madre, es fácil intuir un respiro de alivio. El apoyo a las chicas ha sido unánime y la solidaridad entre las mujeres ha construido una suerte de red que les permite afrontar los hechos de manera colectiva. "Nuestras niñas no tienen que pasar miedo ni vergüenza", clama la mujer, con más de 126.000 seguidores en Instagram, tras la pantalla.

'Pseudo pornografía infantil'

Es complejo, dicen los juristas. Pero tenemos herramientas para castigarlo, añaden enseguida. Son las conclusiones que hacen los expertos de casos como el denunciado este lunes. "Habría que darle muchas vueltas, porque no estás grabando ni obligando a las menores", reflexiona la fiscal Susana Gisbert. Al otro lado del teléfono, alberga pocas dudas de que se trataría de un delito contra la intimidad, pero reconoce no tener claro el impacto de la ley tratándose de imágenes simuladas. "Nuestro derecho está pensado para hechos del siglo pasado, por lo que es muy difícil encontrar encaje. Ya vamos tarde, la realidad va siempre por delante", critica.

Borja Adsuara, experto en Derecho, Estrategia y Comunicación Digital, aterriza algunas nociones. "El delito que aquí más encaja es el de pseudo pornografía infantil", dice en conversación con infoLibre. Aunque no se trata de fotografías o vídeos que capten la realidad, sino de material elaborado con inteligencia artificial, lo cierto es que el Código Penal "no regula la tecnología, sino el resultado". Y en este caso el resultado son "imágenes tan realistas que la gente cree que son reales". 

La Fiscalía dio algunos detalles de esta problemática en una circular difundida hace ahora ocho años. "En la llamada pseudo pornografía infantil (también denominada morphing) no se utiliza realmente al menor o incapaz sino que se abusa de su imagen o voz manipulándola con artificios técnicos", decía ya entonces el Ministerio Público. La reforma penal efectuada en 2015 suprime formalmente el tipo de pseudo pornografía infantil, pero "ello no supone la sobrevenida atipicidad de estas conductas", detalla la circular. Eventualmente, añade, "podrán castigarse como pornografía infantil virtual o técnica", siendo un requisito imprescindible para su trascendencia penal que el material "sea realista, que trate de aproximarse a la realidad". Como es el caso.

"Imágenes realistas"

El artículo 189 del Código Penal castiga a quien produzca, venda, distribuya, exhiba, ofrezca o facilite la producción, venta, difusión o exhibición "por cualquier medio de pornografía infantil" y matiza que será entendida como tal las "imágenes realistas de un menor participando en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales". Es ahí donde se detienen los expertos: las imágenes han de ser realistas, no necesariamente reales.

La producción, elaboración y difusión de este tipo de contenido puede tener un castigo penal de hasta cinco años, detalla Adsuara. Con el añadido de que los tribunales, además, pueden considerar que "hay algún tipo de organización, aunque solo sea por tratarse de un grupo de amigos", por lo que la pena puede ascender hasta los nueve años. Si bien lo cierto es que los presuntos autores del delito no son mayores de edad, se enfrentan a la posibilidad de ingresar en un centro de menores. En paralelo, podrían tener que asumir el pago de una indemnización civil a las víctimas por daños y perjuicios morales. Además, existe también una "posible responsabilidad administrativa", completa Adsuara. "La Agencia de Protección de Datos contempla multas porque nuestra imagen es un dato personal, por lo que el tratamiento sin consentimiento es ilegal y está sancionado en el reglamento general", con multas que ascienden a los 10.000 euros y que deben ser abonadas por los progenitores, en caso de que el autor sea menor.

Existen, por tanto, consecuencias en el plano penal, civil y administrativo. Y sin embargo, añade el abogado, "todo esto no es nada" comparado con el daño que este tipo de conductas causa "a menores de edad en plena adolescencia".  Más aún si la posterior difusión de las imágenes haya derivado en acoso o extorsión, en cuyo caso se estarían incurriendo en nuevos delitos.

Que las víctimas sean menores de edad y los presuntos delincuentes también, no es un dato meramente anecdótico. En su Memoria de 2022, la Fiscalía ya advertía de cómo la violencia sexual cala entre los menores. Aunque la alerta es exclusiva de agresiones sexuales, el Ministerio Público denunció un "notabilísimo y preocupante ascenso" de este tipo de delitos, con un aumento del 45,8% respecto al año anterior. Las investigaciones abiertas por agresiones sexuales perpetradas por menores han aumentado un 116% desde el año 2017. Entre las razones que podrían explicar esta tendencia, los fiscales sospechan de "la carencia de una adecuada formación en materia ético-sexual" y del visionado "inapropiado y precoz de material pornográfico violento".

Cuando se trata de adultos

A principios del pasado mes de mayo, la formación JxCAT quiso aprovechar la reforma de la ley del sólo sí es sí para penalizar de manera específica este tipo de delitos, también cuando afectan a mayores de edad. La iniciativa no salió adelante a consecuencia de la oposición del PP y el PSOE.

Adsuara apuesta por una modificación "muy sencilla", consistente en hacer extensivo lo previsto para la pornografía infantil, al resto de población. Y la clave está en el artículo 197, sobre descubrimiento y revelación de secretos. Este precepto fue modificado en 2015 a raíz del caso de pornovenganza que afectó a la entonces concejala Olvido Hormigos. A partir de aquel momento, empezó a castigarse la difusión de vídeos o imágenes sin consentimiento de la víctima, incluso cuando la misma sí hubiera aceptado inmortalizar las imágenes. Más tarde, al calor de la ley del sólo sí es sí, el apartado séptimo del artículo volvió a sufrir una modificación. Esta vez, pasó a castigarse no sólo a la persona que difunda o revele las imágenes íntimas, sino también a quien, una vez las reciba, continúe con la cadena de difusión. A juicio de Adsuara, esta última reforma se podía haber aprovechado para afinar el delito y asemejarlo al que se aplica cuando se trata de imágenes realistas que afectan a menores.

Decir #Seacabó cuesta a las víctimas de violencia sexual una media de diez años

Ver más

En cualquier caso, el experto sí cree que el Código Penal ofrece herramientas para combatir estos hechos, también en el caso de personas adultas. Menciona concretamente al artículo 173.1, contra la integridad moral, y al artículo 197.1, el delito contra la intimidad que señalaba anteriormente Gisbert. "Hay quien dice que no se trata de un delito contra la intimidad porque el cuerpo no es tuyo, pero eso lo sabes tú y el delincuente, por lo que el daño es el mismo", abunda el jurista. En España han trascendido casos que afectan a personajes públicos, como la artista Rosalía o la influencer Laura Escanes, quienes en su día denunciaron la creación y difusión de fotografías íntimas creadas por inteligencia artificial.

Según un estudio de la compañía especializada en ciberseguridad Deeptrace de 2019, ocho de las diez principales web de pornografía incluyen contenidos hechos con inteligencia artificial. Otra investigación de Sensity AI en 2018 señala que entre el 90% y el 95% de estos deepfakes son pornografía no consentida. Y de ellos, el 90% es contenido protagonizado por mujeres, lo que lo sitúa sin lugar a dudas como una práctica de violencia machista.

Así lo entiende la Asociación de Mujeres Juezas, cuyas expertas ya alertaron en abril de las consecuencias de este fenómeno: se ha convertido en una "dura realidad" y en un "mecanismo para ejercer violencia contra las mujeres", subrayaron. El Instituto Europeo para la Igualdad de Género también calificó en un informe en 2022 a los deepfakes como "una nueva y sofisticada forma de agresión machista" con "graves consecuencias para las víctimas".

Más de una veintena de madres han denunciado este lunes la difusión de imágenes pornográficas de sus hijas, falsas pero hiperrealistas, creadas a través de inteligencia artificial. La alarma acaba de saltar en el municipio de Almendralejo (Badajoz), pero por lo que han podido saber las afectadas, la práctica puede venir realizándose desde el pasado mes de julio. La Policía Nacional investiga ya los hechos y las primeras averiguaciones que han trascendido ponen en el foco a otros menores como presuntos responsables de lo sucedido. La creación y difusión de imágenes que atacan directamente a la integridad de las mujeres, el fenómeno conocido como deepfakes, comienza a permear en suelo español y emerge como una muestra más de la complicidad entre inteligencia artificial y cultura de la violación.

>