Entrevista a Alberto Pena Fernández e Irene Roche Laguna
Dos de los cerebros de la ley digital de la UE explican por qué X o TikTok van a tener más difícil engañarnos
El objetivo con el que aterrizó el pasado 25 de octubre la nueva Ley de Servicios Digitales de la UE era muy ambicioso: "Queremos acabar con el llamado salvaje Oeste digital". Así la describió en 2022 el comisario de Mercado Interior, Thierry Breton, para resumir una directiva que impone desde medidas para poner freno al contenido ilícito y la desinformación, pasando por mejorar la moderación o hasta la exigencia de más transparencia de los algoritmos y los sistemas de recomendación de las tecnológicas. Por ahora, sólo está en vigor en 19 plataformas con relevancia sistemática y responsabilidades especiales, entre las que se encuentra, Google, Meta —matriz de Facebook o Instagram—, TikTok, X—antes Twitter—, o Amazon.
Ahora, cuando se cumplen los primeros dos meses en vigor de esta nueva directiva que estará plenamente operativa en febrero de 2024, infoLibre entrevista a dos de los cerebros españoles detrás de la Ley de Servicios Digitales. En una videollamada a tres, Alberto Pena Fernández, el jefe de Unidad del Centro Europeo para la Transparencia Algorítmica, atiende desde su sede en Sevilla a este periódico. Él coordina a una treintena de investigadores que controlan que las plataformas cumplan por lo estipulado en la nueva normativa. Desde Bruselas, se conecta Irene Roche Laguna, jefa de unidad adjunta de la UE de la coordinación y cumplimiento de la DSA. Ella lideró el equipo legal que negoció la normativa y ahora traslada una petición al Gobierno español: "Cada país tiene que nombrar un coordinador de servicios digitales, pero en el caso de España se están haciendo de rogar".
De todos los cambios que implica la nueva Ley de Servicios Digitales, que son muchos y que además llegan de la mano de la Ley de Mercados Digitales, ¿cuál es el que más afecta al usuario en su día a día?
Alberto Pena Fernández: Es una pregunta complicada. Como usuario, aparte de todos los riesgos que contempla, una de las partes más importante es que se hace con los datos, cómo funcionan los sistemas de recomendación, qué es lo que proponen y por qué lo proponen. Por ejemplo, te hablo de mi hijo, que usa las redes sociales a diario. La cantidad de información a que está sometido es ingente y, muchas veces, la información que recibe primero no tiene nada que ver con lo que él pide o está el borde de lo que consideraría legal o ético.
Irene Roche Laguna: Desde el punto de vista del negociador, cuando estábamos negociando, la principal línea no era necesariamente evitar que haya contenido malo en las redes, porque no es una directiva que regule que es bueno y malo, que es legal o ilegal, ya que para eso hay leyes nacionales y europeas. Lo que se buscaba, sobre todo, era la transparencia y darle agencia, poder quejarse, que podamos decidir si no quiero que me perfilen y optar por un sistema de recomendación que no esté basado en estos datos o que si veo contenido que considero que es ilegal pueda reportarlo. Ojo, esto no quiere decir que el contenido que yo notifique tenga que desaparecer: somos usuarios, no jueces. Y un tercer elemento que es el deber de diligencia: que las plataformas tengan que diseñar sus servicios, sus algoritmos o la forma en que presentan el contenido teniendo en cuenta al usuario y no necesariamente pensando solo en hacer dinero.
Durante estos primeros meses, las plataformas han estado haciendo pequeños cambios. Instagram o TikTok han incorporado modificaciones en su algoritmo, mientras que X ha añadido la posibilidad de denunciar contenido ilegal en la UE. ¿Son suficientes estas modificaciones?
I. R. L: Desde mi punto de vista, son un primer paso. Pero no podemos decir que ya está, cumplido y pasamos a lo siguiente. Han dado algunos primeros buenos pasos, pero otros se quedan a mitad. Además, les reconocemos que han estado preparándose en muy poco tiempo, porque es verdad que el reglamento ha sido adoptado de forma muy rápida y el plazo que han tenido ha sido poco. Quedan cosas por hacer y también quedan obligaciones que tienen que esperar porque necesita al regulador nacional.
A. P. F: No hay que olvidar que esta ley es casi la primera de su clase, tanto como legislación, con la parte de puesta en implementación, como en la parte en la que se les exige a las plataformas que cumplan con una serie de requisitos, que antes eran casi voluntarios. Estamos en los dos lados adaptándonos y hay que tener en cuenta que antes de correr hay que empezar a andar.
I. R. L: Eso sí, la realidad va más deprisa y es lo que hemos estado viendo estas últimas semanas el conflicto de Israel y Hamás. Estamos hablando con ellos y hay que ver cómo se adaptan si hay un conflicto, si hay una crisis o si de repente pasa algo. Las plataformas tienen que reaccionar, tenemos que ver qué capacidad tienen de adaptación a este tipo de cosas.
Las plataformas tienen que diseñar sus servicios, sus algoritmos o la forma en que presentan el contenido teniendo en cuenta al usuario y no necesariamente pensando solo en hacer dinero
Sobre lo que está sucediendo en Gaza, se ha publicado que desde Bruselas se ha pedido a Meta y TikTok que expliquen las medidas contra la difusión de bulos y violencia y se ha advertido a X por la difusión sin control de desinformación, ¿es este conflicto la primera gran prueba de fuego para la Ley de Servicios Digitales?
A. P. F: La respuesta inmediata es que no es su primera prueba de fuego. Con respecto a la desinformación, ha habido ya algunas elecciones y se han estado mirando otros temas. En el caso concreto del terrorismo, ahora ha saltado a primera plana, y es normal que estemos todos un poco más atentos, pero es algo que se estaba mirando ya desde hace algún tiempo.
Tras esta advertencia a X, se filtró que Elon Musk estaría barajando la opción de eliminar Twitter de la UE para no tener que cumplir la ley, aunque él lo ha desmentido. ¿Qué valoración hacéis de esta amenaza?
I. R. L: Un proveedor de servicios es libre de proveer servicios en Europa. Si no quieren proveer servicios, es su decisión. Y es una decisión económica, más que política o legal.
Otra de las novedades son los requisitos de transparencia, lo que se ha llamado "abrir la caja negra de los algoritmos", ¿qué implica abrir esta caja?
A. P. F: Básicamente, lo que se busca es la transparencia. Primero, saber qué es lo que está ocurriendo dentro y quiero tener la oportunidad de decidir qué información me aparece o no. Y segundo, saber que está haciendo ese algoritmo para que esa información me llegue a mí, y esa es la parte que nosotros analizamos. La empresa nos dice que el algoritmo hace esto y debe presentar esta información, y nosotros vemos si es verdad. ¿Deberían tener elementos que filtren esa información y que no llegue al usuario final? Tienen que demostrarnos cómo lo hacen. Eso es abrir la caja negra: saber lo que pasa.
Abrir la caja negra de los algoritmos es saber qué está ocurriendo dentro
¿Por qué es importante hablar de esta transparencia algorítmica?
A. P. F: Al final, lo que la ley está diciendo es que si no sabemos cómo funcionan los algoritmos por dentro, pero sí sabemos que los resultados no son los que queremos, necesitamos poner orden. Lo que queremos evitar es esta barra libre: que las plataformas hagan lo que les dé la real gana con la información y me presenten lo que quieran por intereses de negocio.
I. R. L: Durante los últimos 10-15 años, hemos estado yendo contra el contenido ilegal. Pero ir contra este contenido es una tarea ardua y trabajosa porque vuelve de una manera u otra. Es un poco como el mito de la caverna: tú estás solo yendo contra las sombras pero no estás viendo lo que se produce detrás. Al dar transparencia algorítmica se va al origen de la amplificación de la desinformación y de la diseminación del contenido falso. ¿Por qué un bulo vuela más rápido que una noticia? Ese es el tipo de cuestiones que queremos responder.
Además, el abrir la caja negra es todo un hito, pero necesitas gente que sepa interpretarla. A mí, si me ponen delante de una caja negra de un avión, no sé qué es lo que tengo que buscar. Por eso, el Centro Europeo para la Transparencia Algorítmica tiene un rol muy importante a jugar porque necesitamos gente que sepa entender, que sepa hablar de tú a tú con los ingenieros de las grandes plataformas para identificar cómo están organizados esos algoritmos y cómo se puede hacer un algoritmo que sea acorde con la ley.
¿Por qué es tan necesario este Centro Europeo para la Transparencia Algorítmica (ECAT, por sus siglas en inglés)?
A. P. F: Aquí tenemos una serie de ingenieros o de especialistas en determinadas materias que son capaces de interpretar lo que hace un algoritmo por dentro, dar recomendaciones o hacer un análisis para que los legisladores puedan analizar esa información desde el punto de vista más legal. Nosotros les pasamos la información técnica filtrada para que se pueda condensar, y también la interpretamos: la digerimos, la procesamos, la analizamos y la preparamos. Y proponemos vías posibles a seguir. Además, nosotros interaccionamos con las comunidades científicas. Porque, al final, esto es un problema global, no europeo.
"Queremos evitar que haya barra libre con los algoritmos y que las plataformas hagan lo que les de la real gana con la información"
¿Qué perfiles trabajan en un Centro para la Transparencia Algorítmica?
A. P. F: Tenemos puestos vacantes y los publicamos regularmente. Hay ingenieros de muchos tipos, desde análisis de datos hasta informáticos, pero también tenemos una psicóloga, gente de comunicación y perfiles legales. Tenemos un compendio, lo que llaman multidisciplinar se aplica casi al 100%. Intentamos cubrir la mayoría de las cosas, porque en los algoritmos hay una parte que no es tanto de ingeniería sino de comprensión de cómo funciona.
¿Y quién vigila a los que vigilan?
A. P. F: La pregunta del millón. La ley está para algo: aplicó la ley, la interpreto, doy unos resultados, los paso y es entonces cuando la legislación se aplica. Y después hay mecanismos qué dicen si esta legislación es válida o no. El Parlamento Europeo, el Consejo, los ciudadanos o la prensa son algunos de los que nos van a vigilar y nos van a pedir cuentas. Estamos ultra vigilados, ultra controlados y tenemos que rendir cuentas regularmente.
Con la transparencia algorítmica se va al origen de la amplificación de la desinformación
Además de la transparencia que busca esta directiva, otra de las herramientas de seguimiento de la ley son las auditorías que van a tener que pasar las diferentes plataformas. ¿por qué son necesarias?
A. P. F: Hacemos muchos análisis y mucha recopilación de información, pero la auditoría es un proceso mucho más formal en el que se siguen una serie de pasos dentro de un tiempo marcado. Es casi un procedimiento legal.
I. R. L: No es solo la Comisión la que tiene que soportar el peso del control y la supervisión, son las propias plataformas las que tienen que asegurarse de que cumplen con la ley y necesitan una auditoría independiente que les diga que cumplen con la ley. Por ejemplo, muchas veces dicen que han firmado el código de conducta contra el discurso de incitación al odio pero después no se sabe qué es lo que están haciendo. Ahora, un auditor independiente tendrá que mirar qué es lo que han hecho para cumplir y darán su propio punto de vista sobre si están cercanos al cumplimiento o no.
La Ley de Servicios Digitales ya está parcialmente en vigor. La siguiente fecha marcada en rojo es a finales de octubre, cuando las plataformas tienen que presentar un informe de transparencia, ¿qué podemos esperar de este nuevo paso en el cumplimiento de la ley?
I. R. L: Mi pregunta es si el usuario, el ciudadano de a pie, estará interesado porque nos van a llenar de información: nos tienen que informar sobre todo el contenido que moderan o que eliminan, nos van a decir con cuántos moderadores cuentan y cuál es su nivel de conocimiento o cuáles son las lenguas que protegen mejor. Todo este tipo de información tendremos que aprender a encontrarla porque ahora mismo esperamos unos informes de transparencia bastante abrumadores donde van a hacer un ejercicio de relaciones públicas de 'somos buenísimos y mira todo lo que hacemos'. Pero tendremos que separar el polvo de la paja y obtener la información que nos va a ser útil para los próximos pasos.
Las webs pornográficas también tendrá que cumplir con la ley y establecer medidas para proteger a los menores
Cuando todo el reglamento entre en vigor en febrero del 2024, junto con la Ley de Mercados Digitales, ¿qué cambios van a notar los usuarios? ¿Se habrá acabado el Salvaje Oeste digital, como dijo el comisario Breton en 2022?
Adiós al contenido ilegal y al algoritmo personalizado: así notan ya los usuarios la ley europea para redes sociales
Ver más
I. R. L: Pues eso esperamos. Pero necesitamos el trabajo en común de los Estados miembros. Cada país ha nombrado un coordinador de servicios digitales, pero en el caso de España se están haciendo de rogar. También es verdad que, con la situación política y las elecciones, las cosas han quedado un poco paradas. Pero es sangrante y es algo que España tiene que nombrar una autoridad independiente, un regulador igual que existe en el sector audiovisual, de las telecomunicaciones, de competencia o de protección de datos. Los reguladores nacionales, igual que pasa en telecomunicaciones, permitirán emitir una queja. Eso va a permitir que el usuario sea más consciente de sus derechos.
Otro elemento que esperamos que suceda en febrero es que no solo las 19 plataformas estén sometidas a la directiva, también lo estarán servicios como Wallapop, Menéame o Idealista, plataformas que son campeonas nacionales y que tendrán que cumplir con la ley. Las plataformas pornográficas también tendrán que cumplir con la ley y eso significa que tendrán que proteger a los menores y establecer medidas de verificación de edad para evitar que, si ellos dicen que no son accesibles a menores, demostrar lo que están haciendo y las medidas que están tomando para evitar que los menores tengan acceso. Ese es un campo donde esperamos un cambio radical.
A. P. F: A nivel de usuario, algunas de las plataformas más conocidas han cambiado algunos de los Términos de Uso y han puesto algún que otro filtro distinto. Van tomando medidas poquito a poco y eso se va viendo. No digo que hayan solucionado todos los problemas o todos los riesgos los hayan controlado, pero veo que hay movimientos en esa dirección.