LA PORTADA DE MAÑANA
Ver
Las decisiones del nuevo CGPJ muestran que el empate pactado entre PP y PSOE favorece a la derecha

El fango de la desinformación en la guerra en Oriente Medio saca lo peor de las redes

Niños al lado de un edificio destrozado por una bomba en Gaza

Yunnes Abzouz (Mediapart)

El sábado 21 de octubre, una cuenta anónima publicó en X (antes Twitter) un montaje de un minuto y medio, subtitulado en perfecto francés, utilizando los mismos códigos gráficos que Le Figaro y firmado por un periodista de ese diario generalista. El vídeo alegaba que el equipo de Observadores de France 24, especializado en la verificación de imágenes, había examinado fotos de israelíes quemados como prueba de crímenes cometidos por Hamás. Su análisis demuestra que estas imágenes han sido distorsionadas por el gobierno israelí y corresponden de hecho a víctimas de incendios mortales en 2016. 

De hecho, este vídeo de un asombroso realismo nunca fue producido por Le Figaro y combina sutilmente declaraciones auténticas con información falsa. Detrás de la cuenta de esta falsificación hay un bot, es decir, un robot programado por un humano para postear automáticamente. Puede que el bot no sea muy popular en la red social, pero su vídeo, reposteado miles de veces, normalmente por bots para aumentar su visibilidad, fue retomado por usuarios auténticos de la plataforma, que probablemente fueron engañados, contando a veces con decenas de miles de seguidores. 

El vídeo fue finalmente eliminado dos días después por los equipos de moderación de X, o al menos lo que quedaba de él, y la cuenta del bot también fue suspendida. Pero el daño ya estaba hecho. En cuarenta y ocho horas, la información engañosa tuvo tiempo de propagarse y sumarse a la extrema confusión que reina en la red social desde la mortífera incursión de Hamás en Israel. El vídeo también repite la teoría difundida por las redes prorrusas, según la cual los ucranianos vendieron a Hamás armas suministradas por países occidentales para apoyar el esfuerzo bélico ucraniano. 

El distintivo azul, principal vector de intoxicación

La adquisición del entonces Twitter por parte de Elon Musk hace exactamente un año convirtió la red social en un mar de desinformación, sumergiendo a sus usuarios en imágenes falsas, vídeos descontextualizados y otros contenidos manipulados. Como acto fundacional de su nuevo Twitter, el multimillonario libertario despidió al 80% de los empleados de la plataforma, incluida una parte importante de los moderadores.

Prácticamente sin restricciones, trolls de todo tipo, incluidos los de extrema derecha que estaban vetados en la plataforma y reinstaurados hasta cierto punto por Musk, vierten desde entonces torrentes de odio, y circulan sin límite contenidos explícitos y violentos, sobre todo a la vista de menores.

Desde el ataque de Hamás y la consiguiente guerra de narrativas, cada día llega un diluvio de fake news de todo tipo, que se extienden a un ritmo sin precedentes y resultan especialmente preocupantes según los expertos. Ahora que la certificación está al alcance de todos, cualquier información puede hacerse viral, independientemente de su veracidad o de la fiabilidad de su fuente, siempre que la cuenta que la publicó pague 8 dólares al mes, el precio por el derecho a un distintivo azul. 

De hecho, en X, las personas que buscan información sobre la guerra en Oriente Medio están expuestas principalmente a las publicaciones de cuentas certificadas, destacadas por el algoritmo, más que a informaciones verificadas. En las últimas semanas ha habido un revoltijo de imágenes producidas por inteligencia artificial que pretendían mostrar un campo de refugiados israelíes en Palestina, tomas falsas del futbolista Cristiano Ronaldo portando una bandera palestina y pruebas falsas de niños de Gaza supuestamente maquillados para que parecieran víctimas de los bombardeos israelíes. 

La prueba de que los distintivos azules alimentan la desinformación en X, es que el 74% de las afirmaciones falsas más virales relacionadas con la guerra en Oriente Próximo fueron difundidas por cuentas con distintivos azules, según un análisis de NewsGuard. 

Los fact-checkers tiran la toalla

Incluso los fact-checkers, periodistas especializados en la verificación de imágenes y vídeos virales, y otros profesionales de Osint (inteligencia de fuentes abiertas) están desbordados por el volumen de intoxicación. E incluso cuando intentan absorber el flujo de desinformación, sus posts de verificación quedan sepultados por las noticias falsas destacadas por el algoritmo de X. Esos periodistas pasan a veces más tiempo descubriendo imágenes antiguas y descontextualizadas que documentando el conflicto en tiempo real. 

Varios activistas que trabajan para garantizar la fiabilidad de la información publicada en las redes sociales han anunciado ya su intención de abandonar X. Con su marcha, todo el ecosistema informativo de la plataforma corre el riesgo de hundirse definitivamente. 

Justin Peden, más conocido en X como "The Intel Crab" y experto en Osint, ha compartido su preocupación por el futuro de su actividad en la red social: "Por muchas razones, este es el periodo más difícil que he vivido en X. Las noticias más creíbles ahora son fotos. Sobre el terreno, los medios de comunicación tienen dificultades para llegar a su público sin un costoso tick azul. Los cretinos xenófobos son alentados por el dueño de la plataforma.” Y concluye señalando más claramente al responsable: "¿Cómo podemos arreglar esto, Elon Musk?".

Del dicho al hecho: un colectivo francés lanzado por Tristan Mendès France, Julien Pain y Rudy Reichstadt, todos activos en la lucha contra la desinformación, ha firmado un artículo en Le Monde llamando a boicotear X el viernes 27 de octubre, aniversario de la adquisición de Twitter por Musk. Un #notwitterday, o huelga de tuits, durante 24 horas. Escriben: "Una moderación menos estricta no hace avanzar la libertad de expresión: favorece la libertad de los extremistas en detrimento de la de la mayoría silenciosa."

Notas de los usuarios: una herramienta disfuncional

Ni siquiera las salvaguardas puestas en marcha por Musk, él mismo aficionado a las teorías de la conspiración, son eficaces para combatir los contenidos tóxicos. Su último invento es poner a los usuarios X a moderar la plataforma. Así, han hecho su aparición las notas comunitarias, una herramienta colaborativa que invita a los usuarios a añadir contexto a las publicaciones que consideren engañosas. El problema es que la herramienta no está funcionando tan bien como se esperaba. 

Una investigación de la revista americana Wired ha revelado, a partir de confidencias de empleados de X, que las notas de la comunidad son vulnerables a la manipulación por parte de grupos malintencionados y carecen de transparencia en cuanto a la aprobación de sus colaboradores. Por ejemplo, un usuario con dos cuentas consiguió que cada una de ellas fuera aprobada como contribuyente a las notas de la comunidad. Esto sugiere que el sistema podría ser vulnerable a intentos de manipulación a mayor escala, como en 2016, cuando trolls del Kremlin se hicieron pasar por ciudadanos americanos e intentaron influir en las elecciones. 

Consciente de las limitaciones de su herramienta, el CEO multimillonario  ha sugerido a sus 150 millones de suscriptores seguir dos cuentas que informan en tiempo real de los acontecimientos en Oriente Próximo. Para colmo de males, ambas cuentas son conocidas por retransmitir teorías conspirativas y otras intoxicaciones. Musk acabó borrando su post, que ya había sido visto por más de once millones de personas. 

Si bien X parece haberse sumido definitivamente en el caos de la desinformación, todas las redes sociales se ven ya afectadas por la proliferación incontrolada de contenidos engañosos. Meta (Facebook) también ha decidido recientemente suprimir cerca de 10.000 puestos de trabajo, muchos de ellos de moderadores. 

Se extinguen así definitivamente las esperanzas suscitadas por la llegada de las redes sociales, una Internet emancipadora que ofreciera a todas las voces, incluso a las más minoritarias, un espacio de expresión libre y democrático. En lugar de esta utopía liberal, las redes sociales han destruido el espacio de la información, han establecido el triunfo de la opinión sobre la información y han puesto en pie de igualdad a las fuentes fiables con los trolls que propagan el odio y la intoxicación. 

La matanza del hospital de Gaza: el triunfo de la desinformación al servicio de un conflicto polarizado

La matanza del hospital de Gaza: el triunfo de la desinformación al servicio de un conflicto polarizado

Ni siquiera es seguro que este modelo sea rentable para los gigantes digitales americanos. Elon Musk asumió nada menos que 13.000 millones de dólares de deuda para comprar el desaparecido pajarito azul, y la propia empresa probablemente valga mucho menos a estas alturas: según sus propios cálculos, ha perdido casi el 90% de su valor. 

En el plano jurídico, la Comisión Europea anunció el jueves 12 de octubre la apertura de una investigación contra X por supuesta difusión de "información falsa", "contenido violento y terrorista" o "incitación al odio", a raíz de los atentados de Hamás contra Israel. Desde entonces, han proliferado los rumores que especulan con el cierre de X en Europa, rápidamente desmentidos por el principal interesado, Elon Musk. ¿Y si la salvación de X pasara por su desaparición?

Traducción de Miguel López

Más sobre este tema
stats