Meta 'suspende' en Gaza: la moderación automatizada no funciona y elimina pruebas de crímenes de guerra
El tribunal supremo de Meta —antes Facebook— suspende la actuación del imperio de Mark Zuckerberg durante la guerra en Gaza. En concreto, en la resolución publicada este martes por el consejo asesor de contenido llamado Oversight Board, que así se llama oficialmente este órgano independiente de la compañía californiana, se asegura que la actuación de la tecnológica afectó a la libertad de expresión ya que el uso que hicieron estas plataformas de sus herramientas automatizadas para la moderación aumentó la probabilidad de eliminar publicaciones "valiosas" sobre "el sufrimiento en ambos lados del conflicto en Oriente Próximo".
Es más, el Oversight Board asegura que esta moderación automatizada "agresiva" pudo eliminar evidencias de "violaciones de derechos humanos". Según detalla este organismo independiente, el imperio les confirmó durante una sesión informativa que bajó "temporalmente" sus umbrales de alerta para que estas herramientas "detecten y eliminen el contenido potencialmente infractor" ante el "aumento excepcional" de imágenes y vídeos "violentos y gráficos" tras el 7 de octubre. Estas medidas se aplicaron al contenido originado en Israel y Gaza en todos los idiomas.
Esto significó, según explican, que Meta utilizó sus herramientas automatizadas "de manera más agresiva para eliminar contenido que pudiera violar sus políticas". ¿Qué consiguió? "Si bien redujo el riesgo de contenido dañino, también aumentó la probabilidad de eliminar por error publicaciones valiosas y que no violan las reglas de sus plataformas", argumenta este órgano independiente.
En esta misma línea, pide a Facebook e Instagram desarrollar e implementar acciones para preservar este tipo de contenido para investigaciones de "crímenes atroces o violaciones de derechos humanos". "Es vital preservar dichas evidencias en aras de una futura rendición de cuentas", explica este organismo.
Además, también insta a Meta a responder de forma más rápida en circunstancias "cambiantes" como las que se viven actualmente en la Franja de Gaza. No hay que olvidar que, en las semanas posteriores al ataque de Hamás del 7 de octubre, el Oversight Board detectó que se triplicaron las apelaciones enviadas por los usuarios relacionados con la región de Medio Oriente y África del Norte.
"La junta se centró en proteger el derecho a la libertad de expresión de las personas de todas las partes sobre estos horribles acontecimientos, garantizando al mismo tiempo que ninguno de los testimonios incitara a la violencia o al odio", explica en la nota enviada por este organismo el copresidente del Oversight Board, Michael McConnell, que apunta que estos testimonios son clave ya que algunos de ellos "podrían ser pruebas importantes de posibles violaciones graves de los derechos humanos internacionales y del derecho humanitario". "Las redes sociales como Facebook e Instagram son a menudo los únicos vehículos durante los conflictos armados para proporcionar información, especialmente cuando el acceso de los periodistas es limitado o incluso prohibido", recordó.
Esta resolución del consejo asesor de contenido, que llega en un tiempo récord —ha tardado doce días cuando su plazo suele ser de 30 para decisiones urgentes—, analiza dos casos seleccionados por la importancia de la libertad de expresión en situaciones de conflicto". En ambos, la junta de supervisión anuló las decisiones iniciales de Meta de eliminar estas publicaciones, aunque aprobó su posterior resolución de restaurarlas con una pantalla de advertencia.
Imágenes sobre la masacre en Al-Shifa: "Se suprimieron comunicaciones importantes"
El primero se trata de un vídeo publicado en Instagram que muestra las secuelas del ataque al Hospital de Al-Shifa. En la grabación se pueden observar a varias personas, incluidos niños, "tirados en el suelo sin vida o heridos y llorando". Tanto la decisión de eliminar información como el rechazo a una apelación posterior de un usuario, se hicieron automáticamente y sin ninguna supervisión humana en cumplimiento de su política sobre contenido gráfico y violento: "Esto llevó a la supresión de comunicaciones importantes de interés público sobre el sufrimiento en Gaza".
Además, la junta de supervisión recuerda que esta masacre no planteaba para Meta "el mismo conjunto de desafíos que lo ocurrido el 7 de octubre". "En Gaza ha habido dificultades para obtener información de la gente sobre el terreno, mientras que el acceso de los periodistas al territorio es limitado y la conexión a Internet se ha visto interrumpida", explica el documento que apunta además que, en este caso, no estaban involucrados "terroristas que utilizaran las redes sociales para difundir sus atrocidades". "La cuestión para cualquier revisor que evalúe dicho contenido debería ser si se compartió para crear conciencia o para condenar eventos sobre el terreno ", apunta el órgano independiente.
Cabe recordar que, por ejemplo, desde Amnistía Internacional exigieron en noviembre a las redes sociales intensificar la respuesta a esta crisis ante "la proliferación del odio y la censura en Internet". La ONG ponía el foco en la apología del odio que se está permitiendo, pero también en el "apagón total y censura oculta de contenidos palestinos".
Imágenes de los rehenes: de evitar que las use Hamás a prueba de los hechos
El segundo es un vídeo publicado en Facebook de una mujer israelí secuestrada supuestamente el 7 de octubre por Hamás. En la grabación, se ve a esta rehén rogar a sus secuestradores que no la maten. Inicialmente, Meta eliminó esta publicación basándose, por un lado, en su política de organizaciones e individuos peligrosos que prohíbe "imágenes de terceros que representen el momento del ataque a víctimas visibles" y, por otro, en la preocupación de que fueran usadas para "celebrar o promover las acciones de Hamás".
Sin embargo, posteriormente, se compartieron por parte de las familias de las víctimas para "condenar y crear conciencia" o "contrarrestar las narrativas emergentes que negaban estos acontecimientos". Ante este cambio, Meta confirmó que comenzó a permitir este tipo de publicaciones sobre el 20 de octubre en algunas cuentas sujetas a su revisión precisa de contenido de alto impacto por medio de su sistema de verificación cruzada, aunque se amplió a todos los usuarios el 16 de noviembre.
Según explica la propia compañía, este método "permite identificar contenido que presenta un mayor riesgo de falsos positivos y brinda niveles adicionales de revisión para mitigarlo" gracias a entidades cívicas, publicaciones de periodistas y teniendo en cuenta el contexto. Sin embargo, su uso de esta forma "contradice cómo Meta describió y explicó su propósito" ya que lo presentó como "un sistema de prevención de errores y no como un programa que proporciona reglas más permisivas".
Restricción a los contenidos con pantalla de advertencia
¿Prohibido ser propalestino en redes? Musk y Zuckerberg toman partido por Israel y censuran la masacre en Gaza
Ver más
Además, el Oversight Board detalla que en aquellos casos en los que Meta aplicó pantallas de advertencia, como en los dos de su resolución, para "evitar la exposición involuntaria a contenido perturbador" también aplicó a estas publicaciones una restricción que impedía su recomendación a otros usuarios. "Incluso en los casos en los que había determinados post destinados a crear conciencia", asegura este organismo independiente.
Ante estos errores, este órgano independiente reiteró a Meta la necesidad de que actúe rápidamente "según las pautas de moderación", que desarrolle "un protocolo para preservar contenido que podría ayudar en las investigaciones de crímenes de guerra" y que notifique a los usuarios cuando "se utilice la automatización para tomar medidas coercitivas contra sus publicaciones".
Esta junta de supervisión es la encargada ahora de aclarar y revisar aquellas decisiones "complejas e importantes" en materia de contenido adoptadas por Meta, relacionadas con qué elimina, qué conserva y los motivos detrás. La resolución adoptada ahora por este tribunal supremo sobre la situación en Gaza, como todas las que toma, son vinculantes. En principio, y si la matriz de Facebook sigue sus reglas, cumplirá con las recomendaciones que realiza el Oversight Board, aunque tal y como recordó The New York Times en 2021, no hay ningún organismo que haga cumplir este acuerdo.