El Tribunal Supremo de Facebook ya tiene sus primeros seis casos para deliberar. El consejo asesor de contenido o Oversight Board, que así se llama oficialmente este órgano independiente del imperio tecnológico, se puso en marcha a mediados de octubre, cinco meses después de que la compañía propiedad de Mark Zuckerberg anunciase en mayo su formación y composición. El objetivo de este proyecto, del que su líder y fundador empezó a hablar en 2018, es aclarar y revisar de forma independiente determinadas decisiones "complejas e importantes" en materia de contenido adoptadas por la compañía y relacionadas con qué contenido elimina, cuál conserva y los motivos detrás tanto de publicaciones de la red social como de Instagram. La compañía, aseguró entonces Zuckerberg, "no debería tomar por sí sola tantas decisiones importantes sobre libertad de expresión y seguridad". WhatsApp, también propiedad de la compañía californiana, se queda fuera, por el momento, de las quejas que resolverá este consejo.
Tras abrir la recepción de apelaciones el pasado mes de octubre, este tribunal ha recibido más de 20.000 casos. "Dado que el consejo no puede atender cada apelación, daremos prioridad a los casos que puedan afectar a muchos usuarios de todo el mundo, que sean fundamentales para el discurso público o que planteen interrogantes importantes sobre las políticas de Facebook", explica este órgano en un comunicado en el que detalla los seis primeros casos sobre los que deliberará.
Se abre así un proceso de 90 días en el que un panel de cinco expertos decidirá si la publicación en cuestión infringe o cumple las normas de la plataforma y la legislación internacional de derechos humanos. Una vez que se llegue a una decisión, Facebook deberá implementar las recomendaciones y responder de forma pública. Por el momento, esta especie de Tribunal Supremo atenderá solamente casos de usuarios cuyo contenido ha sido suprimido y que reclaman que se readmita. En el futuro, el plan es extenderlo a usuarios que pidan que se eliminen publicaciones.
De estos seis casos, cinco son apelaciones de usuarios y uno lo remitió el propio Facebook. Tal y como explica este órgano, las descripciones se hicieron de forma genérica para proteger la identidad de los usuarios implicados suprimiendo detalles e información personal.
¿Un desnudo o una imagen para concienciar sobre el cáncer de mama?
Facebook eliminó una publicación en Brasil en la que se veían ocho imágenes que describen los síntomas del cáncer de mama. En cinco de estas fotos, se apreciaban pezones femeninos cubiertos y descubiertos. En las tres restantes se veían pechos con los pezones o fuera de plano o tapados con una mano.
La red social borró esta imagen al considerar que infringía su política sobre desnudos y actividad sexual de adultos: "Limitamos la exhibición de desnudos o actividad sexual para proteger a determinadas personas de nuestra comunidad que muestran una especial sensibilidad ante este tipo de contenido". Asimismo, Facebook matiza que estas reglas se han ido "matizando con el paso del tiempo", ya que entienden que se pueden compartir desnudos por "muchos motivos, incluso como forma de protesta, para concienciar sobre una causa o con fines educativos o médicos. Cuando esa intención queda clara, permitimos ese contenido". Es más, sobre los pechos femeninos, explican que aunque restringen algunas, permiten aquellas que "representan actos de protesta, mujeres dando el pecho o fotos de cicatrices de mastectomías".
A pesar de esto, Facebook eliminó esta publicación. Ahora, este usuario de Brasil alega que la foto se compartió como parte de la campaña Pink October para la prevención del cáncer de mama.
¿Discurso de odio o generar conciencia sobre "palabras horribles"?
Facebook eliminó una publicación de un usuario con una captura de pantalla de dos tuits de Mahathir bin Mohamad, primer ministro de Malasia desde mayo de 2018 hasta febrero de 2020, en los cuales aseguraba que "los musulmanes tienen derecho a estar enfadados y matar a millones de franceses por las masacres del pasado" y que "los musulmanes no aplican la ley del ojo por ojo. Los musulmanes no lo hacen y los franceses no deberían hacerlo. En vez de esto, los franceses deberían enseñar a sus ciudadanos a respetar los sentimientos de las demás personas".
La plataforma alegó que esta publicación que recoge los tuits de un personaje público infringe su política sobre discurso de odio o incitación al odio: "Consideramos discurso de odio o lenguaje que incita al odio todo contenido que ataca directamente a las personas por lo que denominamos 'características protegidas': raza, etnia, nacionalidad, religión, clase, orientación sexual, sexo, identidad sexual y discapacidad o enfermedad grave". Sin embargo, el usuario alega en su apelación que con este post buscaba generar conciencia sobre las "palabras horribles" del exprimer ministro malayo.
¿Incitación al odio o contradecir a aquellos que se ponen del lado de los asesinos?
Facebook eliminó la publicación de dos fotos "famosas de un niño fallecido que yacía totalmente vestido en una playa a orillas del agua", en referencia a las imágenes de Aylan Kurdi, el menor sirio que se ahogó y cuyo cuerpo terminó en una playa turca tras un fallido intento de su familia de cruzar el mar hacia Grecia. A estas dos fotografías, y en birmano, el post preguntaba por qué no existen represalias contra el trato que da China a los musulmanes de la etnia uirgur haciendo referencia tanto a la crisis de refugiados sirias como a los asesinatos en Francia relacionados con la publicación de las viñetas de Mahoma en la revista satírica Charlie Hebdo.
La red social explicó que esta supresión se debía a que el contenido por infringía su política sobre discurso de odio o incitación al odio. El usuario, por su parte, reclama en su apelación que su objetivo era contradecir a aquellas personas que se ponen del lado de los asesinos y recalcar que las vidas humanas están por encima de las creencias religiosas.
¿Personas peligrosas o una alerta contra el fascismo de Trump?
Facebook eliminó un post sobre una cita atribuida supuestamente a Joseph Goebbels, el ministro de Ilustración Pública y Propaganda del Tercer Reich en la Alemania nazi, sobre la necesidad de apelar a las emociones y los instintos en lugar de al intelecto y la irrelevancia de la verdad. Esta publicación, en realidad, era una sugerencia propia de la red social en su función "Un día como hoy". El usuario la había compartido sin problema hacía dos años.
La plataforma, sin embargo, en esta reiteración dos años después consideró que infringía su política sobre personas y organizaciones peligrosas: "En un esfuerzo por prevenir e impedir daños en la vida real, no permitimos la presencia en Facebook de ninguna organización o persona que cometa actos violentos o cuyo objetivo lo sea". En su apelación, el usuario, sin embargo, expone que la cita es importante ya que "la actual Presidencia de EEUU sigue un modelo fascista", en referencia a Donald Trump.
¿Discurso de odio o una ilustración de destrucción de monumentos religiosos?
Facebook también eliminó fotos "presuntamente históricas" en las que se ven iglesias de Bakú, Azerbaiyán, con un texto en que se aseguraba que esta ciudad fue fundada por el pueblo armenio y preguntando por el destino de estos templos. El usuario afirmaba en esta publicación que en Armenia (de mayoría cristiana) se están restaurando mezquitas mientras que en Azerbaiyán (de mayoría musulmana) se están destruyendo iglesias, y que él está en contra del "ataque azerbaiyano" y el "vandalismo".
La red social suprimió esta publicación alegando que infringía su política sobre el discurso de odio o incitación al odio. El usuario, sin embargo, alega que su intención era ilustrar la destrucción de monumentos culturales y religiosos.
Ver másEl Supremo sentencia que cogerse una excedencia para cuidar a los hijos computa como servicio activo
El caso de Facebook: la desinformación sobre el covid-19
El último caso se trata de un caso remitido por el propio Facebook. Un usuario publicó un vídeo de un texto sobre un presunto escándalo de la agencia francesa responsable de la regulación de los productos sanitarios en el que se aseguraba que se denegaba la autorización del uso del uso de la hidroxicloroquina y la azitromicina contra el covid-19, pero se permitía el envío de correos electrónicos promocionales sobre el remdesivir. El vídeo logró unas 50.000 reproducciones y fue compartido unas mil veces.
Facebook decidió eliminar el contenido porque infringe su política sobre violencia e incitación: "Si bien entendemos que las personas suelen expresar desprecio o desacuerdo mediante amenazas o apelaciones a la violencia sin intenciones serias, eliminamos el lenguaje que incita a cometer actos graves de violencia o los hace posibles". Al remitirlo al consejo, la red social pretende así ponerlo como ejemplo de los retos a los que se enfrenta a la hora de impedir daños en la vida real por la difusión de desinformación sobre el coronavirus.
El Tribunal Supremo de Facebook ya tiene sus primeros seis casos para deliberar. El consejo asesor de contenido o Oversight Board, que así se llama oficialmente este órgano independiente del imperio tecnológico, se puso en marcha a mediados de octubre, cinco meses después de que la compañía propiedad de Mark Zuckerberg anunciase en mayo su formación y composición. El objetivo de este proyecto, del que su líder y fundador empezó a hablar en 2018, es aclarar y revisar de forma independiente determinadas decisiones "complejas e importantes" en materia de contenido adoptadas por la compañía y relacionadas con qué contenido elimina, cuál conserva y los motivos detrás tanto de publicaciones de la red social como de Instagram. La compañía, aseguró entonces Zuckerberg, "no debería tomar por sí sola tantas decisiones importantes sobre libertad de expresión y seguridad". WhatsApp, también propiedad de la compañía californiana, se queda fuera, por el momento, de las quejas que resolverá este consejo.