Zuckerberg rompe en Ucrania su política contra el discurso de odio: ya se puede incitar a matar rusos
Meta, la compañía propietaria de Facebook, Instagram y WhatsApp, parece que es incapaz de enfrentarse a una crisis global sin tropezar en la piedra de su propia crisis. Cuando parecía que las redes sociales iban a mantener un perfil bajo y no protagonizar titulares en la guerra de Vladimir Putin poniendo en práctica todo lo que habían aprendido tras sus errores en las elecciones de EEUU en 2016, la pandemia del covid-19 o el ataque al Capitolio, el imperio de Mark Zuckerberg decidió salirse por la tangente y tomar la controvertida decisión de relajar en Ucrania su política contra el discurso de odio abriendo la puerta a mensajes violentos hacia el Gobierno y los soldados de Rusia. "Meta lo que hace con esta decisión no es tanto sentar un precedente sino apoyar a un bando, se ha posicionado", explica Leticia Rodríguez Fernández, investigadora y profesora de Relaciones Públicas en la Universidad de Cádiz.
"Si aplicáramos nuestras políticas de contenido estándar sin ningún ajuste, ahora estaríamos eliminando el contenido de los ucranianos comunes que expresan su resistencia y furia contra las fuerzas militares invasoras, lo que, con razón, se consideraría inaceptable", defendió el presidente de asuntos globales de la compañía, Nick Clegg, que se ha convertido en la voz autorizada de Meta para este conflicto en el este de Europa. Tras insistir en que se trata de una excepción que sólo se aplicará en Ucrania, quiso dejar claro que la plataforma no tolerará ni la "rusofobia" ni "ningún tipo de discriminación, acoso o violencia" hacia los ciudadanos de este país en un comunicado emitido a través de Twitter horas después de que se filtraran unos correos internos de la tecnológica.
Estos correos publicados el pasado 11 de marzo por Reuters mostraban la decisión de Meta de relajar su política de incitación al odio en Facebook e Instagram permitiendo a los usuarios llamar a la violencia y al asesinato de ciudadanos rusos, incluido el propio Putin. ¿Y por qué violarían estos mensajes las directivas de la tecnología? Sencillo. Según figura en sus normas comunitarias, no permiten el lenguaje que incita al odio "ya que crea un entorno intimidatorio y excluyente que, en algunos casos, puede incitar a la violencia fuera de Internet".
En concreto, consideran "lenguaje que incita al odio" aquel que "ataca directamente a las personas, por encima de conceptos e instituciones, en relación con las denominadas "características protegidas"", entre las que incluyen "raza, etnia, nacionalidad, discapacidad, religión, clase, orientación sexual, sexo, identidad de género y enfermedad grave". "Este cambio de política es peligroso porque muestra la falta de transparencia en la curación de contenidos y en los algoritmos de la red social", explica Rodríguez Fernández, que también apunta a que, de nuevo y como pasa siempre con Facebook e Instagram, seguimos sin saber "cómo funcionan estas empresas privadas".
Con respecto a las amenazas de muerte a Putin, el propio Clegg matizó 48 horas después de forma interna, y según publica Reuters, que este cambio no debería interpretarse como una "aprobación de la violencia contra los rusos en general" y que no se permitirán "llamadas para asesinar a un jefe de Estado". Rodríguez Fernández ve esta aclaración una especie de "Operación Valquiria digital". "Pero este tipo de amenazas no se pueden consentir en ninguna fórmula ni hacia nadie. Hoy es Putin, pero mañana puede ser otra figura de autoridad. Y es intolerable este tipo de contenidos", defiende la también autora del libro Propaganda digital y comunicación en tiempos de desinformación.
El precedente de permitir elogiar al Batallón Azov
Pero los correos filtrados de Meta van más allá y abren otro peligroso precedente al permitir elogiar "estrictamente en el contexto de la defensa de Ucrania" al Batallón Azov. Este grupo paramilitar neonazi fue acusado en 2016 de cometer violaciones y torturas contra civiles prorrusos en la región del Donbás. Según figura en las normas comunitarias de Facebook, en el apartado de personas y organizaciones peligrosas, se elimina "el contenido que exalta, apoya sustancialmente o representa ideologías que promueven el odio, como el nazismo y la supremacía blanca". Además, desde 2019, el Batallón Azov está incluido en el registro de la propia red social de organizaciones e individuos peligrosos, en el que también se encuentran, entre otros, el Estado Islámico o el Ku Klux Klan.
Es bastante llamativo este movimiento de Meta, ya que son conscientes desde hace años del conflicto en ciernes entre ambos países. En concreto, en una publicación de 2017 titulada Preguntas difíciles: ¿quién debería decidir qué es el discurso de odio en una comunidad global en línea?, reconocían un problema existente en la zona desde 2014 con respecto "al uso de palabras de la jerga que las dos poblaciones han usado durante mucho tiempo para describirse entre sí". "Los ucranianos llaman a los rusos moskal, literalmente 'moscovitas', y los rusos llaman a los ucranianos khokhol, literalmente 'manojo de paja'", explican en esta entrada en la que también apuntan que "personas de ambos países" comenzaron a denunciar ambas apelaciones como "discurso de odio" a raíz del conflicto en Donetsk y Lugansk. "Hicimos una revisión interna y concluimos que tenían razón. Comenzamos a eliminar ambos términos, una decisión que inicialmente fue impopular en ambos lados porque parecía restrictiva, pero en el contexto del conflicto nos pareció importante", concluye esta publicación, mucho más restrictiva que lo planteado ahora por la plataforma.
El doble rasero de Meta con el discurso del odio
También es bastante llamativa esta relajación de su política contra el discurso de odio por otra razón que mostraría el doble rasero de Meta. Lo explica Human Right Watch: "Meta anunció que los usuarios en Ucrania pueden llamar temporalmente a la violencia en el contexto de la invasión. Sin embargo, no se ha anunciado ninguna política de este tipo para Siria, por ejemplo, donde Rusia ha estado luchando en asociación con las fuerzas armadas sirias desde septiembre de 2015". La ONG defiende que en este conflicto han documentado "violaciones graves" por parte de Rusia que incluyen "aparentes crímenes de guerra y que pueden equivaler a crímenes contra la humanidad".
Y no sólo es Siria. "Como empresa se va amoldando a las circunstancias", matiza Rodríguez Fernández. Tal y como recoge la Fundación Thomson Reuters, Instagram, y también Twitter, eliminó en 2020 cientos de publicaciones de palestinos que protestaban por los desalojos llevados a cabo por Israel en Jerusalén Este. Aunque, posteriormente, ambas plataformas aclararon que se fue por "errores técnicos".
Pero, el caso más sangrante probablemente es su permisividad con los refugiados rohinyás. Durante la campaña de persecución y violencia del Ejército de Myanmar (la antigua Birmania) en 2017, el algoritmo de Facebook no actuó para frenar la difusión de comentarios que contribuyeron a lo que la ONU calificó de "intento de genocidio". Es más, los investigadores de Naciones Unidas reconocieron en un informe de 2018 que la plataforma desempeñó un papel clave en la difusión del discurso de odio que alimentó la violencia contra esta población.
Ante esto, miles de refugiados rohinyás demandaron a la compañía ante tribunales de EEUU y Reino Unido por fomentar el discurso de odio. Como defensa, Meta se podría escusar en que en sus normas comunitarias, Facebook deja abierta la puerta a la xenofobia al permitir las criticas a las "políticas de migración" a pesar de su defensa de que deja claro en varios apartados de sus directivas el veto al odio contra "refugiados, migrantes, inmigrantes y solicitantes de asilo de ataques graves".
El dilema entre censura y libertad de expresión
El propio exjefe de Política Antiterrorista de Facebook, Brian Fishman, explicó esta misma semana en una entrevista en Protocol que Meta es una empresa que "se siente más cómoda ejerciendo su poder blando a través de etiquetas de información y verificaciones de hechos". Tal y como recuerdan en un artículo en The Guardian las investigadoras April Glaser, Joan Donovan y Jenna Ruddock del Shorenstein Center on Media, Politics and Policy de la Harvard Kennedy School, las tecnológicas "bailan cuidadosamente con políticos de muchos países para poder seguir haciendo negocios a nivel internacional. Por lo tanto, tomar medidas para eliminar la desinformación a fondo puede crear condiciones políticas desfavorables que, en última instancia, afectarán las ganancias".
Además, Meta también juega con los difusos límites entre la libertad de expresión y el discurso del odio. "Esta es la gran pregunta", reconoce Rodríguez Fernández que señala que se ha convertido a la libertad de expresión "en el todo vale, y esto no es así", sobre todo durante los últimos años. "Creemos que las redes sociales funcionan como eco de la sociedad, pero funcionan como una empresa", argumenta esta experta, que defiende que existe un "vacío complejo" que termina beneficiando a aquellos que cuando se elimina algún tipo de contenido hablan de "censura". "Para nuestra desgracia, hay personas que piensan así, que odian a migrantes i al colectivo LGBTI, y en redes esto se amplifica. Mientras no se controle se seguirá produciendo y si se controla hablarán de censura y se esconderán en grupos de WhatsApp y en Telegram donde son más difíciles de moderar", sostiene esta investigadora.
Meta es la excepción
No obstante, este movimiento de Meta parece un caso aislado, ya que el resto de redes sociales y plataformas han decidido, por el momento, no seguir el camino abierto por el imperio de Zuckeberg. Contactados por infoLibre, tanto Google como Twitter y TikTok no hacen comentarios al respecto y trasladan a los comunicados en sus respectivas webs sobre Ucrania o sus normas comunitarias. No obstante, tal y como insiste Rodríguez Fernández, "es fundamental establecer mecanismos para presionar a las redes para que asuman su responsabilidad en lo que se publica".
En el caso de las políticas de Google, propietario de YouTube, se deja claro que este tipo de mensajes no "están permitidos". "Retiramos el contenido que promueve la violencia o el odio hacia personas o grupos por cualquiera de los siguientes atributos: edad, casta, discapacidad, etnia, identidad y expresión de género, nacionalidad, raza, condición de inmigrante, religión, sexo o género, orientación sexual, víctima de un gran acontecimiento violento o familiar de una de esas víctimas, o condición de veterano de guerra", explican en su política sobre la incitación al odio.
Asimismo, y en el contexto de la guerra en Ucrania, la compañía ha informado de que está eliminando contenido que "niega, minimiza o trivializa eventos violentos bien documentados". En concreto, el 11 de marzo, cifró en más de mil canales y más de 15.000 vídeos los eliminados por violar sus políticas de "incitación al odio" y "sobre información errónea y contenido gráfico".
Twitter, por su parte, recuerda a infoLibre su política contra el discurso de odio. "Nuestros equipos están vigilando de forma proactiva posibles violaciones de nuestra política relativa a las conductas de incitación al odio, la cual prohíbe la incitación a la violencia, y continuarán aplicando medidas contra las cuentas o tuits dirigidos a personas en función de su nacionalidad u otras categorías protegidas, a medida que vayan surgiendo nuevas narrativas", asegura la compañía.
En su página dedicada al conflicto, la red social destaca que han tomado "medidas disciplinarias de varias maneras" ante aquellas publicaciones que niegan la violencia, la crueldad o han hecho acusaciones falsas sobre la guerra o las víctimas. Además, en su política relativa a las conductas de incitación al odio, Twitter afirma que prohíbe "el contenido que hace amenazas violentas contra un objetivo identificable" y pone como ejemplo expresiones como "te mataré".
Putin apuesta por el aislamiento digital: así resisten todavía Facebook, Twitter, YouTube y TikTok
Ver más
Y TikTok sigue el ejemplo de Google y Twitter y explicita en su página dedicada a Ucrania que sus normas comunitarias "prohíben los contenidos que contengan desinformación perjudicial, conductas de odio, o la promoción de la violencia". "Nuestra postura contra la violencia dentro y fuera de TikTok es firme. No permitimos que nuestra plataforma sea un canal para amenazar o incitar a la violencia, ni para promover organizaciones, individuos ni actos violentos ni extremistas", explica la red social china que también protege expresamente atributos como "raza, etnia, origen nacional, religión, casta, orientación sexual, sexo o género".
Rusia califica a Meta de "organización extremista"
Como un verso libre entre las redes sociales, la decisión ya le ha pasado factura a Meta. Tras conocer este cambio de política, la Fiscalía rusa tomó cartas en el asunto y declaró al imperio tecnológico "organización extremista". Decisión que se tradujo, horas más tarde de ese mismo viernes, en la decisión del Servicio Federal para la supervisión de telecomunicación, tecnologías de la información y medios de comunicación (Roskomnadzor) de bloquear Instagram. Un veto que se hizo efectivo la medianoche del pasado lunes 14 de marzo y que, en palabras del jefe de Instagram, Adam Mosseri, afecta a "80 millones" de personas en Rusia.
Este bloqueo se sumó al que ya tenía Facebook en el país desde el 4 de marzo como respuesta a supuestos casos de "discriminación" contra medios del país por la suspensión en la UE de las cuentas de la agencia de noticias Sputnik y la televisión Russia Today. Por ahora, WhatsApp, la tercera pata de Meta, se salva.