Redes sociales
“Os haremos cámaras de gas para vosotros”: los mensajes de odio que las plataformas ‘online’ se niegan a retirar

“África estará vacía cuando toda la mierda esta esté en Europa”, dice @judit_h7702. “Escopetas en mano y a expulsar a los invasores, más fosas con moros y menos deportaciones”, defiende black_rose2001. “Estos moros, lo de matar lo llevan en la sangre”, sentencia Perrote. Estas frases, que claramente incumplen las normas españolas y europeas en relación con los mensajes de odio, siguen publicadas en redes sociales porque las plataformas online que les sirven de altavoz se han negado a retirarlas a pesar de haber recibido una petición expresa por parte del Observatorio Español del Racismo y la Xenofobia (Oberaxe).
Son solo algunos ejemplos de la limitada disposición de los propietarios de las redes sociales más utilizadas a contener la propagación de mensajes de odio. Pero hay muchos más. “Hay que usar la basura musulmana como abono”, publicó impunemente hace ocho semanas sarrcoma202312 sin que la plataforma que lo publicó haya aceptado su retirada. “La cara del mono negro ultra en primer plano. Qué asco”, proclama desde su cuenta La_Emperatriz_Oficial.
El usuario gus.tavo.mo72 sostiene que “Los monos no deben salir de su jaula porque la lían”, una anotación racista que casi parece moderada al lado de la de Gorka_manoshow: “Lo que hay que hacer es bombardear todas las pateras nada más sean divisadas”.
“Os haremos cámaras de gas para vosotros... Allí podréis rezar en multitud si queréis... Mira si somos buenos”, dice otro odiador con presencia en redes sociales contando con el respaldo de las plataformas online a pesar de que el Gobierno ha pedido expresamente que semejante amenaza sea retirada.
La actitud de los responsables de las redes sociales, su manga ancha a la hora de permitir contenidos claramente racistas, xenófobos o incluso que promueven la violencia, da idea de la desigual batalla que libra Oberaxe para tratar de limpiar Facebook, X, TikTok, Instagram y YouTube de contenidos de odio racista y/o xenófobo, antisemita, antigitanos o islamófobos que pueden ser constitutivos de delito, infracción administrativa o que violan las normas de conducta de las plataformas de redes sociales.
En colaboracion con Europa
El Observatorio, dependiente del Ministerio de Inclusión, Seguridad Social y Migraciones, monitoriza a diario, desde mayo de 2020, el discurso de odio en España en las cinco principales plataformas, lo que deja fuera del radar aplicaciones tan relevantes en la transmisión de estos discursos como Telegram o WhatsApp. En él trabajan seis monitorizadores y dos personas con funciones de coordinación y análisis que colaboran con la Comisión Europea en los ejercicios de seguimiento que se realizan en cumplimiento del Código de Conducta para la lucha contra la incitación ilegal al odio en Internet que fue firmado con las empresas prestadoras de servicios de alojamiento de datos con mayor presencia en la Unión.
Este código compromete a las grandes plataformas tecnológicas a combatir la difusión de mensajes que inciten al odio en línea. Las empresas firmaron estar dispuestas a luchar contra la incitación al odio online sin violar la libertad de expresión, persiguiendo discursos que promuevan la violencia o el odio basados en raza, color, religión, origen étnico o nacional.
Para cumplirlo, las tecnológicas deben tener procedimientos claros para evaluar y eliminar contenido que incite al odio en un plazo de menos de 24 horas tras una notificación válida, así como trabajar con organizaciones de la sociedad civil para identificar mejor los contenidos inadecuados y fomentar discursos alternativos que promuevan la no discriminación.
La realidad demuestra, sin embargo, que en la práctica se resisten a hacerlo, especialmente YouTube, propiedad de Google, y X, la plataforma del magnate ultraderechista Elon Musk. La primera retiró apenas el 3% de los contenidos de odio reportados por Oberaxe en abril y la segunda el 8%. Más colaboradoras se mostraron Instagram (39%) y Facebook (44%), ambas pertenecientes al millonario norteamericano Mark Zuckerberg. Mejor opinión merece TikTok, la red social china que más atrae a los jóvenes españoles, con un 85% de respuestas positivas cada vez que el Gobierno le pide la retirada de un contenido.
Desde 2022, el observatorio cuenta con una aplicación propia, Alertodio, diseñada por la Universidad Politécnica de Valencia (UPV), para el registro y recogida de contenidos de discurso de odio identificados en las redes. El soporte y desarrollo informático lo realiza la Gerencia de Informática de la Seguridad Social, del Ministerio de Inclusión, Seguridad Social y Migraciones.
Desde 2024, el convenio de colaboración firmado entre este ministerio y La Liga permite a Oberaxe profundizar y multiplicar el alcance del trabajo realizado a través del nuevo Sistema Faro de filtrado y análisis de odio en las redes sociales. Un sistema que aplica la inteligencia artificial, entrenada en el Monitor para la Observación del Odio en el Deporte (MOOD) de La Liga, a la metodología, especialización y experiencia acumulada por el observatorio del Gobierno. El sistema Faro permite una monitorización en tiempo real que muestra los datos recogidos en los últimos 30 días.
Objetivo, las personas del norte de África
Según el análisis de datos de Oberaxe, el objetivo de los odiadores sigue siendo, mayoritariamente, las personas procedentes del norte de África (70%) y las que profesan la religión musulmana (23%). Luego están los afrodescendientes (8%), los de origen asiático (7%), la comunidad judía (4%) y los latinoamericanos (4%).
El episodio con el que los odiadores más relacionan a estas personas suele ser un supuesto problema de inseguridad ciudadana (64%), en línea con la principal estrategia xenófoba de la ultraderecha. También se les relaciona con conflictos armados (31%) o en contextos económicos (11%) o deportivos (9%). En un 5% de los casos los odiadores relacionan a las personas de las que hablan con el terrorismo y en otro 5% con la llegada de embarcaciones de migrantes a España.
En lo que va de año, los mensajes de odio detectados fueron 316.288 (una media de casi 2.000 al día). De ellos, Oberaxe ha pedido a las plataformas online la retirada de 1.425, pero solo tuvo éxito en el 32% de los casos.
¿Por qué el Observatorio solo pide la retirada de menos de un 1% de los mensajes detectados? Porque no tiene capacidad para hacer más. Así que pide la retirada de apenas una muestra representativa de los mensajes detectados para ser notificados a las plataformas. Es una tarea que se realiza de forma manual, por lo que solo es posible recopilar una muestra, explica Oberaxe.
Atendiendo al tipo de lenguaje empleado, los datos del observatorio revelan que un 87% de los contenidos notificados contienen un discurso agresivo, caracterizado por insultos y expresiones hostiles, lo que evidencia un alto nivel de violencia verbal hacia las personas de origen extranjero. En el 13% restante, se recurre a la ironía y el sarcasmo como forma de encubrir comentarios racistas y/o xenófobos. En un 21% de los casos, los odiadores utilizan imágenes y emoticonos, elementos que refuerzan el mensaje y facilitan su difusión, especialmente en redes sociales.
En los últimos tiempos, está tomando protagonismo una nueva tendencia basada en la creación de figuras y/o personajes generadas mediante inteligencia artificial que ridiculizan principalmente a las personas del norte de África a través de representaciones estereotipadas y ofensivas.
Estrategia de deshumanización
La estrategia del discurso del odio busca en primer lugar, en más de la mitad de los casos detectados, su deshumanización (se priva al grupo atacado de cualidades humanas, calificándolos de plaga o llamándolos animales) con el objetivo de justificar su exclusión o maltrato eliminando cualquier tentación de sentir empatía con su sufrimiento.
Los odiadores también tratan de presentar a grupos humanos enteros como una amenaza (sucede en una de cada diez anotaciones en redes de este tipo), un peligro para la seguridad, la identidad o los recursos de la mayoría con afirmaciones falsas como que “nos están invadiendo”, “quieren imponernos su cultura” o “colapsan la sanidad” (el objetivo en este caso es legitimar medidas de exclusión “defensivas” y activar emociones como el miedo o la ira).
En un 12% de los casos, el contenido trata de incitar a la expulsión de personas por su origen, religión o raza (“Hay que deportarlos”, “fuera de nuestro país”, “que se vayan a su tierra”) para transformar el rechazo en presión para que se aprueben medidas institucionales de exclusión.
Los contenidos que directamente llaman al uso de la violencia rozan casi el 6% de los mensajes detectados. Sus autores proponen o legitiman el uso de la violencia física como solución, a menudo con tono de broma o justicia popular (“Habría que darles una paliza”, “un tiro y se acaba el problema”, “solo entienden por las malas”) con la finalidad de generar una normalización del castigo violento hacia ese grupo.
En el resto de los mensajes de odio predominan las alabanzas a quien ataca o agrede al grupo (“Bien hecho por defender su país”, “un héroe por enfrentarse a esos parásitos”, “hace lo que el Gobierno no se atreve”) o promueven su descrédito para socavar su legitimidad, credibilidad o pertenencia a la sociedad (“Solo vienen a vivir del cuento”, “no aportan nada”, “nos cuestan millones”) para así justificar su marginación o invisibilización, restándoles valor social.
A favor de la eliminación
En estas circunstancias, no es de extrañar que a la par que crece la centralidad informativa de las redes, aumente la exigencia social sobre cómo deben gestionarse los contenidos problemáticos. Según el Informe de Noticias Digitales 2025 del Instituto Reuters, que se ha hecho público este martes, una mayoría de españoles (51%) respalda que las plataformas eliminen publicaciones falsas o dañinas, frente al 20% que defiende la no intervención.
El consenso se vuelve matizado al preguntar quién debe ejercer ese control: el 38% prefiere la autorregulación corporativa, el 28% confía más en organismos públicos independientes y apenas un 13% delegaría la tarea en la propia comunidad de usuarios.
Las plataformas ‘online’ se niegan a retirar el 70% de los contenidos racistas reportados por el Gobierno
Ver más
Una buena pista del problema la da el hecho de que, según este informe, el tipo de estrategia a seguir en la moderación de contenidos de redes sociales esté condicionado por la ideología. Quienes se sitúan en el centro político apoyan en un 61% una moderación equilibrada, mientras los extremos —sobre todo en la derecha— desconfían de cualquier filtro, en nombre de la libertad de expresión. Por el contrario, la izquierda hace hincapié en frenar discursos de odio y desinformación, lo que explica su mayor apoyo a la retirada de contenido nocivo.
La edad también introduce matices: los jóvenes de 18 a 24 años muestran mayor tolerancia hacia mensajes polémicos y optan por modelos de autorregulación, mientras los mayores de 55 reclaman marcos institucionales más estrictos para salvaguardar la integridad del espacio público.
En general, la ciudadanía duda de la eficacia real de las reglas actuales: persiste la impresión de que no se hace lo suficiente contra el discurso dañino, percepción que alimenta la demanda de soluciones híbridas donde plataformas, reguladores y sociedad civil compartan responsabilidades, subraya el Instituto Reuters.