Las redes jalean el avance del odio: tras conquistar X, gana terreno en TikTok, Instagram y Youtube
"Los inmigrantes ilegales en un hotel cinco estrellas y los valencianos pasando hambre, sin agua y cubiertos de lodo hasta las cejas". "En Springfield, los haitianos se están comiendo a los perros, a los gatos, a las mascotas". "Tiene cara de ser una malfollada pero va de psicóloga". "La secta trans sigue captando jóvenes para que rindan culto al género. Y todo gracias a los hombres que fingen ser mujeres". Estos son solo algunos de los tuits que cualquier usuario puede encontrarse actualmente al entrar en X. El machismo, la misoginia, la xenofobia, el racismo, la islamofobia, la lgtbifobia, la aporafobia y otras formas de discriminación son ingredientes habituales en el coctel que agita Elon Musk desde su trono tuitero para tener a sus usuarios enganchados.
Estos ejemplos de discurso de odio unido con la desinformación que pulula a sus anchas por la tecnológica propiedad de Musk son el cóctel que está llevando a muchos a decir basta e iniciar un éxodo hacia otros lares, ahora a Bluesky. Sin embargo, el ciberodio está presente en todas las plataformas. Según el informe del año 2023 sobre la evolución de estos delitos en España elaborado por el Ministerio de Interior, aquellos cometidos a través de internet y redes sociales aumentaron un 32% desde el 2022.
Aunque es muy pronto para tener datos empíricos, lo cierto es que la sensación es que el antiguo Twitter es el lugar favorito para la cultura del discurso del odio al tener manga ancha, exacerbando así la polarización política y social. ¿Es el juguete de Musk la plataforma donde se refugian los haters? "Eso es lo que parece. En proporción se está concentrando en X", reconoce Ana Azurmendi, catedrática de Derecho Constitucional y profesora de Derecho de la Comunicación de la Universidad de Navarra.
"Desde que el multimillonario llegó a Twitter se han producido cambios en la dinámica de la plataforma, enseguida dijo que lo que quería era defender la libertad de expresión y, por tanto, ha suavizado los mecanismos de control", sostiene Silvia Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, que señala que las propias dinámicas de la red social benefician este tipo de contenidos: "La tendencia a la inmediatez que aún existe contribuye a mensajes más irracionales y viscerales porque no hay un tiempo de reflexión".
¿Y en el resto de redes? "En Instagram, TikTok o Facebook también hay discurso de odio, pero destaca más en X porque el tipo de mensajes más habituales son de debate y menos de entretenimiento", afirma Azurmendi.
"Las circunstancias acompañan a que se ponga el foco en X", asegura Martínez que indica el vínculo evidente entre Trump y Musk y también pone en el foco la reciente cena del presidente electo con Mark Zuckerberg, el dueño del imperio Meta. Para esta experta, todo este contexto, por lo menos, nos deja un elemento positivo: "Los usuarios antes no estaban tan pendientes de quién estaba detrás de la plataforma o de cómo funcionaba, y ahora sí: ven los intereses qué hay detrás y comienzan a entender por qué se reciben unos y otros mensajes".
Lo cierto es que los datos publicados por el Observatorio Español contra el Racismo y la Xenofobia (Oberaxe), dependiente del Ministerio de Inclusión, Seguridad Social y Migraciones, avalan este reinado de X. En su memoria anual de monitorización del discurso de odio en redes sociales detalla que en la distribución de comunicaciones realizadas a cada plataforma para notificar este contenido hay un predominio de las realizadas a X. En concreto, contabiliza en el antiguo Twitter 806 casos (30,4% del total), seguido de Instagram con 568 casos (21,4%), Facebook con 545 (20,5%), TikTok con 380 (14,3%) y YouTube con 356 (13,4%). Por ahora, por su novedad y cantidad de usuarios, aún no tienen datos de Bluesky.
No obstante, tal y como detalla Jorge Ramiro Pérez Suárez, profesor Titular en Criminología Aplicada a Espacios Digitales de la Universidad Europea, el tipo de contenido en cada plataforma es diferente. "En X y Bluesky está orientada a la opinión y a la construcción de una imagen personal y laboral, mientras que en Instagram o TikTok prima la perfección y la belleza. Esto se traduce en diferentes perspectivas que premian diferentes tipos de discurso de odio", argumenta este experto que apunta que, entonces, "los mensajes suelen ser más expresos en redes donde se opina mientras que en las otras son más sutiles y tienen que ver más con la desigualdad, la violencia de género, la lgtbfobia o la gordofobia".
Sus víctimas favoritas
Según explica Ana Azurmendi, la radicalización no solo se da en temas políticos ya que entra en "otras muchas cuestiones como misoginia, homofobia, u odio hacia los migrantes". Así, estos mensajes, que suelen contener agresiones verbales por razones ideológicas o culturales, suelen estar dirigidos hacia las minorías más vulnerables y solo basta con entrar para ver ataques contra personas migrantes, gitanas, inmigrantes, LGTBI, con discapacidad.
Los usuarios antes no estaban tan pendientes de quién estaba detrás de la plataforma o de cómo funcionaba, y ahora sí
Tal y como detalla el informe de Interior sobre delitos de odio en redes sociales, los ámbitos de "orientación sexual e identidad de género", "ideología" y "racismo/xenofobia" son los que muestran mayor incidencia en 2023.
Según la memoria anual de Oberaxe, atendiendo al grupo diana al que se dirigen, las personas originarias del norte de África han recibido discurso de odio en el 37% de los contenidos notificados. El segundo colectivo afectado es el de las personas migrantes en general (33%), le siguen los afrodescendientes (21%), y los musulmanes (13%). Con cifras más bajas, también sufren este tipo de mensajes la comunidad gitana (4%), los judios (2%), y los menores no acompañados (1%).
Azurmendi, en línea con estos datos, señala a los migrantes como uno de los colectivos más afectados porque "no entran como parte activa porque están ocupados en otros asuntos". "Últimamente estoy identificando muchas manifestaciones racistas, lgtbfobias y transfobicas", explica, por su parte, Pérez Suárez.
¿Cómo? Según el último boletín del Oberaxe publicado en noviembre, con descrédito en base a atributos personales o del grupo (38%); con deshumanización o degradación (37%), con amenazas fomentando el alarmismo (26%); con mensajes con violencia a través de amenazas directas o indirectas (23%); o con aquellos que promueven la expulsión de las personas de origen extranjero (11%).
Además, varias investigaciones del Centro para la Lucha contra el Odio Digital (CCDH por su siglas en inglés) también muestra, por ejemplo, como Meta se beneficia de anuncios que promueven la retórica de que la comunidad LGBTQ+ y sus aliados son "predadores" o pedófilos". Este mismo año, otro estudio demostró que YouTube, propiedad de Google, está ganando hasta 13,4 millones al año gracias a la publicidad en canales que promueven el negacionismo climático .
La importancia de la ausencia de moderación
Más allá de dónde se refugian los haters en redes y de cuáles son sus víctimas favoritas, lo que está claro es que el discurso de odio es uno más en Internet y cada vez es más preocupante por su carácter extremo. Además, este tipo de post agresivos son más notables cuando hay picos mediáticos a raíz de hechos concretos que generan debate y alarma social. Pasó durante la dana de Valencia con desinformación y mensajes xenófobos y conspiranoicos, durante las últimas elecciones de EEUU con publicaciones antiinmigración, tras el crimen del niño Mateo en Mocejón con un aumento del racismo o en los Juegos Olímpicos con contenido tránsfobo.
Esto sucede, principalmente, por dos motivos de los que son directamente culpables las plataformas porque, tal y como indica Pérez Suárez, "los entornos digitales no son entornos neutrales".
Por un lado, porque falla la moderación. En el caso de X, porque directamente Musk se cargó a prácticamente todo el equipo encargado de esta tarea cuando aterrizó en la red social hace ya dos años. En Meta, por dejar este trabajo en manos de la automatización provoca errores que afectan a la libertad de expresión, como pasó en los primeros compases de la guerra en Gaza donde eliminó pruebas de crímenes de guerra, según denunció el órgano independiente de la tecnológica. "La moderación es fundamental", reconoce Pérez Suárez que señala que es "muy delicado" buscar "un equilibrio entre la moderación y la libertad de expresión".
Algoritmos que no son neutrales
Y por otro, por los propios algoritmos de las plataformas, que están pensados para optimizar el compromiso y conseguir así retener durante más tiempo al usuario. "No son neutrales y son construcciones humanas con posiciones ideológicas y políticas, y con componente capitalista", defiende Pérez Suárez.
Esto provoca que se premie aquellos contenidos que generan más interacciones. Y cómo el discurso de odio suscita controversia y polémica que, a su vez, origina interés y divide opiniones con muchos comentarios y respuestas lo dejan campar a sus anchas. "Al responder, le estamos dando mayor visibilidad y que estos temas puedan terminar copando la agenda y en las tendencias de la red social", explica Silvia Martínez.
En Instagram, TikTok o Facebook también hay discurso de odio, pero destaca más en X porque el tipo de mensajes más habituales son de debate y menos de entretenimiento
En el caso de X, un estudio científico de las universidades de Cornell y de California en Berkeley publicado en 2023 muestra que su algoritmo amplifica la ira, la hostilidad y la polarización. "Busca la confrontación y alimenta sesgos de confirmación", sostiene Pérez Súarez. Algo que ha quedado más que demostrado durante las elecciones en EEUU de las salió victorioso Donald Trump y su fiel escudero Musk.
En el caso de Meta, tal y como detalló a infoLibre el periodista Jeff Horwitz, autor del libro Código roto: los secretos más peligrosos de Facebook (Ariel), optimizaron durante una década Facebook sin analizar lo que estaban haciendo, como si no tuvieran sistemas para estimar la prevalencia de los discursos de odio en la plataforma hasta 2019: "Y, para entonces, cuando estaban dispuestos a hacer cambios, fue cuando se dieron cuenta que lo habían construido de manera que tenía efectos realmente desagradables". Con respecto a Instagram, el algoritmo ofrece "publicidad hipercontextualizada", según detalla Pérez Súarez.
La combinación de la ausencia de moderación y de un algoritmo al que le gusta la polémica provoca que, tal y como el último boletín del Oberaxe, el 48% de los mensajes contengan un lenguaje agresivo explícito. En un 44% el lenguaje discriminatorio no agresivo también es un componente relevante en el discurso con comunicaciones no necesariamente violentos pero sí de carácter discriminatorio.
Además, el 8% de los mensajes presentan un tono irónico o sarcástico, empleado como recurso para difundir de forma velada contenidos de carácter racista y/o xenófobo. Aunque la gran mayoría de publicaciones se manifiestan en formato de texto, un 15% integra imágenes, vídeos o meme y un 6% emojis que dificultan su moderación. "A veces detectarlo es complicado porque se utilizan expresiones, tonos o elementos visuales que el resto de usuarios fuera de esa comunidad no entienden", reconoce Silvia Martínez.
¿Se puede luchar contra él?
El problema es evidente pero, ¿se puede luchar contra el discurso de odio? "Se puede y se debe. Eso sí, siempre teniendo en consideración el equilibrio entre la dignidad humana y la libertad de expresión", defiende Pérez Suárez. Esta lucha se puede producir en cuatro niveles.
Primero, desde la propia plataforma. "Deben adquirir ciertos compromisos de moderación y de reacción rápida para eliminar este tipo de contenido", asegura Martínez. "Pueden controlar palabras claves como muerte o dolor", indica Pérez Súarez.
Un estudio publicado en junio de 2023 y elaborado por los investigadores Laila A. Wahedi y Daniel Robert Thomas de Meta señala otra solución que ya apuntaron investigaciones previas y que implica que los responsables de las tecnológicas tomen medidas: expulsar a los llamados líderes tóxicos es eficaz para disminuir la difusión de discursos de odio. En concreto, observan de media casi la mitad de este tipo contenido por día que antes de la expulsión.
Segundo, se pueden tomar medidas a nivel usuario: evitar la interacción con estos perfiles para no darle mayor visibilidad, formar a los más jóvenes en el uso de las redes sociales, conocer las consecuencias y denunciar. La nueva Ley de Servicios Digitales (DSA) de la UE impone a las plataformas que pongan a disposición del usuarios herramientas para denunciar contenido ilegal. "Como usuaria, pienso que estos servicios deberían estar más visibles. Están algo escondidas", apunta Ana Azurmendi.
Los algoritmos no son neutrales: son construcciones humanas con posiciones ideológicas y un componente capitalista para retener al usuario y que participe
Qué tiene Bluesky para haberse convertido en un territorio seguro para los exiliados de X
Ver más
Tercero, recurriendo a la justicia. "Hay que perseguirlo y poner sanciones más concretas porque hay mensajes discriminatorios pero también amenazas, que pueden llegar a ser delito", defiende Martínez. Además de la nueva norma europea, Azurmendi recuerda que en España "el artículo 510 del Código Penal intenta combatir el odio" y se aplica tanto en el mundo físico como en el digital. Esta experta apunta que en Alemania existe desde 2017 una legislación que obliga a las plataformas a ser "guardianas" y denunciar ante la policía cualquier acción de discurso violento.
El discurso de odio mata
Y, por último, con políticas educativas. Según explica Pérez Suárez, se debe fomentar "la igualdad, los derechos humanos, la diferencia… porque estos discursos de odio se fundamentan en los que no son como yo". Y, completa Martínez, "que la gente sepa como funcionan las plataformas y cómo pueden contribuir a que este tipo de mensajes se viralicen".
Aunque la solución es compleja y multidisciplinar, lo que está claro es que la cultura del discurso del odio online es una lacra que hay que eliminar porque mata. En 2017, está más que documentado cómo Facebook fue clave en la limpieza étnica de 2017 en Myanmar, donde miles de rohinyás fueron víctimas de una limpieza étnica. En 2019, el político alemán Walter Lübcke fue asesinado por un neonazi por su postura prorefugiados tras recibir amenazas de muerte a través redes sociales y filtrarse en una de estas plataformas la dirección de su casa.