LA PORTADA DE MAÑANA
Ver
Manos Limpias, Hazte Oír, Vox: así afectaría la reforma de la acción popular a los casos más mediáticos

Así ha cambiado Musk el algoritmo de Twitter: más polarización, más ira y más hostilidad

2

Desde la irrupción de Elon Musk como "tuitero en jefe" en las oficinas de Twitter a finales de octubre de 2022, la red social ha dado un giro radical. Si bien es cierto que la plataforma nunca ha sido una plaza amable en la que conversar sin encontrarse con fake news o haters, la degradación actual ha llegado hasta límites insospechados antes de la llegada del hombre más rico del mundo a la tecnológica. Si la compañía ya empezó a principios de año a mostrar sus primeros síntomas de degradación con sus constantes caídas, su culto al líder y las primeras investigaciones apuntando al aumento del odio y la desinformación, un nuevo estudio científico de las universidades de Cornell y de California en Berkeley muestra ahora que el algoritmo amplifica la ira, la hostilidad y la polarización. 

"Nuestros resultados indican que el algoritmo amplifica el contenido emocional, especialmente aquellos tuits que expresan ira y hostilidad fuera del grupo", explican los cinco autores de este estudio, Smitha Milli, Micah Carroll, Sashrika Pandey, Yike Wang y Anca D. Dragan. Esta investigación también detalla que es "crucial" comprender el impacto de los algoritmos ya que las redes sociales continúan teniendo "una influencia significativa" en la opinión pública. 

¿Qué cambios ha implementado Musk desde su llegada a Twitter para llegar a esta situación? "Defiende la libertad de expresión y esto condiciona a nivel técnico lo que quiere y puede hacer", reconoce Miquel Pellicer, consultor en comunicación digital en la Universitat Oberta de Catalunya (UOC), que señala que el multimillonario "promueve una red social muy neutra" que "no es".

En los siete meses que el también fundador de Tesla y Space X lleva el frente de la red social ha llevado a cabo bastantes cambios. Ha creado e implementado del sistema de pago Twitter Blue que ha terminado con las insignias de verificación tal y como las conocíamos y las entendíamos. También ha despedido a gran parte de la plantilla, incluido a gran parte del equipo de moderación de contenidos. Ha desarrollado la pestaña para ti que ha cambiado el sistema de recomendación de la plataforma. Sin olvidarse, que ha fomentado una amnistía de cuentas baneadas que ha permitido el regreso de Donald Trump y a una retahíla de portavoces de la ultraderecha como la congresista de extrema derecha y vinculada a QAnon, Marjorie Taylor Greene.

Con estas decisiones en mente y sin acceso interno al algoritmo, los autores de este estudio recopilaron en EEUU durante dos semanas, del 11 al 27 de febrero, 1.730 pares de muros. La muestra está formada por un 54% hombres, un 78% con inclinaciones demócratas y un 56% con al menos una licenciatura. 

Por un lado, el estudio recogió los mensajes que vería el usuario si el timeline siguiera un criterio cronológico y mostrase sólo las publicaciones de las cuentas a las que siguen. "Nos muestra los tuits que hemos elegido", explica Uxía Carral, profesora de periodismo de la Universidad Carlos III de Madrid, que apunta que los usuarios tienden a "seguir a perfiles que piensan igual que nosotros". "Hay más partisanismo en este algoritmo", reconoce esta experta. Esta investigación de las universidades de Cornell y de California en Berkeley  recuerda que la nueva Ley de Servicios Digitales de la UE exige que "las grandes plataformas en línea ofrezcan una forma no algorítmica de ver contenido, como una transmisión cronológica inversa". 

Y, por otro lado, el estudio recogió las publicaciones que muestran el nuevo algoritmo personalizado en la pestaña para ti, es decir, aquí es el algoritmo el que elige lo que el usuario ve. "Nos saca de nuestra cámara de eco", afirma Carral. No obstante esto tiene un grave problema detrás: "Nos muestra los mensajes que tienen más engagement y los más viralizados, y suelen ser tuits más extremistas. Por esto nos sentimos más enfadados, porque disienten mucho de nuestra ideología". Los investigadores también sostienen que, aunque los usuarios suelen preferir esta pestaña, cuando son de temática política la cosa cambia radicalmente.

Más ira

¿Y cuáles son las conclusiones de este estudio? En primer lugar, asegura que el algoritmo implementado por Musk en Twitter amplifica el contenido emocional. En concreto y especialmente, aquellos que expresan emociones negativas como ira, tristeza o ansiedad. Aunque, la que más se amplifica es la ira. "Los usuarios también han aumentado las respuestas emocionales después de leer los tuits del algoritmo", explica esta investigación que señala que reaccionan mucho más que en el pasado. 

¿Por qué se amplifican las emociones negativas? "El modelo de negocio de las redes sociales necesita la polémica. Y la polémica es un gran conductor de la ira, el miedo, o el enfado", reconoce Pellicer. Para este experto, sería fundamental que las plataformas tuviesen un "control" de todos estos mensajes que, además, pueden "ser perjudiciales para la salud mental". "No se puede jugar con el choque entre la libertad de expresión y el discurso de odio", asegura. 

Más hostilidad y más polarización

Por otro lado, las conclusiones del estudio también reflejan cómo los tuits políticos que muestra el algoritmo llevan a los usuarios a percibir a su grupo más afín ideológicamente hablando de forma mucho más positiva que el contrario. Así, se amplifica el contenido político partidista, se fomenta la hostilidad amplificada hacia el grupo contrario y se incrementa la polarización afectiva resaltando selectivamente las publicaciones más divisorias. "Musk busca la centralidad y está virando la plataforma hacia la derecha y hacia discursos mucho más radicalizados", defiende Pellicer. 

Tal y como explicó Cristina Monge en una columna en infoLibre el pasado mayo "la polarización política apunta al alineamiento de los partidos y sus seguidores en torno a posturas cada vez más alejadas". En cambio la polarización afectiva "habla del apego hacia los partidos con los que nos sentimos identificados y el odio hacia los otros", y la polarización cotidiana se usa para "señalar cómo vivimos en burbujas cada vez más autorreferenciales y distantes entre sí". 

¿Cómo afecta esto a los usuarios de Twitter? "Reafirma las posturas más claras al crear estos filtros burbujas", sostiene Pellicer que defiende que la radicalización aumenta porque las personas se retroalimenta al ser "complicado encontrar el discurso contrario". 

¿Afectará al resultado del 23J?

¿Y cómo puede afectar al resultado de las elecciones del 23 de julio que la red social de Musk esté más polarizada? Lo cierto es que apelar a las emociones para hacer política y basar los planteamientos de los partidos en nosotros frente a ellos, entendidos los unos y los otros como encarnación antagónica del bien y del mal, en vez de sostener las propuestas sobre argumentos y construir a partir de ahí un diálogo útil, se ha convertido ya en la norma en España. Pasó en la campaña electoral de estas recientes elecciones municipales y autonómicas del 28 de mayo y volverá a repetirse en los comicios generales. 

"Twitter da muchísima visibilidad en cuanto a política y al periodismo. El problema es que puede hacerte perder las elecciones, más que ganarlas", explica Carral que recuerda que la plataforma sirve para "mantener a tus seguidores que comparten la ideología" pero también para "alimentar a los haters". 

Para Pellicer, esta polarización ya no es solo una cuestión que afecta a Twitter: "Estamos traspasando muchos límites preocupantes. Estar en el discurso radical de que ‘te vote Txapote’ hace que se traslade a las redes sociales y que estos mensajes se multipliquen con los trolls y los bots". "El debate ya no es tanto de ideas si no de personas con antipersonas", reconoce. 

Se permite el racismo y la homofobia a los usuarios de pago

Pero el aumento de la ira, la hostilidad y la polarización no es el único problema de Twitter. Esta misma semana, un estudio del  Center For Countering Digital Hate, una organización sin ánimo de lucro dedicada a combatir el odio digital, denunció que el 99% de los mensajes racistas y homófobos de los usuarios de Twitter Blue no se están eliminando. "Esto sugiere que la plataforma les permite romper sus reglas con impunidad e incluso está aumentando algorítmicamente sus tuits tóxicos", explican al tiempo que denuncian que la red social tampoco actuó sobre publicaciones neonazis, antisemitas o conspiranoicas como "Hitler tenía razón" o "la cultura negra ha hecho más daños que el Ku Klux Klan". 

"La marca azul de Twitter solía ser un signo de autoridad y autenticidad, pero ahora está inextricablemente vinculada a la promoción del odio y la conspiración", asegura Imran Ahmed, director ejecutivo del Center For Countering Digital Hate. "Esto les da confianza para vomitar su bilis al saber que a Musk simplemente no le importan los derechos civiles y humanos de las personas negras, judías, musulmanas o LGBTQ+ siempre y cuando pueda ganar sus 8 dólares al mes", defiende. 

A pesar de este señalamiento, lo cierto es que Twitter ha movido ficha con respecto al discurso de odio en la era de Musk. En concreto, el pasado 1 de marzo lanzó su nueva política relativa al discurso de incitación a la violencia. ¿Qué cambia con respecto a la anterior? Aunque insiste en que su enfoque es de "tolerancia cero con la violencia", falta claridad para aclarar a quién protege. Según The Verge, la nueva norma no incluye las palabras "individuo" o "grupo" y, en cambio, opta por referirse a "otros". "Se rige por unas normativas que no quieren la discriminación y que lucha contra el discurso de odio, pero en este momento Musk está incentivando estos discursos más extremos", apunta Pellicer. 

Twitter abandona el código de buenas prácticas sobre desinformación

Y para terminar el combo del aumento de la polarización y el discurso de odio, la tercera pata es el incremento de la desinformación. Un estudio de primeros de marzo en Poynter Institute señaló que las noticias falsas aumentaron un 44% desde la compra de Musk. Según Science Feedback, una organización de verificación, este incremento se debió en parte a causas como el final del bloqueo a la desinformación sobre el covid o al desmantelamiento del equipo de moderación de contenidos. 

Para más inri, el pasado fin de semana, Twitter abandonó unilateralmente el código de buenas prácticas en materia de desinformación de la Unión Europea. Esta iniciativa, puesta en marcha en 2008, impone que empresas y organizaciones se comprometan a tomar medidas tales "como desmonetizar la difusión de desinformación, garantizar la transparencia de la publicidad política, mejorar la cooperación con los verificadores o facilitar a los investigadores un mejor acceso a los datos". Desde Bruselas, el comisario europeo de Mercado Interior, Therry Breton, avisó en un tuit a Musk que, a pesar de su salida, "las obligaciones continúan". "Puedes correr pero no puedes esconderte. Más allá de los compromisos voluntarios, la lucha contra la desinformación será una obligación legal en virtud de la nueva Ley de Servicios Digitales a partir del 25 de agosto", escribió. 

¿Es Twitter un lugar peor que hace un año?

Linda Yaccarino, la sustituta de Elon Musk al frente de Twitter: ¿Otro ejemplo de acantilado de cristal?

Ver más

Con el 25 de agosto en el horizonte y a pesar de los malos augurios a principios de noviembre, tras la oleada de despidos, de un supuesto apagón, lo cierto es que, siete meses después de la irrupción de Musk, Twitter aguanta. Aunque su imagen, ya no tanto. Según el Estudio de Redes Sociales 2023 de Iab Spain, la plataforma es percibida por los usuarios como tóxica, polémica o acabada. 

"Ha empeorado las cosas técnicamente, pero sobre todo la reputación", reconoce Carral. Sin embargo, para esta experta la toxicidad en Twitter "no es tan alta como la que percibe el usuario" por la viralidad que caracteriza a la red social. "Todas las polémicas que salen a relucir son muy extremistas y, por tanto, es lo que ve el usuario", apunta esta experta. 

¿Está Twitter peor que antes de la llegada de Musk? "Sí", responde contundente Pellicer que explica que la plataforma camina hacia un "modelo que no lucha ya contra los discursos de odio" y que se basa "menos en la ética" para "potenciar mucho más la parte comercial". En esta senda tendrá un gran peso la nueva CEO, Linda Yaccarino. Eso sí, las llaves del algoritmo las seguirá teniendo el multimillonario, que seguirá como presidente ejecutivo y director de tecnología.

Desde la irrupción de Elon Musk como "tuitero en jefe" en las oficinas de Twitter a finales de octubre de 2022, la red social ha dado un giro radical. Si bien es cierto que la plataforma nunca ha sido una plaza amable en la que conversar sin encontrarse con fake news o haters, la degradación actual ha llegado hasta límites insospechados antes de la llegada del hombre más rico del mundo a la tecnológica. Si la compañía ya empezó a principios de año a mostrar sus primeros síntomas de degradación con sus constantes caídas, su culto al líder y las primeras investigaciones apuntando al aumento del odio y la desinformación, un nuevo estudio científico de las universidades de Cornell y de California en Berkeley muestra ahora que el algoritmo amplifica la ira, la hostilidad y la polarización. 

Más sobre este tema
>