'Fake news', Hunter Biden o QAnon: las redes serán otra vez decisivas

El próximo 3 de noviembre medio mundo estará pendiente de EEUU y de la batalla electoral entre Donald Trump y Joe Biden. Sin embargo, la noche electoral, que en España se vivirá ya en la madrugada del día 4, puede tener un tercer protagonista que ya acaparó los focos hace cuatro años: las redes sociales. Los comicios presidenciales de 2016 que enfrentaron al actual presidente y a Hillary Clinton fueron un punto de inflexión en la opinión que el público tenía de estas plataformas y en la forma en que la gente y los Gobiernos podían usarlas para hacer daño. Hasta entonces, pocos eran conscientes del poder que atesoraban estas empresas tecnológicas.

Es más, cuando muchos en EEUU empezaron a apuntar a las redes sociales, en general, y a Facebook, en particular, como los culpables de la victoria de Trump, su líder, Mark Zuckeberg, sacó pecho ante sus empleados y aseguró que si la gente creía que ellos podían alterar el resultado de un proceso electoral se debía a lo importante que era ya su creación. Año y medio después, en marzo de 2018, la publicación de que Cambridge Analytica había recopilado ilegalmente datos personales de más de 80 millones de usuarios de la red social para apoyar la campaña de Trump y el sí en el referéndum del Brexit dinamitó su estrategia, finiquitó los rumores que lo señalaban como futuro candidato presidencial y lo convirtió en uno de los malos de la película. Y con él, a prácticamente toda la élite de Silicon Valley.

Desde 2016, prácticamente todas las redes sociales, la gran mayoría con pasaporte estadounidense, siguen soportando el sambenito de ser las culpables de permitir injerencias extranjeras en las elecciones de su propio país y la expansión de las fake news. Pero, ¿en qué se diferencian las plataformas de ahora de las de hace cuatro años? En realidad, explica Silvia Majo-Vázquez, investigadora de la Universidad de Oxford y del Reuters Institute for the Study of Journalism, lo que ha cambiado es el usuario. Por un lado, "se han ido trasladando cada vez más hacia aplicaciones de mensajería instantánea para consumir información de una forma cerrada y encriptada", lo que indica un interés por "un consumo más privado y alejado de la agitación y polarización del debate en las redes". Y, por otro lado, también "ha cambiado el nivel de confianza" de la ciudadanía ante las redes, Internet y la propia información política. "Hay cada vez más ciudadanos que dicen consultar más de una fuente de información para verificar una noticia", reconoce esta experta.

Aunque el usuario ha cambiado y es más consciente, lo cierto es que, tal y como asegura Majo-Vázquez, el 48% de la población de EEUU consume noticias a través de redes sociales frente al 20% que lo hace a través de prensa tradicional. "Su rol como distribuidores de información y amplificadores de temas de debate político es sin duda muy importante tanto en este país como en las democracias europeas y en Latinoamérica", admite esta investigadora. Con estas cifras, por tanto, podrían volver a ser tan determinantes en estas elecciones como lo fueron en las de 2016 cuando inclinaron la balanza hacia Trump de forma imperceptible para gran parte de los analistas . Con este poder bajo su manga, las tecnológicas llegan a esta cita electoral bajo la lupa de Gobiernos y de la ciudadanía. Y con sus deberes más que claros: evitar que se repita la injerencia extranjera y la desinformación de 2016.

Hunter Biden y la desinformación

Por ello, la lucha contra las fake news es uno de los principales objetivos de todas las plataformas. Según un reciente estudio de la German Marshall Fund de EEUU, el compromiso con las informaciones falsas en Facebook casi se ha triplicado desde 2016. En concreto, ha aumentado un 102% los usuarios que hacen clic y leen contenido de editores que publican "repetidamente" contenido falso verificable y también se ha incrementado un 293% el contenido de sitios webs, y cita entre otros a Fox News o Breitbart, que publican información de manera irresponsable y "manipuladora".

Pero, el mayor encontronazo entre las redes sociales y los candidatos presidenciales no ha tenido su origen en la esfera digital. The New York Post publicó a mediados de octubre un artículo sobre los presuntos vínculos del hijo de Joe Biden, Hunter, con Ucrania. Una relación usada de forma recurrente por la campaña de Trump. Tanto Facebook como Twitter decidieron limitar la distribución de esta historia porque la información se basaba en un correo electrónico de abril de 2015 recuperado de un ordenador robado que supuestamente pertenecía al hijo del candidato demócrata. A pesar de la limitación, sólo en Facebook, y según publica Vice, logró 54 millones de visitas gracias a ser compartida en unas 200 páginas y grupos que contaban entre todas con 13 millones de seguidores.

El escándalo fue tal que tanto Mark Zuckerberg como Jack Dorsey han sido citados para testificar ante el Comité Judicial del Senado el próximo 17 de noviembre por "la censura y supresión de los artículos del New York Post". "El rol de las redes como moderadores de noticias debe ser objeto de un debate mucho más profundo por parte de las autoridades y todos los actores implicados", reconoce Majo-Vázquez. Será la segunda vez en menos de un mes que los líderes de Facebook y Twitter tengan que dar explicaciones en Washington. Este mismo miércoles, y junto a Sundar Pichai, CEO de Google, comparecieron para debatir la Sección 230 de la Ley de la Decencia de las Comunicaciones de 1996 que libera a las tecnológicas de la responsabilidad por los contenidos publicados en sus plataformas, aunque estos quebranten las leyes. Su presencia ante el Congreso o el Senado estadounidense ya no es una anomalía. Durante los últimos tres años, Zuckerberg ha acudido ya cinco veces, mientras que Dorsey y Pinchai lo han hecho tres. Esto demuestra que la lupa de las autoridades está puesta en Silicon Valley. Sobre todo, en todo lo que se refiere a la lucha contra la desinformación.

Así intentan terminar con las fake news

Pero, en plena pandemia contra el covid-19, las medidas para combatir la información falsa sobre el coronavirus se han confundido, en ocasiones, con las que estaban tomando estas plataformas de cara a las elecciones. "La moderación de contenido falso de una forma más proactiva, la incorporación de elementos para incentivar la lectura de las noticias más allá de leer y retuitear titulares son buenas iniciativas para conseguir una deliberación sobre la información que se difunde", explica Majo-Vázquez.

Desde el mes de marzo, Twitter, por ejemplo, añade un aviso en las publicaciones de cuentas prominentes que difunden "datos desmentidos". Trump ha sufrido en varias ocasiones estas alertas. En mayo, después de que la red social desmintiera varios mensajes del presidente sobre las irregularidades con respecto al voto por correo, llegó a amenazar con cerrarla "si eso fuera legal". La plataforma, sin embargo, no ha cedido y lo ha seguido haciendo de forma reiterada con otras afirmaciones falsas suyas sobre el proceso electoral o el coronavirus. Desde mediados de octubre, y en esta misma línea, también ha cambiado la forma en la que se ejecutan los retuits. Además de tener que hacerlo en dos pasos -mientras antes se hacía directamente al pulsar sobre el símbolo-, ahora alerta a los usuarios si se trata de un mensaje que contiene información considerada engañosa tanto electoral como sobre el covid-19. Incluidos los tuits del propio Trump.

Facebook, por su parte y siguiendo la vía abierta por Twitter, ha tomado cartas en el asunto anunciando, en palabras del propio Zuckerberg, la utilización de advertencias en contenidos que pretendan deslegitimar los métodos legales y autorizados de votación o los propios resultados de la noche del día 3 con enlace al centro de información de votación, que también está muy presente en las páginas de inicio de la propia red social e Instagram y en las publicaciones relacionadas con la cita electoral. Asimismo, también eliminarán publicaciones que relacionen los contagios de covid-19 con la participación en este proceso.

De esta forma, Facebook ha intentado blindar tanto la red social principal como Instagram. Pero ha dejado dos vacíos: Facebook Messenger y WhatsApp, sus dos servicios de mensajería y que cuentan como medida estrella para luchar contra la desinformación la limitación a cinco contactos el reenvio de mensajes. Aunque el primero juega con la ventaja de estar integrado en la propia plataforma, el segundo parte con la desventaja de que no es el preferido en EEUU, al contrario de lo que sucede en gran parte de Europa donde además tiene mucha mejor fama que la red social que da nombre al imperio tecnológico. Sin embargo, los chats grupales de WhatsApp son particularmente populares entre las comunidades de migrantes, sobre todo en las hispanas, puesto que la aplicación no requiere un número de teléfono del país.

Según publica MIT Technology Review, los investigadores temen que el servicio, protegido además por el cifrado de extremo a extremo, sea una "incubadora" de desinformación que "se propaga orgánicamente en grupos privados de familiares y amigos de confianza". De la misma opinión es Majo-Vázquez que alerta que "las acciones de desinformación que tenían lugar en Facebook o Twitter se han ido trasladando también a estos grupos privados de mensajeria dónde es más difícil hacer un escrutinio de la calidad de la información".

Google también ha puesto en marcha sus propias iniciativas. En su caso, la compañía ha actualizado sus políticas de autocompletado en las búsquedas relacionadas con las elecciones.

Frenar las teorías de la conspiración

El otro caballo de Troya de las redes sociales es la existencia de cuentas falsas creadas desde el extranjero y la presencia de grupos y páginas que alientan las teorías conspiranoicas, muy activos en tiempos de coronavirus junto con los antivacunas. Para Majo-Vázquez, estas medidas son "útiles y necesarias". "La eliminación de contenido que incita la violencia, el extremismo o de posiciones ideológicas que no tienen cabida en los marcos legislativos de las democracias deben ser moderadas en la red", explica esta experta.

El movimiento que durante esta campaña ha acaparado más titulares ha sido QAnon, que más que una teoría de la conspiración es un culto político construido sobre una teoría de la conspiración. Twitter eliminó hace algunos meses su presencia en la plataforma y Facebook se sumó a su prohibición poco después vetando todas las cuentas, páginas y grupos de la red social y de Instagram que "representen" a este movimiento, aunque estas no incluyan contenidos violentos. Youtube, propiedad de Google, ha sido el último en sumarse y ha vetado las teorías conspiratorias que apunten contra individuos o grupos concretos y que hayan sido usadas para justificar violencia en el mundo real.

El problema de los anuncios políticos

Otro eje de debate para las redes sociales durante esta campaña han sido los anuncios políticos. Mientras Twitter decidió ya a finales de 2019 no permitir este tipo de publicidades en su plataforma, Facebook se ha mantenido firme. Desde el imperio de Zuckerberg, siempre han defendido la transparencia de la red social con respecto a este asunto por la implantación de su Biblioteca de Anuncios en mayo de 2018 -en España y en el resto de Europa llegó en marzo de 2019-. Este archivo público permite a cualquiera persona ver todos los anuncios que los políticos están publicando en Facebook e Instagram y conocer cuánto se han gastado.

Por ejemplo, durante los últimos 90 días -y sólo en la página oficial del candidato-, el partido demócrata gastó 73,4 millones de dólares en la de Joe Biden y 4,7 millones en la de Kamala Harris. Por su parte, los republicanos desembolsaron 57,5 millones en la de Trump y 6,6 millones en la de Mike Pence. En este apartado también hay que tener en cuenta la diferencia en el número de seguidores: el presidente tiene más de 30 millones, mientras que el antiguo número dos de Obama sólo cuenta con tres millones y los dos aspirantes a vicepresidentes tienen cada uno poco más de un millón y medio.

A pesar de que siempre se han escudado en la transparencia de esta biblioteca, durante estos últimos meses, la tecnológica ha ido introduciendo pequeños matices para frenar las críticas. Además de permitir a los usuarios de Facebook e Instagram elegir si ver o no los anuncios políticos durante la campaña, hace unas semanas anunció que desde una semana antes de las elecciones, es decir desde el pasado 27 de octubre, no aceptaría nuevas publicidades. Google, que tampoco ha querido perder el filón de la publicidad, también informó que haría lo mismo y detuvo los anuncios siete días antes de los comicios. Sin embargo, este veto sólo se le aplica a las campañas, tal y como el equipo de Trump pudo comprobar el miércoles cuando la plataforma les tumbó anuncios de petición de voto que claramente querían usar el día 3 de noviembre. ¿El problema? Tal y como desvela Wired, el vacío estaría en el marketing de influencers. Facebook y Google sólo pueden rastrear quién paga dentro de su sistema, pero con los influencers no tienen tan fácil averiguar si es una publicación pagada o un simple respaldo personal.

Otro de los problemas de este tipo de anuncios es la ultrapersonalización que permiten Facebook y Google. La Universidad de Nueva York está monitorizando el uso de este tipo de publicidades en Facebook desde julio. Su análisis muestra que los equipos de ambos candidatos han utilizado miles de gustos particulares de los usuarios y sin relación aparente con la cita electoral. Por ejemplo, Trump ha perfilado anuncios para gente interesada en humor masculino y música hip hop o afroamericana, mientras que Biden lo ha hecho para fans de Yoda, el universo Marvel o las películas Star Trek o AvatarStar Trek Avatar . Tras conocerse esta investigación, y según reveló The Wall Street Journal, la compañía les pidió que finalizarán de inmediato este proyecto porque no se trata de "un método permisible de recolectar información sobre nosotros".

¿Qué pasará después del 3 de noviembre?

Pero las dificultades para las redes sociales no se terminan con la apertura de los colegios electorales. Si hasta ahora han jugado para evitar la supresión de votantes y las fake news sobre el voto por correo, a partir de la noche del día 3 se enfrentarán a que un candidato salga y diga que ha ganado aunque los resultados no sean los definitivos. Según publicó el pasado lunes The Wall Street Journal, Facebook tendría listo un informe con medidas especiales y extremas, solo probadas en lugares de riesgo como Sri Lanka o Myanmar por si hubiese un estallido del caos. Se trataría de un listado de herramientas que ayudarían a minimizar la viralidad o a revisar al detalle cada contenido polémico.

El Gobierno aprueba un plan contra las 'fake news': monitorizará la información y podrá pedir colaboración a los medios

Ver más

Asimismo, prácticamente todas las redes sociales tienen acuerdos con agencias de noticias para impedir que se generen bulos sobre los resultados. Google unirá fuerzas con Associated Press y Facebook con Reuters. La red social enviará además un aviso de desinformación en cualquier publicación que incluya algún tipo de declaración de victoria. Alertas que también enviara Twitter que ya ha anunciado que corregirá a cualquier usuario, incluidos los candidatos a presidente, si cantan victoria antes de tiempo. Las plataformas basadas en vídeo como YouTube o TikTok se han puesto de acuerdo para dar mayor visibilidad a fuentes "fiables" al buscar información sobre las elecciones. Ambas, además, están trabajando con AP para ofrecer resultados autorizados la noche electoral.

A la espera de saber si todos los pasos que han tomado las redes sociales han ido en la dirección correcta, todas estas medidas tienen un objetivo claro y común: que al día siguiente no se las vuelva a señalar como las culpables de la victoria electoral de un determinado candidato. El temor, sin duda, de todas es que se vuelva a repetir un escándalo como el de Cambridge Analytica. Las cosas han cambiado, pero ¿lo han hecho lo suficiente? "Los cambios introducidos por Facebook en su API -interfaz de programación de aplicaciones- en 2017, restringiendo el acceso a la recogida de datos de forma abierta como permitía antes, y por Twitter recientemente en 2020. limitando ese acceso vía su API a un número determinado de datos, hacen más difícil poder recoger de forma masiva datos de individuos como se hizo en 2016", explica Majo-Vazquez, que le resta optimismo puesto que esto no quiere decir que "no se pueda acceder a sus datos que no sea vía las API oficiales". Asimismo, esta investigadora también pone el foco en otras herramientas como TikTok, en el punto de mira de Trump por su origen chino, o Snapchat que son "populares entre públicos específicos" y no están sujetas "al mismo escrutinio" y "el acceso a sus datos puede ser más sencillo".

¿Y todo este abanico de nuevas medidas se exportarán fuera de EEUU? "En Europa se pedirán y ya se están pidiendo medidas más exigentes para regular su rol en la distribución de información de forma general, no sólo durante elecciones", reconoce Majo-Vázquez, que no duda que una vez se comprueben que han resultado positivas se vayan trasladando "a otros países". Habrá que esperar entonces también a la noche del 3 de noviembre para saberlo. Al igual que la identidad del próximo presidente del país que acoge la mayoría de las sedes de las redes sociales.

El próximo 3 de noviembre medio mundo estará pendiente de EEUU y de la batalla electoral entre Donald Trump y Joe Biden. Sin embargo, la noche electoral, que en España se vivirá ya en la madrugada del día 4, puede tener un tercer protagonista que ya acaparó los focos hace cuatro años: las redes sociales. Los comicios presidenciales de 2016 que enfrentaron al actual presidente y a Hillary Clinton fueron un punto de inflexión en la opinión que el público tenía de estas plataformas y en la forma en que la gente y los Gobiernos podían usarlas para hacer daño. Hasta entonces, pocos eran conscientes del poder que atesoraban estas empresas tecnológicas.

Más sobre este tema
>