Así intentaba Facebook acabar con las 'fake news' sobre Facebook
El año 2016 fue el inicio de la pesadilla de Facebook y su lucha contra las noticias falsas. El punto de inflexión para la compañía propiedad de Mark Zuckerberg fue las elecciones en Estados Unidos que terminaron con la victoria de Donald Trump. Desde entonces, y sin grandes logros casi tres años después, al imperio tecnológico con sede en Menlo Park lo persiguen dos fantasmas que aún no ha sido capaz de despegarse de los talones: las acusaciones de permitir la injerencia extranjera en los comicios presidenciales y la expansión de las fake newsfake news.
Sin embargo, ahora, y según publica Bloomberg, la red social por antonomasia lleva usando desde principios del fatídico 2016 una herramienta interna para detectar bulos y noticias falsas. Pero sobre la propia compañía. Es decir, usaron este sistema para mejorar su reputación y no para perseguir las fake newsfake news.
Este programa de software llamado Stormchaser (que se puede traducir como cazatormenta) y que Facebook comenzó a utilizar desde antes de 2016. Esta herramienta, según cuentan tres antiguos empleados consultados por este medio estadounidense, fue diseñada para rastrear mentiras y memes sobre la red socialmemes y también sobre el resto de sus plataformas como WhatsApp. Es más, un extrabajador aseguró a este diario estadounidense que Facebook priorizó los proyectos que luchaban contra las fake news sobre la propia tecnológica sobre otros bulos que se difunden en la red social.
Con la ayuda de esta herramienta, los trabajadores del imperio tecnológico detectaron publicaciones virales relacionadas con leyendas urbanas de que la compañía va a dejar de ser gratuita, que escucha a sus usuarios a través de sus móviles o de que Zuckerberg es un extraterrestre así como informaciones relacionadas con el movimiento #DeleteFacebook surgido tras el escándalo de Cambridge Analytica que salió a la luz pública en marzo de 2018 y que afectó a 87 millones de usuarios -casi 137.000 en España-.
Una vez localizados, su forma de actuar podía pasar desde tomar medidas activas para eliminarlos hasta preparar mensajes para desmentir y desacreditar estas afirmaciones que mostraban a usuarios que habían compartido este contenido. StormChaser se habría usado para esta función al menos en Filipinas y Estados Unidos.
"No fue creada" para luchar contra las 'fake news'
Desde la compañía le explicaron a Bloomberg que no llegaron a implementar Stormchaser para luchar contra las noticias falsas porque "no fue para lo que fue creada" y "no habría funcionado". La herramienta "interna" fue creada "con una tecnología simple que nos ayudó a detectar publicaciones sobre Facebook basadas en palabras claves, por lo que podríamos considerar si responder a la confusión del producto en nuestra propia plataforma. La comparación entre ambas cosas es una equivalencia falsa". La compañía dejó de usar esta tecnología en 2018 aunque no ha aclarado las razones y aún sigue existiendo como tal.
Pero su forma de aprovecharse de Stormchaser no se limitaba a la monitorización de las informaciones falsas sobre la propia compañía, sino también a aquellas que afectan a Zuckerberg y a su actual mano derecha y directora operativa de Facebook, Sheryl Sandberg. Según explica Bloomberg, desde el imperio tecnológico consideran que la reputación del CEO influye en la de su compañía y viceversa. Por ello, recopilan de forma rutinaria información sobre ellos, incluyendo encuestas sobre cómo son vistos por el público en general.
Monitorizaban también el contenido sobre el resto de sus plataformas
Seis propuestas para luchar contra el "mito del problema migratorio"
Ver más
Stormchaser no fue la única herramienta empleada con el fin de combatir las noticias falsas sobre Facebook. La red social también usó un programa llamado Night's Watch (Guardia de la Noche, como en la serie Juego de Tronos) que permite monitorizar cómo se difunde noticias sobre Facebook en otras redes sociales y en WhatsApp. A pesar de la encriptación o cifrado "end to end" o "extremo a extremo" —que impide el acceso no autorizado a las conversaciones privadas de los usuarios—, el procedimiento consistía, en este caso, en observar cómo los usuarios mencionaban información de WhatsApp cuando se publicaba en alguna plataforma social.
Estas herramientas para luchar contras las noticias falsas sobre el propio Facebook contrastan con los intentos de la tecnología de acabar con la desinformación en sus plataformas desde hace ya casi tres años sin mucho éxito. A finales de 2018, implementó el denominado botón de contexto que busca ofrecer a los usuarios más información sobre los editores y los artículos que ven en su muro -o News Feed-. Según explicó la compañía californiana, cree que así ayuda a las personas a identificar y verificar si esas informaciones son, o no, fiables y "decidir por si mismas qué leer, confiar y compartir".
El botón de contexto fue una de las primeras piedras en el camino de Facebook para cumplir con las peticiones de Bruselas de cara a los comicios europeos del pasado 26 de mayo. Otras de las grandes novedades que provocó la presión de la UE para evitar ser acusados de nuevos de hacer la vista gorda con la desinformación durante un proceso electoral fueron los nuevos requisitos para los anuncios relacionados con política o temas de relevancia para mejorar la transparencia y la integridad electoral. Estas nuevas normas afectan a contenido pagado sobre inmigración, valores políticos, derechos sociales y civiles, política exterior y de seguridad, economía o política medioambiental.