El periodista que destapó 'Los papeles de Facebook': "Las redes empujan a los usuarios a contenido dañino"

1

"Facebook sabe cómo hacer unas redes sociales más seguras pero sus líderes han decidido no hacerlo" o "la empresa incentiva el contenido de odio, polarizador y divisivo". Estas dos frases de Frances Haugen durante su comparecencia en octubre de 2021 en el Senado de EEUU sólo dos días después de comenzar a publicarse la investigación Los papeles de Facebook del Wall Street Journal resumen a la perfección los documentos internos que recopiló esta extrabajadora del imperio de Mark Zuckerberg. 

Ahora, casi tres años después, uno de los periodistas que encabezaron esta investigación, Jeff Horwitz, detalla en el libro Código roto: los secretos más peligrosos de Facebook (Ariel) cómo fue todo este proceso que duró casi un año. Todo comenzó algunas semanas después de las elecciones estadounidenses de 2020 con un mensaje de LinkedIn de Haugen y concluyó a principios de octubre de 2021 con ella dando la cara en horario de máxima audiencia. 

Además de detalles de cómo se gestó la filtración, el reportero desvela todo un complejo entramado de manipulación política, desinformación y problemas de salud mental para los menores de los que la tecnológica, propietaria también de Instagram y Meta, era perfectamente consciente. "El panorama general no era que en Facebook sucedieran cosas malas, sino que Facebook lo sabía", resume el autor. 

En Meta eran tan conscientes que, coincidencia o no, lo cierto es que solo dos semanas después de publicarse la investigación el imperio de Zuckerberg llevó a cambio su mayor lavado de cara: pasó a llamarse Meta y anunció que, desde ese momento, serían "metaverso primero, no Facebook primero". Así, la tecnológica se dividió en dos: una rama que engloba las aplicaciones sociales, entre las que se encuentra el propio Facebook pero también Instagram y WhatsApp; y otra las plataformas de futuro, el famoso metaverso, caído en desgracia por el auge de la inteligencia artificial. 

Con la llegada el pasado miércoles 8 de mayo del libro de Jeff Horwich a las estanterías de las librerías españolas, el reportero del Wall Street Journal atiende a infoLibre desde las oficinas que el periódico tiene en San Francisco.

Frances Haugen les facilitó 22.000 capturas de pantalla de 1.200 documentos. Es muchísima información. ¿Qué fue lo que más le impactó de todo lo que recabaron?

Cuando se publicó la investigación, no creo que nadie realmente se sorprendiese de que Facebook tuviera efectos negativos en la sociedad después de años de discusión sobre la interferencia electoral extranjera, sus problemas de privacidad o Cambridge Analytica. Pero, hubo dos cosas que hasta entonces habían pasado desapercibidas. 

Primero, que era la propia mecánica de Facebook la que estaba causando esto, no sólo era gente mala haciendo cosas malas en una plataforma llena de usuarios. Y, segundo, lo bien que entendían y podían controlar lo que estaba sucediendo. Nunca dijeron "creemos que Facebook es malo", o "tenemos algunas preocupaciones con algunos productos" o "hemos estado involucrados en el genocidio y en la desinformación política". Pero, estos documentos dejaron claro que Meta sabía lo que estaba haciendo, que tenía formas de cambiarlo y que prefirió no hacerlo porque iba a ser mejor dejar las cosas como estaban para mantener la audiencia que tenían. Aunque en algunos casos se empeorara aún más la situación al seguir activas. 

En el libro habla de los demonios de Facebook, ¿cuál es el más preocupante?

Después de las elecciones de 2016 en EEUU, hubo mucha introspección en la empresa para tratar de averiguar qué había pasado y dijeron que iban a reforzar el tejido social. Pero no lo hicieron. Quizás deberían haber empezado a hacerse preguntas mucho antes, por ejemplo, sobre cómo funcionaba su sistema de recomendación de noticias. 

Lo realmente preocupante es que una vez que comenzaron a hacer algo y obtuvieron los datos de lo mucho que empeoraba el comportamiento de los usuarios y lo fácil que era engañar a la plataforma para objetivos financieros y mercenarios, no cambiaron nada. Y la razón por lo que no lo hicieron estaba muy clara: para Meta era completamente inaceptable cualquier caída medible en engagement o de disminución de uso. 

No creo que nadie realmente se sorprendiese de que Facebook tuviera efectos negativos en la sociedad después de años de discusión sobre la interferencia electoral extranjera, sus problemas de privacidad o Cambridge Analytica

Así, durante una década, optimizaron la plataforma sin ni siquiera analizar lo que estaban haciendo, como si no tuvieran sistemas para estimar la prevalencia de los discursos de odio en la plataforma hasta 2019. Y, para entonces, cuando estaban dispuestos a hacer cambios, fue cuando se dieron cuenta que habían construido Facebook de manera que tenía efectos realmente desagradables. 

Explica en el libro que "Facebook había pasado de centrarse en actores peligrosos a centrarse en las ideas peligrosas, construyendo sistemas que pudieran sofocar directamente un movimiento desde sus inicios, como una policía del pensamiento de George Orwell".

Sí, el pasaje al que te refieres es sobre los disturbios en el Capitolio del 6 de enero. Meta llegó a reconocer entonces que no eran capaces de mantener la plataforma bajo control y que si querían evitar que casos horribles como este volviesen a suceder no podían esperar a que la gente cruzara la línea. El producto era tan inestable que tenían que ir y detener los movimientos justo en el origen. Algo que es totalmente contrario a la libertad de expresión que han defendido públicamente el propio Zuckerberg y el resto de la compañía. 

La idea que traslada es la de que Meta pensó en crear su propio Gran Hermano. ¿Deberíamos estar preocupados por esta hipervigilancia? 

Sí, por supuesto que deberíamos estar preocupados. Una de las cosas que más preocupa dentro es que Facebook es demasiado rápido para poder ser controlado. En el momento en que algo se hace viral, no importaba que los moderadores lo revisen seis horas más tarde porque ya habrá llegado a millones de cuestiones en cuestión de minutos. La plataforma es muy volátil, una vez que empieza a descarrilar algún contenido no pueden detenerlo con eficacia. 

Tras el asalto al Capitolio, Meta reconoció que no eran capaces de mantener Facebook bajo control y que si querían evitar que casos horribles como este volviesen a suceder no podían esperar a que la gente cruzara la línea

De lo que se publicó aquellos días de octubre, destacaron algunas cifras como que al 3% de los usuarios estadounidenses su relación con Facebook les provocaba ansiedad o que el 32% de las chicas decían que cuando se sienten mal con su cuerpo Instagram les hace sentir peor. 

Sí, lo que más nos llamó la atención es cómo afectan las redes sociales a la salud mental. Fue una gran parte de la serie original de Los Papeles de Facebook y ha sido mucho del trabajo que hemos hecho desde entonces. El objetivo es la búsqueda de la responsabilidad que Facebook y también Instagram tienen por empujar al usuario a contenido que saben que consumirá, pero que podría no ser bueno para él, que podría ser dañino. 

Siempre ha existido esa comparación de que en las revistas se podían encontrar las mismas fotos de modelos que casi hacen apología de la anorexia y que ahora se ven en Facebook. ¿Pero cuál es la diferencia? Uno, que primero tienes que comprar la revista. Y dos, que cuando pasas demasiado tiempo mirando una foto de alguien con unos estándares alejados de la realidad, ya sea demasiado delgado o guapo, la revista no se da cuenta y después te sigue mostrando más imágenes como esas. Pero Facebook e Instagram, sí. La cuestión de qué responsabilidad tienen las plataformas en general, y Meta en concreto, de recomendar este tipo de contenidos que dañan la salud mental todavía no ha sido abordada seriamente por ningún gobierno aunque sea evidente que las redes sociales tienen una obligación inherente. 

También relata en el libro como identificaron, con la ayuda de investigadores de Stanford, "montones de clubes de intercambio de pornografía infantil a gran escala" y como en Meta lo sabían. 

La seguridad infantil, en particular en Instagram, es un tema preocupante. Instagram conecta a pedófilos entre ellos. Es una locura porque una cuenta que sólo sigue a perfiles de niñas de 13 años recibe recomendaciones para seguir a más. Si yo te dijese ahora mismo que conozco a un tipo que recomienda a otra gente ir a echar un vistazo a un sitio de pornografía infantil, llamarías a la policía. Pero cuando Meta lo hace, no lo hacemos. Es evidente que Meta tiene una responsabilidad en este tipo de recomendaciones.

Cuando pasas demasiado tiempo mirando una foto de alguien con unos estándares alejados de la realidad, ya sea demasiado delgado o guapo, la revista no se da cuenta y después te sigue mostrando más imágenes como esas. Pero Facebook e Instagram, sí

Han pasado casi tres años de la publicación de esta investigación, ¿ha cambiado realmente algo en Facebook? Más allá del nombre de la matriz de Facebook a Meta un par de semanas después.

Sí, exceptuando el nombre no ha habido un cambio total. En EEUU, el Gobierno dijo que se iba a hacer algo, lo dijeron tanto republicanos como demócratas y no ha sucedido. En la UE, la nueva Ley de Servicios Digitales es un paso adelante y los cambios se producirán de forma gradual, pero aún se están ultimando, así que hay que esperar. 

¿Y dentro de la propia compañía?

Ahora mismo, la plataforma sigue funcionando igual que antes, no ha cambiado mucho. Es más, durante las últimas elecciones parece que ocurrieron exactamente los mismos problemas. Y eso que Meta ha intentado alejarse del contenido político porque consideran que ya no les vale la pena. 

Es cierto que está tratando de suprimir algo de eso, pero todavía se pueden encontrar grupos masivos de granjas de trolls que hacen spam. Pero por el resto, ha dejado de preocuparse: primero probaron lo del metaverso, que no les ha funcionado; y ahora están impulsivamente fuertemente la inteligencia artificial generativa como nueva frontera. Es interesante porque la parte que hace que la empresa gane dinero es como si casi ya no estuvieran invirtiendo recursos en ella. 

Facebook sigue funcionando igual que antes, no ha cambiado mucho

Y todo esto con las elecciones presidenciales en EEUU en noviembre. ¿Puede Meta volver a jugar un papel fundamental en el resultado como en 2016?

Como decía, Meta en EEUU ha intentando reducir la cantidad de política en sus plataformas porque se han dado cuenta que la política que surge de Facebook e Instagram no siempre es buena. Además, se han dado cuenta que recomendar contenidos políticos de la misma forma que lo hacen con vídeos de accidente de motocross o de gatitos monos jugando no es lo mejor y que deberían ser regidos por valores diferentes. 

Más allá de esto, la plataforma no ha cambiado tanto con respecto a 2016. Además, hay mucho menos personal de seguridad centrado en estos temas de los que solía haber ya que el equipo de integridad cívica que intentaba mantener las elecciones en buena forma se disolvió después de las elecciones de 2020. Así que no creo que haya ninguna razón para sospechar que los problemas se han resuelto, si no son tan malos como entonces o cómo van a responder las empresas si las cosas empiezan a ir realmente mal como pasó después de la cita de hace cuatro años. 

Antes, el próximo 9 de junio, son las elecciones europeas, ¿deberíamos estar preocupados por la desinformación y el odio a este lado del Atlántico?

La respuesta corta es sí. Aunque pensar solo en la desinformación y el odio es una forma equivocada de ver el problema. 

Facebook se ha dado cuenta que no podían recomendar contenidos políticos de la misma forma que vídeos de gatitos monos

¿Por qué?

En lugar de tratar de averiguar si una cosa en particular es verdad o mentira, la mejor manera de abordarlo es analizar si se trata de un esfuerzo coordinado para manipular. Lo más importante es ver quién está haciendo que algo se convierta en viral y ver qué y cómo se está utilizando ese sistema. Las redes sociales y las plataformas de Meta deben ser consideradas como campos de batallas en los que las personas pueden decir en ellas locuras falsas para llamar la atención.

Deberíamos estar preocupados por la desinformación, sí, pero más por lo fácil que se manipulan las redes sociales. Si una persona crea 600 cuentas y hacen publicaciones cruzadas entre sí, suponiendo que se pueden burlar los sistemas de Meta ya que sinceramente no es tan difícil, tú, como ciudadana española, puedes realmente empezar a ejercer mucho poder. Y si se hace con 6.000 o con 60.000 cuentas, se puede tener la misma influencia que toda una ciudad. Esto son cosas que son muy difíciles de tratar ya en este momento, y tampoco hay interés por parte de Meta de solucionarlo ya. Ha sido un muy buen negocio y no parece que la empresa lo vaya a cambiar ahora. 

A finales de 2022, Elon Musk irrumpió en Twitter, ahora X, y copó los titulares de los medios con sus polémicas sobre manipulación, fake news, amplificación de los discursos de odio o el acoso. ¿Ha desviado la atención de Meta?

¿Queda alguien en Facebook? La red social cumple 20 años incapaz de conectar con la generación Z

Ver más

No del todo. Lo que pasa es que Elon Musk lo ha hecho todo más dramático. Quiero decir, Meta tal vez estaba desinvirtiendo en seguridad, mientras que Musk despedía a casi todo su personal. Ha sido como una especie de accidente loco de coche. Ha sido entretenido ver. Además, hay como una especie de sensación, también en otros titanes de la tecnología de Silicon Valley, de mirar a Twitter y pensar: "bueno, el producto todavía funciona y lo cierto es que el negocio nunca fue genial". 

Elon Musk lo ha hecho todo más dramático. Ha sido como una especie de accidente loco de coche. Ha sido entretenido de ver

Por último, sobre la invasión de Gaza. Las quejas sobre shadowbanning y censura de mensajes propalestinos son una constante, ¿se ha posicionado Meta del lado de Israel? ¿Se está moderando en exceso los mensajes en defensa del pueblo palestino? 

En este tema hay que tener en cuenta dos cosas. En primer lugar, Meta siempre ha tenido un problema moderando contenido en lengua árabe, a pesar de que con el terrorismo islámico, que es algo que ha recibido mucha atención durante los últimos años, han hecho un esfuerzo extra. Y segundo lugar, el problema no es el exceso de moderación. El mayor problema es que existe la sensación de que Facebook realmente quiere controlar lo que la gente puede decir en la plataforma. Si bien es cierto que siempre hay gente quejándose de los sesgos o de los prejuicios, creo que es bueno preguntarse qué está priorizando la empresa en términos de conversación pública. Porque si hay algo claro, es que no tienen una tecnología suficientemente buena como para filtrar nada, ni el discurso de odio. Por ejemplo, solo fueron capaces de eliminar el 5% del discurso de odio de la plataforma, era lo máximo que podían lograr. Y, en lugar de hacer este trabajo, simplemente dejaron que las cosas pasen y ocasionalmente toman medidas.

"Facebook sabe cómo hacer unas redes sociales más seguras pero sus líderes han decidido no hacerlo" o "la empresa incentiva el contenido de odio, polarizador y divisivo". Estas dos frases de Frances Haugen durante su comparecencia en octubre de 2021 en el Senado de EEUU sólo dos días después de comenzar a publicarse la investigación Los papeles de Facebook del Wall Street Journal resumen a la perfección los documentos internos que recopiló esta extrabajadora del imperio de Mark Zuckerberg. 

Más sobre este tema
>