Facebook cambiará su algoritmo para luchar contra las 'fake news': penalizará el contenido "límite"
Facebook aún no ha puesto punto y final a su batalla contra las fake news. El presidente ejecutivo y fundador de la red social por antonomasia, Mark Zuckerberg, anunció este jueves a través de su perfil en la plataforma, herramienta que usa habitualmente como púlpito para informar sobre las últimas novedades de su compañía, que volvería a retocar su famoso y secreto algoritmo para penalizar el contenido "límite", es decir, aquel que está cerca de violar sus políticas y condiciones de uso que prohíben la desinformación, el discurso de odio o el clickbait. En el marco de una actualización del Informe de Transparencia de Facebook, el anuncio llega en medio de una nueva polémica en Menlo Park después de las revelaciones de The New York Times sobre la contratación de una web ultraconservadora para publicar informaciones negativas sobre Google y Apple, y desviar así la atención sobre sus problemas tras las injerencias extranjeras y el escándalo de Cambridge Analytica.
En un extenso post de más de 5.000 palabras, Zuckerberg explica que este cambio en el algoritmo para penalizar el contenido "límite" podría inducir a una menor distribución y participación de este tipo de publicaciones y reducir así su "distribución y viralidad". "Uno de los mayores problemas a los que se enfrentan las redes sociales es que, cuando no se controlan, las personas se involucran de manera desproporcionada con contenido más sensacionalista y provocativo", explica el líder de Facebook que también señala que éste no es un fenómeno nuevo: "Hoy está muy difundido en las noticias por cable y ha sido un elemento básico de los tabloides durante más de un siglo". Sin embargo, el fundador y CEO de la empresa californiana alerta de que "puede socavar la calidad del discurso público y conducir a la polarización. En nuestro caso, también puede degradar la calidad de nuestros servicios".
Zuckerberg sugiere que no importa dónde dibujen la línea con sus políticas y condiciones de uso "para lo que está permitido": "A medida que una parte del contenido se acerca a esa línea, la gente se involucrará más en promedio, incluso cuando luego nos dicen que no les gusta el contenido". Por ahora, Facebook se centrará en el contenido de clickbait y en la desinformación clickbait ya que "la gente constantemente nos dice que este tipo de contenido empeoran nuestros servicios, aunque se comprometan con ellos". Sin embargo, este "patrón" no sólo afecta a las noticias, sino a casi todas las "categorias de contenido". El líder de la red social pone varios ejemplos sobre ello: "las fotos cercanas a la línea de desnudez, como con ropa reveladora o posiciones sexualmente sugerentes, obtuvieron una mayor participación en promedio antes de que cambiáramos la curva de distribución para desalentar esto. Lo mismo ocurre con las publicaciones que no están dentro de nuestra definición de discurso de odio, pero siguen siendo ofensivas".
"Al solucionar este problema de incentivos en nuestros servicios, creemos que creará un círculo virtuoso: al reducir el sensacionalismo de todas las formas, crearemos un discurso más sano y menos polarizado en el que más personas se sientan seguras de participar", reconoce Zuckerberg. Sin embargo, fuentes de Facebook consultadas por Techcrunch, explican que esta "degradación" de contenido "límite" sólo estará vigente en casos "limitados". La red social continuará usando su algoritmo basado en inteligencia artificial para eliminar de forma proactiva el contenido que viola sus políticas para encontrar y penalizar aquellas publicaciones que están próximas a violar sus políticas de uso.
Zuckerberg también explica en su post que una vez dispongan de esta nueva tecnología en su algoritmo y puedan "eliminar de forma proactiva el contenido dañino y reducir la distribución del contenido límite" también podrán usarlos para dar a sus usuarios "un mayor control de lo que ven". Así, admite, "podemos equilibrar mejor nuestros principios de libertad de expresión y seguridad para todos".
No es la primera vez que Facebook cambia su algoritmo para penalizar al clickbaitclickbait. En 2014, reducieron la visibilidad de aquellas publicaciones en los que los usuarios hacían clic pero salían rápidamente de la noticia. Dos años más tarde, empezaron a degradar titulares con frases comunes que llaman al clic. Y a principios de este año, anunció que daría prioridad a las publicaciones de amigos y mostraría menos las de medios de comunicación y marcas.
Un órgano independiente para revisar la retirada de contenido
La penalización de este contenido "límite" no es la única novedad anunciada durante esta actualización del Informe de Transparencia de Facebook. Zuckerberg también ha puesto sobre la mesa crear un órgano independiente para revisar las apelaciones presentadas por usuarios tras la retirada de contenidos. Según explica el líder de la red social, ellos sólos no pueden seguir tomando "tantas decisiones importantes sobre la libertad de expresión y la seguridad".
"Creo que la independencia es importante por algunas razones. Primero, evitará la concentración de demasiada toma de decisiones dentro de nuestros equipos. En segundo lugar, creará responsabilidad y supervisión. Tercero, brindará seguridad de que estas decisiones se toman en el mejor interés de nuestra comunidad y no por razones comerciales", explica Zuckerberg. Por ello, pondrán en marcha a lo largo de 2019 ideas en diferentes países para dar respuesta a la pregunta sobre "como funcionará esto en la práctica", es decir, cómo se seleccionará a los miembros, cómo garantizar la independencia al mismo tiempo que mantienen su compromiso con los principios de la red social, etc.
La UE se 'arma' para frenar fraudes en las elecciones europeas
Ver más
Además, Zuckerberg también da cifras sobre la eliminación de contenido que viola sus normas y políticas de uso. En abril de este año, la red social hizo pública por primera vez su definición de "terrorismo": "Priorizamos la eliminación de contenido terrorista, y ahora el 99% del contenido terrorista que eliminamos está marcado por nuestros sistemas antes de que alguien en nuestros servicios nos lo informe". Por otra parte, con respecto a la desnudez, los sistemas de Facebook ya identifican proactivamente el 96%.
Con respecto al contenido de odio, que ya identifican de forma proactiva en un 52%, Facebook reconoce que han sido "demasiado lentos" en algunos casos, sobre todo en la crisis de Myanmar. "En el tercer trimestre de 2018, identificamos de manera proactiva alrededor del 63% del discurso de odio que eliminamos en este país, un aumento de solo el 13% en el último trimestre de 2017", explica Zuckerberg que promete que a finales de este año tendrán "al menos 100 expertos en idioma birmano revisando el contenido".
Tras las críticas que le han llovido a Facebook tras sus problemas por las injerencias extranjeras durante las elecciones presidenciales de Estados Unidos que ganó Donald Trump en 2016 y el reciente escándalo de Cambridge Analytica, la empresa tecnológica ha buscando "publicar más datos sobre sus prácticas de moderación de contenido" para abordar estas acusaciones. "Si bien ha tomado tiempo comprender la complejidad de los desafíos, hemos avanzado mucho. Aún así, tenemos un importante trabajo por delante para llevar todos nuestros sistemas a los niveles que la gente espera, y dónde necesitamos estar operando", reconoce Zuckerberg. Por ello, también planea aumentar la transparencia en relación con los cambios de su política de servicio en las próximas semanas.