LA PORTADA DE MAÑANA
Ver
Las decisiones del nuevo CGPJ muestran que el empate pactado entre PP y PSOE favorece a la derecha

investigación sobre la discriminación de los anuncios

Discriminación automatizada: Facebook usa estereotipos de género para aumentar la eficacia de sus anuncios

Facebook desde un móvil

Nicolas Kayser-Bril (AlgorithmWatch)

Las plataformas online son conocidas por el refinamiento de sus motores de publicidad, que permiten a los anunciantes dirigirse a audiencias muy específicas. Facebook, por ejemplo, te permite marcar como objetivo a los amigos de aquellas personas que cumplen años la próxima semana. También permitía, incluso, excluir que personas de una determinada raza vieran un anuncio, hasta que una investigación periodística lo descubrió hace un año.

Las tecnológicas no se detienen aquí. Estas plataformas llevan a cabo una segunda segmentación, u optimización, sin que el propio perfil que configura la publicidad lo sepa.

AlgorithmWatch se hizo pasar por anunciante en Facebook y Google para publicar ofertas de trabajo de desarrolladores de aprendizaje automático, camioneros, peluqueros, trabajadores de cuidado infantil, asesores legales y enfermeros. Todos los anuncios utilizaban el género masculino de los puestos de trabajo y mostraban una imagen relacionada con el propio empleo. Se realizó el experimento en Alemania, Polonia, Francia, España y SuizaEspaña. Los anuncios llevaban a ofertas de trabajo reales en Indeed, un portal de empleo con presencia local en cada uno de estos países.

Para la configuración de estos anuncios no se utilizó absolutamente ningún público objetivo, sólo se estableció la zona geográfica ya que es obligatoria.

Con este experimento no se esperaba que estos anuncios se mostraran en igual proporción a hombres y mujeres. Pero se esperaba que se mostraran aproximadamente a la misma audiencia. Después de todo, no se marcó como objetivo a ningún público concreto en particular.

"Optimización"

Tanto Google, hasta cierto punto, como Facebook, especialmente, segmentaron estos anuncios sin pedir permiso. En Alemania, el anuncio para camioneros se mostró a 4.864 hombres y sólo a 386 mujeres. El anuncio para trabajadores de cuidado infantil, que estaba funcionando exactamente al mismo tiempo, se enseñó, en cambio, a 6.456 mujeres y sólo a 258 hombres.

Los datos están disponibles en línea.

Cuando los anunciantes compran un espacio en Google o Facebook, hacen ofertas, como en una subasta. Cuando los usuarios cargan su fuente de noticias o realizan una búsqueda, estas plataformas muestran a un usuario determinado los anuncios del mayor postor.

Sería poco práctico si los anunciantes compiten contra todos los demás cada vez que alguien actualiza su fuente de noticias. Por tanto, estas plataformas "optimizan" el proceso de licitación para que los anunciantes sólo compitan por personas que tienen una mayor posibilidad de hacer clic en una publicidad determinada. De esta manera, los anunciantes son más propensos a pujar por personas que hacen clic en sus anuncios. Así las tecnológicas pueden agotar más rápidamente sus presupuestos de publicidad.

En este experimento, los 4.864 hombres y 386 mujeres a quienes se les mostró el anuncio de la oferta laboral para camioneros eran los que Facebook consideraba que tenían la mayor probabilidad de hacer clic en él. Es decir, por cada mujer a la que se muestra esta oferta, se presenta a 12 hombres.

Fotos fatídicas

Se intentó averiguar cómo calcula Facebook esta probabilidad de hacer clic en determinados anuncios. En otro experimento, se anunció una página con una lista de trabajos de camioneros, pero se cambiaron las imágenes y el texto del anuncio.

Estos anuncios estuvieron activos en Francia. En una publicidad, se utilizó un formulario de género para el masculino "camionero". Y en el otro sólo se utilizó la forma femenina, "camionera". En una tercera, se mostró una foto de un camino rural en lugar de un camión. Finalmente, se colocó una imagen de productos cosméticos. La división por género de las impresiones de estos anuncios muestran que Facebook se basó principalmente en las imágenes para decidir a quién mostrar el anuncio.

Google discrimina menos, pero no está claro

Los anuncios que se compraron en Google exhibieron patrones similares, pero estaban mucho más limitados. La diferencia entre el anuncio más mostrado a las mujeres y el anuncio que más se enseñó a los hombres nunca fue superior a 20 puntos porcentuales. Más importante aún, la optimización de género en Google no siguió un patrón consistente. En Alemania, por ejemplo, la publicidad para camioneros fue la que más se mostró a las mujeres.

Sin embargo, Google no dejó que se pusieran ofertas "ilimitadas" en estos anuncios. Se tuvo que ajustar manualmente cuánto se estaba dispuesto a pagar por cada persona que hiciera clic en el anuncio. Con estas ofertas ilimitadas, la plataforma decide automáticamente cuánto ofrecer por un clic, basado en el presupuesto del anunciante. Por tanto, los resultados de ambas plataformas no son directamente comparables.

Asimismo, el experimento en Facebook sufrió la aplicación arbitraria de las políticas de la red social. En España, todos estos anuncios fueron suspendidos a las pocas horas bajo el pretexto de que se basaban en un "esquema rápido para hacerse rico". En Polonia, dos de los anuncios fueron suspendidos después de que la tecnológica californiana decidiera que se trataba de "asuntos sociales, elecciones o política".

Replicar el pasado

Estos hallazgos confirman los de un equipo de la Universidad Northeastern en Estados Unidos. En 2019, mostraron que la optimización publicitaria de Facebook discriminaba de maneras, posiblemente, ilegales.

Piotr Sapiezynski, uno de los coautores, explica a AlgorithmWatch que Facebook ciertamente estaba aprendiendo de datos pasados ya que notó que la distribución de género de estos anuncios no cambió mucho durante el tiempo que estuvo activo. La red social decide inmediatamente a quién mostrar el anuncio, tan pronto como se publica. Es posible, por tanto, que Facebook haga predicciones sobre quién puede hacer clic en un anuncio basándose en cómo los usuarios reaccionaron a anuncios similares en el pasado.

"El mecanismo es intrínsecamente conservador", explica Sapiezynski y apunta que, posiblemente, la red social "predice que el pasado se repite". Esto se puede deber a que la plataforma decide lo que los usuarios ven cuando visitan las propiedades de Facebook. "También crea el futuro", añade. Y, al hacerlo, priva a la gente de oportunidades.

Posiblemente ilegal

Esta segmentación automatizada podría ayudar a los anunciantes de muchas maneras. Las ofertas de empleo para profesiones que exigen licencia, por ejemplo, sólo podrían mostrarse a personas con los títulos requeridos. Sin embargo, la legislación europea prohíbe la discriminación basada en una serie de criterios, como la raza y el género.

Es fácil entender el motivo. Si una oferta de trabajo para un puesto de enfermero o cuidador de niños sólo se anunciara en Facebook, los candidatos hombres tendrían pocas posibilidades de presentar su candidatura. Y viceversa si la oferta es de camionero.

AlgorithmWatch habló con varios expertos en legislación contra la discriminación. Todos coincidieron en que la segmentación automatizada de Facebook, y posiblemente la de Google, constituía discriminación indirecta.

La perspectiva ética

A pesar de las implicaciones legales, estos sistemas contribuyen a la discriminación en un sentido ético, explicó a AlgorithmWatch Tobias Matzner, profesor de Medios, Algoritmos y Sociedad de la Universidad de Paderborn (Alemania).

"Estos procesos contribuyen claramente a la discriminación, especialmente las formas estructurales de discriminación donde partes de la población se mantienen alejadas de ciertas áreas sociales", aseguró. "Este ejemplo muestra cómo todo nuestro historial de uso de Facebook o de Google podría algún día determinar qué trabajo obtenemos. No sería por un veredicto negativo de una compañía de gran alcance, sino porque los datos en nuestra historia y los datos en los predictores de las plataformas se combinan de una manera que no vemos la oferta de trabajo en primer lugar", admite.

Además, el experimento de 2019 en la Universidad Northeastern enseñó que Facebook también discrimina por raza. No se pudo verificar que esto también sucediera en Europa, pero Sapiezynski no observó ninguna razón por la que Facebook no utilizara el mismo mecanismo en todo el mundo.

Difícil de probar

Aunque esté prohibida, esta discriminación podría ser imposible de demostrar para los ciudadanos que se vieron afectados, como una camionera buscando un nuevo trabajo, pero a quien Facebook no muestra ninguna oferta laboral.

La legislación actual impone la carga de la prueba a los denunciantes. Sin embargo, los usuarios de Facebook no tienen forma de saber qué ofertas de trabajo no se mostraron, y los anunciantes no tienen manera de garantizar que sus publicidades se muestran de una manera que no discrimina ilegalmente. La autoridad alemana de lucha contra la discriminación pidió una actualización de la legislación que resolvería este enigma, pero el cambio aún no está en el horizonte legislativo.

En Estados Unidos, la activista por el derecho a la vivienda Neuhtah Opiotennione intentó presentar una demanda colectiva contra la discriminación de los anuncios de Facebook, pero es poco probable que el juez de California que lleva el asunto lo deje seguir adelante.

Facebook asegura que el discurso de odio en la red social e Instagram representa el 0,1% de lo que ven los usuarios

Facebook asegura que el discurso de odio en la red social e Instagram representa el 0,1% de lo que ven los usuarios

Zona prohibida

Google no respondió a ninguna de las solicitudes de comentarios sobre este tema. Sin embargo, suspendieron la cuenta del anunciante del experimento unos días después de enviar nuestras preguntas. La tecnológica argumentó que se "eludió los sistemas y procesos de publicidad de Google", algo que no se hizo.

Facebook no respondió a nuestras preguntas. Sin embargo, en lo que podría ser un intento de intimidación, solicitó ver todos los hallazgos y pidió los nombres de los periodistas con los que estaba trabajando AlgorithmWatch.

Más sobre este tema
stats