Que el muro de Facebook, el buscador de Google, el timeline de Twitter o la página de inicio de Netflix muestran contenidos diferentes según quiénes sean sus usuarios no es ningún secreto. Sus famosos y misteriosos algoritmos ordenan las diferentes publicaciones en función de lo que saben de la persona que entra en una determinada plataforma o que busca un concepto en particular. Sin embargo, esta mágica receta que todas las tecnológicas esconden y modifican cada cierto tiempo para no dar pistas de sus ingredientes podría estar saltándose las reglas. En concreto, y según desvela una investigación de AlgorithmWatch con el apoyo de JournalismFund.eu y que también publica infoLibre, Facebook y Google estarían optimizando sus anuncios de manera discriminatoria usando estereotipos de género. Algo que, a juicio de los expertos consultados, sería una ilegalidad.
Según este estudio elaborado a lo largo del mes de septiembre, un anuncio con una oferta laboral buscando camioneros se muestra a 12 hombres por cada mujer, mientras que una de trabajadores de cuidado infantil se enseña a 22 mujeres por cada hombre. AlgorithmWatch se hizo pasar por anunciante en Facebook y Google para publicar ofertas de trabajo de desarrolladores de aprendizaje automático, camioneros, peluqueros, trabajadores de cuidado infantil, asesores legales y enfermeros. Todas las publicidades, que dirigían a ofertas laborales reales del portal Indeed, utilizaban el género masculino de los puestos de trabajo y mostraban una imagen relacionada con el propio empleo.
Este análisis se llevó a cabo en Alemania, Polonia, Francia, España y Suiza. En el caso particular de España, Google discrimina de forma automática mientras que Facebook lo hace de forma "atroz". En la red social, España fue el único país en el que existió una correlación directa entre la tasa de clics de las mujeres y la proporción de impresiones en los anuncios para mujeres (todos los datos están disponibles aquí).
Pero, ¿cómo es posible que estas plataformas introduzcan una segmentación discriminatoria por género? La respuesta se encuentra en el propio funcionamiento de las publicidades, en particular, y de los propios servicios, en general. "Facebook y Google trabajan con herramientas que, en el fondo, son muy similares: Facebook Ads y Google Adwords", explica Laura Pérez Altables, doctora en comunicación e investigadora de la Universitat Pompeu Fabra. "Todos los anuncios funcionan por medio de un sistema de segmentación de audiencias, para que los anunciantes puedan dirigir sus mensajes a los públicos específicos que más les interesan o a los que les resulte más fácil convencer", asegura Javier de Rivera, sociólogo especializado en nuevas tecnologías.
Aunque ambas herramientas son muy similares, no funcionan de la misma forma. En el caso de la red social, trabaja de forma parecida a la publicidad que nos encontramos en la televisión o en una marquesina. "Facebook mostrará automáticamente los anuncios a las personas con más probabilidades de resultarles relevantes", explica la propia plataforma al tiempo que también señala que si se tiene en cuenta que "más de 2.000 millones de personas usan Facebook cada mes" sea cual sea la audiencia que una empresa busque "la encontrará". Con respecto a Google, "permite elegir una serie de palabras clave y segmentar a los usuarios en función del perfil que más interese con el objetivo de que cuando una persona similar al perfil que hemos definido haga una búsqueda en Google le aparezca entre los resultados nuestro anuncio", admite Pérez Altables que también apunta que "el anunciante paga sólo cuando los usuarios hacen clic en su anuncio (pago por clic)". Twitter, por su parte, lo hace de forma diferente: "La segmentación se hace en base a intereses o por seguidores, es decir, por contenido y no por cuestiones de identidad", reconoce esta experta.
"Un proceso bastante opaco y nada transparente"
¿Y cómo saben estas compañías que tienen que mostrar una determinada publicidad a un usuario concreto? "Cuando una empresa decide anunciarse en estas tecnológicas hay un punto manual en el que puede describir las características de su público objetivo", explica Pérez Altables, que señala que esto es igual que lo que ocurre con la que vemos fuera de Internet. A partir de aquí, advierte, "son los algoritmos de Facebook o Google los que deciden qué mostrar". Y aquí, en el algoritmo, es donde se encuentra el verdadero y gran problema: "Todo pasa por la decisión de un algoritmo. Y eso es un proceso bastante opaco y nada transparente".
El secretismo que rodea a los algoritmos también afecta al hecho de que no se conocen los datos que Facebook y Google usan para saber qué usuarios son más ideales para mostrarles uno u otro anuncio. En realidad, argumenta Pérez Altables, se pueden intuir y van desde información que ofrecemos sin darle relevancia cuando nos registramos como la edad o el sexo hasta datos más empíricos como la ideología. Sergio Juan-Creix, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC) y experto en derecho digital, incluye también datos sobre redes y conexiones, información sobre transacciones realizadas a través de los servicios de estas compañías o las famosas cookies.
"Realmente tienen mucha más información sobre nosotros de la que pensamos", reconoce Pérez Altables, quien apunta que, al final, a las empresas lo que se les presenta es una "lista con una serie de variables". Juan-Creix es de la misma opinión y señala que lo que contratan estos anunciantes es "una campaña para un determinado perfil" o "palabras clave en subastas". Al final, lo que hacen estas plataformas es, según De Rivera, "facilitar que profundicen en producir una mayor segmentación". Una segmentación, explica, que favorece "la consolidación de estereotipos", ya que agrupan "a la gente en categorías sociales a las que asignamos comportamientos y valores".
Pueden "distribuir contenidos ajenos a cualquier norma o valor social"
Según desvela el experimento de AlgorithmWatch, Facebook y Google hacen uso de la discriminación por género de una forma más o menos agresiva. En 2019, un estudio de la Universidad Northeastern en Estados Unidos descubrió que la optimización publicitaria de la red social discriminaba por raza.
Pero no hace falta irse muy lejos para darse cuenta de esta discriminación automatizada. "Un ejemplo que me parece muy ilustrativo son los anuncios dirigidos a todo lo que tiene que ver con la maternidad", asegura Pérez Altables. Señala que se le muestran mayormente a mujeres, aunque no hayan hecho búsquedas sobre el tema, ya que "se basa en unos prejuicios debido a las características personales". Es decir, es mucho más probable que a una mujer de más de entre 30 y 40 años se le muestre un anuncio sobre la congelación de óvulos aunque no esté interesada en la maternidad, que a un hombre de la misma franja de edad que sí esté interesado. Javier de Rivera explica que el problema es que "los anuncios segmentados de Facebook y Google no son transparentes", por lo que "nadie sabe qué tipo de contenidos segmentan hacia qué audiencias". Esto provoca que se les permita "distribuir contenidos totalmente ajenos a cualquier norma o valor social", reconoce este sociólogo.
¿Utilizan estos estereotipos más allá del apartado publicitario en otras partes de la tecnológica? "Sí, desde el momento en que todo lo decide un algoritmo hay discriminación, consciente o inconsciente", expone Pérez Altables, que señala que "detrás" hay una persona que lo configura y "es muy probable que esa fórmula reproduzca la ideología de quien lo configura", por lo que es posible que reflejen "las mismas segregaciones o fragmentaciones del mundo offline, que pueden ser incluso de manera inconsciente". "La neutralidad de los algoritmos es una falacia", admite esta experta. De Rivera matiza que, al no existir una entidad que audite a estas plataformas, Facebook y Google pueden terminar haciendo "lo que quieran y nadie puede saber bien qué hacen".
¿Es legal?
Ver másAdiós al almacenamiento gratuito e ilimitado en Google Fotos
Aunque no se puede demostrar que se hace, ¿es legal? "Esta segmentación afecta como cualquier segregación: discriminando a una parte de la población frente a otra, pues al final el acceso a la información es desigual", asegura Pérez Altables. Desde el punto de vista legislativo, Sergio Juan-Creix argumenta que estas tecnológicas no pueden usar estereotipos de género o raza, independientemente de que sea en un anuncio o en una determinada búsqueda.
"El Reglamento General de Protección de Datos (RGPD) considera estos datos como de categoría especial y, como tales, sujetos a una protección especial requiriendo, por ejemplo, un consentimiento explícito", explica este experto sobre la normativa europea en vigor desde mayo de 2018. Y, a nivel nacional, la nueva Ley Orgánica de Protección de Datos y de Garantía de Derechos Digitales (LOPDGDD) añade que "no bastará solo con este consentimiento explícito" en el caso de identificar una ideología, afiliación sindical, religión, orientación sexual, creencias o un origen racial o étnico, y es necesaria una base legal como "la existencia de un interés vital" y "lógicamente" entre ellas no se encuentra "hacer mercadotecnia o sesgar contenidos informativos". Este profesor de la UOC también apunta que con esta discriminación automática se vulneran "principios fundamentales protegidos en nuestra Constitución como el de igualdad, libertad de información u honor". Los usuarios, matiza, "tenemos derecho a no ser objeto de decisiones automatizadas basadas en técnicas de perfilado que nos afecten significativamente".
Para De Rivera, el impacto va mucho más allá de la propia segmentación por género o raza: "Tiene que ver con el poder que están atesorando entidades privadas con capacidad para controlar la información, los pensamientos y los deseos de gran parte de la población mundial". A medio o largo plazo, explica, "el poder de estas plataformas afecta a la libertad, la democracia y la autonomía social". La misma opinión comparte Sergio Juan-Creix, para quien crear este tipo de perfiles con fines publicitarios o económicos, como en este caso lo harían Facebook y Google, "atentaría directamente contra los Derechos Humanos" y "a la larga podría conllevar problemas mucho más graves de segregación".
Que el muro de Facebook, el buscador de Google, el timeline de Twitter o la página de inicio de Netflix muestran contenidos diferentes según quiénes sean sus usuarios no es ningún secreto. Sus famosos y misteriosos algoritmos ordenan las diferentes publicaciones en función de lo que saben de la persona que entra en una determinada plataforma o que busca un concepto en particular. Sin embargo, esta mágica receta que todas las tecnológicas esconden y modifican cada cierto tiempo para no dar pistas de sus ingredientes podría estar saltándose las reglas. En concreto, y según desvela una investigación de AlgorithmWatch con el apoyo de JournalismFund.eu y que también publica infoLibre, Facebook y Google estarían optimizando sus anuncios de manera discriminatoria usando estereotipos de género. Algo que, a juicio de los expertos consultados, sería una ilegalidad.