LA PORTADA DE MAÑANA
Ver
Las decisiones del nuevo CGPJ muestran que el empate pactado entre PP y PSOE favorece a la derecha

Lo mejor de Mediapart

Siri y el calvario de los empleados de Apple

Captura de un documento de trabajo.

A raíz de las revelaciones sobre las escuchas de los usuarios de Siri, Apple acaba de despedir a varios cientos de empleados. Mediapart (socio editorial de infoLibre) ha podido hablar con varios de ellos y ha tenido acceso a documentos que detallan en qué consistía el trabajo de dichos empleados, encargados de escuchar a los usuarios.

En total, al menos 300 personas que trabajaban para subcontratas de Apple en Cork (Irlanda) recibieron el pasado viernes el aviso de la rescisión de sus contratos, según informaba The Guardian el 28 de agosto.

Este anuncio no supone en realidad una sorpresa para los empleados afectados. Desde el 2 de agosto, muchos de ellos permanecían en paro técnico después de que The Guardian y El País revelaran la verdadera naturaleza de su trabajo: escuchar a los usuarios de Apple hablar con Siri. Esta inteligencia artificial, integrada en todos los dispositivos comercializados por la marca Apple, permite activar una aplicación, escuchar música, hacer una búsqueda en internet o incluso llamar a un contacto, simplemente mediante una orden oral.

Sin embargo, los artículos de The Guardian y El País no fueron, en sí mismos, una exclusiva. Varios investigadores ya han señalado que la inteligencia artificial es mucho menor de lo que sus diseñadores afirman. Incapaces de “aprender” realmente por sí mismos, los algoritmos necesitan cientos de miles de ejemplos, proporcionados por seres humanos.

Por otra parte, los dos diarios aportaban testimonios inéditos de antiguos empleados de subcontratas de Apple que pasaron sus jornadas escuchando las conversaciones de los clientes y tomando nota de la respuesta de Siri. Además, revelaron que los diversos dispositivos en los que está integrado el asistente de voz tienen cierta tendencia a activarlo en cualquier momento.

Los empleados encargados de escuchar los fragmentos sonoros grabados por Siri con frecuencia tuvieron que escuchar conversaciones privadas, como en relaciones sexuales o en lo que parecía ser tráfico de drogas. En respuesta, Apple anunció la suspensión de los programas de mejora de Siri hasta que fueran revisados, y modificados, el próximo otoño.

Desde entonces, Mediapart también ha recabado testimonios de varios antiguos empleados que trabajaban en las oficinas de GlobeTech, una de las dos principales empresas que trabajan para Apple en Cork (la otra es Lionbridge). Estos confirman la información de The Guardian y de El País y proporcionan datos adicionales.

Los cientos de personas que trabajan para Globetech y Lionbridge se dedicaban a múltiples “proyectos” correspondientes a las diferentes fases de comprobación y calificación de Siri. Estas diferentes tareas requerían diferentes habilidades y niveles de acreditación, algunos de los cuales permitían el acceso a los datos personales contenidos en el dispositivo del usuario.

Dado que cada empleado está sujeto a una cláusula de confidencialidad, es muy difícil saber exactamente a qué corresponden cada uno de sus proyectos. Pero varios documentos internos y testimonios de antiguos empleados recogidos por Mediapart proporcionan una idea bastante precisa del papel de los seres humanos en el funcionamiento de la inteligencia artificial y de sus condiciones de trabajo.

Los empleados que trabajan directamente en Siri se clasifican en dos categorías principales. En primer lugar, están los language analysts, que trabajan con los bulk data, los datos brutos, es decir, los extractos de audio entregados sin ninguna otra información.

La tarea básica se corresponde con los programas 1.000 hours (1.000 horas) y se divide en proyectos específicos según el dispositivo: “1.000 hours iPhone”, “1.000 hours iPad”, “1.000 horas CarPlay”, etc. El empleado, conectado a una interfaz en una red interna de Apple, tiene acceso a la grabación de audio y, por debajo de ella, a la transcripción automática realizada por el algoritmo. Tiene que escuchar la secuencia, llamada “iteración", y corregir eventuales errores de transcripción.

El número de iteraciones necesarias para que Siri funcione correctamente es impresionante. En los documentos consultados por Mediapart, un cuadro trimestral de objetivos da la cifra de 609.309 archivos de audio para clientes francófonos, 874.778 para clientes chinos y 716.388 para clientes japoneses. Y esto, sólo para el tercer trimestre de 2019 y para el iPad. Lo que supone un ritmo frenético para que los empleados alcancen una cuota diaria de 1.300 iteraciones.

 

La otra categoría de empleados corresponde a los data analysts que tienen acceso a determinados datos personales de los usuarios. Sin embargo, Apple había declarado que sus empleados no tenían los medios para identificar a las personas a las que estaban escuchando, especialmente porque no tenían el “user ID”, el identificador.

Eso es parcialmente cierto. El nombre o número de usuario no aparece. Pero un pequeño menú integrado en la interfaz de Apple, el user data browser (navegador de datos de usuario), permite hacer búsquedas entre los datos almacenados en el dispositivo. Esta característica está integrada principalmente en la herramienta de calificación de Siri, el widget de resultados de Siri (SRW).

Este presenta el extracto del sonido y, en la parte inferior izquierda, la respuesta de Siri a la petición. A la derecha, una serie de preguntas le permite anotar ésta. Abajo, el user data browser le permite buscar los datos del dispositivo para comprobar que Siri ha utilizado la información correcta.

Como explica uno de los documentos, “los datos de usuario pueden ser útiles para comprender la intención del usuario. Por ejemplo, si el usuario dice: ‘Mostrar puesta de sol horizontal’, puede ser difícil de entender. Sin embargo, si el usuario tiene un álbum de fotos llamado ‘Puestas de sol horizontales’, lo que el usuario quería queda claro”.

En cuanto a las condiciones de trabajo, los empleados de las subcontratas de Apple están un poco mejor que muchos otros microtrabajadores, como los descritos por el sociólogo Antonio Casilli, autor del libro En attendant les robots (Seuil, enero de 2019) y miembro del proyecto DipLab (Digital Platform Labor), encargado del informe (en francés) “Le micro-travail en France”, publicado en abril de 2019.

Este nuevo subproletariado digital, estos “trabajadores de la web”, a menudo trabajan desde casa, a través de plataformas intermedias, y a menudo ni siquiera conocen la identidad de la compañía que hace el encargo. Se les paga por la tarea, en la mayoría de los casos unos pocos céntimos de euro.

En GlobeTech, los empleados tienen un contrato de trabajo conforme a la legislación irlandesa, con un salario bruto mensual de aproximadamente 2.000 euros al mes, por jornadas de 7,5 horas, sin incluir el tiempo para comer, con dos descansos de 15 minutos. Trabajan en locales específicos desde donde se conectan a la interfaz de Apple a través de una red segura.

Las condiciones de trabajo son estrictas y, a menudo, mal llevadas por los empleados. “Lo peor es el aspecto repetitivo, las iteraciones que se repiten, como ‘poner la alarma a tal o cual hora’, explica Antoine (nombre supuesto), uno de los antiguos empleados con los que Mediapart ha podido hablar. La gente estaba sobrecualificada, había diplomados y licenciados. Todos se aburrían. La mayoría se iba lo antes posible, tan pronto como acababa con su volumen de iteración diaria. No creo que nadie se haya quedado más de seis meses. Incluso nuestros superiores parecían odiar su trabajo”.

Y, continúa el joven, “además, estábamos supercontrolados. Cuando no hacíamos una iteración durante más de seis minutos, se considerábamos que estábamos en un descanso. Era necesario enviar cada tarde por correo electrónico el número de iteraciones que habíamos hecho durante el día”. “Te podían despedir de la noche a la mañana”, confirma Gaël (nombre supuesto), otro exempleado. “Por la tarde, podía venir el supervisor y decirte: no has cumplido los objetivos, mañana te vas”.

Un pedófilo

Muchos empleados llevaban mal el hecho de ser testigos de la vida privada de los usuarios. Una buena parte de las órdenes son peticiones más bien clásicas, como llamar a un contacto. “Lo más gracioso que me ha pasado era del tipo ‘llama a Frank Riester’”, recuerda Antoine.

Pero algunos de ellos son particularmente intrusivos. “Mucha gente dicta sus mensajes de texto. Y por eso tenemos muchos sextos”, dice Antoine. También hay casos de preguntas relacionadas con enfermedades, por ejemplo. “También oímos muchas voces infantiles. A ellos no les hemos preguntado”, se indigna Gaël, que recuerda una voz infantil que decía: “Siri, ¿puedes mostrarme la imagen de una pilila de verdad?”pilila.

 

También están las muchas personas que usan Siri como dictáfono para grabar sus propias notas de voz. Antoine y Gaël se encontraron en numerosas ocasiones con fragmentos de profesores, que grababan cuestiones relacionadas con el aula.

Por último, también hay grabaciones accidentales, debidas a una activación involuntaria de Siri. Porque el asistente vocal parece particularmente sensible. “Sucede cada dos por tres”, confirma Antoine. “Me he dado cuenta de que funcionaba sobre todo con las frases de los otros asistentes de voz, por ejemplo si dices ‘OK Google’”.

Cuando un empleado llegaba a una de estas grabaciones, tenía que escucharla y señalarla haciendo clic en el botón accidental trigger. “Era el botón que más presionabas”, recuerda Antoine. “Se podía oír de todo. Podía ser la música de un coche durante varios minutos o de dos adolescentes contándose dramas”. También Gaël se tomó con peleas de pareja, confesiones íntimas...

A veces, la incomodidad del empleado se convierte en un trauma. Algunos empleados pudieron tener acceso a grabaciones que revelan prácticas ilegales o situaciones violentas. “Recuerdo que un día una chica le dijo a su amiga, en principio refiriéndose a su novio, algo así como: ‘Es peligroso, hay que encerrarlo’. En estos casos, no sabemos qué hacer, no sabemos si realmente hay peligro”. Por otro lado, Gaël recuerda una grabación en la que un hombre hace comentarios explícitos de pedófilos. “Me sacó de mis casillas”, recuerda. “¿Tenemos un deber moral desde el momento en que se vigila? ¿No hay un crimen de complicidad?”.

En la página de inicio puesta a disposición de los empleados por Apple, un mensaje les advierte que pueden tener que escuchar “comentarios vulgares, violentos, pornográficos o delictivos” y les anima a ponerse en contacto con su supervisor si es necesario. Sin embargo, en la práctica, los empleados no tienen información sobre lo que sucede después.

“Este tipo de traumas es bastante común”, explica Antonio Casilli. “Algunos trabajadores pueden incluso sufrir de trastorno de estrés postraumático, en particular los responsables de moderar los comentarios. Moderadores de Microsoft y Facebook ya han demandado a sus empleadores por padecer este síndrome. En el contexto de los correctores de Siri”, continúa el sociólogo, “hay un factor adicional en juego: la dificultad de contextualización. Se enfrentan a fragmentos de discusiones, afirmaciones aisladas, totalmente sacadas del contexto general. No pueden saber si es una provocación o una exageración. Esto puede ser más perturbador que si estuvieran físicamente presentes”.

En su trabajo, Antonio Casilli ha demostrado lo esenciales que son los microtrabajadores para el buen funcionamiento de la inteligencia artificial. En este caso, ¿qué medidas tomará Apple? La marca de la manzana ha anunciado a The Guardian que el programa de calificación de Siri se reanudará en otoño, con algunas modificaciones. En concreto, los usuarios podrán especificar que se niegan a ser escuchados y los responsables de escuchar los fragmentos sonoros serán empleados directamente por Apple.

Antonio Casilli recibe estos anuncios “con gran desconfianza”. “El trabajo de estas personas es fundamental para el funcionamiento de un asistente de voz”, dice. La inteligencia artificial necesita ser entrenada y comprobada. De lo contrario, no funciona. Por lo tanto, tendrán que inventar una nueva forma de realizar esta formación y comprobación. La solución de internalizar estas tareas permitiría sobre todo imponer una mayor confidencialidad. Pero eso simplemente iría en contra de los principios de gestión de Apple. Otra solución consistiría en fragmentar aún más las tareas de formación y comprobación y asignarlas a centros de gestión en terceros países”, prosigue el sociólogo. “Ha habido una ola de revelaciones en los últimos meses, con varios trabajadores convirtiéndose en denunciantes. Y parece que la mayoría de ellos proceden de países de la Unión Europea, donde las leyes son más protectoras que en otros lugares. Cabe pensar que Apple intenta radicar sus centros de gestión en países con una legislación menos clemente”.

Gaël también está convencido de que el programa se reanudará en breve, quizás internamente. “Simplemente modificarán los términos y condiciones de uso para incluir el hecho de que lo que usted le diga a Siri puede ser escuchado. La gente firmará y volverá a empezar", predice el joven. “Desafortunadamente, es muy posible”, concuerda Antonio Casilli. “Todos somos esclavos del consentimiento forzado de las condiciones generales de utilización. Son totalmente capaces de poner algo que ayer era inimaginable”.

Las revelaciones de los últimos meses, sin embargo, marcan un punto de inflexión innegable. El 13 de agosto, Facebook también admitió escuchar conversaciones de usuarios de las características de audio de su servicio de mensajería y anunció su suspensión. Apple, por su parte, pidió disculpas a sus clientes el jueves 29 de agosto.

“Todos los Gafam han sido desenmascarados”, dice Antonio Casilli. “Hace apenas un año, si yo mismo decía en una conferencia que hay trabajadores que escuchan lo que se le dice a un asistente vocal, fue una educated guess, una suposición iluminada, una consecuencia lógica de lo que yo había entendido acerca de cómo trabajaban durante mi investigación. »

“Desde entonces, ha habido una avalancha de testimonios que demuestran que no sólo hay grabaciones salvajes, sino también que estos asistentes vocales son extremadamente defectuosos”, continúa el sociólogo. “Cuando se ven los niveles de precisión del 90%, puede decir que no está mal, pero aun así significa que cuando le preguntas por el camino para ir a algún sitio, una de cada diez veces el algoritmo dará el resultado equivocado. Sigue siendo problemático. Así que Apple mintió dos veces: al decir que no grababan a la gente y al decirles que Siri funciona”.

 

La Comisión Europea investiga a Apple por posibles abusos a través de App Store y Apple Pay

La Comisión Europea investiga a Apple por posibles abusos a través de App Store y Apple Pay

Traducción: Mariola Moreno

Leer el texto en francés:

Más sobre este tema
stats