La inteligencia artificial no hará desaparecer el trabajo pero contribuirá (quizás) a degradarlo

6

Romaric Godin (Mediapart)

El 3 de abril, el ministro francés de Economía y Hacienda, Bruno Le Maire, tuvo su momento estelar en la cadena BFM TV cuando utilizó el robot de inteligencia artificial (IA) ChatGPT para escribir un "discurso".

El ministro consiguió el resultado esperado: "Tuve un discurso bastante inteligente y bien estructurado en exactamente cinco minutos. Hace veinte años habría tardado tres o cuatro horas en redactar este discurso". El ministro lo consideró "bastante fascinante", pero advirtió de las consecuencias éticas y económicas de esta nueva tecnología y pidió "una mejor regulación".

Esas palabras reflejan la mezcla de fascinación, miedo y esperanza que las élites llevan agitando desde el lanzamiento en noviembre de 2022 de ChatGPT por la empresa OpenAI, aliada de Microsoft. Es un encuentro entre los discursos habituales y los avances tecnológicos.

Algunos advierten de que la IA destruirá gran parte de los puestos de trabajo existentes, lo que provocará un desempleo masivo. Otros, por el contrario, predicen el retorno de una edad de oro basada en las tremendas ganancias de productividad que permitirá esta tecnología. A veces, ambos discursos se entrelazan extrañamente y hacen resurgir la idea de un "final del trabajo" que se financiaría con la inevitable "renta básica universal". 

Para saber qué es exactamente, primero debemos entender qué representa ChatGPT. Este programa es la primera aplicación al consumidor de una tecnología surgida a finales de la década de 2010, el LLM (large language model).

A diferencia de los anteriores métodos de aprendizaje automático, el LLM permite procesar bases de datos generales, no especializadas, en lenguaje humano cotidiano y producir contenidos en lenguaje corriente o en forma de vídeos o imágenes. Eso es lo que ha sorprendido a los usuarios de ChatGPT: el resultado de la nueva IA puede llegar a confundirse con un contenido humano.

El avance tecnológico es evidente: el contenido automatizado ya no necesita ser procesado de una manera específica, codificando o seleccionando los datos de antemano, y la respuesta se presenta de una forma que es inmediatamente explotable. El uso más inmediato de esta tecnología fue, por tanto, la redacción de trabajos escolares o universitarios a través de ChatGPT. Bastaba con introducir el tema y el texto solía considerarse "aceptable".

Existen varias aplicaciones LLM desarrolladas por varias empresas, pero la más avanzada parece ser OpenAI, una compañía que comenzó como una organización sin ánimo de lucro en 2015 y se convirtió en una empresa en 2020, financiada en gran parte por Microsoft. En marzo de 2023, OpenAI lanzó ChatGPT-4, una nueva versión de su aplicación para consumidores que, según se dice, es más fiable y capaz de crear vídeos e imágenes nunca vistos.

La narrativa dominante en torno a la IA generativa

El mundo empresarial se ha vuelto loco con este espectacular desarrollo. Hay que decir que, sobre el papel, este desarrollo de la IA representa una forma de "piedra filosofal". En el contexto de un capitalismo afectado por la disminución de las ganancias de productividad, muchos creen que ahora todo puede cambiar.

La capacidad de la IA para imitar la actividad intelectual sugiere que será capaz de sustituir la actividad humana a gran escala, dando lugar a un enorme aumento de la productividad laboral. En otras palabras, la IA reduciría la necesidad de mano de obra para producir.

Uno de los elementos que permiten creer en el desarrollo de la IA es la caída vertiginosa del coste de desarrollo de las LLM. Durante mucho tiempo, estas tecnologías permanecieron en la sombra porque eran muy caras, pero en las últimas semanas el precio ha bajado drásticamente hasta hacerse competitivo con el de un buscador tradicional de Internet. Se han sentado las bases pues para el uso generalizado de esta tecnología.

No cesan los anuncios de experimentos sobre el uso de la IA por grandes grupos. La aseguradora Zurich ha puesto en marcha pruebas de tratamiento de litigios a través de ChatGPT, con la promesa de un tratamiento ultrarrápido de los expedientes, pero también de búsquedas de datos para la evaluación de riesgos y auditorías.

Consultoras como PwC y EY quieren utilizar la tecnología para hacer "más eficientes" sus servicios fiscales y jurídicos. La empresa de gestión de pagos Stripe también está integrando ChatGPT en su proceso de verificación y pago.

En definitiva, cada día parece haber una nueva multinacional que anuncia el uso de la IA. Solo en el último trimestre de 2022, según un estudio de Goldman Sachs publicado el mes pasado, del que hablaremos más adelante, el 13% de las empresas mencionaron la IA en sus comunicaciones, frente al 8,3% del trimestre anterior y el 5% de 2015. 

A partir de ahí, llegó el momento de publicar algunos estudios prospectivos aterradores o elogiosos, según como se quiera ver. El estudio del banco americano Goldman Sachs ha causado revuelo. En su escenario central estima que si la IA generativa, la LLM, "cumple todas sus expectativas", se verán amenazados por la automatización en todo el mundo 300 millones de empleos a tiempo completo.

A su vez, el crecimiento de la productividad laboral podría aumentar un 1,5 % anual durante diez años, duplicando el nivel actual. El estudio concluye con la promesa de un aumento anual del PIB mundial del 7% (frente al 2,9% previsto para 2023 por el Fondo Monetario Internacional).

Estas previsiones y la fuerte demanda de las empresas provocan a su vez una fuerte competencia entre los productores del servicio tecnológico en cuestión. Microsoft, que ha apostado por OpenAI, parece estar en condiciones de ocupar una posición dominante gracias a la reputación de ChatGPT.

Ha empezado además a probar la integración de esta aplicación en su motor de búsqueda Bing y desde enero busca estrechar sus lazos con OpenAI, con una inversión de 10.000 millones de dólares.

Google, Meta y Baidu en competición

Los costes de entrada son ahora elevados, pero los demás gigantes tecnológicos pretenden seguir en la carrera. Google estrechó lazos en febrero con Anthropic, empresa fundada por un antiguo alumno de OpenAI, y ha desarrollado su propia herramienta, Bard, para competir con ChatGPT.

Por su parte, Marc Zuckerberg, presidente de Meta, antes Facebook, ha tenido que revisar sus planes. Lleva años invirtiendo miles de millones de dólares en el metaverso, sin éxito notable, y ahora ha decidido centrarse en la IA para mantenerse en el juego. Incluso Baidu, el gigante tecnológico chino, está intentando desarrollar su propia IA generativa, Ernie, por el momento con poco éxito.

En general, la oferta de IA generativa se está estructurando cada vez más, y parece seguro que los gigantes tecnológicos, en busca de un segundo impulso de crecimiento pero aún con recursos considerables, desempeñarán el papel principal. En este punto, puede que la nueva generación de IA sea una gallina de los huevos de oro para el capitalismo contemporáneo.

Todo eso representa la narrativa central actual en torno a la IA: una nueva tecnología superiormente eficiente que pondrá en peligro millones de puestos de trabajo. Pero este discurso en sí, a menudo llevado por personas con intereses en el desarrollo de la IA, no es inocente.

"El discurso sobre las tecnologías y su futuro es a menudo performativo, en el que se utiliza la hipérbole para facilitar la aceptación social de estos desarrollos", afirma Juan Sebastián Carbonell, sociólogo del trabajo y autor de El futuro del trabajo.

Empresas digitales, "futurólogos" como Laurent Alexandre u Olivier Babeau, periodistas y políticos son portadores de estas "profecías autocumplidoras" que pretenden imponer una tecnología, a pesar de las dudas. Además, una de las consecuencias concretas de este discurso es atraer a inversores que quieren apostar, es decir, entrar en la narrativa dominante.

La cuestión de la aceptabilidad

Sin embargo, existen dudas sobre la aceptabilidad de la IA. La primera de esas incertidumbres se refiere a su fiabilidad. Los productores pueden mejorar constantemente el rendimiento de sus máquinas, pero no pueden evitar los errores y la falsa información que forman parte del sistema LLM. Son las llamadas "alucinaciones". A veces, el sistema responde cualquier cosa con la seguridad de que es correcto. Muchos usuarios de ChatGPT lo han experimentado.

Esos desvaríos son inevitables porque el sistema elabora sus respuestas a partir del análisis de amplios datos tomados de Internet. En esos datos hay errores, delirios e información falsa que la IA no puede distinguir de los datos reales. Estas máquinas no son conscientes, solo procesan información. Si este procesamiento produce un error, ese error será su verdad.

ChatGPT no es perfecto, pero nosotros tampoco

El problema es que la IA generativa puede entonces afirmar con el lenguaje natural de la convicción hechos falsos e información falsa. Y de esta forma, demasiada confianza en su funcionamiento puede conducir, a la hora de tomar decisiones importantes, a errores desastrosos. Aunque los productores de IA prometen reducir al máximo las alucinaciones, de momento conviene seguir siendo críticos con las respuestas de los bots.

Esta es una cuestión crucial. Los responsables de OpenAI, al presentar ChatGPT-4, dijeron que su máquina "no es perfecta, pero nosotros tampoco". Sin embargo, puede que no sea esa la cuestión. En una relación interpersonal, el error suele ser aceptable y solucionable mediante el diálogo. En una relación con una máquina no es así, precisamente porque esa es la ventaja de lo que te “vende” una máquina: reducir la capacidad de error humano.

Una empresa que quiera imponer una relación con una IA sólo lo hará si el riesgo es mínimo. De lo contrario, pondría en peligro su reputación y la relación con sus clientes. Pero el discurso tecnófilo pretende que la superioridad de la máquina es total, lo que sólo puede acarrear dificultades considerables.

Otro punto de aceptabilidad será precisamente la falta de sensibilidad de la IA, que limitará de facto la relación con el público. La IA simula un tipo de comportamiento humano, el tratamiento de datos, que es capaz de realizar a veces mejor que un humano. Pero la relación humana, incluso la de una relación comercial de compra o venta de un servicio, no siempre se limita a esta dimensión. Aquí hay un límite que también representa el riesgo de imponer una relación unidimensional por razones comerciales. 

La IA es una tecnología producida en el capitalismo por el capitalismo, no está hecha para "actuar responsablemente"

En un libro publicado en 2021, Deep Earnings, el físico Pablo Jensen resume así el problema: si la IA quisiera pensar como los humanos, "necesitaría un cuerpo similar al nuestro" y "sin representaciones simbólicas intermedias". El cuerpo también piensa, e incluso es objeto de una parte importante de la creación humana.

Eso nos lleva a un último problema, el de la "neutralidad" de la IA. Estas máquinas están, como todas las demás, programadas y calibradas por el ser humano. Sin duda son capaces de producir nuevos contenidos de forma autónoma, pero dentro de un marco predefinido. Las respuestas producidas son también el resultado de este marco.

Este hecho ha sido utilizado como un arma contra el desarrollo actual de la IA, sobre todo por Elon Musk, que ha hablado constantemente de "IA sesgada" o "IA woke". Eso es también lo que motivó a Elon Musk a publicar hace unos días una carta abierta pidiendo una moratoria de seis meses en el desarrollo de la IA, firmada por 1.000 investigadores y actores del sector, con el fin de "regularla" y evitar, como él dice, un "riesgo para la civilización y la humanidad". 

Porque, en realidad, la IA no puede, por naturaleza, ser neutral. El deseo de Elon Musk de oponer una "Verdad GPT" a una "Woke GPT" es ante todo un señuelo destinado a ocultar una cuestión económica: el deseo de los competidores que han perdido el tren de cortar la hierba bajo los pies de los primeros entrantes. Para ello, en Estados Unidos se recurre fácilmente a la batalla de moda en las derechas contra el "capitalismo woke". Pero China actúa en cierta forma con el mismo método: ha prohibido el uso de ChatGPT, mientras invierte para desarrollar la herramienta de Baidu.

La excusa del discurso moral

Carbonell recuerda que el investigador y activista americano Harry Braverman (1920-1976) describió el "fetichismo de la máquina", que ahora reedita en francés. Para él, el desarrollo tecnológico nos lleva a creer en la "autonomía" de la máquina, en una "fuerza sobrehumana" (buena o mala) que se nos impone desde fuera, mientras que la máquina es "en realidad sólo capital". Y como la máquina es capital, sólo puede pensar como capital.

Pablo Jensen, en su libro ya citado, mostró brillantemente el estrecho vínculo entre el funcionamiento de la IA y la filosofía de Friedrich von Hayek. La IA es lógicamente el producto del neoliberalismo y, por tanto, tiene los mismos objetivos: la valorización y la acumulación de capital. Es probable que esa tecnología sea menos "woke" y más calibrada para condicionar determinados comportamientos sociales favorables a los intereses de sus diseñadores.

En este marco, los discursos morales sólo pueden ser excusas. Los gigantes tecnológicos, incluido el Twitter de Elon Musk, han anunciado recientemente que reducían la supervisión ética de estos programas. La IA es una tecnología producida en el capitalismo por el capitalismo, no está pensada para "actuar de forma responsable". La retórica hiperbólica en torno a la IA pretende ocultar ese hecho tras una narrativa de progreso y ciencia.

El discurso en torno a la inteligencia artificial y su caballo de Troya, el fenómeno ChatGPT, es por tanto una parte esencial de la historia. Se trata de promover la aceptabilidad de una tecnología que no es obvia por sí misma, pero que debe hacerse irresistible. La explicación misma de este fenómeno reside en lo que ya se ha mencionado: el sueño del retorno a un capitalismo alimentado por ganancias sostenidas de productividad. Pero tampoco en este caso es tan sencillo.

La IA generativa, ¿herramienta o artilugio?

El primer elemento, y el más importante, es comprender lo que la IA es realmente capaz de lograr en términos económicos. Por el momento, ChatGPT, incluso en su última versión, es sin duda un bonito artilugio, pero sobre todo un entretenimiento. El reto ahora es convertirlo en una herramienta, y eso no se consigue solo.

Todavía queda mucho camino por recorrer entre la producción de vídeos divertidos de baja calidad y el uso comercial de la tecnología. Las empresas están trabajando en ello, pero la historia no está escrita. La historia reciente de la tecnología está llena de decepciones en este sentido.

Como recuerda el experto en start-ups John Thornhill en el Financial Times, hace diez años los "asistentes digitales" como Siri o Alexa representaban grandes esperanzas y ahora son considerados por la directora ejecutiva de Microsoft "más tontos que Abundio". Se podría hablar igualmente de las criptomonedas. Por tanto, conviene ser prudentes y reflexionar sobre las posibilidades reales de la IA en la práctica.

Y aquí, por supuesto, nos encontramos con las cuestiones de aceptabilidad planteadas anteriormente: la fiabilidad y la protección de datos (Italia bloqueó ChatGPT el 31 de marzo por privacidad de datos) son elementos clave. También lo es el contenido que la IA generativa es capaz de producir.

Claro que puede crear contenidos en lenguaje natural, que es lo que ha provocado el revuelo en torno a ChatGPT, pero ¿ese contenido es interesante, relevante, capaz de sustituir realmente la acción humana? Decir que puede producir un discurso sobre China que podría pronunciar Bruno Le Maire no es realmente una prueba de creatividad ni una contribución importante a la producción de contenidos. Tampoco en este caso puede darse nada por sentado.

Las mismas preguntas se plantean sobre la cuestión clave de la productividad. El estudio de Goldman Sachs es interesante desde este punto de vista. Se basa en la suposición de que "la IA generativa ofrecería las capacidades esperadas". Pero se trata de una suposición extraña basada en afirmaciones de aplicación no demostradas.

Se trata, por tanto, de una ilusión un tanto tautológica en la que las expectativas del sistema deciden la anticipación de la banca. Así pues, el estudio tiene que corregir sus previsiones en función de los efectos reales de la IA, lo que arroja una horquilla de aumentos de productividad esperados del 0,3% al 3% anual. En otras palabras, promete dos mundos diametralmente opuestos.

Por consiguiente, este estudio se basa en el vacío y debe admitir que no tiene ni idea. Se reduce a desarrollar la teoría económica dominante: la aparición de una tecnología disruptiva produce reducciones de empleo que se traducen en tiempo liberado para nuevas tareas "más productivas", todo lo cual aumenta la productividad global de la economía y, por tanto, los beneficios, los salarios y la demanda.

Esta narrativa neoschumpeteriana es atractiva, pero hay un hueso que cortar. Fue la misma que acompañó al desarrollo de la informática e Internet. Sin embargo, estas tecnologías han provocado un descenso continuado de las ganancias por la productividad en los últimos treinta años. Es la famosa paradoja formulada por el economista Robert Solow: "Vemos ordenadores por todas partes, excepto en las cifras de productividad".

¿Qué impacto tiene en el trabajo?

No hay ninguna garantía de que la IA pueda resolver esta paradoja. Las revoluciones industriales anteriores se centraron en tecnologías de producción de bienes, cuyos efectos sobre la productividad global son muy diferentes de los de un cambio tecnológico centrado en la producción de servicios. En este sentido, el efecto de la IA se concentra aún más en este sector que, por ejemplo, los ordenadores.

El estudio de Goldman Sachs también reconoce que los sectores de producción se verán poco o nada afectados por la IA. Así lo confirma Carbonell, que trabaja en el sector de la automoción: "Por el momento, en la industria no hay prisa por invertir en tecnologías cuyos efectos son muy a largo plazo y que se consideran demasiado costosas y poco eficientes.”

Las ganancias de productividad se concentrarán, pues, en los servicios y, en particular, en los servicios a las empresas centrados en las actividades de "circulación y control", es decir, lo que rodea a la producción: servicios administrativos y jurídicos, gestión, servicios financieros, marketing, comunicación, etc.

Estos son los sectores que ya se han visto afectados por las anteriores "revoluciones" de Internet y de la informática. Y son precisamente esas "automatizaciones" las que no han dado lugar a aumentos espectaculares de la productividad.

En un texto profético de 1997, antes incluso de que Internet se generalizara, el economista Fred Moseley señalaba que las actividades de circulación tenían una capacidad estructuralmente "más débil" de aumentar la productividad. Lo explicaba por las "dificultades inherentes a la mecanización de las funciones comerciales, que son en gran medida transacciones interpersonales". 

Veinticinco años después, parece confirmarse este análisis. En un libro publicado en francés en 2021 con el título Les Capitalistes rêvent-ils de moutons électriques? L'automation à l'âge de la stagnation (¿Sueñan los capitalistas con corderos eléctricos? La automatización en la era del estancamiento), Jason Smith señala que "a pesar de la proliferación del comercio electrónico y de la ubicuidad de la publicidad personal regulada por algoritmos, hay pocas pruebas de que las ganancias de productividad laboral en la esfera de la circulación hayan sido particularmente prodigiosas". Es cierto que la IA tiene la ambición de sustituir ciertas funciones, pero esto ya ocurría en el comercio on line.

Las cifras de empleo de los dos últimos años confirman este análisis: los puestos de trabajo se crean principalmente en esta esfera de la circulación, donde las ganancias de productividad son reducidas o incluso inexistentes. ¿Puede cambiar esto la IA? No es ni mucho menos seguro, ya que las tareas automatizadas en este ámbito suelen compensarse con otros puestos de trabajo.

"No es descabellado esperar que los aumentos de productividad más espectaculares en la esfera de la circulación se vean contrarrestados por el creciente número de trabajadores necesarios para transportar, almacenar, clasificar y entregar los artículos pedidos por Internet", afirma Jason Smith.

La IA no es una excepción a esta regla. Carbonell recuerda que el desarrollo de esta tecnología deberá ir acompañado de trabajos para preparar las herramientas, entrenar la IA, verificar, actualizar y corregir los resultados. Además, avisa de que puede haber "confusión habitual entre tareas y empleos".

Por ejemplo, explica, un vehículo autónomo no sustituye a un camionero que realiza otras muchas tareas en su trabajo (reparto, relación con el cliente, trabajo administrativo, revisión y mantenimiento del vehículo...). 

La IA puede reforzar la gestión algorítmica, que no elimina las tareas de supervisión pero apoya a las empresas en la organización del trabajo

Por tanto, la cuestión no es tanto la desaparición del trabajo como el efecto de la tecnología en el aumento global de la productividad. Y no hay ninguna garantía de que, como dice Goldman Sachs, libere tiempo para "tareas más productivas".

Sobre todo porque esas actividades de circulación es la tesis que defiende Jason Smith se sitúan en la esfera de lo "improductivo", noción que a menudo se malinterpreta y que se traduce en una sencilla realidad: su existencia no se basa en su propia creación de valor, sino que depende de una creación de valor previa, y su función es favorecer la creación de valor de otro sector. Es decir, su existencia se financia íntegramente con el valor ya creado y se justifica por el aumento de valor en otro ámbito.

Así pues, estos servicios representan una sangría para la tasa de beneficio que pretenden mejorar en una segunda etapa. Porque la ralentización de las ganancias de productividad en el sector productivo hace que el sistema sea cada vez más disfuncional.

La respuesta a la reducción de la creación de valor ha sido el desarrollo o bien de sectores de servicios poco productivos, como los servicios personales (que podrían, por otra parte, absorber una parte de los empleos destruidos por la IA generativa), o bien de actividades no productivas de circulación de la producción. En consecuencia, aumenta la presión global sobre la tasa de beneficio porque la creación de valor es cada vez más difícil.

La respuesta es entonces una intensificación del trabajo a través de la automatización parcial de las tareas de supervisión, lo que se ha denominado "capitalismo de vigilancia". Obviamente, la IA tiene un importante papel que desempeñar en este terreno.

"La IA puede reforzar la gestión algorítmica, que no elimina las tareas de supervisión pero acompaña a las empresas en la organización del trabajo quién debe hacer qué y a qué ritmo y la evaluación del rendimiento de los trabajadores, como en las plataformas, pero también en los call centers, la logística, etc. Eso, por supuesto, tiene el efecto de disciplinar a los trabajadores", explica Carbonell.

Por tanto, la IA podría ser la causa de una nueva degradación del trabajo, más que de su desaparición. Es la evolución normal de los grandes cambios tecnológicos: el trabajo se intensifica en lugar de desaparecer. Por otra parte, el aspecto degradado del trabajo creado bajo la IA está bien representado por la importancia del "microtrabajo", esencial para el funcionamiento de los sistemas LLM. Se trata de las ingratas tareas de hacer clic en imágenes, transcribir sonidos, etc., pagadas por tarea y a precios muy bajos.

En el caso de ChatGPT, se utilizó a keniatas para hacer funcionar el artilugio más a la moda del momento. Pagados entre 1,32 y 2 dólares al día, estos trabajadores empleados por el subcontratista local Sama vivieron unas condiciones de trabajo apocalípticas. Se les encargaba rastrear contenidos "tóxicos" en la web a un ritmo vertiginoso. Algunos hablan incluso de "tortura".

También podríamos haber mencionado los costes climáticos de esta tecnología, que, como suele ocurrir, son evitados por el discurso tecnófilo dominante. Este último parece ser, pues, una nueva aparición de la narrativa "solucionista tecnológica" destinada sobre todo a mantener el orden social existente. Porque, en lo que respecta al bienestar de las poblaciones y de los trabajadores, así como a la crisis estructural social y medioambiental del capitalismo, la IA se parece más a una nueva huida hacia delante sin sentido que a cualquier solución.

Si la idea de frenar un avance tecnológico parece inútil, parece urgente dejar de aceptar este avance en su forma comercial y situarlo en el contexto de nuestras necesidades sociales y medioambientales. Más que nunca, urge lanzar un debate sobre el contenido y el sentido de las tecnologías.

Musk, Steve Wozniak y otros mil expertos piden detener los experimentos con inteligencia artificial

Ver más

 

Traducción de Miguel López

 

El 3 de abril, el ministro francés de Economía y Hacienda, Bruno Le Maire, tuvo su momento estelar en la cadena BFM TV cuando utilizó el robot de inteligencia artificial (IA) ChatGPT para escribir un "discurso".

Gracias. Tu apoyo hace posible que infoLibre exista

Gracias. Por comprometerte con la información. Por permitirnos investigar. Por rechazar las fake news. Por defender un periodismo que no dependa de oscuros intereses que otros medios nunca revelan a sus lectores. Por tus sugerencias y hasta por tus quejas. Por tus artículos en Librepensadores y tus comentarios en nuestros artículos. Personas como tú hacen posible infoLibre desde 2013. Si quieres regalar una suscripción, puedes hacerlo con un click aquí.

Más sobre este tema
>