De ChatGPT a Vall-E, qué intereses se esconden detrás de la fascinación por la Inteligencia Artificial

© Ilustración: Justine Vernier

Anthony Laurent (Mediapart)

Unas semanas después del lanzamiento de ChatGPT (desarrollado por la empresa californiana OpenAI), Microsoft ha anunciado el desarrollo de una nueva inteligencia artificial (IA) capaz de imitar la voz humana. El 5 de enero, un equipo de ingenieros de la empresa publicó un artículo en la plataforma de prepublicación científica arXiv (aún no evaluado por los expertos) anunciando que habían desarrollado un sistema que "supera significativamente el estado del arte" en modelización lingüística.

Se trata de una nueva etapa en el desarrollo de la llamada IA "generativa", que produce automáticamente textos, imágenes y sonidos, y que no deja de plantear serios interrogantes éticos y democráticos.

¿De qué trata exactamente? Vall-E es capaz de copiar y reproducir la voz de un ser humano a partir de un extracto sonoro de sólo tres segundos. Mientras que los algoritmos de ChatGPT (Generative Pre-trained transformer) generan automáticamente respuestas escritas a partir del análisis de un enorme corpus de texto, la última IA de Microsoft produce una voz sintética transformando el texto en un lenguaje similar al humano. En otras palabras, se puede hacer que diga cualquier frase imitando la voz de una persona real, aunque esa persona nunca la haya pronunciado.

Los algoritmos de Vall-E se han "entrenado" con 60.000 horas de habla inglesa de más de 7.000 hablantes diferentes, "cientos de veces más que los sistemas existentes", según los ingenieros de la multinacional digital.

Son avances considerables según sus diseñadores. “Vall-E puede preservar la emoción del orador, así como el entorno acústico de la grabación. Estos "avances" aumentan aún más el realismo de los resultados obtenidos y, al mismo tiempo, contribuyen al desarrollo de una nueva rama de la informática en rápida expansión: la informática afectiva. Para apoyar su artículo, los ingenieros han publicado sus primeras muestras.

Aquí un ejemplo de voz humana, y luego la imitación de Vall-E:

¿Cuáles son las aplicaciones previstas de esta nueva IA capaz, según ellos, de "sintetizar habla personalizada de alta calidad"? Edición de voz y creación de contenidos de audio, en combinación tal vez con otros modelos generativos de IA como ChatGPT. Sectores como la banca y el turismo (para personalizar la relación con sus clientes), o la industria cinematográfica (para crear efectos especiales), podrían estar interesados en esta tecnología.

Aunque Vall-E aún no esté por el momento disponible para el gran público, Microsoft que acaba de invertir más de 9.000 millones de euros en OpenAI espera importantes beneficios comerciales y económicos. "Vall-E, al igual que ChatGPT, son ante todo promociones que, sin aportar ningún beneficio real a la población, permiten a sus diseñadores atraer fondos y así valorizarse con el objetivo de ser comprados a precio de oro. Y los medios de comunicación, al hablar mucho de esas tecnologías, les hacen el juego", observa Benoît Piédallu, miembro de La Quadrature du Net, asociación que "promueve y defiende las libertades fundamentales en el entorno digital", y antiguo desarrollador.

Ethicalwashing?

"A los inventores de IA les gusta hacerse pasar por humanistas, pero su objetivo, su sueño, es hacerse multimillonarios", corrobora Cédric Sauviat, ingeniero politécnico y presidente de la Asociación Francesa contra la Inteligencia Artificial (AFCIA).

Frente a unos intereses financieros considerables OpenAI está valorada actualmente en 29.000 millones de dólares, ¿qué peso tiene la ética en el desarrollo de una IA cada vez más eficaz?

En su artículo, los ingenieros de Microsoft escriben que "dado que Vall-E puede sintetizar el habla preservando la identidad del hablante, puede conllevar riesgos potenciales de uso indebido, como la suplantación de la identificación de la voz o la suplantación de la identidad de un hablante concreto". Y recomienda que, si se utiliza en el dominio público, "se incluya un protocolo que garantice que el hablante aprueba el uso de su voz y un modelo para detectar el habla sintetizada".

¿Verdadera declaración de principios o ethicalwashing (blanqueo ético)? Para Sylvain Petitjean, Presidente del Comité Operativo de Evaluación de Riesgos Jurídicos y Éticos (Coerle) del Instituto Nacional de Investigación en Ciencia y Tecnología Digitales (Inria), "todas las grandes empresas tecnológicas deben presentarse a partir de ahora como éticas. Es un requisito que tienen que cumplir.”

Trucos de audio, fake news, estafas...

Para Cédric Sauviat, "lo mismo da que da lo mismo. Al crear IA casi indistinguible para los humanos y, al mismo tiempo, herramientas diseñadas para contrarrestar su mal uso, fabrican el veneno y el antídoto que les permite ganar siempre.” Y añade: "Hoy, los ingenieros de Microsoft sugieren utilizar sistemas para detectar el uso indebido de su tecnología, pero mañana, ¿seguirá siendo así?”

Una opinión que comparte Bertrand Pailhès, director de tecnología e innovación de la Comisión Nacional de Informática y Libertades (CNIL) francesa, que acaba de crear un departamento dedicado a la IA: "Las salvaguardias tecnológicas son eficaces durante un tiempo. ¿Quién puede predecir que los avances logrados en el campo de la IA generativa nunca serán utilizados por otras personas menos bienintencionadas?

Ahora están el punto de mira los deepfakes de voz, falsificaciones de audio ultrarrealistas que, al igual que sus homólogos de vídeo, pueden utilizarse para crear información falsa con fines maliciosos. Discursos falsos de personalidades políticas, estafas financieras como la "estafa del presidente", piratería informática, ciberdelincuencia, etc. Al igual que ocurrió con ChatGPT, una IA que fue secuestrada nada más ponerse en red, los riesgos de manipulación con programas como Vall-E son "extremadamente altos", según Benoît Piédallu.

"Estos potentísimos algoritmos de edición de contenidos van a ser cada vez más asequibles y fáciles de utilizar, lo que tendrá repercusiones dramáticas en la vida democrática", predice el representante de La Quadrature du Net.

Este análisis es compartido en parte por Jean-Gabriel Ganascia, informático y miembro del Comité Nacional Piloto de Ética Digital (CNPEN): "Existe un riesgo real, en nuestra sociedad de la información, de que la información real se ahogue en un mar de información falsa.” Y Gasnascia, expresidente del comité de ética del CNRS, añade: "Aunque consigamos demostrar la manipulación a posteriori, el daño ya estará hecho, porque la duda habrá calado en la mente de la gente, sobre todo en poblaciones poco habituadas a estas nuevas tecnologías". 

Abogados y legisladores no siempre tienen un conocimiento detallado de lo que es la IA

Jean-Gabriel Ganascia — Informático

Entonces, ¿qué puede hacer el legislador ante los avances de la IA? "En general, a los políticos les cuesta ver los riesgos. Están cautivados por esas tecnologías de Silicon Valley que, para ellos, es el futuro", responde directamente Piédallu. “El Estado debería considerarlos extremadamente peligrosos en términos de manipulación de masas y prohibirlos”, añadió.

“Nunca sabemos qué será lo peor, así que no estoy seguro de que prohibir sea la solución, sobre todo porque abogados y legisladores no siempre tienen un conocimiento elaborado de lo que es la IA", afirma Ganascia, que insiste en la ambivalencia de la tecnología. “Por su propia naturaleza, la legislación sólo puede intervenir a posteriori, en función del uso social que se haga de las nuevas tecnologías, para bien o para mal.”

La Unión Europea tiene previsto aprobar en 2023 un reglamento para regular los avances y usos de la inteligencia artificial: la "Ley de IA". "Uno de sus objetivos es prohibir el uso de sistemas de IA para manipular el comportamiento y las opiniones de los ciudadanos. Pero con la proliferación de herramientas de IA generativa se anuncia una docena para este año es muy posible que, una vez en vigor, ese texto quede rápidamente obsoleto", modera Sylvain Petitjean.

El presidente de Coerle quiere creer, no obstante, en un "efecto Bruselas", según el cual la legislación europea marca la pauta en materia de regulación internacional, siguiendo el ejemplo de lo ocurrido con el Reglamento General de Protección de Datos (RGPD), que entró en vigor en 2018.

Para Bertrand Pailhès, la situación es clara: "Las cuestiones éticas que plantea la IA generativa no se tienen en cuenta en los dispositivos legislativos y jurídicos". Una de las razones es la imposibilidad de comprender el funcionamiento intrínseco de los sistemas de inteligencia artificial y prever su evolución futura. "Por definición, es imposible predecir los resultados de un sistema de IA, como demuestran, por ejemplo, los problemas que ya han surgido con los coches autónomos. Esos sistemas son auténticas cajas negras que somos incapaces de comprender", afirma Benoît Piédallu.

¿Un tratado internacional de no proliferación?

"Es cierto que el inconveniente de la eficacia de la IA es su complejidad, una complejidad que a veces nos cuesta entender. Ni siquiera los ingenieros que diseñan estos algoritmos pueden conocer de antemano los resultados con certeza ", confirma Alexei Grinbaum, físico y presidente del CNPEN de la Comisión de Energía Atómica francesa. Para este científico, "el proceso legislativo va, en efecto, mucho más despacio que los avances tecnológicos".

Sin embargo, Grinbaum subraya el interés de un mecanismo de la Ley de IA, actualmente debatido en el Parlamento Europeo: el régimen normativo de los sandbox, que obligaría a las empresas digitales a probar, en entornos controlados, algunas de sus IA antes de su eventual comercialización, y así "proceder por etapas".

En 2018, Francia adoptó por primera vez una "estrategia nacional para la inteligencia artificial" con el objetivo de reforzar su lugar en la "carrera armamentística mundial" de la IA, en palabras del Elíseo. De aquí a 2025, el Estado francés habrá invertido nada menos que 3.700 millones de euros para "reforzar las capacidades de investigación" y "formar y atraer a los mejores talentos en IA", con el objetivo de "acelerar el potencial de la investigación y el desarrollo para convertirlo en éxito económico". Una estrategia confirmada por el presidente Macron en el marco del plan de inversiones "Francia 2030".

La Oficina Parlamentaria de Evaluación de las Opciones Científicas y Tecnológicas, encargada de informar a los diputados y al Senado, ya reclamaba "una inteligencia artificial controlada, útil y desmitificada" en un informe presentado en 2017.

Pero, para Cédric Sauviat, lo esencial está en otra parte. "El error fundamental que todos estos organismos cometen constantemente, al igual que todos los comités de ética a los que se remiten, es negar lo que representa y lo que es profundamente la vida humana. La IA es la negación misma del hombre", afirma.

"Uno de los peligros de las herramientas de IA es que, al llevar demasiado lejos su realismo y su antropomorfismo, acabemos borrando las diferencias de estatus entre el hombre y la máquina", advierte Sylvain Petitjean. Frente a la anunciada pujanza y avalancha de la IA, así como al poder demiúrgico que sus futuros desarrollos conferirán a quienes la posean (Estados, multinacionales, grupos terroristas, etc.), el presidente de la AFCIA aboga por su prohibición pura y simple, en vez de los "enredos" éticos.

Antes, "al igual que para las armas nucleares o las armas autónomas, hay que poner en marcha un tratado internacional sobre la no proliferación de los sistemas de inteligencia artificial". La IA no debe proliferar", insiste Cédric Sauviat.

"Mientras no se responsabilice penalmente a quienes diseñan y comercializan estas tecnologías de sus consecuencias nocivas para la sociedad, no habrá conciencia", afirma Benoît Piédallu, quien cree que con la IA "hemos abierto la caja de Pandora".

 

 

Caja negra

Este es el primer artículo para Mediapart de Anthony Laurent, periodista independiente. Se interesa por el lugar de la tecnología en la sociedad (dentro de la asociación Technologos) y es co-creador y redactor jefe de la web de información Sciences critiques.

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

 

Traducción de Miguel López

 

Más sobre este tema
stats