La inteligencia artificial ya hace un tiempo que dejó de sonar a película o serie de ciencia ficción. Este tipo de tecnología tiene cada día más implantación en nuestro día a día, desde los algoritmos que ordenan nuestras redes sociales, pasando por juguetes hasta selecciones de personal. Aunque, lo cierto es que no ha sido hasta la irrupción de ChatGPT a finales del 2022 cuando los mensajes apocalípticos y los debates éticos se han puesto encima de la mesa. Y, justo cuando estamos en lo que parece un momento crítico, el Parlamento Europeo ha aprobado esta semana su postura con respecto a la nueva legislación sobre inteligencia artificial, una ley pionera en el mundo en la que en Bruselas llevan trabajando más de dos años.
"Todo el mundo nos mira hoy. Mientras que las grandes tecnológicas alertan sobre las consecuencias de sus propias creaciones, Europa ha tomado la iniciativa y propuesto una respuesta concreta a los riesgos de la inteligencia artificial", aseguró el socialista italiano Brando Benifei, uno de los ponentes de la norma. "La UE está intentando convertirse en un patrón a escala internacional y dar un primer paso para influir en la legislación en otras partes del mundo", explica en conversación con infoLibre Ibán García del Blanco, eurodiputado socialista y miembro de la comisión de Asuntos jurídicos de la Eurocámara.
El pasado miércoles, el Parlamento Europeo adoptó su posición negociadora con una amplia mayoría: 499 votos a favor, 28 en contra y 93 abstenciones. "Es un texto técnicamente muy trabajado y muy complejo. Lo más interesante es que sale de un consenso político muy amplio. Tiene vocación de continuidad y, además de ser muy protector, intenta ser flexible ante una tecnología que es difícil anticipar", detalla García del Blanco.
Con esta postura, se irá a una negociación con los 27 estados miembros de la que saldrá la ley definitiva. "No está muy alejada de las posiciones del Consejo Europeo. No preveo grandes dificultades en la negociación", asegura García del Blanco que recuerda que estas conversaciones se producirán durante la presidencia española que arranca este mes de julio. Uno de los detalles que se tendrán que discutir es la fecha de su entrada en vigor: "Lo más probable es que sea en 2025".
Según explica en una nota el Europarlamento, la nueva ley "deberá garantizar que la inteligencia artificial desarrollada y utilizada en Europa se ajuste plenamente a nuestros derechos y valores, respetando requisitos como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación o el bienestar social y medioambiental". Su prioridad es que estos sistemas, que agrupa en tres niveles según sus riesgos —inaceptable, alto y limitado—, sean "seguros, transparentes, trazables y no discriminatorios" y, para lograrlo, tendrán que ser supervisados por "personas" en lugar de "por la automatización".
Las lagunas: del machismo a la falta de sostenibilidad
Sin embargo, a la espera de la negociación con los 27, la legislación aún tiene grietas. "Es muy compleja", reconoce Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid, que señala la presencia de los los sesgos de género que contienen los sistemas de riesgo limitado y la ausencia de requisitos más estrictos de sostenibilidad de esta tecnología.
"Los sistemas de riesgo limitado son con los que más vamos a interaccionar en nuestro día a día y apenas tienen criterios de transparencia", argumenta esta experta. En la esta categoría sólo se deberán cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Aquí se engloban prácticamente todos los objetos cotidianos conectados en el hogar —como lavadoras, frigoríficos o relojes conectados— pero también aquellas herramientas que generan o manipulan contenido de imagen, audio o vídeo, como los famosos deepfakes.
"Así, muchos estereotipos y roles de género que son dañinos para las mujeres y que se perpetúan a través de la tecnología estarán presentes en estos sistemas", defiende Ortiz de Zárate. Por ejemplo, los algoritmos identifican y clasifican mejor a los hombres y asocian de forma estereotipada a la masculinidad con las ciencias, y a la feminidad con las artes. Los chatbots y los asistentes de voz o de texto tienen características femeninas, como la voz o el nombre, tal y como paso con Siri de Apple o Alexa de Amazon. "No sé cuánto se solucionaría regulándolos, pero dejarlos al libre arbitrio de las compañías me parece una deficiencia", sostiene esta experta.
La otra laguna que observa son los "los requisitos de sostenibilidad y medioambientales": "No sé cómo de claros y de estrictos van a ser". "Estas tecnologías conllevan un impacto climático muy grande e implica un consumo muy alto de agua y energía de los centros de datos de la inteligencia artificial. Me preocupa cómo se va a compatibilizar la transición ecológica con la digital", explica Ortiz de Zárate.
La prohibición de la identificación biométrica
A pesar de las grietas, lo cierto es que la propuesta actual del Parlamento Europeo se parece poco a la propuesta que hizo la Comisión Europea en 2021 o al documento que aprobó la propia cámara hace catorce meses de la comisión especial sobre Inteligencia Artificial en la Era Digital. Ortiz de Zárate detalla que la norma ahora es "más estricta" ya que "hay más usos que se han prohibido y que eran muy negativos como ciertas técnicas relacionadas predicción de conductas de personas o para elaborar perfiles criminales" o por el veto a "los sistemas de emociones o la identificación biométrica".
Y es que una de las categorías que más cambios han sufrido durante la negociación en el seno del Europarlamento son los sistemas de riesgo inaceptable, que estarán prohibidos de facto en la UE por considerarse "una amenaza para las personas". Aquí se encuentran la manipulación cognitiva del comportamiento de las personas, la puntuación social y, ahora, la identificación biométrica en tiempo real y a distancia. "A priori, podría ser una herramienta útil en materia de seguridad. Pero es una tecnología que está sin madurar, que comete errores y que es muy intrusiva", admite García del Blanco.
Bruselas apostaba por dejar la puerta abierta a la autorización en circunstancias excepcionales y previa autorización judicial. Sin embargo, los eurodiputados han apostado por prohibir totalmente el uso de herramientas para la vigilancia biométrica, el reconocimiento de emociones y los sistemas policiales predictivos. "Es cierto que el Consejo es más partidario de más flexibilidad, pero el Parlamento ha optado por la postura más protectora", defiende el parlamentario que recuerda que si que se prevén excepciones bajo orden judicial para perseguir delitos graves como "terrorismo o casos de menores perdidos o secuestrados".
"Permitir la identificación biométrica es abrir la puerta a un sistema de vigilancia perpetua", afirma Ortiz de Zárate que insiste que "no solo implica una potencial violación de nuestro derecho a la privacidad" si no que podría suponer dar luz ver a "prácticas de control y totalitarias": "Esto es radicalmente opuesto a todo lo que ha propuesto la UE durante estos últimos años". Por esto, este veto ha sido acogido con "satisfacción" por la sociedad civil y ONG.
Ni venta de estos sistemas ni discriminación de migrantes
Desde Amnistía Internacional, sin embargo, reconocen que es "esencial" que se garantice en la ley definitiva la prohibición del "desarrollo, venta, uso y exportación de sistemas de reconocimiento facial y otras tecnologías de vigilancia masiva". "La UE prohíbe que en suelo europeo se usen para ciertas cuestiones, pero permite que se desarrollen en suelo europeo herramientas que después se pueden vender a otras partes del mundo con usos que estén prohibidos en la UE", explica Ortiz de Zárate.
No es el único problema que detecta Amnistía Internacional que apunta que la legislación discrimina a migrantes, refugiados y solicitantes de asilo y no se respetan sus derechos. "No se han vetado los sistemas discriminatorios de elaboración de perfiles y evaluación de riesgos, ni las herramientas de previsión utilizados para restringir, prohibir y evitar los movimientos fronterizos", detalla Mher Hakobyan, asesor para el trabajo de incidencia sobre la regulación de la inteligencia artificial de la ONG. "Va a entrar en conflicto que esté prohibido utilizar el reconocimiento facial en el control de fronteras, pero que esté permitido para cuestiones de seguridad", matiza Ortiz de Zárate que señala que habrá que esperar para ver como se resuelve en la práctica.
El Parlamento Europeo regula ChatGPT
Otra de las grandes novedades que ha incorporado la Eurocámara es una cláusula para establecer normas estrictas y requisitos de transparencia para aquellos sistemas inteligencia artificial generativa, es decir, los modelos de lenguaje artificial como ChatGPT. "Se ha tratado de ser tuitivos y protectores", sostiene García del Blanco.
Ver másLa UE legislará por primera vez sobre inteligencia artificial: la vida cotidiana y las libertades están en juego
Los eurodiputados actualizan así la propuesta incorporando la tecnología más en auge en estos momentos estableciendo una serie de deberes que van desde revelar que el contenido ha sido generado por inteligencia artificial, pasando por diseñar el modelo para evitar que genere contenidos ilegales hasta publicar resúmenes de los datos protegidos por derechos de autor utilizados para los entrenamientos. "El control se plantea sobre el uso o sobre su hipotético uso", destaca el parlamentario socialista que explica que "es una norma muy preventiva y había que ser muy cuidadoso". "No se trata de entorpecer ni el desarrollo ni la utilización de una herramienta que puede ser muy útil. Además así podemos anticipar consecuencias negativas", asegura García del Blanco.
"Que se haya introducido es importante", reconoce Ortiz de Zárate. Sin embargo, a esta experta le preocupa el hecho de que "estas herramientas son de uso público y, por tanto, al alcance de todos" por lo que queda en el aire como se legislará su uso entre la ciudadanía en general.
Otra de las modificaciones se ha dado en los sistemas de alto riesgo, los que afectan "negativamente" a la seguridad o a los derechos fundamentales. El Parlamento Europeo amplió esta clasificación para incluir también los daños a la salud o al medio ambiente. "Se ha mejorado y se ha especificado cuestiones que no quedaban del todo claras", destaca Ortiz de Zárate. Estas tecnologías estarán sometidas a una mayor vigilancia y deberán ser evaluadas antes de su comercialización y a lo largo de su ciclo de vida. En este apartado se incluyen los vehículos autónomos, los dispositivos médicos y los usos en infraestructuras clave, en el ámbito educativo o profesional como la puntuación de exámenes, o en la gestión del mercado laboral como los programas informáticos de clasificación de currículos.
La inteligencia artificial ya hace un tiempo que dejó de sonar a película o serie de ciencia ficción. Este tipo de tecnología tiene cada día más implantación en nuestro día a día, desde los algoritmos que ordenan nuestras redes sociales, pasando por juguetes hasta selecciones de personal. Aunque, lo cierto es que no ha sido hasta la irrupción de ChatGPT a finales del 2022 cuando los mensajes apocalípticos y los debates éticos se han puesto encima de la mesa. Y, justo cuando estamos en lo que parece un momento crítico, el Parlamento Europeo ha aprobado esta semana su postura con respecto a la nueva legislación sobre inteligencia artificial, una ley pionera en el mundo en la que en Bruselas llevan trabajando más de dos años.