La portada de mañana
Ver
"Maricón", el insulto que no ha conseguido desterrar España: de Samuel Luiz a Marlaska

El Gobierno promete una IA transparente mientras alega razones de seguridad para no desvelar sus algoritmos

El ministro José Luis Escrivá, durante la presentación en A Coruña de la Agencia Española de Supervisión de la Inteligencia Artificial.

La implementación de la inteligencia artificial en la administración pública no va a ser sencilla. Y aplicar las normas que garanticen la transparencia de su funcionamiento tampoco, como demuestra la reciente sentencia de la Audiencia Nacional que ha desestimado el recurso presentado por la Fundación Civio que solicitaba acceso al código fuente de BOSCO, el programa que decide sobre las ayudas para pagar la factura de la luz. 

Civio, una organización sin ánimo de lucro que promueve la transparencia, el acceso a la información pública y la participación ciudadana para fortalecer la democracia y la rendición de cuentas en España, había demostrado que el programa tenía fallos que negaban el descuento a personas con derecho a él. 

La paradoja es que el discurso oficial del Ministerio de Transformación Digital, encargado de hacer realidad la Estrategia de Inteligencia Artificial del Gobierno, aprobada hace poco más de un mes, defiende todo lo contrario. Y reconoce que solamente la transparencia garantizará la correcta utilización de esta tecnología en la administración.

“La transparencia y responsabilidad se garantizan mediante el acceso a información sobre los datos utilizados, los algoritmos aplicados, y una documentación clara y comprensible”, señalan a infoLibre fuentes del ministerio que dirige José Luis Escrivá. “De este modo, los ciudadanos pueden conocer la información sobre los sistemas de IA que se utilizan en la administración pública, incluyendo sus objetivos, funcionamiento y resultados. Como en otros procesos administrativos, el establecimiento de mecanismos independientes para auditar y revisar los sistemas de IA se podrá poner en marcha”. El propio ministro, en la presentación de la nueva Agencia Española de Supervisión de la IA (Aesia) en A Coruña, destacó el papel “transparente y humanista”.

El Gobierno, sin embargo, ha negado a Civio acceso al código fuente del algoritmo que decide las ayudas para pagar la factura de la luz. Y lo ha hecho a pesar de que el Consejo de Transparencia y Buen Gobierno (CTBG), que inicialmente apoyó la negativa de acceso, ha cambiado de postura. 

En nombre de la seguridad

Lo cual no ha impedido a la Audiencia negar esta información con el argumento de que facilitar el acceso al código fuente comprometería la propiedad intelectual, la protección de datos personales y la seguridad de los sistemas informáticos de la Administración.

La Fundación Civio sostiene que tiene derecho a entender cómo funciona una aplicación que toma decisiones automáticas sin intervención humana. Y subraya que la Unión Europea defiende que los desarrollos de las administraciones públicas deberían optar por el software libre. Sin embargo, la sentencia alega que revelar el código aumentaría las vulnerabilidades de la aplicación y que no es exigible a la Administración desarrollar todas sus aplicaciones con fuentes abiertas.

Este fallo judicial es el capítulo más reciente de una lucha que comenzó en 2018, cuando Civio pidió acceso al código fuente de BOSCO para verificar su correcto funcionamiento. El Gobierno, en cambio, sí liberó el código de la aplicación Radar Covid durante la pandemia, argumentando que era un ejercicio de transparencia. 

Para mitigar los riesgos de sesgo y discriminación en los sistemas de IA utilizados por la Administración, el Gobierno se ha comprometido a llevar a cabo evaluaciones de sesgo o toxicidad, para analizar los posibles elementos discriminatorios en los sistemas de IA antes de su implementación, a utilizar datos diversos y representativos para las fases de entrenamiento y a diseñar “algoritmos de IA y procesos de monitorización que sean robustos al sesgo y promuevan la equidad”. Además de incorporar “medidas de carácter regulatorio”.

Una de las claves será cómo se garantizará la privacidad y la seguridad de los datos personales cuando se utilizan sistemas de IA en la administración pública. En este campo, el ministerio promete implementar medidas técnicas y organizativas que protejan los datos personales frente a accesos no autorizados, alteraciones o destrucción, por un lado, y mediante procesos específicos de pseudonimización y anonimización para proteger la identidad de los ciudadanos. Y asegura que pondrá en marcha “procesos de registro y auditoría” en el acceso a datos personales para permitir la trazabilidad y la detección de “actividades sospechosas”.

La promesa de verificación

Cuando se les pregunta qué mecanismos de verificación y evaluación se utilizarán para asegurar la fiabilidad y precisión de los sistemas de IA en la toma de decisiones gubernamentales, los responsables del ministerio de Transformación Digital apuntan a “una combinación entre revisiones de expertos y procesos automatizados”. Por ejemplo, “en auditorías regulares de los algoritmos utilizados para identificar sesgos, errores y problemas de privacidad, además de la implementación de políticas que exijan que los sistemas de IA sean transparentes en sus procesos de toma de decisiones y que proporcionen explicaciones comprensibles para los usuarios”.

 En el Gobierno no ocultan que entre sus mayores preocupaciones en relación con la manipulación o el uso malintencionado de la IA en el ámbito de la política y la gobernanza está “la creación y difusión de información falsa, o el uso de la IA para hacer más compleja la solución a ciberataques”.

Por delante quedan al menos dos años clave para saber qué da de sí la inteligencia artificial en la Administración y a qué se enfrentan los ciudadanos en materia de transparencia. El calendario de desarrollo de la Estrategia de IA 2024 prevé el desarrollo de una familia de modelos fundacionales que se pondrán a disposición del público a lo largo de 2024 y 2025. “Una vez estén desarrollados estos modelos, el objetivo es diseñar aplicaciones de IA especializadas y centradas en ayudar en tareas que actualmente realizan los funcionarios públicos, lo que liberaría parte de su tiempo, o en la personalización y adaptación concreta a las demandas de los ciudadanos”, explican fuentes del ministerio.

 La adopción de IA en el sector público mejorará la “eficiencia y productividad”, pero habrá que “abordar e implementar estrategias en la identificación de impactos y en la puesta en marcha de planes de recualificación con el fin de que programas integrados de innovación en el sector público puedan aprovechar al máximo las nuevas oportunidades que ofrece la IA”. ¿Costará puestos de trabajo en la función pública? El departamento de Escrivá no despeja esta duda, pero sí afirma que “la apuesta por utilizar la IA en las tareas más repetitivas permitirá focalizar la atención de los empleados públicos y aportar más valor”en “áreas específicas” como “la personalización en la atención ciudadana”.

Aplicaciones prácticas

¿En qué se materializará la inteligencia artificial en la Administración? El Gobierno cita, en respuesta a infoLibre, hasta seis áreas en las que será visible en los próximos años: la automatización de tareas repetitivas y manuales, liberando tiempo que puede centrarse en tareas de mayor valor añadido, la optimización de procesos administrativos, como la gestión de solicitudes y la tramitación de expedientes, y la mejora de servicios y accesibilidad, por ejemplo, sistemas de traducción o canales alternativos de atención y comunicación más efectiva.

También será posible, prometen, ofrecer “mayor transparencia, mediante la visualización o la creación de sistemas de seguimiento del gasto público”, así como poner a disposición de los ciudadanos “información de mayor calidad aprovechando las posibilidades de la IA generativa apoyando la gestión del conocimiento del personal de atención a la ciudadanía”, además de mejorar “la estructuración y anonimización de los datos, facilitando los procesos de puesta a disposición de datos abiertos”.

En busca de unas reglas y de un control democrático: ¿Estamos preparados para el “gobierno de los algoritmos”?

En busca de unas reglas y de un control democrático: ¿Estamos preparados para el “gobierno de los algoritmos”?

 Mientras el ministerio se pone en marcha, el marco regulatorio para la IA en el sector público sigue en desarrollo y evolución. “Existen diferentes iniciativas a nivel nacional, europeo e internacional, con el objetivo de establecer normas y principios para un uso responsable de la IA en el ámbito público”, explican.

Eso incluye la creación y puesta en marcha de la Aesia y el desarrollo del Reglamento de Inteligencia Artificial, que establece un marco legal para la IA en la Unión Europea, incluyendo requisitos de riesgo para diferentes tipos de sistemas de IA y mecanismos de cumplimiento, para cuya aplicación hay dos años de moratoria. 

Todo, sin embargo, está a expensas de los acontecimientos y del desarrollo de una tecnología que no ha hecho más que empezar. “Como en cualquier regulación, la que corresponde con la IA está abierta a modificaciones y evaluaciones periódicas para identificar posibles lagunas o necesidades de ajuste”, precisa el ministerio.

Más sobre este tema
stats