Sobre el miedo a la inteligencia artificial

Anna García Hom | Ramón J. Moles Plaza

Estamos entrando en la era de la Inteligencia Artificial (IA), que no es una forma auténtica de inteligencia, sino más bien un modelo informático basado en el aprendizaje automático y altas capacidades de procesamiento, y que es capaz de aprender a ejecutar determinadas tareas (aunque todavía no cualquier tarea). El debate sobre el uso de esta tecnología no ha hecho más que empezar.

Las aplicaciones de la IA no son algo nuevo: coches autónomos, asistencia al cliente o compras personalizadas son algunas de las utilidades que esta tecnología ya nos está ofreciendo. No hay duda de que, a medida que se amplíe su capacidad y se abarate su coste, la Inteligencia Artificial va a poder modificar muchos aspectos de nuestra vida: algunos en un sentido positivo, como por ejemplo en sanidad para la mejora de diagnósticos, o en educación, como apoyo del aprendizaje, o en tareas administrativas. También va acompañada de dudas razonables sobre su uso: con qué finalidades (pacíficas o no), con qué alcance (generalizado o reservado a unos privilegiados) sobre los derechos de propiedad y explotación que se pueden generar, o sobre su posible capacidad para —en una fase más avanzada de “superinteligencia”—  controlar a los humanos. Sin obviar, por otro lado, su utilidad para la comisión de delitos o los fallos detectados en su toma de decisiones basada en criterios supuestamente éticos.

Todas las tecnologías emergentes plantean problemas y debates en el momento de su aparición: de carácter jurídico, filosófico, económico, sociológico, ético o incluso estético, además de los problemas técnicos justificados por el estado inmaduro de la técnica. Cualquier tecnología puede ser usada en un sentido positivo o negativo: depende de la voluntad del ser humano que disponga de ella.

Por ahora, el reciente debate sobre la IA lo están impulsando tanto la aparición de ChatGPT (desarrollado por OpenAI y amparado por Microsoft) y otros competidores (como Bard de Google o Dall-E 2, por ejemplo) en periodo de pruebas, como también una carta abierta del pasado 22 de marzo firmada por más de mil expertos que piden detener temporalmente los experimentos de entrenamiento de esta tecnología por la preocupación que generan los riesgos derivados de ella para la humanidad. Alegan los firmantes que es preciso desarrollar protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA con el fin de evitar que devenga una especie de “caja negra” con grandes capacidades impredecibles. Para ello proponen definir un modelo de gobernanza que permita su seguro desarrollo mediante modelos de auditoría, supervisión y definición de responsabilidades para supuestos de generación de daños. A nuestro juicio obvian otros aspectos como la licitud, o no, de acudir a los usuarios de las redes para entrenar el engendro sin conocimiento de estos, que se prestan a lo que creen que es una simple “demo” o un juego. Este manifiesto es cuestionado también por otros expertos que aducen que está influenciado por Musk para obstaculizar la ventaja de ChatGPT sobre otros competidores, y que prioriza escenarios apocalípticos obviando a la vez otros problemas como los sesgos sexistas o racistas de los algoritmos de estos programas de toma de decisiones.

Cualquier tecnología puede ser usada en un sentido positivo o negativo: depende de la voluntad del ser humano que disponga de ella

La batalla ya ha llegado al ámbito legal. En EEUU, el Center for Artificial Intelligence and Digital Policy (CAID, por sus siglas en inglés) ha solicitado a la Comisión Federal de Comercio que impida nuevos lanzamientos a OpenAI por los riesgos que supone para la privacidad y la seguridad pública el hecho de que mediante ellos sea posible, por ejemplo, apoderarse de cuentas de correo, ver historiales de chat, acceder a datos de facturación sin permiso de usuarios o gestionar operaciones de desinformación. En Europa, España investigará si se vulneran las leyes de privacidad, y en idéntico sentido Italia ha decidido bloquear ChatGPT de forma temporal para investigar si cumple con el Reglamento General de Protección de Datos de la UE en lo que a la recopilación ilícita de datos personales y la ausencia de sistemas de verificación de la edad de los menores se refiere. Sorprende también que el foco se centre únicamente en Open AI cuando otros desarrollos, como Twitter y otras redes sociales, por ejemplo, han sido y son gestionados y usados en ocasiones con parecida falta de transparencia y de gobernanza como las reclamadas a OpenAI.

¿Qué está ocurriendo entonces con la AI? Más allá de la alarma generada (para otros es simple alarmismo) por sus capacidades y de la batalla entre actores para dominar este mercado, emerge una vez más algo consustancial a la introducción de una nueva tecnología relevante en el tejido social: el miedo. Un miedo que hay que poder gestionar. Bill Gates plantea que habrá que encontrar un equilibrio entre los miedos sobre la inteligencia artificial y su capacidad para mejorar la vida de las personas. Para ello, afirma el fundador de Microsoft, tendremos que protegernos de los riesgos y extender los beneficios al mayor número posible de personas y para ello se requiere una sólida colaboración del sector público y el privado.

Estamos de acuerdo. En la segunda edición de nuestra obra Manual del Miedo (2022) ya aportamos un mapa del miedo que permite identificar las técnicas de gestión del miedo en función de la tipología de los daños y la naturaleza de sus causas. En el caso de la IA nos hallamos ante un supuesto que puede generar daños conocidos (a la protección de datos, al libre comercio), pero también desconocidos (control y subordinación de la especie humana o extinción de la vida terrestre). Igualmente, en relación con las causas de estos daños (unas pueden ser conocidas, como la filtración de datos), y otras desconocidas hasta ahora (como la interacción entre la IA y el potencial de armamento nuclear, o la capacidad de difusión de virus de laboratorio). Esta doble característica sitúa, a nuestro entender, a la IA en el ámbito de la Gobernanza Anticipatoria del Riesgo (GAR), la herramienta adecuada para la gestión de la incertidumbre derivada de la introducción de la IA en el tejido social: se trata de miedos construidos socialmente, tal como estamos constatando en fechas recientes y a escala mundial. Ni la prevención ni el principio de precaución serían útiles ante supuestos en los que el daño y sus causas son desconocidos, en los que lo único que sabemos es que pueden haber sido generados por una IA, pero desconociendo cuál es el vínculo causal específico.

La GAR permite una mejor comprensión de aquellos riesgos que generan un miedo difuso o indefinido y que se relacionan con entornos de elevada incertidumbre o incluso caóticos. Es lo propio del supuesto de los riesgos derivados de la IA, en los que, al abarcar sectores muy distintos, las posibilidades del daño y el nivel de riesgo varían incluso dentro de una misma organización. Diríamos, en consecuencia, que son imprevisibles. Más en detalle, la GAR permite gestionar de manera coherente multitud de intereses (científicos, políticos, sociales o tecnológicos) ante la emergencia de nuevas tecnologías, como es la IA, y sus potenciales riesgos construidos y percibidos. Para ello se debe consensuar una gestión democrática que integre conocimientos, valores y percepciones tanto de expertos como de ciudadanos legos para facilitar los procesos de toma de decisión. Para ello es preciso asegurar la calidad de la información y del proceso de debate social al respecto. Dejar, por el contrario, que el proceso fluya “a su aire” puede conllevar efectos contradictorios, como por ejemplo las dificultades para un uso eficiente de la energía nuclear a pesar de la escasez energética, o para la investigación genómica a sabiendas de su utilidad en el tratamiento de enfermedades genéticas, o la instalación de antenas de telefonía móvil, percibidas estas como causantes de casos de cáncer, a pesar de la falta de cobertura telefónica en algunas zonas.

Reconforta saber que expertos como Gates o los firmantes de la carta coinciden en este análisis. O como Andrew Strait (director del Instituto Ada Lovelace, que investiga el impacto de los datos y la IA en las personas y la sociedad) cuando afirma que la desconfianza en algunas tecnologías de IA ha conllevado que los ciudadanos reclamen mayor supervisión regulatoria en un sector como la IA, que se desarrolla a tal velocidad que la regulación clásica deviene obsoleta. Strait aboga por una mayor participación de la ciudadanía en la regulación de la IA. En otras palabras, lo que denominamos en Derecho Público “autorregulación regulada”, una simbiosis entre normas públicas obligatorias y supervisión estatal y producción de estándares privados de cumplimiento voluntario. Nada nuevo: algo parecido al modelo ya existente en el ámbito de la calidad con las normas ISO, por ejemplo. Viene esto a confirmar que el binomio de GAR y de autorregulación regulada pueden constituir una buena fórmula para enfrentar el problema. La prueba es que la UE lo está abordando mediante una propuesta de reglas armonizadas sobre inteligencia artificial  —2021/0106(COD)—  que está en discusión desde abril de 2021 y busca solventar dilemas éticos  y asignar niveles de riesgo a las diversas implementaciones de IA.

Ciertamente, como seres humanos aún tenemos algunas ventajas sobre la IA que estamos a tiempo de aplicar con objeto de evitar que algún día llegue a ser, efectivamente, una auténtica inteligencia no humana que acabe ocupando el lugar de nuestra especie.

_____________________

Anna García Hom es socióloga y analista y Ramón J. Moles Plaza es jurista. Ambos son coautores de 'Manual del Miedo' (Ed. Aranzadi 2ª ed. 2022).

Más sobre este tema
stats