Israel utiliza por primera vez a gran escala la inteligencia artificial en la invasión militar en Gaza

Un hombre palestino asesinado durante un ataque israelí.

Amélie Férey y Laure de Roucy-Rochegonde (Mediapart)

Poco después del inicio de la operación Espadas de Hierro de Israel en la Franja de Gaza, el abogado Ousman Noor, coordinador de la campaña Stop Killer Robots, fue despedido por publicar un mensaje de apoyo a la población civil de Gaza en la red social X. 

Esta campaña de varias ONG, encabezadas por Human Rights Watch y Amnesty International entre otras, está a la vanguardia de la lucha contra el uso de la inteligencia artificial (IA) en operaciones militares de señalización de objetivos, para las que Gaza se ha convertido en un laboratorio al aire libre. El despido de este abogado se produce en un momento en que se celebra en Viena (Austria) una conferencia internacional para imponer un nuevo protocolo sobre la regulación de la IA en defensa

Más allá de esta polémica, está la cuestión del uso de la inteligencia artificial por el ejército israelí, aplicada por primera vez a gran escala en un teatro de operaciones. ¿Permite un cumplimiento más estricto de los principios jurídicos de distinción entre civiles y combatientes, precaución y proporcionalidad, como esperan los promotores de la IA militar? ¿O, por el contrario, podemos culpar a los algoritmos de las violaciones del derecho internacional en Gaza?

La incorporación de técnicas de inteligencia artificial a los sistemas militares israelíes no es algo nuevo. Por ejemplo, se utilizan desde hace varios años en el famoso sistema de defensa antiaérea Cúpula de Hierro, para calcular las trayectorias de los misiles que interceptan cohetes a punto de caer en territorio israelí. Ya en 2021, la operación Wall Guard fue presentada por el Tsahal como la "primera guerra de inteligencia artificial". 

Sin embargo, la operación Espadas de Hierro ha disipado las últimas reservas sobre el uso ofensivo de la IA en la guerra, principalmente con fines de obtención de objetivos. Según revelaciones de seis oficiales de inteligencia israelíes a +972, una revista de investigación israelí cuyo nombre es código telefónico del país, se están utilizando tres programas informáticos a una escala sin precedentes (leer nuestra entrevista con Haggai Matar, su director ejecutivo). 

Señalización de objetivos

El programa Habsora identifica los lugares potencialmente utilizados por Hamás en la Franja de Gaza, dividiéndolos en cuatro categorías: “objetivos tácticos", como depósitos de armas, puntos de lanzamiento de cohetes o puestos de observación; "objetivos subterráneos", es decir, túneles construidos por Hamás; "objetivos de poder", que incluyen torres residenciales y edificios públicos como universidades, bancos y edificios gubernamentales, y que se destruyen para sublevar a la sociedad palestina y presionar a Hamás para que entregue sus armas. La última categoría es la de "residencias familiares", que corresponde a los hogares de las familias de los miembros de Hamás. 

Otra gran revelación de +972 es el programa Lavender, que busca objetivos humanos para asesinatos selectivos de miembros de Hamás o de grupos armados palestinos. Esta práctica, que comenzó durante la segunda Intifada, tiene como objetivo matar a personas identificadas de antemano para evitar que hagan daño. Hasta entonces, se había llevado a cabo a pequeña escala contra objetivos denominados de "alto valor", como Salah Shehadeh, líder de las brigadas Ezzedine Al-Qassam, brazo armado de Hamás, en 2002. 

Una vez identificados, esos objetivos humanos se introducen en el programa informático Where’s Daddy?, que se encarga de localizarlos. Desde el comienzo de la operación Espadas de Hierro, el Tsahal ha optado por atacar a esos objetivos por la noche, cuando están en sus casas con sus familias y no en establecimientos militares. 

El ejército israelí dispone de varios programas de vigilancia muy avanzados que le permiten rastrear a miles de gazatíes simultáneamente. Cuando se localiza a personas en sus casas, se envía una alerta automática al oficial de objetivos, que señala la vivienda para un ataque aéreo. 

Durante el primer mes de guerra fueron eliminadas de este modo cerca de 1.340 familias, lo que representa más de 6.000 personas, según los periodistas de +972, que se basan en cifras de la ONU. Como resultado, la proporción de familias enteras asesinadas en sus hogares es mucho mayor que en la operación Margen Protector de 2014. 

Errores en el uso de la IA: sesgo de los datos y exceso de confianza 

Las miles de víctimas civiles atacadas por el ejército israelí en base a estos diferentes algoritmos pueden explicarse en primer lugar por una configuración incorrecta de la IA

El programa Lavender utiliza un sistema de recomendación de IA basado en el comportamiento característico de miembros probados de Hamás. Lavender ha analizado información recopilada sobre los 2,3 millones de gazatíes mediante técnicas de vigilancia masiva. Este sistema pone de manifiesto la capacidad de Israel para escuchar las comunicaciones, con acceso al contenido telefónico y a los metadatos, facilitado por el hecho de que las comunicaciones palestinas -principalmente PalTel- pasan por infraestructuras israelíes. 

A continuación, se asigna a cada gazatí una puntuación de seguridad de entre 1 y 100, en función de la probabilidad de que pertenezca a Hamás. Esta puntuación se basa en la similitud de su conducta con la de otros miembros conocidos de Hamás, por ejemplo si cambian con frecuencia de domicilio o de número de teléfono. Pero Lavender opera con una tasa de error estimada del 10%, por lo que han sido objeto de ataques categorías de la población con un comportamiento similar, como las fuerzas policiales o los defensores de los derechos humanos que cambian frecuentemente de teléfono para proteger su trabajo y evitar la represión, así como las familias de los miembros de Hamás. 

Del mismo modo, son designadas como objetivos personas que tienen un nombre o apodo idéntico al de un miembro de Hamás, que pertenecen a un grupo de WhatsApp en el que está un miembro probado o que utilizan un teléfono que anteriormente pertenecía a un miembro de Hamás. Como señala Yuval Abraham, autor de la investigación de +972, "en tiempos de guerra, los palestinos cambian constantemente de teléfono. Pierden el contacto con su familia, dan su teléfono a un amigo o a su esposa, o lo pierden". El resultado es que el conjunto de datos de entrenamiento de la IA no es totalmente fiable, lo que explica la elevada tasa de error de Lavender.

Incluso aunque le dediquen más tiempo, los operadores tienden a dar por ciertas las recomendaciones del programa

A pesar de esta fiabilidad imperfecta, la mayoría de las recomendaciones de Lavender se han aplicado sin una atenta verificación humana. Los militares encargados de corregir el sistema aprueban sistemáticamente los ataques dirigidos a hombres, dedicando sólo unos veinte segundos a cada objetivo. 

Si bien esta escasa dedicación de tiempo se explica por el deseo de acelerar el ritmo de las operaciones, la experiencia en otros conflictos tiende a demostrar que, incluso aunque le dediquen más tiempo, los operadores tienden a dar por ciertas las recomendaciones del programa. La investigación muestra que los militares implicados confían excesivamente en las recomendaciones del algoritmo, tratando sus resultados "como si se tratara de una decisión humana". 

La mayoría de las veces, el personal militar se limita a aprobar las decisiones de la máquina, "sin necesidad de comprobar en detalle por qué el sistema toma esas decisiones o de examinar los datos de inteligencia brutos en los que se basan". Esa falta de control humano significativo y de implicación en las decisiones de atacar los objetivos recomendados por Lavender demuestra una preocupante tendencia a confiar más en los cálculos algorítmicos que en el razonamiento humano. 

Este sesgo es preocupante en la medida en que uno de los problemas que plantea la aplicación militar de la IA es el fenómeno de las cajas negras que, debido a la sofisticación de los algoritmos de aprendizaje profundo (deep learning), no permite a los desarrolladores comprender el razonamiento desplegado por la IA para alcanzar un resultado.

Las municiones utilizadas para eliminar a estos miembros secundarios de Hamás no disponen de los costosos kits de guiado suministrados por Estados Unidos

En plena guerra, Lavender ha identificado entre los gazatíes a 37.000 miembros potenciales de Hamás. Esta designación autoriza de facto al Tsahal a intentar neutralizarlos, y con una tasa de error del 10%, podrían ser eliminados por error 3.700 inocentes. Para los oficiales, estos objetivos se designan como "objetivos basura", porque no representan ningún valor añadido militar significativo debido al nivel inferior de responsabilidad dentro de la cadena de mando de Hamás. 

Además de las 3.700 personas correspondientes al porcentaje de error del 10%, están las familias que viven con ellos y sus vecinos, ya que Where's Daddy está programado para localizarlos en sus casas. El número de civiles atacados por error pasa a ser pues considerable. 

Además, las municiones utilizadas para eliminar a estos miembros secundarios de Hamás no disponen de los costosos kits de guiado suministrados por Estados Unidos. Son más bien municiones no guiadas, por lo que son menos precisas, más destructivas y menos caras. En un artículo de diciembre de 2023, la CNN informaba de que la inteligencia militar americana estimaba que el 45% de las municiones utilizadas en Gaza son "bombas tontas" (dumb bombs), que siguen una trayectoria balística simple y tienen un margen de error de unos 100 metros, frente a las "bombas inteligentes" (smart bombs), que cuentan con un sistema de guía y un radio de precisión de 10 metros. 

Errores en la doctrina de señalización de objetivos

La aplicación de la inteligencia artificial como ayuda a la toma de decisiones por parte del ejército israelí en la operación Espadas de Hierro ha tenido, por tanto, consecuencias desastrosas. Sin embargo, es importante subrayar que el elevadísimo número de víctimas civiles también es imputable a la doctrina israelí de señalización de objetivos, es decir, a las decisiones tomadas por seres humanos

Esta doctrina se caracteriza ante todo por una importante ampliación de la "lista de asesinatos" (kill list) tras las masacres del 7 de octubre de 2023. Hasta entonces, según las directrices del departamento jurídico del Tsahal, el Hapraklitut Hatsvait, sólo se podía matar en su propio domicilio, es decir, con su familia, a un miembro de alto rango de Hamás. Sin embargo, desde hace siete meses, cualquier persona afiliada a Hamás puede ser asesinada de esta forma. Entre el 11 de octubre y el alto el fuego del 24 de noviembre, fueron asesinados más de 15.000 palestinos, algo menos de la mitad del número de muertos actual. 

Esta ampliación de la kill list implica también la desaparición del principio de proporcionalidad, que prescribe que el uso de la fuerza debe ser proporcional a la ventaja militar directa prevista. En las primeras semanas del conflicto, el Tsahal dio por bueno el asesinato de casi 20 civiles por cada neutralización de un "operativo secundario" (junior operative) de Hamás, y el asesinato de hasta 300 civiles por cada alto cargo. El 2 de diciembre de 2023, murieron 100 personas en la operación contra Wisam Farhat, comandante del batallón Shuja'iya de Hamás.

El uso de inteligencia artificial [...] da la impresión de un cálculo perfectamente racional.

De ese mismo modo murió el comandante de la brigada responsable del centro de Gaza, Ayman Nofal, durante un bombardeo israelí que destruyó más de dieciséis edificios en el campo de refugiados de Al-Bureij y mató a más de 300 civiles. A modo de comparación, para la operación Tridente de Neptuno contra Osama bin Laden, Estados Unidos autorizó una proporción máxima de 30 víctimas colaterales. 

El principio de proporcionalidad se basa en un cálculo discrecional de cada Estado en función de los intereses fundamentales que se defiendan. Sin embargo, como lamenta Mathias Delori en su libro Lo que vale una vida. Teoría de la violencia liberal, las democracias liberales "tienden a fetichizar este principio". Consideran que han dominado la fuerza porque la han medido, independientemente del resultado de esa medición. En este caso, el recurso a la inteligencia artificial puede reforzar esta fetichización, al dar la impresión de un cálculo perfectamente racional. 

Una de las declaraciones de los oficiales entrevistados por +972 es un ejemplo de esa creencia, cuando dice: "Tengo mucha más confianza en un sistema estadístico que en un soldado que ha perdido a un amigo dos días antes. Todo el mundo ahí, yo también, ha perdido gente el 7 de octubre. La máquina actúa con frialdad y eso facilita las cosas.” 

Tensiones morales

Ahí radica la tensión moral: esa facilidad puede rebajar el umbral para el uso de la fuerza. Ben Saul, profesor de Derecho Internacional y relator especial de la ONU sobre derechos humanos y lucha contra el terrorismo, cree que la dependencia excesiva de estos sistemas da una apariencia de racionalidad a la devastación que Israel ha causado en Gaza. 

Otra de las fuentes de Yuval Abraham afirma que el personal humano a menudo sólo sirve de "carta blanca" para las decisiones de la máquina, lo que recuerda al concepto de "amortiguador moral" desarrollado por Mary Cummings. Esta profesora americana sostiene que entender la realidad a través de una máquina hace que la muerte sea menos concreta y, por tanto, más probable, porque es menos "costosa" en términos morales, lo que conlleva, en palabras de Grégoire Chamayou, una "virtualización de la consciencia del homicidio" en el operador, que se ve por tanto más inclinado a utilizar una fuerza excesiva.  

“Estos sistemas convierten a los palestinos en cifras", afirma Mona Shtaya, investigadora del Tahrir Institute for Middle East Politics, entrevistada por +972. “Permiten a las autoridades evaluarnos, deshumanizarnos, no pensar en el hecho de que somos personas, sino justificar nuestra muerte en función de una estadística. Por eso hemos visto aumentar la violencia desde que Israel empezó a basarse en estos sistemas". 

Esta situación es vista por los defensores de la campaña Stop Killer Robots como una amenaza a la dignidad humana, que requiere, en el caso de una decisión letal, que el operador reconozca a un ser humano como tal, no sólo distinguiéndolo de otro tipo de objetos y cosas, sino también como un ser dotado de derechos y merecedor de respeto. Como señaló en 2016 Christof Heyns, entonces relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, "la muerte por algoritmo significa que las personas son tratadas simplemente como objetivos, no como seres humanos completos y únicos que pueden, en virtud de esa condición, experimentar un destino diferente". 

En Francia, el Comité de Ética de la Defensa, creado por la ministra Florence Parly en 2020, ha examinado las aplicaciones militares de la IA, y recomienda mantener siempre una decisión humana en el "bucle de decisión". 

Pero las revelaciones sobre el uso de la inteligencia artificial en los procedimientos de señalización de objetivos en Gaza demuestran que, incluso cuando la decisión está reservada a los humanos y el sistema está diseñado para ofrecer "apoyo a la decisión", la confianza depositada en la tecnología es tal que no se lleva a cabo el trabajo de verificación y se pierden las consideraciones éticas, sobre todo en un contexto operativo en el que la cadena de mando exige un alto ritmo de fuego.

 

Caja negra

Amélie Férey y Laure de Roucy-Rochegonde son co-autoras del primer artículo de una crónica dedicada a los aspectos militares del conflicto de Oriente Próximo.

Amélie Férey es investigadora en el Centro de Estudios de Seguridad y responsable del Laboratorio de Investigación sobre Defensa (LRD) del Instituto Francés de Relaciones Internacionales (Ifri). Trabaja principalmente sobre la ética y el derecho de la guerra y el conflicto israelo-palestino.

Preparándose para los exámenes (y la intervención policial): la acampada por Palestina resiste en Madrid

Preparándose para los exámenes (y la intervención policial): la acampada por Palestina resiste en Madrid

Laure de Roucy-Rochegonde es doctora en Ciencias Políticas e investigadora del Instituto Francés de Relaciones Internacionales (Ifri), donde dirige el centro de geopolítica de la tecnología, e investigadora asociada del Centro de Investigaciones Internacionales (Ceri, Sciences Po/CNRS). Trabaja principalmente en las aplicaciones militares de la IA y en cómo regularlas.

 

 

Más sobre este tema
stats