Starmer se plantea identificar a los agitadores racistas con la ayuda del reconocimiento facial
El 1 de agosto, el primer ministro británico, Keir Starmer, habló de la respuesta del gobierno a la violencia de extrema derecha que se extendía por el país desde hacía varios días: "Estos matones son móviles, se desplazan de comunidad en comunidad, y necesitamos una respuesta policial que pueda hacer lo mismo: intercambio de inteligencia, mayor despliegue de tecnología de reconocimiento facial".
El 29 de julio se produjo un ataque con cuchillo en Southport, en el que murieron tres niñas y resultaron heridos ocho niños y dos adultos. Un tuit en las redes sociales afirmaba que el sospechoso detenido, de 17 años, era un joven que había cruzado el Canal de la Mancha sin permiso de residencia. A pesar del rápido desmentido de las autoridades, la ultraderecha inglesa siguió difundiendo esta versión del refugiado musulmán apuñalando a niñas. Bajo el lema Save our kids (Salvemos a nuestros hijos), estallaron disturbios nacionalistas y racistas durante varios días en todo el Reino Unido.
Ante su primera crisis, un mes después de asumir el cargo, el primer ministro laborista produjo una serie de mensajes televisados y ruedas de prensa para tratar de tranquilizar a los ciudadanos británicos, prometiendo respuestas firmes.
Uno de los principales ejes es la puesta en marcha de un programa nacional de lucha contra este tipo de violencia, basado especialmente en el uso del reconocimiento facial por parte de la policía. Gavin Stephens, jefe del Consejo Nacional de Jefes de Policía del Reino Unido, declaró estar "deseando trabajar con el Gobierno" en este tema. Pero la idea dista mucho de ser consensuada.
"La policía lleva décadas respondiendo a desórdenes públicos y disturbios, así que no hay necesidad de precipitarse con un sistema de reconocimiento facial", afirma Daragh Murray, profesor de la Universidad Queen Mary de Londres especializado en el impacto de las nuevas tecnologías en los derechos humanos.
De momento, en el Reino Unido no existe ninguna ley específica que regule el uso del reconocimiento facial. "Son las fuerzas policiales británicas las que definen el marco político: con qué fin y contra quién se utiliza. No hay una verdadera supervisión externa, ni debate parlamentario".
A Silkie Carlo, director de la ONG británica Big Brother Watch, que lleva varios años haciendo campaña contra el reconocimiento facial, le preocupa el aumento del uso de una tecnología "peligrosamente imprecisa", que podría convertir a los ciudadanos en "carnés de identidad andantes". La ONG también se muestra escéptica sobre la capacidad de esta inteligencia artificial (IA) para atajar el problema de raíz. "El primer ministro no ha abordado en absoluto las causas de la violencia y el racismo que hemos presenciado en Gran Bretaña. Por no hablar de su fracaso a la hora de hacer frente a las causas de los atroces crímenes con arma blanca que se han cobrado cruelmente tantas vidas."
Uso creciente del reconocimiento facial
La declaración del primer ministro es continuista de la política seguida desde hace varios años por el gobierno británico, que permite a la policía utilizar el reconocimiento facial en diversas situaciones, siempre que cumpla los principios de necesidad y proporcionalidad.
Por ejemplo, la policía puede utilizarlo a posteriori, analizando las imágenes de videovigilancia durante una investigación criminal con los expedientes de las personas fotografiadas cuando fueron detenidas. Sobre el terreno, los agentes también pueden utilizar una aplicación específica para tomar una foto de una persona y buscar su rostro en diversas bases de datos.
Pero el uso más controvertido en términos de libertades personales es en tiempo real. En este caso, un software de reconocimiento facial, asociado a determinadas cámaras, puede identificar a un individuo que camina por la calle en cuestión de segundos. Mientras que en Francia solo se ha llevado a cabo un experimento de este tipo en el espacio público –durante un día de 2019 durante el carnaval de Niza–, la policía del sur de Gales y de Londres lo utilizan con regularidad, desde 2017 y 2020 respectivamente. Según las cifras disponibles en su página web, la policía londinense ha desplegado la tecnología en tiempo real en 127 lugares diferentes desde abril de 2023, escaneando un total de 501.570 rostros.
El actual ministro de Policía, Chris Philp, no oculta su atracción por el reconocimiento facial. A finales de 2023, manifestaba su deseo de que la policía duplicara en un plazo de seis meses sus búsquedas en las bases de datos policiales utilizando IA. En marzo, el gobierno británico asignó 230 millones de libras a la policía para desarrollar drones y el reconocimiento facial.
Acciones legales tras los errores
Más recientemente, el gobierno británico invirtió 55 millones de libras para desarrollar el reconocimiento facial en los comercios, con el fin de combatir un supuesto aumento de los hurtos. El ministro Chris Philp declaró que quería utilizar las bases de datos de pasaportes británicos para identificar mejor a los ladrones. A raíz de esto, algunas de las mayores cadenas en el Reino Unido –entre ellas Marks & Spencer, Boots, Primark y Lidl– lanzaron el Proyecto Pegasus. El objetivo es enviar sus grabaciones de videovigilancia a la policía para que ésta pueda utilizar el reconocimiento facial para encontrar en sus bases de datos los rostros de los presuntos ladrones.
"La expansión de la tecnología en los supermercados es una amenaza para nuestros derechos, se dirige a los afectados por la pobreza y no ataja las causas profundas de los hurtos", advirtió Emmanuelle Andrews, miembro de la ONG británica de derechos humanos Liberty. En diciembre de 2023, 65 diputados enviaron una carta a la Oficina del Comisario de Información del Reino Unido sobre la regulación del reconocimiento facial.
En su carta, los parlamentarios expresaban su especial preocupación por las "graves repercusiones que pueden derivarse de una identificación errónea debida a la escasa precisión y al sesgo". Esta imprecisión en el reconocimiento facial, que detecta con menor eficacia a las personas de color, por ejemplo, la han sufrido muchas personas.
A principios de 2024, a Sara* se le negó la entrada en una tienda de Home Bargains. Un empleado le dijo que era porque el reconocimiento facial la había identificado como ladrona. El software en cuestión se equivocaba. La misma desgracia le ocurrió a Shaun Thompson. Durante una patrulla por las calles de Londres, este afroamericano de 38 años, voluntario del colectivo Street Fathers, cuyo objetivo es proteger a los jóvenes y prevenir los ataques con cuchillo, también fue identificado erróneamente por la policía londinense.
"Me decían que yo estaba en busca y captura, intentaban conseguir mis huellas dactilares y asustarme deteniéndome, aunque yo sabía y ellos también que el ordenador estaba equivocado", relató al medio británico My London. Tras ello, decidió emprender acciones legales contra la policía londinense, mientras que Sara lo hace contra Home Bargains y a Facewatch, el software utilizado por la tienda.
Caja negra
La Eurocámara rechaza el reconocimiento facial por inteligencia artificial para vigilar espacios públicos
Ver más
* Como la interesada deseaba permanecer en el anonimato durante sus diversas apariciones en la prensa británica, hemos utilizado su alias.
Traducción de Miguel López