El uso de la inteligencia artificial (IA) y las tecnologías de reconocimiento facial en la actuación policial está contribuyendo a un “preocupante retroceso” en los derechos civiles y políticos de las personas de color en el Reino Unido, según Runneymede Trust y Amnistía Internacional. En su presentación conjunta al Comité para la Eliminación de la Discriminación Racial de las Naciones Unidas (ONU), que supervisa de forma independiente los esfuerzos de los estados para erradicar el racismo y promover los derechos humanos, los grupos de la sociedad civil describieron cómo una combinación de legislación, prácticas institucionales y costumbres de la sociedad sigue perjudicando a las personas de color en el Reino Unido. “La presentación muestra las formas en que las disparidades que enfrentan las personas de color en el sistema de justicia penal, la salud, la educación, el empleo y la inmigración se han mantenido desde el período del informe anterior hace cuatro años”, dijeron en un comunicado de prensa. “El hecho de no mejorar los resultados para las personas de color, al tiempo que se atacan las formas en que estas comunidades pueden disentir, conduce a una situación imposible para ellas. En la mira de Prevent [counter-terrorism programme]»Las comunidades de color, con vías restringidas para protestar, con una vigilancia excesiva y una protección insuficiente y sujetas a mayores tasas de pobreza, se ven obligadas a rellenar los huecos que el Estado les ha dejado». El informe, que cuenta con el respaldo de más de 40 organizaciones de la sociedad civil (entre ellas Liberty, Black Equity Organisation, Friends Families and Travellers, Migrants Organise e Inquest), contiene una sección sobre el impacto de la IA y la automatización en la actuación policial sobre las personas de color en el Reino Unido. Señala, por ejemplo, que a pesar de la propensión de la tecnología de reconocimiento facial en directo (LFR) a identificar erróneamente a las personas de color, el Ministerio del Interior ha afirmado anteriormente el derecho de las fuerzas policiales a utilizarla en los marcos jurídicos existentes, y que el uso de la tecnología está aumentando en general. «Según los registros publicados por la Policía Metropolitana, el LFR se utilizó en nueve ocasiones entre 2020 y 2022, lo que dio lugar a nueve detenciones o eliminaciones. “Esto aumentó notablemente a 96 ocasiones entre 2023 y mayo de 2024, lo que resultó en 243 arrestos”, dijo. “Liberty Investigates reveló que el Ministerio del Interior había realizado en secreto cientos de búsquedas de reconocimiento facial utilizando su base de datos de fotografías de pasaportes y la base de datos de inmigración, lo que plantea más preguntas sobre la falta de transparencia y el alcance del uso de datos para el reconocimiento facial”. Señaló que el uso de sistemas automatizados como la vigilancia predictiva y el reconocimiento automático de matrículas (ANPR) por parte de la policía puede dar lugar a violaciones de los derechos humanos y muertes; destacando el hecho de que el automóvil que conducía Chris Kaba, de 23 años, quien recibió un disparo mortal en la cabeza por parte de un policía armado en septiembre de 2022, fue marcado por su matrícula a través de ANPR antes de ser interceptado. Aunque la policía dijo en ese momento que el vehículo de Kaba estaba “vinculado a un delito de armas de fuego en los días anteriores”, el automóvil no estaba registrado a su nombre y finalmente no se encontraron armas de fuego en el interior. El agente armado implicado ha sido acusado de asesinato y se enfrentará a juicio en octubre de 2024. El informe destacó además los resultados discriminatorios de la base de datos Gangs Matrix de la Met, que dio lugar a que las personas de color (predominantemente niños y hombres negros jóvenes, en este caso) fueran objeto de perfiles raciales por la música que escuchaban, su comportamiento en las redes sociales o quiénes eran sus amigos. Añadió que, si bien la base de datos ha sido eliminada tras ser condenada por racista, sigue habiendo preocupaciones sobre qué la sustituirá. En sus recomendaciones para el gobierno del Reino Unido sobre la IA policial, los grupos de la sociedad civil dijeron que debería prohibir todas las formas de sistemas predictivos y de elaboración de perfiles en la aplicación de la ley y la justicia penal (incluidos los sistemas que se centran y se dirigen a personas, grupos y lugares o áreas); proporcionar transparencia pública y supervisión cuando la policía o las agencias de migración y seguridad nacional utilizan IA de «alto riesgo»; e imponer límites legales para prohibir los usos de la IA que presenten un riesgo inaceptable para los derechos humanos. Añadieron que el gobierno del Reino Unido debería iniciar una investigación sobre todas las bases de datos de bandas policiales, con vistas a examinar la necesidad de una reforma más amplia a nivel nacional. En este informe se debería tener en cuenta si las bases de datos que utilizan las fuerzas de seguridad de todo el país son una herramienta policial eficaz para hacer frente a los delitos violentos graves; si funcionan en pleno cumplimiento de la legislación sobre derechos humanos y protección de datos; y si están influidas por prejuicios raciales o conducen a resultados discriminatorios. Computer Weekly se puso en contacto con el Ministerio del Interior para conocer las recomendaciones del informe y si, bajo la nueva administración, sigue manteniendo la opinión de que la tecnología de reconocimiento facial está adecuadamente cubierta por la legislación vigente. “La semana pasada, nuestras ciudades y pueblos han sido testigos de una violencia atroz, con personas atacadas por el color de su piel y lugares de culto atacados. Este racismo y odio han causado una angustia generalizada”, dijo un portavoz. “Estamos decididos a que ni los matones callejeros ni los instigadores en línea definan nuestra nación. Nuestra fuerza reside en la unidad entre todos los orígenes, creencias y culturas”. A finales de julio de 2024, una coalición de 17 grupos de la sociedad civil centrados en los derechos humanos pidió de forma similar al nuevo gobierno laborista que prohibiera por completo los sistemas de vigilancia biométrica y de vigilancia predictiva basados ​​en inteligencia artificial, sobre la base de que se utilizan desproporcionadamente para atacar a las comunidades racializadas, de clase trabajadora e inmigrantes. “Se ha demostrado que la inteligencia artificial y los sistemas automatizados magnifican la discriminación y la desigualdad en la actuación policial”, dijo Sara Chitseko, directora del programa de predelincuencia de Open Rights Group en ese momento. “Sin una regulación sólida, la policía seguirá utilizando sistemas de inteligencia artificial que violan nuestros derechos y exacerban los desequilibrios estructurales de poder, mientras que las grandes empresas tecnológicas se benefician”. El Ministerio del Interior está considerando las conclusiones de ambos informes. Preocupaciones actuales sobre la tecnología policial En noviembre de 2023, el comisionado saliente de biometría y cámaras de vigilancia para Inglaterra y Gales, Fraser Sampson, cuestionó las capacidades de prevención del delito del reconocimiento facial, argumentando que las autoridades confiaban en gran medida en su efecto amedrentador, en lugar de su eficacia real para identificar a las personas buscadas. También advirtió sobre la deficiente supervisión general del uso de tecnologías biométricas por parte de la policía, y añadió que existen peligros reales de que el Reino Unido se deslice hacia un estado de vigilancia «omnipresente» si no se atienden las preocupaciones sobre estas poderosas tecnologías. Sampson también advirtió anteriormente en febrero de 2023 sobre la «cultura de retención» general de la policía del Reino Unido en torno a los datos biométricos, diciendo al Comité Conjunto de Derechos Humanos (JCHR) del Parlamento que la norma por defecto entre las fuerzas policiales era aferrarse a la información biométrica, independientemente de si estaba legalmente permitida. Destacó específicamente la retención continua e ilegal de millones de imágenes de custodia de personas que nunca fueron acusadas de un delito, y señaló que, aunque el Tribunal Superior dictaminó en 2012 que estas imágenes deben eliminarse, el Ministerio del Interior, que posee la mayoría de las bases de datos biométricas utilizadas por la policía del Reino Unido, dijo que no se puede hacer porque la base de datos en la que se guardan no tiene capacidad de eliminación masiva. Una investigación anterior de la Cámara de los Lores sobre el uso de tecnologías algorítmicas avanzadas por parte de la policía del Reino Unido (que exploró el uso del reconocimiento facial y varias herramientas de predicción del delito) también concluyó en marzo de 2022 que estas herramientas plantean «un riesgo real y actual para los derechos humanos y el estado de derecho. A menos que esto se reconozca y se aborde, los posibles beneficios del uso de tecnologías avanzadas pueden verse superados por el daño que se producirá y la desconfianza que creará». En el caso de las tecnologías de «policía predictiva», los lores señalaron su tendencia a producir un «círculo vicioso» y «consolidar patrones preexistentes de discriminación» porque dirigen las patrullas policiales a zonas de bajos ingresos, ya sobrevigiladas, basándose en datos históricos de detenciones. En cuanto al reconocimiento facial, añadieron que podría tener un efecto paralizador sobre las protestas, socavar la privacidad y dar lugar a resultados discriminatorios. Tras una breve investigación de seguimiento que se centró específicamente en el reconocimiento facial, los lores señalaron que la policía del Reino Unido estaba ampliando el uso de la tecnología de reconocimiento facial sin un escrutinio ni una rendición de cuentas adecuados, a pesar de carecer de una base jurídica clara para su despliegue. También descubrieron que no existían normas rigurosas ni sistemas de regulación para controlar el uso de la tecnología por parte de las fuerzas armadas.