Los grupos de derechos civiles han destacado una «falta de transparencia preocupante» en cómo el departamento para el trabajo y las pensiones (DWP) está integrando la inteligencia artificial (IA) en el sistema de seguridad social del Reino Unido. Según informes separados de Amnistía Internacional y Big Brother Watch, ambos publicados a principios de julio de 2025, el uso opaco de los sistemas de IA por parte del departamento para determinar la elegibilidad de las personas para los esquemas de seguridad social como Universal Credit (UC) o el pago de independencia personal (PIP) está teniendo «consecuencias serias» para los reclamantes de beneficios. Ambas organizaciones destacaron riesgos claros de sesgo asociados con el uso de IA en este contexto, y cómo la tecnología puede exacerbar los resultados discriminatorios preexistentes en el sistema de beneficios del Reino Unido. También detallaron cómo dichos sistemas socavan los datos y los derechos de privacidad de los demandantes, y los tratan como el diseño automáticamente sospechoso. Sin embargo, a pesar de tales riesgos, dicen que el DWP ha creado un «muro de secreto» sobre cómo funcionan sus sistemas de IA, dejando a las personas en la oscuridad sobre cómo ha tomado decisiones importantes que afectan su vida cotidiana. «Los documentos internos de DWP obtenidos por Big Brother Watch muestran que el modelo Universal Credit Avances, utilizado para calificar el riesgo de obtener casi un millón de reclamos de avances cada año, muestra un sesgo consistente y estadísticamente significativo», dijo el grupo de campaña de privacidad. «Los análisis de equidad del modelo de avances y una cadena de otras herramientas piloto muestran que se han encontrado disparidades algorítmicas para la edad, la nacionalidad, el estado de la relación y las enfermedades informadas, aún más preocupantes, ya que estas características también se utilizan como indicadores de etnia, estado civil y discapacidad». La negativa a publicar información abiertamente Big Brother Watch agregó que la operación de la «máquina de sospecha» del DWP ha sido protegida del escrutinio público debido a su negativa a publicar información abiertamente. Amnistía hicieron puntos similares, que agregó que el DWP está justificando su opacidad sobre la base de que divulgar información podría permitir a las personas explotar el sistema de beneficios. «Esto fundamenta fundamentalmente cómo estos sistemas son frecuentemente discriminatorios y demuestra la adopción de un enfoque punitivo», dijo. «Estos sistemas a menudo dependen de las características de identidad para establecer perfiles o puntajes de riesgo, que para ‘raza’ o ‘discapacidad’ se fijan y, por lo tanto, no pueden ser cambiados por un individuo para engañar al sistema. Esto da como resultado un sistema que está optimizado para la detección de fraude, en lugar de ser optimizados para atender a la mayoría de las aplicaciones que son legítimas mientras aún pueden detectar los casos externos de craude de craude». Por lo tanto, ambas organizaciones están pidiendo una mayor transparencia del gobierno del Reino Unido sobre cómo está utilizando estas herramientas de datos de alto riesgo, de modo que DWP se pueda considerar para tener en cuenta los impactos negativos de sus sistemas, y las personas pueden desafiar las decisiones equivocadas sobre ellos. «El despliegue continuo del DWP de herramientas algorítmicas de alta tecnología, que sus propias evaluaciones se han encontrado con sesgo, es alarmante», dijo Jake Hurfurt, jefe de investigación e investigaciones en Big Brother Watch. «Esto se vuelve aún más preocupante cuando el DWP se esconde detrás de una pared de secreto y se niega a revelar información clave que permita a las personas afectadas y al público comprender cómo se usa la automatización para afectar sus vidas, y los riesgos de la sesgo y la privacidad involucrada. Es incorrecto someter a millones de personas inocentes a las sombras y algorítmicas decisiones automatizadas, y negarse a explicar cómo funcionan ”. Amnistía dijo en su informe que, si bien los «impactos del mundo real» de los sistemas de IA del DWP son evidentes de las experiencias de las personas de interactuar con ellos y lo que ha sido descubierto por los grupos de la sociedad civil, los impactos completos no pueden ser conocidos realmente sin una mayor transparencia, y si se produce una transparencia sobre el uso de la tecnología, no puede haber una evaluación significativa de si estos sistemas están operando o la ley, y si no se realiza la gran cantidad. Brother Watch destacó de manera similar cómo los documentos, como las evaluaciones de impacto de la protección de datos que contienen detalles vitales sobre los sistemas, incluidos los tipos de datos personales que procesan y cómo los modelos utilizan los modelos, así como cómo cumplen con las pruebas legales en torno a la proporcionalidad y la necesidad de la necesidad, o no se divulgan en gran medida si se les presenta una tarjeta de acero a la altura de la tarea de Operación, pero con la tarjetas de acero a la altura de la tarea de la MAJA DE SEGUIDA AL MATECEA. Permitir el perfil de luz humana a gran escala, es claramente necesario más escrutinio y transparencia, no menos «, dijo. DWP está más preocupado por las tecnologías experimentales para vigilar a los reclamantes «, dijo.» El sistema habilitado para la tecnología para reclamar y administrar los beneficios de bienestar está resultando en una implacable deshumanización y tensión para las personas que ya están luchando para acceder a sus necesidades básicas en un sistema roto «. Amnistía también destacó en su informe de que a pesar del objetivo declarado de DWP de «ahorrar costos», duda de si estos ahorros profesos realmente se materializarán. Estos costos crecientes y las fechas de finalización continuamente retrasadas ponen en duda si es posible que el proceso de digitalización introduzca la eficiencia y los ahorros de costos que se utilizaron para justificar su introducción «. DWP Communt Weekly contactó al DWP sobre los informes y las afirmaciones sobre su uso de IA en todo el sistema de Seguro Social Todas las decisiones con respecto al derecho de beneficio o el pago son tomadas por el personal de DWP, que analiza todas las pruebas disponibles «.