El par liberal demócrata Lord Clement-Jones ha presentado un proyecto de ley para regular el uso de inteligencia artificial (IA), algoritmos y tecnologías de toma de decisiones automatizadas por parte de las autoridades públicas, citando la necesidad de evitar otro escándalo en Correos. Según las propuestas, presentadas por Lord Clement-Jones el 9 de septiembre, si «una computadora dice que no» a una decisión sobre beneficios, inmigración o similar, un ciudadano tendría derecho a acceder a la información sobre por qué sucedió eso para tener la oportunidad de impugnarlo. En los casos en que un ciudadano elija impugnar una decisión automatizada tomada sobre él, el Proyecto de Ley de Sistemas Algorítmicos y de Toma de Decisiones Automatizadas de Autoridades Públicas de Clement-Jones también obligaría al gobierno a proporcionar un servicio independiente de resolución de disputas. Las autoridades públicas en general también estarían obligadas a publicar evaluaciones de impacto de cualquier algoritmo automatizado o de IA que influya en los procesos de toma de decisiones (que incluiría una evaluación obligatoria de sesgo para garantizar el cumplimiento de la Ley de Igualdad y la Ley de Derechos Humanos), así como a mantener un registro de transparencia para proporcionar mayor información pública sobre cómo se utiliza cada sistema. “El escándalo de Post Office/Horizon demuestra el doloroso coste humano que supone no disponer de los controles adecuados para cuestionar estos sistemas automatizados. En la actualidad, las autoridades públicas no tienen ninguna obligación legal de ser transparentes sobre cuándo y cómo utilizan estos algoritmos. Insto al gobierno a que apoye estos cambios”, afirmó Lord Clement-Jones. “Con demasiada frecuencia, en el Reino Unido legislamos cuando el daño ya está hecho. Tenemos que ser proactivos, no reactivos, cuando se trata de proteger a los ciudadanos y sus interacciones con las nuevas tecnologías. Tenemos que estar a la vanguardia en lo que respecta a la regulación de la IA. Sencillamente, no podemos arriesgarnos a que se produzca otro escándalo como el de Horizon”. Para aumentar la legibilidad de las decisiones automatizadas, el proyecto de ley incluye disposiciones para garantizar que todos los sistemas implementados por las autoridades públicas estén diseñados con capacidades de registro automático, de modo que su funcionamiento pueda ser supervisado e interrogado de forma continua. También contiene otras disposiciones que prohíben la adquisición de sistemas que no puedan ser examinados, incluso cuando las autoridades públicas se ven obstaculizadas en sus esfuerzos de supervisión por medidas contractuales o técnicas y por los intereses de propiedad intelectual de los proveedores. Otros parlamentarios han presentado anteriormente proyectos de ley privados similares relacionados con la IA, incluido Lord Christopher Holmes, quien presentó la Ley de Inteligencia Artificial. [Regulation] El proyecto de ley de noviembre de 2023, sobre la base de que la estrategia de “esperar y ver” del gobierno de entonces para la legislación sobre IA haría más daño que bien; y el diputado laborista Mick Whitley, que presentó su proyecto de ley de IA centrado en los trabajadores en mayo de 2023 para abordar los usos nocivos de la IA en el lugar de trabajo. En abril de 2024, el Congreso de Sindicatos (TUC) también publicó una ley “lista para usar” para regular la IA en el lugar de trabajo, que establece una serie de nuevos derechos y protecciones legales para gestionar los efectos adversos de la toma de decisiones automatizada en los trabajadores. Desde que el gobierno conservador anterior publicó su libro blanco sobre IA en marzo de 2023, ha habido un debate significativo sobre si el marco “ágil y pro innovación” que describió para regular la tecnología de IA es el enfoque correcto. Según esas propuestas, el gobierno habría dependido de los reguladores existentes para crear reglas personalizadas y específicas para el contexto que se adapten a las formas en que se utiliza la tecnología en los sectores que examinan. Tras la publicación del libro blanco, el gobierno promovió ampliamente la necesidad de la seguridad de la IA sobre la base de que las empresas no adoptarán la IA hasta que tengan la confianza de que los riesgos asociados con la tecnología (desde el sesgo y la discriminación hasta el impacto en los resultados laborales y judiciales) se están mitigando de manera efectiva. Si bien el gobierno anterior pasó sus últimos meses redoblando este enfoque general en su respuesta formal a la consulta del libro blanco de enero de 2024, afirmando que no legislaría sobre la IA hasta que fuera el momento adecuado, más tarde dijo en febrero de 2024 que podrían introducirse normas vinculantes en el futuro para los sistemas de IA de mayor riesgo. Aunque el último discurso del Rey dijo que el nuevo gobierno laborista «tratará de establecer la legislación adecuada para imponer requisitos a quienes trabajan para desarrollar los modelos de inteligencia artificial más potentes», no hay planes para una legislación específica sobre la IA. La única mención de la IA en la sesión informativa de fondo del discurso fue como parte de un proyecto de ley de seguridad de productos y metrología, que tiene como objetivo responder «a los nuevos riesgos y oportunidades de los productos para permitir que el Reino Unido siga el ritmo de los avances tecnológicos, como la IA». Si bien los proyectos de ley presentados por miembros privados rara vez se convierten en ley, a menudo se utilizan como mecanismo para generar debates sobre temas importantes y poner a prueba la opinión en el Parlamento.