El Reino Unido ha firmado el primer tratado internacional del mundo sobre inteligencia artificial, junto con la Unión Europea, Estados Unidos y otros siete países. El acuerdo compromete a los signatarios a adoptar o mantener medidas que garanticen que el uso de la IA sea coherente con los derechos humanos, la democracia y la ley. Estas medidas deberían proteger al público contra los riesgos inherentes a los modelos de IA, como los datos de entrenamiento sesgados, y los de su uso indebido, como la difusión de información errónea. El Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho se abrió a las firmas durante una conferencia de Ministros de Justicia del Consejo de Europa en Vilnius, Lituania, el 5 de septiembre. Los signatarios actuales incluyen: Andorra. UE. Georgia. Islandia. Israel. Noruega. República de Moldavia. San Marino. Reino Unido-EE.UU. El tratado se suma a un conjunto creciente de legislación internacional que tiene como objetivo frenar los riesgos de la IA, incluida la Declaración de Bletchley, que fue firmada por 28 países en noviembre de 2023. Se prevé que haya más signatarios de otros estados que negociaron el tratado. Entre ellos se incluyen los otros 39 estados miembros del Consejo de Europa y los nueve estados no miembros de Argentina, Australia, Canadá, Costa Rica, la Santa Sede, Japón, México, Perú y Uruguay. La Lord Canciller Shabana Mahmood representó al Reino Unido a través de su firma. Ella dijo en una declaración: «La inteligencia artificial tiene la capacidad de mejorar radicalmente la capacidad de respuesta y la eficacia de los servicios públicos y de impulsar el crecimiento económico. Sin embargo, no debemos dejar que la IA nos moldee; debemos moldear la IA. «Esta convención es un paso importante para garantizar que estas nuevas tecnologías puedan aprovecharse sin erosionar nuestros valores más antiguos, como los derechos humanos y el estado de derecho». VER: Reino Unido y países del G7 utilizarán IA para impulsar los servicios públicos La Secretaria General del Consejo de Europa, Marija Pejčinović Burić, dijo en un comunicado de prensa: «Debemos asegurarnos de que el auge de la IA defienda nuestros estándares, en lugar de socavarlos. La Convención Marco está diseñada para garantizar precisamente eso. “Espero que estas sean las primeras de muchas firmas y que sean seguidas rápidamente por ratificaciones, para que el tratado pueda entrar en vigor lo antes posible”. El tratado fue adoptado por el Comité de Ministros del Consejo de Europa el 17 de mayo de este año. Para que entre en vigor, cinco signatarios, incluidos al menos tres estados miembros del Consejo de Europa, deben ratificarlo. La entrada en vigor se producirá tres meses después de la quinta ratificación, el primer día del mes siguiente. Es independiente de la Ley de IA de la UE, que entró en vigor el mes pasado, ya que el Consejo de Europa es una organización de 46 miembros distinta de la UE, y los estados no pertenecientes a la UE pueden firmar. La viabilidad de un tratado de IA se examinó por primera vez en 2019. La legislación fue reemplazada en 2022 por el Comité de Inteligencia Artificial del Consejo. Fue adoptado formalmente el 17 de mayo de este año. Más cobertura de IA de lectura obligada ¿Qué exige el tratado a los signatarios? Para proteger los derechos humanos, la democracia y el estado de derecho, el Convenio Marco exige a los signatarios que: garanticen que los sistemas de IA respeten la dignidad humana, la autonomía, la igualdad, la no discriminación, la privacidad, la transparencia, la rendición de cuentas y la fiabilidad; proporcionen información sobre las decisiones tomadas mediante IA y permitan a las personas impugnar las decisiones o el uso de la propia IA; ofrezcan garantías procesales, incluidos mecanismos de denuncia y notificación de las interacciones con la IA; realicen evaluaciones de riesgos continuas de los impactos sobre los derechos humanos y establezcan medidas de protección; permitan a las autoridades prohibir o pausar determinadas aplicaciones de IA si es necesario. El tratado cubre el uso de sistemas de IA por parte de autoridades públicas, como el NHS, y empresas privadas que operan en las jurisdicciones de las partes. No se aplica a actividades relacionadas con la seguridad nacional, asuntos de defensa nacional o investigación y desarrollo a menos que tengan el potencial de interferir con los derechos humanos, la democracia o el estado de derecho. Según el gobierno del Reino Unido, el tratado trabajará para mejorar las leyes y medidas existentes, como la Ley de Seguridad en Línea. También pretende trabajar con los reguladores, las administraciones descentralizadas y las autoridades locales para garantizar que se puedan implementar los requisitos del tratado. VER: El gobierno del Reino Unido anuncia 32 millones de libras en proyectos de IA Depende de la “Conferencia de las Partes”, un grupo compuesto por representantes oficiales de las Partes en la Convención, determinar hasta qué punto se están implementando las disposiciones del tratado y hacer recomendaciones. Los pasos del Reino Unido hacia una IA segura El tratado dice que, si bien regula la IA, sigue promoviendo su progreso e innovación. El gobierno del Reino Unido ha estado intentando mantener este equilibrio en sus propias acciones. De alguna manera, el gobierno ha sugerido que será duro en su restricción de los desarrolladores de IA. Se anunció en el Discurso del Rey de julio que el gobierno “tratará de establecer la legislación apropiada para imponer requisitos a quienes trabajan para desarrollar los modelos de inteligencia artificial más poderosos”. Esto respalda el manifiesto preelectoral del Partido Laborista, que se comprometió a introducir “una regulación vinculante para el puñado de empresas que desarrollan los modelos de IA más poderosos”. Después del discurso, el Primer Ministro Keir Starmer también dijo a la Cámara de los Comunes que su gobierno “aprovechará el poder de la inteligencia artificial mientras buscamos fortalecer los marcos de seguridad”. VER: Retrasar la implantación de la IA en el Reino Unido cinco años podría costarle a la economía más de 150.000 millones de libras, según un informe de Microsoft El Reino Unido también creó el primer Instituto Nacional de Seguridad de la IA en noviembre de 2023 con los objetivos principales de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Luego, este abril, los gobiernos del Reino Unido y de los EE. UU. acordaron trabajar juntos en el desarrollo de pruebas de seguridad para modelos avanzados de IA, avanzando en los planes realizados por sus respectivos Institutos de Seguridad de la IA. Por el contrario, el gobierno del Reino Unido ha prometido a las empresas tecnológicas que el proyecto de ley sobre IA entrante no será demasiado restrictivo y aparentemente se ha abstenido de presentarlo. Se esperaba que incluyera el proyecto de ley en las piezas legislativas nombradas que se anunciaron como parte del Discurso del Rey, pero no lo hizo.