El gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. El 1 de abril de 2024, la Secretaria de Tecnología del Reino Unido, Michelle Donelan, y la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, firmaron un Memorando de Entendimiento, que es un acuerdo no vinculante legalmente (Figura A). Figura A La secretaria de Comercio de Estados Unidos, Gina Raimondo (izquierda), y la secretaria de Tecnología del Reino Unido, Michelle Donelan (derecha). Fuente: Gobierno del Reino Unido. Imagen: Gobierno del Reino Unido Ambos países ahora “alinearán sus enfoques científicos” y trabajarán juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”. Esta medida se está tomando para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. ¿Qué iniciativas de IA han acordado el Reino Unido y Estados Unidos? Con el MoU, el Reino Unido y los EE. UU. acordaron cómo construirán un enfoque común para las pruebas de seguridad de la IA y compartirán sus desarrollos entre sí. Específicamente, esto implicará: Desarrollar un proceso compartido para evaluar la seguridad de los modelos de IA. Realizar al menos un ejercicio de prueba conjunto sobre un modelo de acceso público. Colaborar en la investigación técnica de seguridad de la IA, tanto para avanzar en el conocimiento colectivo de los modelos de IA como para garantizar que las nuevas políticas estén alineadas. Intercambio de personal entre respectivos institutos. Compartir información sobre todas las actividades realizadas en los respectivos institutos. Trabajar con otros gobiernos en el desarrollo de estándares de IA, incluida la seguridad. «Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas», dijo el secretario Raimondo en un comunicado. VER: Aprenda a utilizar la IA para su negocio (Academia TechRepublic) El MoU se relaciona principalmente con el avance de los planes elaborados por los Institutos de Seguridad de IA en el Reino Unido y EE. UU. Las instalaciones de investigación del Reino Unido se lanzaron en la Cumbre de Seguridad de IA con los tres objetivos principales. de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Empresas como OpenAI, Meta y Microsoft han acordado que el AISI del Reino Unido revise de forma independiente sus últimos modelos de IA generativa. De manera similar, el AISI de EE. UU., establecido formalmente por el NIST en febrero de 2024, fue creado para trabajar en las acciones prioritarias descritas en la Orden Ejecutiva de AI emitida en octubre de 2023; Estas acciones incluyen el desarrollo de estándares para la seguridad de los sistemas de IA. El AISI de EE. UU. cuenta con el apoyo de un consorcio del AI Safety Institute, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. ¿Conducirá esto a la regulación de las empresas de IA? Si bien ni el AISI del Reino Unido ni el de los EE. UU. son un organismo regulador, es probable que los resultados de su investigación combinada sirvan de base para futuros cambios de políticas. Según el gobierno del Reino Unido, su AISI «proporcionará conocimientos fundamentales para nuestro régimen de gobernanza», mientras que la instalación estadounidense «desarrollará directrices técnicas que serán utilizadas por los reguladores». Podría decirse que la Unión Europea todavía está un paso por delante, ya que su histórica Ley de IA se convirtió en ley el 13 de marzo de 2024. La legislación describe medidas diseñadas para garantizar que la IA se utilice de forma segura y ética, entre otras normas relativas a la IA para el reconocimiento facial y la transparencia. . VER: La mayoría de los profesionales de la ciberseguridad esperan que la IA afecte sus trabajos La mayoría de los grandes actores tecnológicos, incluidos OpenAI, Google, Microsoft y Anthropic, tienen su sede en EE. UU., donde actualmente no existen regulaciones estrictas que puedan restringir sus actividades de IA. La EO de octubre proporciona orientación sobre el uso y la regulación de la IA, y se han tomado medidas positivas desde su firma; sin embargo, esta legislación no es ley. El Marco de Gestión de Riesgos de IA finalizado por el NIST en enero de 2023 también es voluntario. De hecho, estas grandes empresas tecnológicas son en su mayoría responsables de regularse a sí mismas y el año pasado lanzaron el Foro Modelo Frontier para establecer sus propias “barandillas” para mitigar el riesgo de la IA. ¿Qué piensan la IA y los expertos legales sobre las pruebas de seguridad? La regulación de la IA debería ser una prioridad La formación del AISI del Reino Unido no fue una forma universalmente popular de controlar la IA en el país. En febrero, el director ejecutivo de Faculty AI, una empresa involucrada con el instituto, dijo que desarrollar estándares sólidos puede ser un uso más prudente de los recursos gubernamentales en lugar de intentar examinar cada modelo de IA. «Creo que es importante que establezca estándares para el resto del mundo, en lugar de intentar hacerlo todo por sí mismo», dijo Marc Warner a The Guardian. Más cobertura de IA de lectura obligada Los expertos en derecho tecnológico tienen un punto de vista similar cuando se trata del MoU de esta semana. «Idealmente, los esfuerzos de los países se gastarían mucho mejor en desarrollar regulaciones estrictas en lugar de investigación», dijo a TechRepublic en un correo electrónico Aron Solomon, analista legal y director de estrategia de la agencia de marketing legal Amplify. “Pero el problema es este: pocos legisladores (yo diría, especialmente en el Congreso de Estados Unidos) tienen un conocimiento tan profundo de la IA como para regularla. Solomon añadió: “Deberíamos salir en lugar de entrar en un período de estudio profundo necesario, en el que los legisladores realmente entiendan colectivamente cómo funciona la IA y cómo se utilizará en el futuro. Pero, como lo puso de relieve la reciente debacle estadounidense en la que los legisladores intentan prohibir TikTok, ellos, como grupo, no entienden la tecnología, por lo que no están bien posicionados para regularla de manera inteligente. “Esto nos deja en la situación difícil en la que nos encontramos hoy. La IA está evolucionando mucho más rápido de lo que los reguladores pueden regular. Pero aplazar la regulación en favor de cualquier otra cosa en este momento es retrasar lo inevitable”. De hecho, dado que las capacidades de los modelos de IA cambian y se expanden constantemente, las pruebas de seguridad realizadas por los dos institutos deberán hacer lo mismo. «Algunos malos actores pueden intentar eludir las pruebas o aplicar incorrectamente las capacidades de IA de doble uso», dijo a TechRepublic en un correo electrónico Christoph Cemper, director ejecutivo de la plataforma de gestión rápida AIPRM. El doble uso se refiere a tecnologías que pueden utilizarse tanto con fines pacíficos como hostiles. Cemper dijo: “Si bien las pruebas pueden señalar problemas de seguridad técnica, no reemplazan la necesidad de directrices sobre cuestiones éticas, políticas y de gobernanza… Idealmente, los dos gobiernos considerarán las pruebas como la fase inicial de un proceso colaborativo continuo”. VER: La IA generativa puede aumentar la amenaza global de ransomware, según un estudio del Centro Nacional de Seguridad Cibernética Se necesita investigación para una regulación eficaz de la IA Si bien las directrices voluntarias pueden no resultar suficientes para incitar un cambio real en las actividades de los gigantes tecnológicos, una legislación de línea dura podría sofocar Según el Dr. Kjell Carlsson, el progreso en IA si no se considera adecuadamente. El ex analista de ML/AI y actual jefe de estrategia de Domino Data Lab dijo a TechRepublic en un correo electrónico: “Hoy en día, hay áreas relacionadas con la IA donde el daño es una amenaza real y creciente. Se trata de áreas como el fraude y el cibercrimen, donde normalmente existe regulación pero es ineficaz. “Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que se centran principalmente en ofertas comerciales de IA que los delincuentes no utilizan. Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costos, al tiempo que harán poco para mejorar la seguridad real”. Por lo tanto, muchos expertos piensan que priorizar la investigación y la colaboración es más eficaz que apresurarse con las regulaciones en el Reino Unido y los EE. UU. El Dr. Carlsson dijo: “La regulación funciona cuando se trata de prevenir daños establecidos en casos de uso conocidos. Hoy en día, sin embargo, la mayoría de los casos de uso de la IA aún no se han descubierto y casi todo el daño es hipotético. Por el contrario, existe una increíble necesidad de investigar cómo probar, mitigar el riesgo y garantizar la seguridad de los modelos de IA de forma eficaz. «Como tal, el establecimiento y la financiación de estos nuevos Institutos de Seguridad de IA y estos esfuerzos de colaboración internacional son una excelente inversión pública, no sólo para garantizar la seguridad, sino también para fomentar la competitividad de las empresas en los EE.UU. y el Reino Unido».

Source link