OpenAI y Anthropic han firmado acuerdos con el gobierno de Estados Unidos, ofreciendo sus modelos de IA de vanguardia para pruebas e investigación de seguridad. Un anuncio del NIST el jueves reveló que el Instituto de Seguridad de la IA de EE. UU. tendrá acceso a las tecnologías «antes y después de su lanzamiento público». Gracias a los respectivos Memorandos de Entendimiento (acuerdos no jurídicamente vinculantes) firmados por los dos gigantes de la IA, el AISI puede evaluar las capacidades de sus modelos e identificar y mitigar cualquier riesgo de seguridad. El AISI, establecido formalmente por el NIST en febrero de 2024, se centra en las acciones prioritarias descritas en la Orden Ejecutiva de IA sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial emitida en octubre de 2023. Estas acciones incluyen el desarrollo de estándares para la seguridad y protección de los sistemas de IA. El grupo cuenta con el apoyo del Consorcio del Instituto de Seguridad de la IA, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. Elizabeth Kelly, directora del AISI, dijo en el comunicado de prensa: «La seguridad es esencial para impulsar la innovación tecnológica revolucionaria. Con estos acuerdos en vigor, esperamos comenzar nuestras colaboraciones técnicas con Anthropic y OpenAI para avanzar en la ciencia de la seguridad de la IA. «Estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a administrar de manera responsable el futuro de la IA». VER: Definición de IA generativa: cómo funciona, beneficios y peligros Jack Clark, cofundador y director de Políticas de Anthropic, le dijo a TechRepublic por correo electrónico: «La IA segura y confiable es crucial para el impacto positivo de la tecnología. Nuestra colaboración con el Instituto de Seguridad de IA de EE. UU. aprovecha su amplia experiencia para probar rigurosamente nuestros modelos antes de su implementación generalizada. «Esto fortalece nuestra capacidad para identificar y mitigar riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y confiable». Jason Kwon, director de estrategia de OpenAI, le dijo a TechRepublic por correo electrónico: «Apoyamos firmemente la misión del Instituto de Seguridad de IA de EE. UU. y esperamos trabajar juntos para informar las mejores prácticas y estándares de seguridad para los modelos de IA. “Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE. UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco sobre el que el resto del mundo pueda construir”. AISI trabajará con el Instituto de Seguridad de IA del Reino Unido AISI también planea colaborar con el Instituto de Seguridad de IA del Reino Unido al proporcionar comentarios relacionados con la seguridad a OpenAI y Anthropic. En abril, los dos países acordaron formalmente trabajar juntos en el desarrollo de pruebas de seguridad para modelos de IA. Este acuerdo se tomó para mantener los compromisos establecidos en la primera Cumbre mundial de seguridad de IA en noviembre pasado, donde los gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. Después del anuncio del jueves, Jack Clark, cofundador y director de políticas de Anthropic, publicó en X: “Las pruebas de terceros son una parte realmente importante del ecosistema de IA y ha sido sorprendente ver a los gobiernos crear institutos de seguridad para facilitar esto. “Este trabajo con el AISI de EE. UU. se basará en el trabajo anterior que hicimos este año, donde trabajamos con el AISI del Reino Unido para hacer una prueba previa al despliegue en Sonnet 3.5”. Claude 3.5 Sonnet es el último modelo de IA de Anthropic, lanzado en junio. Desde el lanzamiento de ChatGPT, las empresas de IA y los reguladores han chocado sobre la necesidad de regulaciones estrictas de IA, con las primeras presionando para salvaguardar contra riesgos como la desinformación, mientras que los segundos argumentan que las reglas demasiado estrictas podrían sofocar la innovación. Los principales actores de Silicon Valley han abogado por un marco voluntario que permita la supervisión gubernamental de sus tecnologías de IA en lugar de mandatos regulatorios estrictos. El enfoque de EE. UU. a nivel nacional ha sido más favorable a la industria, centrándose en pautas voluntarias y la colaboración con las empresas de tecnología, como se ve en iniciativas ligeras como la Carta de Derechos de IA y la Orden Ejecutiva de IA. En contraste, la UE ha tomado un camino regulatorio más estricto con la Ley de IA, estableciendo requisitos legales sobre transparencia y gestión de riesgos. Algo en desacuerdo con la perspectiva nacional sobre la regulación de la IA, el miércoles, la Asamblea Estatal de California aprobó la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera, también conocida como SB-1047 o Ley de IA de California. Al día siguiente, fue aprobado por el Senado estatal, y ahora solo tiene que ser aprobado por el gobernador Gavin Newsom antes de que se promulgue como ley. Los incondicionales de Silicon Valley, OpenAI, Meta y Google, han escrito cartas a los legisladores de California expresando sus preocupaciones sobre la SB-1047, enfatizando la necesidad de un enfoque más cauteloso para evitar obstaculizar el crecimiento de las tecnologías de IA. VER: OpenAI, Microsoft y Adobe respaldan el proyecto de ley de marcas de agua de IA de California Tras el anuncio del jueves del acuerdo de su empresa con la AISI de EE. UU., Sam Altman, director ejecutivo de OpenAI, publicó en X que sentía que era «importante que esto suceda a nivel nacional», haciendo una indirecta a la SB-1047 de California. Violar la legislación a nivel estatal resultaría en sanciones, a diferencia de un Memorando de Entendimiento voluntario. Más cobertura de IA de lectura obligada Mientras tanto, el Instituto de Seguridad de IA del Reino Unido se enfrenta a desafíos financieros Desde la transición del liderazgo conservador al laborista a principios de julio, el gobierno del Reino Unido ha realizado una serie de cambios notables con respecto a su enfoque hacia la IA. Ha descartado la oficina que debía establecer en San Francisco este verano, según fuentes de Reuters, que se promocionaba para cimentar las relaciones entre el Reino Unido y los titanes de IA del Área de la Bahía. El ministro de Tecnología, Peter Kyle, también habría despedido al asesor principal de políticas y cofundador del AISI del Reino Unido, Nitarshan Rajkumar. VER: El gobierno del Reino Unido anuncia £ 32 millones para proyectos de IA después de desechar la financiación para supercomputadoras Las fuentes de Reuters agregaron que Kyle planea recortar las inversiones directas del gobierno en la industria. De hecho, a principios de este mes, el gobierno archivó £ 1.3 mil millones de fondos que se habían destinado a la IA y la innovación tecnológica. En julio, la canciller Rachel Reeves dijo que el gasto público iba camino de superar el presupuesto en 22.000 millones de libras y anunció inmediatamente recortes por 5.500 millones de libras, incluidos los destinados al Fondo de Oportunidades de Inversión, que apoyaba proyectos en los sectores digital y tecnológico. Unos días antes del discurso de la canciller, el Partido Laborista designó al empresario tecnológico Matt Clifford para desarrollar el «Plan de Acción de Oportunidades de IA», que identificará cómo se puede aprovechar mejor la IA a nivel nacional para impulsar la eficiencia y reducir los costos. Sus recomendaciones se publicarán en septiembre. Según fuentes de Reuters, la semana pasada, Clifford tuvo una reunión con diez representantes de empresas de capital de riesgo establecidas para discutir este plan, incluido el modo en que el gobierno puede adoptar la IA para mejorar los servicios públicos, apoyar a las empresas derivadas de las universidades y facilitar que las empresas emergentes contraten a nivel internacional. Pero no hay calma en absoluto entre bastidores, ya que un asistente le dijo a Reuters que estaban «enfatizando que solo tenían un mes para dar vuelta la revisión».