El Comité de Asignaciones de California aprobó el jueves la Ley de Innovación Segura para Modelos de Inteligencia Artificial Fronterizos (también conocida como SB-1047), el último paso en la saga de regulación de Silicon Valley. La Asamblea estatal y el Senado aún deben aprobar el proyecto de ley antes de que se convierta en ley. ¿Qué es SB-1047? Conocida coloquialmente como la Ley de IA de California, y monitoreada de cerca en todo el país por posiblemente sentar un precedente para las pautas estatales en torno a la IA generativa, SB-1047 establece varias reglas para los desarrolladores de IA: Crear protocolos de seguridad y protección para los modelos de IA cubiertos. Garantizar que dichos modelos puedan cerrarse por completo. Prevenir la distribución de modelos capaces de lo que la ley define como «daño crítico». Contratar un auditor para garantizar el cumplimiento de la ley. En resumen, el proyecto de ley proporciona un marco que tiene como objetivo evitar que los modelos de IA generativos causen daños a gran escala a la humanidad, como a través de una guerra nuclear o armas biológicas, o que causen más de $ 500 millones en pérdidas a través de un evento de ciberseguridad. La ley define los «modelos cubiertos» como aquellos que utilizan un poder de cómputo mayor a 10^26 operaciones de números enteros o de punto flotante, cuyo costo supera los $100 millones, durante el entrenamiento. Más cobertura de IA de lectura obligada La versión reciente de la ley incluye aportes de Anthropic La versión del proyecto de ley que se aprobó el jueves incluyó algunos cambios sugeridos por el fabricante de IA Anthropic y aceptados por el autor principal del proyecto de ley, el senador Scott Wiener, demócrata de California. Anthropic solicitó con éxito al estado que eliminara parte del lenguaje del proyecto de ley que decía que las empresas que incumplieran la ley podrían enfrentar acciones legales por parte del fiscal general del estado. La versión más reciente también elimina la necesidad de que las empresas divulguen los resultados de las pruebas de seguridad bajo amenaza de perjurio. En cambio, los desarrolladores deberán presentar declaraciones, que no tienen el mismo peso legal. Otros cambios incluyen: El cambio en la redacción de las empresas de IA que tienen que proporcionar «garantía razonable» de seguridad a «cuidado razonable». Una excepción en la que los investigadores de IA que gastan menos de $10 millones en afinar un modelo cubierto de código abierto no se consideran desarrolladores de ese modelo. VER: Anthropic y OpenAI han realizado su propia investigación sobre cómo la IA generativa crea contenido, incluido el contenido sesgado. El proyecto de ley ya no exige la creación de una División de Modelos Fronterizos, una agencia para supervisar la industria de la IA. En su lugar, una Junta de Modelos Fronterizos centrada en la orientación y las auditorías de seguridad con visión de futuro se ubicará dentro de la actual Agencia de Operaciones del Gobierno. Si bien Anthropic contribuyó al proyecto de ley, otras grandes organizaciones como Google y Meta han expresado su desaprobación. Andreessen Horowitz, una empresa de capital de riesgo conocida como a16z que está detrás de muchas empresas emergentes de IA, se ha opuesto enérgicamente a la SB-1047. ¿Por qué es controvertida la SB-1047? Algunos representantes de la industria y el Congreso dicen que la ley restringirá la innovación y dificultará especialmente el trabajo con modelos de IA de código abierto. Entre los críticos del proyecto de ley se encontraba el cofundador y director ejecutivo de Hugging Face, Clement Delangue, como señaló Fast Company. Un estudio de abril realizado por el grupo de expertos pro-regulación Artificial Intelligence Policy Institute concluyó que la mayoría de los californianos votaron a favor de apoyar el proyecto de ley tal como estaba en ese momento, y el 70% estuvo de acuerdo en que «los futuros modelos de IA potentes pueden usarse con fines peligrosos». Los investigadores Geoffrey Hinton y Yoshua Bengio, conocidos como los «padrinos de la IA» por su trabajo pionero en el aprendizaje profundo, también apoyan públicamente el proyecto de ley. La ley «protegerá al público», escribió Bengio en un artículo de opinión en Fortune el 15 de agosto. Ocho de los 52 miembros del Congreso de California firmaron una carta el jueves diciendo que la ley «crearía riesgos innecesarios para la economía de California con muy poco beneficio para la seguridad pública». Argumentan que es demasiado pronto para crear evaluaciones estandarizadas para la IA, ya que agencias gubernamentales como el NIST todavía están trabajando en la creación de esos estándares. También sugieren que la definición de daño crítico podría ser engañosa. El proyecto de ley se ha extraviado al centrarse en desastres a gran escala, como las armas nucleares, mientras que «ignora en gran medida los riesgos demostrables de la IA como la desinformación, la discriminación, las falsificaciones profundas no consensuadas, los impactos ambientales y el desplazamiento de la fuerza laboral», afirman los congresistas. SB-1047 incluye protección específica para los denunciantes de las empresas de IA bajo la Ley de Protección de Denunciantes de California. La analista senior de Forrester, Alla Valente, dijo que los legisladores tenían razón al centrarse en los ciberataques, como el incidente de Change Healthcare en mayo, ya que se ha demostrado que estos ataques causan daños graves. «Con el uso de la IA generativa, estos ataques se pueden llevar a cabo de manera más efectiva y a una escala mucho mayor, lo que hace que la regulación de la IA sea algo que todos los estados tendrán que considerar como parte de cómo protegen y sirven a sus residentes», dijo. La ley plantea los desafíos de equilibrar la regulación y la innovación «Podemos promover tanto la innovación como la seguridad; “Ambas no son mutuamente excluyentes”, escribió Wiener en una declaración pública el 15 de agosto. “Si bien las enmiendas no reflejan el 100% de los cambios solicitados por Anthropic, un líder mundial tanto en innovación como en seguridad, aceptamos una serie de enmiendas propuestas muy razonables, y creo que hemos abordado las preocupaciones centrales expresadas por Anthropic y muchos otros en la industria”. Señaló que el Congreso está “estancado” en la regulación de la IA, por lo que “California debe actuar para adelantarse a los riesgos previsibles que presenta el rápido avance de la IA y, al mismo tiempo, fomentar la innovación”. A continuación, el proyecto de ley deberá aprobarse en la Asamblea y el Senado. Si se aprueba, el proyecto de ley será considerado por el gobernador Gavin Newsom, probablemente a fines de agosto. “Las organizaciones empresariales ya tienen que lidiar con los riesgos generativos de la IA mientras navegan por la promulgación y aplicación de las leyes de IA existentes y emergentes”, dijo Valente. “Mientras tanto, el creciente panorama de litigios de IA está obligando a las organizaciones a priorizar la gobernanza de la IA en sus organizaciones para asegurarse de abordar las posibles responsabilidades legales. “SB 1047 crearía barreras de protección y estándares para los productos de IA que promoverían la confianza en los productos habilitados para genAI y podrían acelerar su adopción”.