Inteligencia artificial y aprendizaje automático, Gobierno, Industria específica Nueva versión tiene como objetivo garantizar la seguridad de la IA y mantener contentos a sus desarrolladoresRashmi Ramesh (rashmiramesh_) • 20 de agosto de 2024 El edificio del Capitolio del estado de California en una foto de archivo sin fecha (Imagen: Shutterstock) Los legisladores del estado de California diluyeron un proyecto de ley destinado a prevenir desastres de inteligencia artificial después de escuchar críticas de la industria y representantes federales. La firma de inteligencia artificial Anthropic, junto con legisladores demócratas federales del Área de la Bahía, como los representantes Zoe Lofgren y Nancy Pelosi, se opusieron a la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera del senador estatal Scott Wiener durante las últimas semanas, argumentando que la promulgación del proyecto de ley podría hacer que California sea hostil a la innovación y obligar a las empresas a constituirse en otras partes del país. Ver también: Fortalecer la ciberseguridad con principios de confianza cero Una versión enmendada aprobada el jueves por el Comité de Asignaciones de la Asamblea de California ya no contiene lenguaje que permita al fiscal general del estado demandar a las empresas de inteligencia artificial por prácticas de seguridad negligentes antes de un evento catastrófico. El lenguaje del compromiso dice que el principal funcionario encargado de hacer cumplir la ley puede pedir el cese de las operaciones peligrosas. El fiscal general del estado podría demandar después de un evento catastrófico. «Aceptamos una serie de enmiendas muy razonables propuestas… hemos abordado las preocupaciones principales», dijo Wiener sobre la revisión del proyecto de ley del jueves. «Si bien las enmiendas no reflejan el 100 por ciento de los cambios solicitados por Anthropic, un líder mundial tanto en innovación como en seguridad, aceptamos una serie de enmiendas muy razonables propuestas, y creo que hemos abordado las preocupaciones principales expresadas por Anthropic y muchos otros en la industria», dijo. La nueva versión elimina un requisito de que las empresas de IA presenten resultados de pruebas de seguridad bajo pena de perjurio. Los desarrolladores de modelos solo necesitarían tomar «un cuidado razonable» para garantizar que sus productos no presenten riesgos catastróficos, en lugar de la «garantía razonable» que exigía la versión anterior. En los casos de desarrolladores que ajusten los modelos de código abierto, la responsabilidad se convertiría en un problema solo si el desarrollador gastara al menos $ 10 millones en ajustar el modelo subyacente. California alberga a 35 de las 50 principales empresas de inteligencia artificial del mundo, según la orden ejecutiva del gobernador Gavin Newsom que exige una investigación más profunda sobre los casos de uso y los riesgos del desarrollo de la inteligencia artificial (ver: Orden ejecutiva de California espera garantizar una «IA confiable»). Lofgren, cuyo distrito incluye partes de San José, le dijo a Weiner a principios de este mes que estaba «muy preocupada» porque la legislación no parecía tener «ningún beneficio claro para el público». «Existe un riesgo real de que las empresas decidan constituirse en otras jurisdicciones o simplemente no lanzar modelos en California», dijo. Pelosi, la expresidenta de la Cámara de Representantes cuyo distrito abarca la mayor parte de San Francisco, describió anteriormente el proyecto de ley como «más dañino que útil» y dijo que «la opinión de muchos de nosotros en el Congreso es que la SB 1047 tiene buenas intenciones pero está mal informada». California “debe tener una legislación” que permita que “los pequeños empresarios y el mundo académico, no las grandes tecnológicas, dominen”, dijo. Wiener dijo que estaba “firmemente” en desacuerdo con la declaración de Pelosi, y agregó que el proyecto de ley requiere que “solo los desarrolladores de IA más grandes hagan lo que cada uno de ellos se ha comprometido repetidamente a hacer: realizar pruebas de seguridad básicas en modelos de IA masivamente poderosos”. Coescrito por los senadores demócratas Richard Roth, Susan Rubio y Henry Stern, la legislación recibió el apoyo de los pioneros de la IA Geoffrey Hinton, profesor emérito de informática en la Universidad de Toronto, y Yoshua Bengio, profesor de informática en la Universidad de Montreal y exjefe de IA de Google. “Hace cuarenta años, cuando estaba entrenando la primera versión de los algoritmos de IA detrás de herramientas como ChatGPT, nadie, incluido yo mismo, habría predicho hasta dónde progresaría la IA. Los sistemas de IA poderosos traen una promesa increíble, pero los riesgos también son muy reales y deben tomarse extremadamente en serio”, dijo Hinton, y agregó que la legislación “adopta un enfoque muy sensato para equilibrar esas preocupaciones”. El proyecto de ley aún enfrenta oposición después de ser enmendado en el comité. Martin Casado, socio general de la firma de capital de riesgo Andreessen Horowitz, calificó las enmiendas como una “maquillaje” que no aborda los “problemas o críticas reales” del proyecto de ley. Por otra parte, ocho miembros demócratas de la Cámara de Representantes de Estados Unidos que representan a California escribieron a Newsom instándolo a vetar el proyecto de ley. La legislación “no sería buena para nuestro estado, para la comunidad de empresas emergentes, para el desarrollo científico o incluso para la protección contra posibles daños asociados con el desarrollo de la IA”, dice la carta. La legislación ahora debe aprobar la votación final de la Asamblea de California. Si lo hace, se remitirá al Senado. URL original de la publicación: https://www.databreachtoday.com/california-ai-catastrophe-bill-clears-committee-a-26085