Un controvertido proyecto de ley que exigiría a los desarrolladores de modelos avanzados de IA que adopten medidas de seguridad está un paso más cerca de convertirse en ley. El proyecto de ley, SB 1047, exigiría a los desarrolladores de futuros modelos avanzados de IA que creen barandillas para evitar que la tecnología se utilice indebidamente para realizar ciberataques a infraestructuras críticas como las centrales eléctricas. Los desarrolladores tendrían que presentar sus planes de seguridad al fiscal general, que podría responsabilizarlos si los modelos de IA que controlan directamente causaran daños o una amenaza inminente a la seguridad pública. El proyecto de ley, presentado por el senador Scott Wiener (demócrata de San Francisco), fue aprobado por la Asamblea estatal el miércoles, con 41 votos a favor y nueve en contra. El jueves, la medida fue aprobada por el Senado estatal en una votación de concurrencia. Ahora se dirige a la oficina del gobernador Gavin Newsom, aunque no está claro si Newsom firmará o vetará el proyecto de ley. «La innovación y la seguridad pueden ir de la mano, y California está liderando el camino», dijo Wiener en un comunicado. Un portavoz de Newsom dijo que el gobernador evaluará el proyecto de ley cuando llegue a su escritorio. El proyecto de ley de Wiener fue debatido intensamente en la comunidad tecnológica del Área de la Bahía. Recibió el apoyo del Centro para la Seguridad de la IA, el director ejecutivo de Tesla, Elon Musk, el consejo editorial del LA Times y la startup de IA con sede en San Francisco Anthropic. Pero los líderes demócratas del Congreso, así como los actores destacados de la IA, incluidos Meta y OpenAI, se opusieron a él, quienes expresaron su preocupación sobre si la legislación sofocaría la innovación en California. Los líderes demócratas del Congreso, incluida la expresidenta de la Cámara de Representantes Nancy Pelosi, el representante Ro Khanna (demócrata por Fremont) y la representante Zoe Lofgren (demócrata por San José), también se han opuesto al proyecto de ley e instaron a Newsom a vetarlo. Argumentan que la legislación podría dañar la creciente industria de la IA de California, hogar del fabricante de ChatGPT OpenAI, y citan los esfuerzos que está haciendo el Congreso relacionados con la IA. «Existe un riesgo real de que las empresas decidan constituirse en otras jurisdicciones o simplemente no lanzar modelos en California», escribieron Khanna, Lofgren y otros seis representantes demócratas del Congreso en una carta a Newsom. “Si bien queremos que California sea líder en inteligencia artificial de una manera que proteja a los consumidores, los datos, la propiedad intelectual y más, la SB 1047 es más dañina que útil en esa búsqueda”, dijo Pelosi en un comunicado. Wiener y otros legisladores que apoyan el proyecto de ley no están de acuerdo, y sostienen que fomentaría la innovación al mismo tiempo que protegería al público. “Hay que poner barandillas”, dijo el asambleísta Devon Mathis (republicano de Visalia) antes de la votación de la Asamblea el miércoles por la tarde. “Tenemos que asegurarnos de que van a ser actores responsables”. Los defensores de la SB 1047 dicen que requiere que los desarrolladores sean responsables de la seguridad de los modelos avanzados de inteligencia artificial bajo su control, lo que podría ayudar a prevenir eventos catastróficos de inteligencia artificial en el futuro. “Me preocupa que las empresas de tecnología no resuelvan los riesgos significativos asociados con la inteligencia artificial por sí solas porque están atrapadas en su carrera por la participación de mercado y la maximización de las ganancias”, dijo Yoshua Bengio, profesor de la Universidad de Montreal y fundador y director científico de Mila, el Instituto de Inteligencia Artificial de Quebec, en una conferencia de prensa esta semana. «Simplemente no podemos dejar que califiquen sus propios deberes y esperen que todo salga bien». Los partidarios también dicen que la IA debería ser regulada de manera similar a otras industrias que plantean riesgos potenciales de seguridad. «Esta es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047», escribió Musk en X el lunes. «Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público». A principios de este mes, el proyecto de ley fue aprobado por un comité clave del Senado estatal después de que Wiener hiciera cambios significativos, incluida la eliminación de una pena por perjurio y el cambio del estándar legal para los desarrolladores con respecto a la seguridad de sus modelos avanzados de IA. El director ejecutivo de la startup de IA Anthropic con sede en San Francisco, Dario Amodei, dijo que creía que los «beneficios del proyecto de ley probablemente superen sus costos» en una carta del 21 de agosto a Newsom. La carta no respaldaba el proyecto de ley, pero compartía el punto de vista de la empresa sobre los pros y los contras. «Queremos ser claros… en que la SB 1047 aborda preocupaciones reales y serias con el riesgo catastrófico en los sistemas de IA», escribió Amodei. «Los sistemas de IA están avanzando en capacidades extremadamente rápido, lo que ofrece una gran promesa para la economía de California y un riesgo sustancial». Pero algunas empresas de tecnología, incluida OpenAI, dijeron que se oponían al proyecto de ley incluso después de los cambios. «Las amplias y significativas implicaciones de la IA para la competitividad y la seguridad nacional de EE. UU. requieren que la regulación de los modelos de frontera se moldee e implemente a nivel federal», escribió el director de estrategia de OpenAI, Jason Kwon, en una carta del 21 de agosto a Wiener. «Un conjunto de políticas de IA impulsadas por el gobierno federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a EE. UU. para liderar el desarrollo de estándares globales». Wiener dijo que daría la bienvenida a una ley federal sólida de seguridad de la IA que prevalezca sobre su proyecto de ley. «Si la experiencia pasada es una indicación, promulgar una ley de seguridad de IA de este tipo es una indicación de que la implementación de una ley federal de seguridad de IA … [federal] “La ley SB 1047 será una batalla cuesta arriba”, dijo Wiener en un comunicado. “Mientras tanto, California debería seguir liderando políticas como la SB 1047 que fomentan la innovación y al mismo tiempo protegen al público”. La SB 1047 se encuentra entre los aproximadamente 50 proyectos de ley relacionados con la IA en la Legislatura que abordan varios aspectos del impacto de la tecnología en el público, incluidos los empleos, las falsificaciones profundas y la seguridad.