Un controvertido proyecto de ley que pretende proteger a los californianos de las catástrofes provocadas por la inteligencia artificial ha causado revuelo en la industria tecnológica. Esta semana, la legislación fue aprobada por un comité clave, pero con enmiendas para hacerla más aceptable para Silicon Valley. El SB 1047, del senador estatal Scott Wiener (demócrata por San Francisco), se presentará en la Asamblea estatal a finales de este mes. Si se aprueba en la Legislatura, el gobernador Gavin Newsom tendrá que decidir si firma o veta la innovadora legislación. Los partidarios del proyecto de ley dicen que creará barandillas para evitar que los modelos de IA que avanzan rápidamente provoquen incidentes desastrosos, como apagar la red eléctrica sin previo aviso. Les preocupa que la tecnología se esté desarrollando más rápido de lo que sus creadores humanos pueden controlar. Los legisladores pretenden incentivar a los desarrolladores para que gestionen la tecnología de forma responsable y facultar al fiscal general del estado para imponer sanciones en caso de amenaza o daño inminente. La legislación también exige que los desarrolladores puedan desactivar los modelos de IA que controlan directamente si las cosas salen mal. Pero algunas empresas de tecnología, como Meta Platforms, propietaria de Facebook, y políticos, incluido el influyente representante estadounidense Ro Khanna (demócrata de Fremont), dicen que el proyecto de ley sofocaría la innovación. Algunos críticos dicen que se centra en escenarios apocalípticos y lejanos, en lugar de las preocupaciones más inmediatas, como la privacidad y la desinformación, aunque hay otros proyectos de ley que abordan estos asuntos. SB 1047 es uno de los aproximadamente 50 proyectos de ley relacionados con la IA que se han presentado en la Legislatura estatal, a medida que aumentan las preocupaciones sobre los efectos de la tecnología en los empleos, la desinformación y la seguridad pública. Mientras los políticos trabajan para crear nuevas leyes que pongan barandillas a la industria de rápido crecimiento, algunas empresas y talentos están demandando a las empresas de IA con la esperanza de que los tribunales puedan establecer reglas básicas. Wiener, que representa a San Francisco, el hogar de las nuevas empresas de IA OpenAI y Anthropic, ha estado en el medio del debate. El jueves, introdujo cambios significativos en su proyecto de ley que, según algunos, debilitan la legislación y aumentan las posibilidades de que la Asamblea la apruebe. Las enmiendas eliminaron una sanción por perjurio del proyecto de ley y cambiaron el estándar legal para los desarrolladores en lo que respecta a la seguridad de sus modelos avanzados de IA. Además, ya no se está trabajando en un plan para crear una nueva entidad gubernamental, que se habría llamado División de Modelos Fronterizos. Según el texto original, el proyecto de ley habría exigido a los desarrolladores que presentaran sus medidas de seguridad a la división recién creada. En la nueva versión, los desarrolladores presentarían esas medidas de seguridad al fiscal general. “Creo que algunos de esos cambios podrían hacer que sea más probable que se apruebe”, dijo Christian Grose, profesor de ciencias políticas y políticas públicas de la USC. Algunos actores tecnológicos apoyan el proyecto de ley, incluido el Centro para la Seguridad de la IA y Geoffrey Hinton, considerado un “padrino de la IA”. Sin embargo, a otros les preocupa que pueda dañar una industria floreciente de California. Ocho miembros de la Cámara de Representantes de California —Khanna, Zoe Lofgren (D-San José), Anna G. Eshoo (D-Menlo Park), Scott Peters (D-San Diego), Tony Cárdenas (D-Pacoima), Ami Bera (D-Elk Grove), Nanette Díaz Barragán (D-San Pedro) y Lou Correa (D-Santa Ana)— escribieron una carta a Newsom el jueves alentándolo a vetar el proyecto de ley si se aprueba en la Asamblea estatal.[Wiener] “Realmente hay una presión cruzada en San Francisco entre las personas que son expertas en esta área, que le han estado diciendo a él y a otros en California que la IA puede ser peligrosa si no la regulamos, y luego aquellos cuyos cheques de pago, su investigación de vanguardia, provienen de la IA”, dijo Grose. “Esto podría ser un verdadero punto de conflicto para él, tanto a favor como en contra, para su carrera”. Algunos gigantes tecnológicos dicen que están abiertos a la regulación, pero no están de acuerdo con el enfoque de Wiener. “Estamos alineados con la forma en que (Wiener) describe el proyecto de ley y los objetivos que tiene, pero seguimos preocupados por el impacto del proyecto de ley en la innovación de la IA, particularmente en California, y particularmente en la innovación de código abierto”, dijo Kevin McKinley, gerente de políticas estatales de Meta, en una reunión con miembros del consejo editorial del LA Times la semana pasada. Meta es una de las empresas con modelos de IA de código abierto llamados Llama, que permite a los desarrolladores construir sobre él para sus propios productos. Meta lanzó Llama 3 en abril y ya ha habido 20 millones de descargas, dijo el gigante tecnológico. Meta se negó a discutir las nuevas enmiendas. La semana pasada, McKinley dijo que la SB 1047 es «en realidad un proyecto de ley muy difícil de corregir». Un portavoz de Newsom dijo que su oficina no suele hacer comentarios sobre la legislación pendiente. «El gobernador evaluará este proyecto de ley en función de sus méritos si llega a su escritorio», escribió el portavoz Izzy Gardon en un correo electrónico. La startup de inteligencia artificial de San Francisco Anthropic, conocida por su asistente de inteligencia artificial Claude, señaló que podría apoyar el proyecto de ley si se enmendara. En una carta del 23 de julio a la asambleísta Buffy Wicks (demócrata de Oakland), el líder de políticas estatales y locales de Anthropic, Hank Dempsey, propuso cambios que incluyen cambiar el proyecto de ley para centrarse en responsabilizar a las empresas de causar catástrofes en lugar de aplicar medidas de control antes de que se produzcan daños. Wiener dijo que las enmiendas tomaron en cuenta las preocupaciones de Anthropic. «Podemos promover tanto la innovación como la seguridad», dijo Wiener en un comunicado. «Las dos no son mutuamente excluyentes». No está claro si las enmiendas cambiarán la posición de Anthropic sobre el proyecto de ley. El jueves, Anthropic dijo en un comunicado que revisaría el nuevo «lenguaje del proyecto de ley a medida que esté disponible». Russell Wald, subdirector del Instituto Stanford para la IA centrada en el ser humano, que tiene como objetivo promover la investigación y la política de IA, dijo que todavía se opone al proyecto de ley. «Las enmiendas recientes parecen tener más que ver con la apariencia que con la sustancia», dijo Wald en un comunicado. «Parece menos controvertido apaciguar a un par de empresas líderes de IA, pero hace poco para abordar las preocupaciones reales de las instituciones académicas y las comunidades de código abierto». Es un delicado equilibrio para los legisladores que están tratando de sopesar las preocupaciones sobre la IA y al mismo tiempo apoyar al sector tecnológico del estado. «Lo que muchos de nosotros estamos tratando de hacer es idear un entorno regulatorio que permita que existan algunas de esas barreras sin sofocar la innovación y el crecimiento económico que viene con la IA», dijo Wicks después de la reunión del comité del jueves. La redactora del Times Anabel Sosa contribuyó a este informe.