El controvertido proyecto de ley de seguridad de la IA de California ha superado un importante obstáculo, lo que acerca a la industria un paso más a cumplir con las pruebas de seguridad para los modelos de IA más avanzados. La SB 1047 se aprobó tras una votación de 41 a 9 en la legislatura de California, aunque todavía requiere la aprobación (o un veto formal) del gobernador Gavin Newsom antes de finales de septiembre. Newsom aún no ha indicado una posición sobre el proyecto de ley. Si se convierte en ley, el proyecto de ley exigiría pruebas de seguridad en sistemas de IA cuyo desarrollo cueste más de 100 millones de dólares o que alcancen un alto umbral de potencia informática; eso incluiría la presentación a auditorías de terceros, la garantía de seguridad para los denunciantes y la amenaza de una acción gubernamental por incumplimiento. Los desarrolladores también están obligados a incluir un interruptor de apagado en sus sistemas. «La innovación y la seguridad pueden ir de la mano, y California está liderando el camino», dijo el senador Scott Wiener, que presentó el proyecto de ley, en una declaración. “Con esta votación, la Asamblea ha dado el paso verdaderamente histórico de trabajar de manera proactiva para garantizar que una nueva y emocionante tecnología proteja el interés público a medida que avanza”. Si bien la SB 1047 ha encontrado algunos partidarios en la industria, en particular Elon Musk, algunos líderes de la industria que participan en el desarrollo de IA se han opuesto a ella. Los principales académicos también han expresado sus preocupaciones, y el Dr. Fei-Fei Li de Stanford la calificó de «bien intencionada», pero una amenaza para la investigación académica en IA y las empresas más pequeñas. «Tiene la oposición más amplia y bipartidista que he visto nunca», dijo Martin Casado, socio general de la firma de capital de riesgo Andreessen Horowitz, según Reuters. Reciba nuestras últimas noticias, actualizaciones de la industria, recursos destacados y más. Regístrese hoy para recibir nuestro informe GRATUITO sobre ciberdelito y seguridad de la IA, recientemente actualizado para 2024. El proyecto de ley ya ha sido modificado tras la presión de la industria, aunque Wiener negó las críticas de que se diluyó. Oposición poco sorprendente No es de extrañar que la regulación de la IA sea difícil de vender. «A primera vista, cualquier legislación sobre IA implica cierto grado de fricción entre la seguridad y la innovación», señala Aaron Simpson, socio de Hunton Andrews Kurth LLP. Pero Simpson sostiene que quizás la SB 1047 vaya demasiado lejos. «Sin duda, hay un argumento razonable de que este proyecto de ley impone demasiada responsabilidad a los desarrolladores de IA para controlar la innovación, lo que podría tener un efecto paralizador sobre el avance de la IA», comenta a ITPro. «La mayoría está de acuerdo en que la rendición de cuentas por la IA es un objetivo político deseable, pero no se puede lograr asignando responsabilidad únicamente a los desarrolladores». De hecho, señala que otras leyes sobre IA no han adoptado ese enfoque. «Esas leyes imponen requisitos tanto a los desarrolladores como a los implementadores de sistemas de IA, lo que, en mi opinión, será el camino más eficaz hacia la rendición de cuentas», afirma Simpson. «La clave será exigir cuentas a todos los actores del ecosistema de IA, lo que incluye no solo a los desarrolladores de IA, sino también a los implementadores». Las diferentes leyes en los distintos países e incluso estados podrían resultar problemáticas, señala Malcolm Ross, vicepresidente sénior de estrategia de productos de Appian, y es por eso que la regulación debe hacerse a nivel federal. «El gobierno de Estados Unidos debe liderar desde arriba y crear regulaciones integrales de IA que todos los estados puedan seguir», dice Ross. «Un marco federal podría adelantarse a las leyes estatales conflictivas, proporcionando un entorno claro y coherente para las empresas». Encontrar un equilibrio Regular una industria así es, por supuesto, complicado, señala Ivana Bartoletti, directora global de privacidad y gobernanza de IA en Wipro y cofundadora de Women Leading in AI. «Este debate subraya la dificultad de encontrar el equilibrio adecuado entre garantizar una supervisión exhaustiva y fomentar la innovación», dice. Este proyecto de ley tiene aspectos positivos, pero no es perfecto, dice. «En mi opinión, aunque la intención del proyecto de ley de protegerse contra los peligros potenciales de los modelos fundacionales es encomiable, parece enfatizar las perspectivas más apocalípticas sobre la IA», dice. Y agrega: «El proyecto de ley tiene características encomiables, como su enfoque en la salud y la seguridad, la capacidad de apagado obligatorio y el requisito de auditorías externas. Sin embargo, parece favorecer a las grandes corporaciones, posiblemente en detrimento de la IA de código abierto. Esta preocupación, especialmente entre las empresas emergentes, ha provocado un diálogo significativo, aunque definir el código abierto sigue siendo complejo. Tal vez sea más pertinente discutir la IA de acceso abierto en su lugar». Bartoletti dice que vale la pena señalar que este es solo un proyecto de ley de muchos que abordan la IA en California, junto con otros que abordan la privacidad, la transparencia de los datos, los derechos de autor y los prejuicios. «Esta estrategia holística destaca la dedicación de California para abordar los diversos desafíos que presenta la tecnología de IA». Más allá de la hora de actuar Dicho esto, seguramente no es demasiado pedir que quienes crean estas tecnologías se aseguren de que son seguras, dice Jamie Akhtar, cofundador y director ejecutivo de CyberSmart. «Aunque este proyecto de ley ha resultado polémico con algunas partes de la industria de la inteligencia artificial, no hace mucho más que pedir a los proveedores que hagan lo que ya deberían estar haciendo: probar exhaustivamente la tecnología antes de su lanzamiento y proporcionar funciones de seguridad como interruptores de seguridad», dice a ITPro. De hecho, Caroline Carruthers, directora ejecutiva de Carruthers and Jackson, dice que el proyecto de ley es un paso necesario para regular una industria que ha estado en extrema necesidad de barandillas desde el lanzamiento de ChatGPT. «El hecho de que estemos viendo un esfuerzo global para establecer una legislación e infraestructura que permita a las empresas aprovechar al máximo las capacidades de la IA, al tiempo que garantiza la seguridad, la protección y la gobernanza es un paso positivo en la dirección correcta», dice.