8 de agosto de 2024 3 AM PT California es un líder mundial en inteligencia artificial, lo que significa que se espera que ayudemos a descubrir cómo regularla. El estado está considerando múltiples proyectos de ley con esos fines, ninguno atrayendo más atención que el Proyecto de Ley Senatorial 1047. La medida, presentada por el senador Scott Wiener (D-San Francisco), requeriría que las empresas que produzcan los modelos de IA más grandes prueben y modifiquen esos modelos para evitar facilitar daños graves. ¿Es este un paso necesario para mantener la IA responsable, o una extralimitación? Simon Last, cofundador de una empresa impulsada por IA, y Paul Lekas, director de políticas públicas de la Asociación de la Industria del Software y la Información, dieron sus perspectivas. Este proyecto de ley ayudará a mantener la tecnología segura sin dañar la innovación Por Simon Last Como cofundador de una empresa impulsada por IA, he sido testigo del asombroso avance de la inteligencia artificial. Todos los días, diseño productos que utilizan IA, y está claro que estos sistemas se volverán más poderosos en los próximos años. Veremos un gran progreso en la creatividad y la productividad, junto con avances en la ciencia y la medicina. Sin embargo, a medida que los sistemas de IA se vuelven más sofisticados, debemos tener en cuenta sus riesgos. Sin precauciones razonables, la IA podría causar daños graves a una escala sin precedentes: ciberataques a infraestructura crítica, el desarrollo de armas químicas, nucleares o biológicas, delitos automatizados y más. La SB 1047 de California logra un equilibrio entre la protección de la seguridad pública de tales daños y el apoyo a la innovación, centrándose en los requisitos de seguridad de sentido común para las pocas empresas que desarrollan los sistemas de IA más potentes. Incluye protecciones para los denunciantes que informen sobre problemas de seguridad en las empresas de IA y, lo que es más importante, el proyecto de ley está diseñado para apoyar el increíble ecosistema de empresas emergentes de California. La SB 1047 solo afectaría a las empresas que construyen la próxima generación de sistemas de IA que cuestan más de 100 millones de dólares para capacitar. Basado en las mejores prácticas de la industria, el proyecto de ley exige pruebas de seguridad y la mitigación de los riesgos previstos antes del lanzamiento de estos sistemas, así como la capacidad de apagarlos en caso de emergencia. En los casos en que la IA cause muchas víctimas o al menos 500 millones de dólares en daños, el fiscal general del estado puede demandar para responsabilizar a las empresas. Estas normas de seguridad se aplicarían a los «modelos básicos» de IA sobre los que las empresas emergentes construyen productos especializados. A través de este enfoque, podemos mitigar de manera más eficaz los riesgos en toda la industria sin sobrecargar a los desarrolladores a pequeña escala. Como fundador de una empresa emergente, confío en que el proyecto de ley no impedirá nuestra capacidad de construir y crecer. Algunos críticos sostienen que la regulación debería centrarse únicamente en los usos nocivos de la IA en lugar de la tecnología subyacente. Pero esta visión es errónea porque ya es ilegal, por ejemplo, realizar ciberataques o utilizar armas biológicas. La SB 1047 proporciona lo que falta: una forma de prevenir el daño antes de que ocurra. Las pruebas de seguridad de los productos son estándar para muchas industrias, incluidos los fabricantes de automóviles, aviones y medicamentos recetados. Los constructores de los sistemas de IA más grandes deberían estar sujetos a un estándar similar. Otros afirman que la legislación expulsaría a las empresas del estado. Eso es absurdo. La oferta de talento y capital en California es casi nula, y la SB 1047 no cambiará esos factores que atraen a las empresas a operar aquí. Además, el proyecto de ley se aplica a los desarrolladores de modelos de fundación que hacen negocios en California, independientemente de dónde tengan su sede. Los líderes tecnológicos, incluidos Mark Zuckerberg de Meta y Sam Altman de OpenAI, han ido al Congreso para discutir la regulación de la IA, advertir sobre los efectos potencialmente catastróficos de la tecnología e incluso solicitar la regulación. Pero las expectativas de acción del Congreso son bajas. Con 32 de las 50 principales empresas de IA de Forbes con sede en California, nuestro estado tiene gran parte de la responsabilidad de ayudar a que la industria prospere. La SB 1047 proporciona un marco para que las empresas más jóvenes prosperen junto con actores más grandes, al tiempo que priorizan la seguridad pública. Si ahora se toman decisiones políticas inteligentes, los legisladores estatales y el gobernador Gavin Newsom podrían consolidar la posición de California como líder mundial en el progreso responsable de la IA. Simon Last es cofundador de Notion, con sede en San Francisco. Estos estándares casi imposibles harían que California perdiera su ventaja en materia de IA Por Paul Lekas ​​California es la cuna de la innovación estadounidense. A lo largo de los años, muchas empresas de información y tecnología, incluidas las que representa mi asociación, han cumplido con los californianos creando nuevos productos para los consumidores, mejorando los servicios públicos e impulsando la economía. Desafortunadamente, la legislación que se está abriendo camino a través de la Legislatura de California amenaza con socavar a los innovadores más brillantes y apuntar a los modelos de IA de vanguardia o altamente avanzados. El proyecto de ley va mucho más allá del enfoque declarado de abordar las preocupaciones reales sobre la seguridad de estos modelos y, al mismo tiempo, garantizar que California obtenga los beneficios de esta tecnología. En lugar de apuntar a daños previsibles, como el uso de la IA para la vigilancia predictiva basada en datos históricos sesgados, o responsabilizar a quienes utilizan la IA con fines nefastos, la SB 1047 en última instancia prohibiría a los desarrolladores publicar modelos de IA que puedan adaptarse para abordar las necesidades de los consumidores y las empresas de California. La SB 1047 haría esto al obligar a quienes están a la vanguardia de las nuevas tecnologías de IA a anticipar y mitigar todas las formas posibles en que sus modelos podrían ser mal utilizados y a prevenir ese mal uso. Esto simplemente no es posible, en particular porque no existen estándares técnicos universalmente aceptados para medir y mitigar el riesgo del modelo de frontera. Si la SB 1047 se convirtiera en ley, los consumidores de California perderían el acceso a las herramientas de IA que consideran útiles. Eso es como detener la producción de un medicamento recetado porque alguien lo tomó ilegalmente o tuvo una sobredosis. También perderían el acceso a las herramientas de IA diseñadas para proteger a los californianos de la actividad maliciosa habilitada por otra IA. Para ser claros, las preocupaciones con la SB 1047 no reflejan una creencia de que la IA debería proliferar sin una supervisión significativa. Existe un consenso bipartidista en cuanto a que necesitamos barreras de protección en torno a la IA para reducir el riesgo de un uso indebido y abordar los daños previsibles a la salud y la seguridad públicas, los derechos civiles y otras áreas. Los estados han liderado el camino al promulgar leyes para desincentivar el uso de la IA con fines maliciosos. Indiana, Minnesota, Texas, Washington y California, por ejemplo, han promulgado leyes para prohibir la creación de deepfakes que muestren imágenes íntimas de personas identificables y para restringir el uso de la IA en la publicidad electoral. El Congreso también está considerando barreras de protección para proteger las elecciones, la privacidad, la seguridad nacional y otras preocupaciones, manteniendo al mismo tiempo la ventaja tecnológica de Estados Unidos. De hecho, la supervisión se manejaría mejor de manera coordinada a nivel federal, como se está haciendo a través del Instituto de Seguridad de la IA lanzado en el Instituto Nacional de Estándares y Tecnología, sin el espectro de la responsabilidad civil y penal. Este enfoque reconoce que la seguridad del modelo de frontera requiere recursos masivos que ningún estado, ni siquiera California, puede reunir. Por lo tanto, aunque es esencial que los líderes electos tomen medidas para proteger a los consumidores, la SB 1047 va demasiado lejos. Obligaría a las empresas emergentes y establecidas a sopesar estándares de cumplimiento casi imposibles frente al valor de hacer negocios en otros lugares. California podría perder su ventaja en innovación en IA. Y los desarrolladores de IA fuera de los EE. UU. que no estén sujetos a los mismos principios de transparencia y rendición de cuentas verían fortalecida su posición, poniendo inevitablemente en riesgo la privacidad y la seguridad de los consumidores estadounidenses. Paul Lekas ​​es el director de política pública global y asuntos gubernamentales de la Asociación de la Industria de Software e Información en Washington.