SAN FRANCISCO – Un legislador de California presentó el jueves un proyecto de ley destinado a obligar a las empresas a probar los modelos de inteligencia artificial más potentes antes de lanzarlos, una propuesta histórica que podría inspirar regulaciones en todo el país a medida que las legislaturas estatales adoptan cada vez más esta tecnología en rápida evolución. El proyecto de ley, patrocinado por el senador Scott Wiener, un demócrata que representa a San Francisco, requeriría que las empresas que entrenan nuevos modelos de IA prueben sus herramientas para detectar comportamientos «inseguros», instituyan protecciones contra la piratería y desarrollen la tecnología de tal manera que pueda cerrarse por completo. , según una copia del proyecto de ley. Las empresas de inteligencia artificial deben revelar al Departamento de Tecnología de California los protocolos de prueba y las barreras que implementaron. Si la tecnología causa un «daño crítico», el fiscal general del estado puede demandar a la empresa. El proyecto de ley de Wiener se produce en medio de una explosión de proyectos de ley estatales que abordan la inteligencia artificial, mientras los formuladores de políticas de todo el país se vuelven cautelosos de que años de inacción en el Congreso hayan creado un vacío regulatorio que beneficia a la industria tecnológica. Pero California, hogar de muchas de las empresas tecnológicas más grandes del mundo, desempeña un papel singular al sentar un precedente para las barreras de seguridad de la industria tecnológica. «No se puede trabajar en el desarrollo de software e ignorar lo que California dice o hace», dijo Lawrence Norden, director senior del Programa de Gobierno y Elecciones del Centro Brennan. Los legisladores federales han celebrado numerosas audiencias sobre la IA y han propuesto varios proyectos de ley, pero ninguno. han sido pasados. A los defensores de la regulación de la IA ahora les preocupa que se repita el mismo patrón de debate sin acción que se desarrolló con cuestiones tecnológicas anteriores como la privacidad y las redes sociales. «Seré el primero en aplaudirlo, pero no voy a contener la respiración», dijo Wiener en una entrevista. «Necesitamos adelantarnos a esto para mantener la confianza pública en la IA». El partido de Wiener tiene una supermayoría en la legislatura estatal, pero las empresas de tecnología han luchado duramente contra la regulación en el pasado en California y tienen fuertes aliados en Sacramento. Aún así, Wiener dice que cree que el proyecto de ley puede aprobarse en otoño. “Hemos podido aprobar algunas políticas relacionadas con la tecnología muy, muy estrictas”, afirmó. «Así que sí, podemos aprobar este proyecto de ley». California no es el único estado que impulsa una legislación sobre IA. Actualmente hay 407 proyectos de ley relacionados con la IA activos en 44 estados de EE. UU., según un análisis de BSA The Software Alliance, un grupo industrial que incluye a Microsoft e IBM. Se trata de un aumento espectacular desde el último análisis de BSA en septiembre de 2023, que encontró que los estados habían introducido 191 proyectos de ley sobre IA. Varios estados ya han promulgado proyectos de ley que abordan los riesgos graves de la IA, incluido su potencial para exacerbar la discriminación en la contratación o crear falsificaciones profundas que podrían alterar las elecciones. . Alrededor de una docena de estados han aprobado leyes que exigen que el gobierno estudie el impacto de la tecnología en el empleo, la privacidad y los derechos civiles. Pero como el estado más poblado de Estados Unidos, California tiene un poder único para establecer estándares que tienen impacto en todo el país. Durante décadas, las regulaciones de protección al consumidor de California han servido esencialmente como estándares nacionales e incluso internacionales para todo, desde productos químicos nocivos hasta automóviles. En 2018, por ejemplo, después de años de debate en el Congreso, el estado aprobó la Ley de Privacidad del Consumidor de California, que establece reglas sobre cómo Las empresas de tecnología podrían recopilar y utilizar la información personal de las personas. Estados Unidos todavía no tiene una ley federal de privacidad. El proyecto de ley de Wiener se basa en gran medida en una orden ejecutiva de octubre del presidente Biden que utiliza poderes de emergencia para exigir a las empresas que realicen pruebas de seguridad en potentes sistemas de inteligencia artificial y compartan esos resultados con el gobierno federal. La medida de California va más allá que la orden ejecutiva, al exigir explícitamente protecciones contra la piratería informática, proteger a los denunciantes relacionados con la IA y obligar a las empresas a realizar pruebas. El proyecto de ley probablemente recibirá críticas de una gran parte de Silicon Valley que argumenta que los reguladores están actuando de manera demasiado agresiva. y el riesgo consagra sistemas que dificultan que las empresas emergentes compitan con las grandes. Tanto la orden ejecutiva como la legislación de California señalan grandes modelos de IA, algo que algunas empresas emergentes y capitalistas de riesgo criticaron como miopes en cuanto a cómo podría desarrollarse la tecnología. El año pasado, se desató un debate en Silicon Valley sobre los riesgos de la IA. Destacados investigadores y líderes de IA de empresas como Google y OpenAI firmaron una carta en la que afirmaban que la tecnología estaba a la par de las armas nucleares y las pandemias en su potencial para causar daño a la civilización. El grupo que organizó esa declaración, el Centro para la Seguridad de la IA, participó en la redacción de la nueva legislación. También se consultó a trabajadores tecnológicos, directores ejecutivos, activistas y otros sobre la mejor manera de abordar la regulación de la IA, dijo Wiener. «Hemos realizado un enorme acercamiento a las partes interesadas durante el año pasado». Lo importante es que haya una conversación real sobre los riesgos y beneficios de la IA, dijo Josh Albrecht, cofundador de la empresa emergente de IA Imbue. “Es bueno que la gente esté pensando en esto”. Los expertos esperan que el ritmo de la legislación sobre IA se acelere a medida que las empresas lancen modelos cada vez más potentes este año. La proliferación de proyectos de ley a nivel estatal podría generar una mayor presión de la industria sobre el Congreso para que apruebe legislación sobre IA, porque cumplir con una ley federal puede ser más fácil que responder a un mosaico de diferentes leyes estatales. “Hay un enorme beneficio en tener claridad en todo el país sobre las leyes que rigen la inteligencia artificial, y una ley nacional sólida es la mejor manera de brindar esa claridad”, dijo Craig Albright, vicepresidente senior de relaciones gubernamentales de EE. UU. de BSA. «Entonces las empresas, los consumidores y todos los encargados de hacer cumplir la ley saben lo que se requiere y lo que se espera». Cualquier legislación de California podría tener un impacto clave en el desarrollo de la inteligencia artificial en general porque muchas de las empresas que desarrollan la tecnología tienen su sede en el estado. «El estado de California La legislatura y los defensores que trabajan en ese estado están mucho más en sintonía con la tecnología y su impacto potencial, y es muy probable que estén a la cabeza”, dijo Norden. Los estados tienen una larga historia de avanzar más rápido que el gobierno federal en política tecnológica. Desde que California aprobó su ley de privacidad de 2018, casi una docena de otros estados han promulgado sus propias leyes, según un análisis de la Asociación Internacional de Profesionales de la Privacidad. Los estados también han tratado de regular las redes sociales y la seguridad de los niños, pero la industria tecnológica ha desafiado a muchos de esas leyes ante los tribunales. A finales de este mes, está previsto que la Corte Suprema escuche argumentos orales en casos históricos sobre redes sociales sobre leyes de redes sociales en Texas y Florida. A nivel federal, las batallas partidistas han distraído a los legisladores de desarrollar legislación bipartidista. El líder de la mayoría del Senado, Charles E. Schumer (DN.Y.), ha creado un grupo bipartidista de senadores centrado en la política de IA que se espera que pronto revele un marco de IA. Pero los esfuerzos de la Cámara están mucho menos avanzados. En un evento Post Live el martes, el representante Marcus J. Molinaro (RN.Y.) dijo que el presidente de la Cámara de Representantes, Mike Johnson, pidió un grupo de trabajo sobre inteligencia artificial para ayudar a impulsar la legislación. “Con demasiada frecuencia estamos demasiado atrasados”, dijo Molinaro. . “Este último año realmente nos ha hecho quedar aún más atrás”.

Source link