Inteligencia artificial y aprendizaje automático, Gobierno, Legislación específica de la industria divide al mundo tecnológico, a los expertos en inteligencia artificial y a los legisladores Rashmi Ramesh (rashmiramesh_) • 29 de agosto de 2024 El edificio del Capitolio del estado de California en una foto de archivo sin fecha (Imagen: Shutterstock) Los legisladores del estado de California entregaron el miércoles un proyecto de ley que establece estándares de seguridad pioneros en la nación para modelos avanzados de inteligencia artificial a sus homólogos del Senado después de resistir la oposición de la industria tecnológica y políticos demócratas de alto perfil. Ver también: Fortalecer la ciberseguridad con principios de confianza cero Después de aprobarse en la Asamblea del Estado de California con una votación bipartidista de 49 a 15, el proyecto de ley de la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera irá al Senado estatal para una votación de procedimiento con las nuevas enmiendas, donde la expectativa general es que llegará rápidamente al escritorio del gobernador demócrata Gavin Newsom, quien no ha mostrado ninguna indicación de su posición sobre el proyecto de ley. El proyecto de ley, presentado por el senador estatal demócrata Scott Wiener, tiene como objetivo implementar estrictas medidas de seguridad para los desarrolladores de modelos de IA a gran escala para evitar catástrofes. El proyecto de ley exige que las empresas de IA prueben la seguridad de sus productos antes de lanzarlos al público y permite al fiscal general del estado demandar a los desarrolladores por los daños graves que pueda causar la tecnología. La última versión ya no incluye un lenguaje que cree una nueva agencia gubernamental para guiar la seguridad de la IA. En los casos en que los desarrolladores ajusten los modelos de código abierto, la responsabilidad se convertiría en un problema solo si el desarrollador gastó al menos $ 10 millones en ajustar el modelo subyacente. El proyecto de ley busca establecer un clúster de computación en la nube pública denominado CalCompute para permitir que las empresas emergentes y los investigadores contribuyan al desarrollo responsable de la IA. El proyecto de ley también tiene como objetivo crear protecciones para los denunciantes de irregularidades para los empleados de los laboratorios de IA de vanguardia. «Hace mucho que deberíamos haber responsabilizado a las grandes tecnológicas por su influencia descomunal y su poder sin control», dijo Teri Olle, directora de Economic Security California Action. La legislación cubriría solo los sistemas de IA «más poderosos» cuyo entrenamiento cuesta más de $ 100 millones. A pesar de la versión diluida del proyecto de ley que aprobó el Comité de Asignaciones de la Asamblea de California a principios de este mes, sigue recibiendo críticas de empresas como Google, Meta y OpenAI por su potencial para obstaculizar la innovación. Las empresas se han comprometido voluntariamente a desarrollar una IA segura, y el nuevo proyecto de ley parece penalizar el incumplimiento de directrices similares. El pionero del aprendizaje automático, Andrew Ng, dijo que la legislación comete el «error fundamental de regular la tecnología de IA en lugar de las aplicaciones de IA». Los legisladores demócratas federales del Área de la Bahía, como los representantes Zoe Lofgren y Nancy Pelosi, también se opusieron al proyecto de ley, argumentando que su promulgación haría que California fuera hostil a la innovación y obligaría a las empresas a constituirse en otras partes del país. Según se informa, la alcaldesa de San Francisco, London Breed, también se opone a la aprobación del proyecto de ley. Pelosi, expresidenta de la Cámara de Representantes cuyo distrito abarca la mayor parte de San Francisco, describió anteriormente el proyecto de ley como «más dañino que útil» y dijo que «la opinión de muchos de nosotros en el Congreso es que la SB 1047 tiene buenas intenciones pero está mal informada». California “debe tener una legislación” que permita que “los pequeños empresarios y el mundo académico, no las grandes tecnológicas, dominen”, dijo. Anthropic, cuyas sugerencias de cambios al proyecto de ley se incorporan en su mayoría a la versión enmendada, es un partidario cauteloso, mientras que el jefe de Tesla y X, Elon Musk, dijo que era una “decisión difícil”, pero que apoyaba la regulación de la IA y el proyecto de ley, “considerando todos los aspectos”. Coescrito por los senadores demócratas Richard Roth, Susan Rubio y Henry Stern, la legislación también recibió el apoyo de los pioneros de la IA Geoffrey Hinton, profesor emérito de informática en la Universidad de Toronto, y Yoshua Bengio, profesor de informática en la Universidad de Montreal y exjefe de IA de Google. Todavía no ha habido una legislación centrada en la IA en Estados Unidos, a pesar de varios proyectos de ley propuestos y los intentos de la administración Biden de garantizar el desarrollo y la adopción seguros de la tecnología, intentos que, según se informa, el candidato presidencial republicano Donald Trump se ha comprometido a revocar si regresa al poder. URL de la publicación original: https://www.databreachtoday.com/california-ai-safety-bill-passes-key-marker-a-26171
Deja una respuesta