El Estado de California propone una legislación para regular el uso de la IA, incluida la construcción de un grupo informático para comprobar su seguridad. Al presentar el proyecto de ley ayer, el senador Scott Wiener, demócrata de San Francisco, tenía como objetivo garantizar el desarrollo seguro de sistemas de inteligencia artificial a gran escala «estableciendo estándares de seguridad claros, predecibles y de sentido común para los desarrolladores de los sistemas de inteligencia artificial más grandes y poderosos». » dijo un comunicado. Wiener dijo que la legislatura de California tuvo la oportunidad de aplicar lecciones de la última década relacionadas con el «crecimiento desenfrenado» de nueva tecnología sin evaluar, comprender o mitigar los riesgos. Dijo que la nueva ley haría eso «al desarrollar barreras de seguridad responsables y apropiadas en torno al desarrollo de los sistemas de inteligencia artificial más grandes y de mayor impacto para garantizar que se utilicen para mejorar las vidas de los californianos, sin comprometer la seguridad». La ley también compromete al Estado de California a construir CalCompute, un grupo público de investigación de IA que permitirá a las empresas emergentes, investigadores y grupos comunitarios ayudarlos a «alinear los sistemas de IA a gran escala con los valores y necesidades de las comunidades de California». El texto introductorio del proyecto de ley, formalmente SB 1047, dice que la ley existente requiere que el gobierno evalúe el impacto de la proliferación de deepfakes generados o manipulados por IA que parezcan falsamente auténticos o veraces, y que incluyan representaciones de personas que parecen decir o hacer cosas que no dijeron o hicieron sin su consentimiento, por ejemplo. «Este proyecto de ley promulgaría la Ley de Innovación Segura para Sistemas Fronterizos de Inteligencia Artificial para, entre otras cosas, exigir que un desarrollador de un modelo cubierto, tal como se define, determine si puede tomar una determinación de seguridad positiva con respecto a un modelo cubierto antes iniciar el entrenamiento de ese modelo cubierto, como se especifica», dice el texto. El proyecto de ley definiría una «determinación positiva de seguridad» estableciendo que un «desarrollador puede excluir razonablemente la posibilidad de que el modelo cubierto tenga una capacidad peligrosa… teniendo en cuenta un margen razonable de seguridad y la posibilidad de modificaciones posteriores al entrenamiento». Dice que el Departamento de Tecnología del Estado encargaría consultores para crear un grupo de computación en la nube pública, CalCompute, diseñado para realizar investigaciones sobre el despliegue seguro de modelos de inteligencia artificial a gran escala y fomentar la «innovación equitativa» que incluye, entre otras cosas, una plataforma en la nube alojada y de propiedad exclusiva. Los legisladores federales aún tienen que aprobar la regulación de la IA. En octubre del año pasado, el presidente Joe Biden emitió una orden ejecutiva para crear salvaguardias que puedan mitigar los riesgos sociales derivados de una tecnología de inteligencia artificial cada vez más poderosa. La UE está en el proceso de introducir legislación para regular la IA. Algunos usos se prohibirán por completo, mientras que la IA de uso general (que incluye, entre otros, GenAI) deberá realizar evaluaciones de modelos, valorar y mitigar riesgos sistémicos, realizar pruebas adversas e informar incidentes graves a la Comisión Europea, por ejemplo. ejemplo. La ley podría imponer multas de hasta 40 millones de euros o el 7 por ciento de la facturación mundial anual, lo que sea mayor, a las organizaciones que no cumplan. El Reino Unido ha propuesto un enfoque ligero para regular la IA. La consulta en preparación para el desarrollo de legislación que aborde los riesgos inherentes al despliegue de la IA en la sociedad describe un «enfoque pro-innovación para la regulación de la IA», utilizando los reguladores existentes. A principios de esta semana se publicaron directrices para los reguladores. ®

Source link