Mientras el mundo debate qué es correcto y qué es incorrecto en la IA generativa, la Asamblea y el Senado del Estado de California acaban de aprobar el proyecto de ley de Innovación Segura y Segura para Modelos de Inteligencia Artificial Fronteriza (SB 1047), que es una de las primeras regulaciones importantes para las IA en los Estados Unidos. California quiere regular las IA con un nuevo proyecto de ley El proyecto de ley, que se votó el jueves (a través de The Verge), ha sido objeto de debate en Silicon Valley, ya que esencialmente ordena que las empresas de IA que operan en California implementen una serie de precauciones antes de entrenar un «modelo de base sofisticado». Con la nueva ley, los desarrolladores tendrán que asegurarse de que pueden apagar rápida y completamente un modelo de IA si se considera inseguro. Los modelos de lenguaje también deberán protegerse contra «modificaciones inseguras posteriores al entrenamiento» o cualquier cosa que pueda causar «daños críticos». Los senadores describen el proyecto de ley como «salvaguardias para proteger a la sociedad» del mal uso de la IA. El profesor Hinton, exdirector de IA en Google, elogió el proyecto de ley por considerar que los riesgos de los sistemas de IA potentes son «muy reales y deben tomarse extremadamente en serio». Sin embargo, empresas como OpenAI e incluso pequeños desarrolladores han criticado el proyecto de ley de seguridad de la IA, ya que establece posibles sanciones penales para quienes no cumplan. Algunos argumentan que el proyecto de ley perjudicará a los desarrolladores independientes, que necesitarán contratar abogados y lidiar con la burocracia cuando trabajen con modelos de IA. El gobernador Gavin Newsom ahora tiene hasta fines de septiembre para decidir si aprueba o veta el proyecto de ley. Apple y otras empresas se comprometen a cumplir las normas de seguridad de la IA A principios de este año, Apple y otras empresas tecnológicas como Amazon, Google, Meta y OpenAI acordaron un conjunto de normas voluntarias de seguridad de la IA establecidas por la administración Biden. Las normas de seguridad describen los compromisos para probar el comportamiento de los sistemas de IA, asegurando que no exhiban tendencias discriminatorias o tengan problemas de seguridad. Los resultados de las pruebas realizadas deben compartirse con los gobiernos y el mundo académico para su revisión por pares. Al menos por ahora, las directrices de la Casa Blanca sobre IA no son exigibles por ley. Por supuesto, Apple tiene un gran interés en este tipo de regulaciones, ya que la empresa ha estado trabajando en las funciones de Apple Intelligence, que se lanzarán al público a finales de este año con iOS 18.1 y macOS Sequoia 15.1. Vale la pena señalar que las funciones de Apple Intelligence requieren un iPhone 15 Pro o posterior, o iPads y Mac con el chip M1 o posterior. FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.