El 29 de agosto, la Legislatura de California aprobó el Proyecto de Ley del Senado 1047, la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, y lo envió al gobernador Gavin Newsom para su firma. La elección de Newsom, prevista para el 30 de septiembre, es binaria: matarlo o convertirlo en ley. Reconociendo el posible daño que podría resultar de la IA avanzada, la SB 1047 requiere que los desarrolladores de tecnología integren salvaguardas a medida que desarrollan e implementan lo que el proyecto de ley llama “modelos cubiertos”. El fiscal general de California puede hacer cumplir estos requisitos iniciando acciones civiles contra las partes que no toman “cuidados razonables” de que 1) sus modelos no causen daños catastróficos, o 2) sus modelos puedan cerrarse en caso de emergencia. Destacadas empresas de IA se oponen al proyecto de ley, ya sea individualmente o a través de asociaciones comerciales. Sus objeciones incluyen preocupaciones de que la definición de modelos cubiertos es demasiado inflexible para tomar en cuenta el progreso tecnológico, que no es razonable responsabilizarlos por aplicaciones dañinas que otros desarrollan y que el proyecto de ley en general sofocará la innovación y paralizará a las pequeñas empresas emergentes sin los recursos para dedicarse al cumplimiento. Estas objeciones no son frívolas; merecen consideración y muy probablemente alguna enmienda adicional al proyecto de ley. Pero el gobernador debería firmarlo o aprobarlo de todos modos porque un veto indicaría que ninguna regulación de la IA es aceptable ahora y probablemente hasta que ocurra un daño catastrófico o a menos que ocurra. Esa posición no es la adecuada para que los gobiernos adopten dicha tecnología. El autor del proyecto de ley, el senador Scott Wiener (D-San Francisco), colaboró ​​con la industria de la IA en varias versiones del proyecto de ley antes de su aprobación legislativa final. Al menos una importante empresa de inteligencia artificial, Anthropic, solicitó cambios específicos y significativos en el texto, muchos de los cuales se incorporaron en el proyecto de ley final. Desde que la Legislatura lo aprobó, el director ejecutivo de Anthropic ha dicho que sus “beneficios probablemente superen sus costos… [although] algunos aspectos del proyecto de ley [still] parecer preocupante o ambiguo”. La evidencia pública hasta la fecha sugiere que la mayoría de las otras empresas de IA optaron simplemente por oponerse al proyecto de ley por principio, en lugar de realizar esfuerzos específicos para modificarlo. ¿Qué debemos hacer con esa oposición, especialmente porque los líderes de algunas de estas empresas han expresado públicamente sus preocupaciones? ¿Sobre los peligros potenciales de la IA avanzada? En 2023, los directores ejecutivos de OpenAI y DeepMind de Google, por ejemplo, firmaron una carta abierta que comparaba los riesgos de la IA con una pandemia y una guerra nuclear. Una conclusión razonable es que, a diferencia de Anthropic, se oponen a cualquier tipo de regulación obligatoria. Quieren reservarse el derecho de decidir cuándo los riesgos de una actividad o un esfuerzo de investigación o cualquier otro modelo implementado superan sus beneficios. Más importante aún, quieren que quienes desarrollen aplicaciones basadas en sus modelos cubiertos sean totalmente responsables de la mitigación de riesgos. Casos judiciales recientes han sugerido que los padres que ponen armas en manos de sus hijos tienen cierta responsabilidad legal por el resultado. ¿Por qué las empresas de IA deberían recibir un trato diferente? Las empresas de IA quieren que el público les dé mano libre a pesar de un evidente conflicto de intereses: no se debe confiar en que las empresas con fines de lucro tomen decisiones que puedan impedir sus perspectivas de obtener ganancias. Nosotros He estado aquí antes. En noviembre de 2023, la junta directiva de OpenAI despidió a su director ejecutivo porque determinó que, bajo su dirección, la empresa estaba tomando un camino tecnológico peligroso. Al cabo de varios días, varias partes interesadas de OpenAI pudieron revertir esa decisión, reintegrándolo y expulsando a los miembros de la junta que habían abogado por su despido. Irónicamente, OpenAI se había estructurado específicamente para permitir que la junta actuara como lo hizo; a pesar del potencial de generación de ganancias de la empresa, se suponía que la junta debía garantizar que el interés público fuera lo primero. Si se veta la SB 1047, las fuerzas anti-regulación lo harán. Si proclaman una victoria que demuestra la sabiduría de su posición, tendrán pocos incentivos para trabajar en una legislación alternativa. No tener una regulación significativa les beneficia, y recurrirán a un veto para mantener ese status quo. Alternativamente, el gobernador podría promulgar la SB 1047, agregando una invitación abierta a sus oponentes para ayudar a corregir sus defectos específicos. Con lo que consideran una ley imperfecta, los oponentes del proyecto de ley tendrían incentivos considerables para trabajar –y trabajar de buena fe– para arreglarlo. Pero el enfoque básico sería que la industria, no el gobierno, exponga su punto de vista sobre lo que constituye un cuidado razonable y apropiado respecto de las propiedades de seguridad de sus modelos avanzados. El papel del gobierno sería asegurarse de que la industria haga lo que la propia industria dice que debería hacer. Las consecuencias de eliminar la SB 1047 y preservar el status quo son sustanciales: las empresas podrían avanzar en sus tecnologías sin restricciones. Las consecuencias de aceptar un proyecto de ley imperfecto serían un paso significativo hacia un mejor entorno regulatorio para todos los involucrados. Sería el comienzo, más que el final, del juego regulatorio de la IA. Este primer paso marca la pauta para lo que está por venir y establece la legitimidad de la regulación de la IA. El gobernador debería firmar la SB 1047. Herbert Lin es investigador principal del Centro para la Seguridad y la Cooperación Internacional de la Universidad de Stanford y miembro de la Institución Hoover. Es autor de «Amenazas cibernéticas y armas nucleares».