Durante cuatro años, Jacob Hilton trabajó para una de las nuevas empresas más influyentes del Área de la Bahía: OpenAI. Su investigación ayudó a probar y mejorar la veracidad de modelos de IA como ChatGPT. Cree que la inteligencia artificial puede beneficiar a la sociedad, pero también reconoce los graves riesgos que corre si no se controla la tecnología. Hilton estuvo entre los 13 empleados actuales y anteriores de OpenAI y Google que firmaron este mes una carta abierta que pedía más protección para los denunciantes, citando acuerdos amplios de confidencialidad como problemáticos. «La situación básica es que los empleados, las personas más cercanas a la tecnología, también son los que tienen más que perder si sufren represalias por hablar», dice Hilton, de 33 años, ahora investigador en la organización sin fines de lucro Alignment Research Center. que vive en Berkeley. Los legisladores de California se están apresurando a abordar estas preocupaciones a través de aproximadamente 50 proyectos de ley relacionados con la IA, muchos de los cuales tienen como objetivo establecer salvaguardias en torno a esta tecnología en rápida evolución, que según los legisladores podría causar daños a la sociedad. Sin embargo, grupos que representan a las grandes empresas de tecnología argumentan que la legislación propuesta podría sofocar la innovación y la creatividad, haciendo que California pierda su ventaja competitiva y cambiando drásticamente la forma en que se desarrolla la IA en el estado. Los efectos de la inteligencia artificial en el empleo, la sociedad y la cultura son de gran alcance, y eso se refleja en la cantidad de proyectos de ley que circulan en la Legislatura. Cubren una variedad de temores relacionados con la IA, incluida la sustitución de empleos, la seguridad de los datos y la discriminación racial. Un proyecto de ley, copatrocinado por los Teamsters, tiene como objetivo exigir la supervisión humana de los camiones pesados ​​sin conductor. Un proyecto de ley respaldado por el Sindicato Internacional de Empleados de Servicios intenta prohibir la automatización o la sustitución de puestos de trabajo por sistemas de inteligencia artificial en los centros de llamadas que brindan servicios de beneficios públicos, como Medi-Cal. Otro proyecto de ley, redactado por el senador Scott Wiener (demócrata por San Francisco), exigiría que las empresas que desarrollen grandes modelos de IA realicen pruebas de seguridad. La gran cantidad de proyectos de ley se produjo después de que los políticos fueran criticados por no tomar medidas enérgicas lo suficientemente duras contra las empresas de redes sociales hasta que fue demasiado tarde. Durante la administración Biden, los demócratas federales y estatales se han vuelto más agresivos a la hora de perseguir a las grandes empresas tecnológicas. «Hemos visto con otras tecnologías que no hacemos nada hasta mucho después de que surge un gran problema», dijo Wiener. “Las redes sociales han aportado muchas cosas buenas a la sociedad… pero sabemos que han tenido importantes desventajas y no hicimos nada para reducir o mitigar esos daños. Y ahora estamos tratando de ponernos al día. Prefiero no ponerme al día”. El impulso se produce cuando las herramientas de inteligencia artificial avanzan rápidamente. Leen cuentos a los niños antes de dormir, clasifican los pedidos desde el auto en lugares de comida rápida y ayudan a hacer videos musicales. Mientras que algunos entusiastas de la tecnología se entusiasman con los beneficios potenciales de la IA, otros temen la pérdida de empleos y los problemas de seguridad. “Tomó a casi todo el mundo por sorpresa, incluidos muchos de los expertos, por la rapidez con la que [the tech is] progresando”, dijo Dan Hendrycks, director del Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco. «Si simplemente nos demoramos y no hacemos nada durante varios años, es posible que estemos esperando hasta que sea demasiado tarde». El proyecto de ley de Wiener, SB1047, que cuenta con el respaldo del Centro para la Seguridad de la IA, exige que las empresas que construyen grandes modelos de IA realicen pruebas de seguridad y tengan la capacidad de apagar los modelos que controlan directamente. Los proponentes del proyecto de ley dicen que protegería contra situaciones como La IA se utiliza para crear armas biológicas o cortar la red eléctrica, por ejemplo. El proyecto de ley también requeriría que las empresas de inteligencia artificial implementen formas para que los empleados presenten inquietudes de forma anónima. El fiscal general del estado podría presentar una demanda para hacer cumplir las normas de seguridad. «Una tecnología muy poderosa trae beneficios y riesgos, y quiero asegurarme de que los beneficios de la IA superen ampliamente los riesgos», dijo Wiener. Quienes se oponen al proyecto de ley, incluido TechNet, un grupo comercial que cuenta entre sus miembros con empresas tecnológicas como Meta, Google y OpenAI, dicen que los responsables políticos deberían actuar con cautela. Meta y OpenAI no respondieron a una solicitud de comentarios. Google se negó a hacer comentarios. «Avanzar demasiado rápido tiene sus propias consecuencias, potencialmente sofocando y reduciendo algunos de los beneficios que pueden venir con esta tecnología», dijo Dylan Hoffman, director ejecutivo para California y el suroeste de TechNet. El proyecto de ley fue aprobado por la Asamblea de Privacidad y Consumidor. Comité de Protección el martes y luego irá al Comité Judicial de la Asamblea y al Comité de Asignaciones de la Asamblea, y si se aprueba, al pleno de la Asamblea. Los defensores del proyecto de ley de Wiener dicen que están respondiendo a los deseos del público. En una encuesta de 800 votantes potenciales en California encargada por el Centro para el Fondo de Acción para la Seguridad de la IA, el 86% de los participantes dijo que era una prioridad importante para el estado desarrollar regulaciones de seguridad de la IA. Según la encuesta, el 77% de los participantes apoyó la propuesta de someter los sistemas de IA a pruebas de seguridad.“El status quo en este momento es que, cuando se trata de seguridad, dependemos de compromisos públicos voluntarios asumidos por estas empresas, ”, dijo Hilton, el ex empleado de OpenAI. «Pero parte del problema es que no existe un buen mecanismo de rendición de cuentas». Otro proyecto de ley con implicaciones radicales para los lugares de trabajo es el AB 2930, que busca prevenir la «discriminación algorítmica», o cuando los sistemas automatizados ponen a ciertas personas en desventaja basándose en su raza, género u orientación sexual cuando se trata de contratación, remuneración y despido. “Vemos ejemplo tras ejemplo en el espacio de la IA, donde los resultados están sesgados”, dijo la asambleísta Rebecca Bauer-Kahan (demócrata por Orinda). El proyecto de ley contra la discriminación fracasó en la sesión legislativa del año pasado, con una importante oposición de las empresas de tecnología. Reintroducida este año, la medida inicialmente contó con el respaldo de las empresas tecnológicas de alto perfil Workday y Microsoft, aunque han vacilado en su apoyo, expresando preocupaciones sobre enmiendas que otorgarían más responsabilidad a las empresas que desarrollan productos de inteligencia artificial para frenar los prejuicios. “Por lo general, no hay industrias que digan: ‘Regúlenme’, pero varias comunidades no confían en la IA, y lo que este esfuerzo intenta hacer es generar confianza en estos sistemas de IA, lo que creo que es realmente beneficioso para la industria. «, Dijo Bauer-Kahan. Algunos defensores de la privacidad laboral y de datos temen que el lenguaje en la legislación antidiscriminatoria propuesta sea demasiado débil. Los opositores dicen que es demasiado amplio. Chandler Morse, jefe de políticas públicas de Workday, dijo que la compañía apoya la AB 2930 tal como se presentó. «Actualmente estamos evaluando nuestra posición sobre las nuevas enmiendas», dijo Morse. Microsoft declinó hacer comentarios. La amenaza de la IA también es un grito de guerra para los sindicatos de Hollywood. El Writers Guild of America y el Screen Actors Guild-American Federation of Television and Radio Artists negociaron protecciones de IA para sus miembros durante las huelgas del año pasado, pero los riesgos de la tecnología van más allá del alcance de los contratos sindicales, dijo el director ejecutivo nacional del gremio de actores, Duncan. Crabtree-Irlanda. «Necesitamos que las políticas públicas se pongan al día y comiencen a implementar estas normas para que haya menos ambiente del Lejano Oeste con la IA», dijo Crabtree-Ireland. SAG-AFTRA ha ayudado a redactar tres proyectos de ley federales relacionados con deepfakes (imágenes y videos engañosos que a menudo involucran imágenes de celebridades), junto con dos medidas en California, incluida la AB 2602, que fortalecería el control de los trabajadores sobre el uso de su imagen digital. La legislación, si se aprueba, requeriría que los trabajadores estén representados por su sindicato o asesor legal para que los acuerdos que involucren imágenes generadas por IA sean legalmente vinculantes. Las empresas tecnológicas instan a tener precaución contra la regulación excesiva. Todd O’Boyle, del grupo de la industria tecnológica Chamber of Progress, dijo que las empresas de IA de California podrían optar por trasladarse a otra parte si la supervisión gubernamental se vuelve excesiva. Es importante que los legisladores «no permitan que los temores de daños especulativos impulsen la formulación de políticas cuando tenemos esta innovación tecnológica transformadora que puede crear tanta prosperidad en sus primeros días», dijo. Cuando se establecen regulaciones, es difícil revertirlos, advirtió Aaron Levie, director ejecutivo de Box, la empresa de computación en la nube con sede en Redwood City, que está incorporando IA en sus productos. «Necesitamos tener modelos más potentes que hagan aún más y sean más capaces», dijo Levie, «y luego comencemos a evaluar el riesgo de forma incremental a partir de ahí». Pero Crabtree-Ireland dijo que las empresas de tecnología están tratando de frenar la regulación haciendo que los problemas parezcan más complicados de lo que son y diciendo que deben resolverse en una propuesta integral de política pública. «Rechazamos eso por completo», dijo Crabtree-Ireland. «No creemos que todo lo relacionado con la IA deba resolverse de una vez».