Jodi Long fue sorprendida por la jaula llena de cámaras destinadas a capturar imágenes de su rostro y cuerpo. “Me asusté un poco porque, antes de entrar allí, dije que no recuerdo que esto estuviera en mi contrato. «, dijo el actor. Los realizadores necesitaban su escaneo digital, le dijeron a Long, porque querían asegurarse de que sus brazos estuvieran colocados correctamente en una escena en la que sostiene un personaje generado por computadora. Ese momento en 2020 se quedó con Long, presidenta del local de SAG-AFTRA en Los Ángeles, mientras negociaba protecciones en torno al uso de inteligencia artificial cuando los actores se declararon en huelga. En noviembre, el gremio de actores llegó a un acuerdo con los estudios de Hollywood que, entre otras cosas, requería consentimiento y compensación por el uso de la réplica digital de un trabajador. La presidenta local de SAG-AFTRA Los Ángeles, Jodi Long, a la derecha, habla durante una manifestación en septiembre durante la huelga del sindicato de actores. (Richard Shotwell / Invision / Associated Press) Los sindicatos no son los únicos que intentan limitar las amenazas potenciales de la IA. Además de que el gobernador Gavin Newsom firmó una orden ejecutiva sobre IA en septiembre, los legisladores de California han introducido una serie de leyes que sientan las bases para una mayor regulación en 2024. Algunas de las propuestas se centran en proteger a los trabajadores y combatir los sistemas de IA que pueden contribuir a la desigualdad de género. y prejuicios raciales y establecer nuevos requisitos para salvaguardar contra el uso indebido de la IA para delitos cibernéticos, desarrollo de armas y propaganda. Sin embargo, aún no está claro si los legisladores de California lograrán aprobar una legislación sobre IA. Se enfrentarán al lobby de empresas tecnológicas multimillonarias, incluidas Microsoft, Google y Facebook, potencias políticas que paralizaron con éxito varios proyectos de ley sobre IA presentados este año. La inteligencia artificial existe desde hace décadas. Pero a medida que la tecnología avanza rápidamente, la capacidad de las máquinas para realizar tareas asociadas con la inteligencia humana ha planteado dudas sobre si la IA reemplazará empleos, alimentará la difusión de información errónea o incluso conducirá a la extinción de la humanidad. A medida que los legisladores intentan regular la IA, también intentan comprender cómo funciona la tecnología para no obstaculizar sus beneficios potenciales y, al mismo tiempo, intentar mitigar los peligros. “Uno de los principales desafíos es que esta tecnología es de doble uso, lo que significa que El mismo tipo de tecnología que puede, por ejemplo, conducir a mejoras masivas en la atención sanitaria, también puede usarse potencialmente para causar daños bastante graves”, afirmó Daniel Ho, profesor de la Facultad de Derecho de la Universidad de Stanford que asesora a la Casa Blanca sobre políticas de IA. sintiendo una sensación de urgencia, señalando la resistencia que ya han enfrentado al tratar de controlar algunos de los problemas de salud mental y seguridad infantil exacerbados por las redes sociales y otros productos tecnológicos. Si bien algunos ejecutivos de tecnología dicen que no se oponen a la regulación, también han dicho que los críticos están exagerando los riesgos y expresaron preocupación de que tendrán que lidiar con un mosaico de reglas que varían en todo el mundo. TechNet, un grupo comercial que incluye una variedad de empresas como Apple, Google y Amazon) describe en su sitio web lo que los miembros apoyarían y no apoyarían en lo que respecta a la regulación de la IA. Por ejemplo, TechNet dice que los formuladores de políticas deberían evitar “prohibiciones generales sobre la inteligencia artificial, el aprendizaje automático u otras formas de toma de decisiones automatizada” y no obligar a los desarrolladores de inteligencia artificial a compartir públicamente información que sea patentada. El asambleísta estatal Ash Kalra (D-San José) dijo que los formuladores de políticas no confían en que las empresas de tecnología se regulen a sí mismas. «Como legislador, mi intención es proteger al público, proteger a los trabajadores y proteger contra los riesgos que pueden crearse a través de la IA no regulada», dijo Kalra. “Quienes están en la industria tienen prioridades diferentes”. La IA podría afectar a 300 millones de empleos a tiempo completo, según un informe de abril de Goldman Sachs. En septiembre, Kalra presentó una legislación que daría a los actores, locutores y otros trabajadores una forma de anular contratos vagos que permiten a los estudios y otras empresas utilizar inteligencia artificial para clonar digitalmente sus voces, rostros y cuerpos. Kalra dijo que por ahora no tiene planes de dejar de lado el proyecto de ley, que está respaldado por SAG-AFTRA. Los legisladores federales también han introducido legislación destinada a proteger las voces y la imagen de los trabajadores. El presidente Biden firmó una orden ejecutiva sobre IA en octubre, señalando cómo la tecnología podría mejorar la productividad pero también desplazar a los trabajadores. El presidente Biden y el gobernador Gavin Newsom en un debate sobre inteligencia artificial en junio. Biden y Newsom han emitido y firmado órdenes ejecutivas sobre IA. (Susan Walsh / Associated Press) Duncan Crabtree-Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA, dijo que cree que es importante que los legisladores estatales y federales regulen la IA sin demora. “Tiene que provenir de una variedad de fuentes y [be] «Todos están reunidos de una manera que crea la imagen definitiva que todos queremos ver», afirmó. Los responsables de la formulación de políticas fuera de Estados Unidos ya han estado avanzando. En diciembre, el Parlamento Europeo y los estados miembros de la UE alcanzaron un acuerdo histórico sobre la Ley de IA, calificando la propuesta como “la primera ley integral de IA del mundo”. La legislación incluye un conjunto diferente de reglas basadas en el riesgo de los sistemas de IA y también requeriría herramientas de IA que generen texto, imágenes y otros contenidos como ChatGPT de OpenAI para publicar qué datos protegidos por derechos de autor se utilizaron para entrenar los sistemas. Como multan los legisladores federales y estatales Al ajustar la legislación, los trabajadores están viendo cómo la IA está afectando sus trabajos y probando si las leyes actuales ofrecen suficiente protección. Las empresas de tecnología, incluidas OpenAI, Stability AI, Meta y Anthropic, respaldadas por Microsoft, se enfrentan a demandas por acusaciones de que utilizaron trabajos protegidos por derechos de autor de artistas y escritores para entrenar sus sistemas de inteligencia artificial. El miércoles, el New York Times presentó una demanda contra Microsoft y OpenAI acusando a las empresas de tecnología de utilizar trabajos protegidos por derechos de autor para crear productos de inteligencia artificial que competirían con el medio de comunicación. Tim Friedlander, presidente y cofundador de la Asociación Nacional. of Voice Actors, dijo que sus miembros están perdiendo empleos porque algunas empresas han decidido utilizar voz generada por IA. Los actores también han alegado que sus voces están siendo clonadas sin su consentimiento o compensación, un problema que también enfrentan los músicos. “Una de las cosas difíciles en este momento es que no hay manera de probar que algo es humano o sintético o poder probar dónde “La protección de los trabajadores es solo una de las cuestiones relacionadas con la IA que los legisladores de California intentarán abordar en 2024. El senador Scott Wiener (demócrata por San Francisco) presentó en septiembre la Ley de Seguridad en la Inteligencia Artificial, cuyo objetivo es abordar algunos de los mayores riesgos que plantea la IA, dijo, incluido el posible uso indebido de la tecnología en armas químicas y nucleares, la interferencia electoral y los ataques cibernéticos. Aunque los legisladores no quieren “aplastar la innovación”, también quieren ser proactivos, dijo Wiener. “Si no te adelantas, entonces puede ser demasiado tarde y lo hemos visto con las redes sociales y «Hay otras áreas en las que deberíamos haber establecido al menos sistemas regulatorios amplios antes de que comience el problema», dijo. A los legisladores también les preocupa que los sistemas de inteligencia artificial puedan cometer errores que conduzcan a un trato desigual de las personas en función de características protegidas como la raza y el género. . La asambleísta Rebecca Bauer-Kahan (D-Orinda) patrocina un proyecto de ley que prohibiría a una persona o entidad implementar un sistema o servicio de inteligencia artificial que participe en la toma de «decisiones consecuentes» que resulten en una «discriminación algorítmica». Preocupación de que los algoritmos puedan amplificar el género y los prejuicios raciales debido a los datos que se utilizan para entrenar los sistemas informáticos han sido un problema constante en la industria tecnológica. Amazon descartó una herramienta de reclutamiento de IA, por ejemplo, porque mostraba prejuicios contra las mujeres después de que los modelos informáticos fueron entrenados con currículums que en su mayoría provenían de hombres, informó Reuters en 2018. Aprobar una legislación sobre IA ya ha resultado difícil. El proyecto de ley de Bauer-Kahan ni siquiera llegó a la Asamblea para su votación. Un análisis de la legislación, AB 331, dijo que varias industrias y empresas expresaron su preocupación de que fuera demasiado amplia y resultara en una “regulación excesiva en este espacio”. Aún así, Bauer-Kahan dijo que planea reintroducir el proyecto de ley en 2024 a pesar de la oposición. ella enfrentó la última sesión. «No es que quiera que estas herramientas desaparezcan, pero quiero asegurarme de que cuando entren al mercado sepamos que no son discriminatorias», dijo. “Ese equilibrio no es mucho pedir”. Tratar de determinar qué cuestiones priorizar cuando se trata de los riesgos potenciales de la IA es otro desafío que enfrentarán los políticos en 2024, dado que proyectos de ley controvertidos pueden ser difíciles de aprobar en un año electoral. «Si no hay un acuerdo sobre al menos cierto sentido de priorización de los daños, y cuáles son los más urgentes, puede resultar difícil determinar cuál podría ser la forma más efectiva de intervención», dijo Ho, el experto de Stanford. Profesora de la Facultad de Derecho. A pesar de todos los temores que rodean a la IA, dijo Long, sigue siendo optimista sobre el futuro. Ha protagonizado películas taquilleras como “Shang-Chi y la leyenda de los diez anillos” de Marvel y en 2021 se convirtió en la primera estadounidense de origen asiático en ganar un Emmy diurno por su destacada actuación de una actriz de reparto en el programa de Netflix “Dash and Lily”. .”“Mi industria es un proceso de colaboración entre muchos humanos”, dijo. «Y mientras tengamos humanos publicando nuestras historias, creo que estaremos bien».