Días después de que la vicepresidenta Kamala Harris lanzara su candidatura presidencial, un video, creado con la ayuda de inteligencia artificial, se volvió viral. “Soy su candidato demócrata a la presidencia porque Joe Biden finalmente expuso su senilidad en el debate”, dijo una voz que sonaba como la de Harris en la pista de audio falsa utilizada para alterar uno de sus anuncios de campaña. “Me seleccionaron porque soy la contratación por excelencia en materia de diversidad”. El multimillonario Elon Musk, que ha respaldado al oponente republicano de Harris, el expresidente Trump, compartió el video en X, y dos días después dijo que se trataba de una parodia. Su publicación inicial tuvo 136 millones de visitas. El seguimiento que calificó el video como una parodia obtuvo 26 millones de vistas. Para los demócratas, incluido el gobernador de California Gavin Newsom, el incidente no fue motivo de risa, lo que alimentó los pedidos de más regulación para combatir los videos generados por IA con mensajes políticos y un nuevo debate sobre el papel apropiado del gobierno en el intento de contener la tecnología emergente. El viernes, los legisladores de California dieron la aprobación final a un proyecto de ley que prohibiría la distribución de anuncios de campaña engañosos o «comunicación electoral» dentro de los 120 días posteriores a una elección. El Proyecto de Ley 2839 de la Asamblea apunta al contenido manipulado que dañaría la reputación o las perspectivas electorales de un candidato junto con la confianza en el resultado de una elección. Está destinado a abordar videos como el que Musk compartió de Harris, aunque incluye una excepción para la parodia y la sátira. «Estamos viendo que California entra en su primera elección durante la cual la desinformación impulsada por IA generativa contaminará nuestros ecosistemas de información como nunca antes y millones de votantes no sabrán en qué imágenes, audio o video pueden confiar», dijo la asambleísta Gail Pellerin (D-Santa Cruz). “Tenemos que hacer algo”. Newsom ha señalado que firmará el proyecto de ley, que entraría en vigor de inmediato, a tiempo para las elecciones de noviembre. La legislación actualiza una ley de California que prohíbe a las personas distribuir medios de audio o visuales engañosos que tengan la intención de dañar la reputación de un candidato o engañar a un votante dentro de los 60 días posteriores a una elección. Los legisladores estatales dicen que la ley debe fortalecerse durante un ciclo electoral en el que la gente ya está inundando las redes sociales con videos y fotos alterados digitalmente conocidos como deepfakes. El uso de deepfakes para difundir información errónea ha preocupado a los legisladores y reguladores durante ciclos electorales anteriores. Estos temores aumentaron después del lanzamiento de nuevas herramientas impulsadas por IA, como chatbots que pueden generar rápidamente imágenes y videos. Desde llamadas automáticas falsas hasta el falso respaldo de celebridades a los candidatos, el contenido generado por IA está poniendo a prueba las plataformas tecnológicas y los legisladores. Según la AB 2839, un candidato, un comité electoral o un funcionario electoral podría solicitar una orden judicial para que se eliminen los deepfakes. También podrían demandar a la persona que distribuyó o republicó el material engañoso por daños y perjuicios. La legislación también se aplica a los medios engañosos publicados 60 días después de la elección, incluido el contenido que retrata falsamente una máquina de votación, una boleta, un sitio de votación u otra propiedad relacionada con las elecciones de una manera que probablemente socave la confianza en el resultado de las elecciones. No se aplica a la sátira o parodia que esté etiquetada como tal, ni a las estaciones de transmisión si informan a los espectadores que lo que se muestra no representa con precisión un discurso o evento. Los grupos de la industria tecnológica se oponen a la AB 2839, junto con otros proyectos de ley que apuntan a las plataformas en línea por no moderar adecuadamente el contenido electoral engañoso o etiquetar el contenido generado por IA. «Resultará en el enfriamiento y bloqueo de la libertad de expresión protegida constitucionalmente», dijo Carl Szabo, vicepresidente y asesor general de NetChoice. Los miembros del grupo incluyen a Google, X y Snap, así como a la empresa matriz de Facebook, Meta, y otros gigantes tecnológicos. Las plataformas en línea tienen sus propias reglas sobre los medios manipulados y los anuncios políticos, pero sus políticas pueden diferir. A diferencia de Meta y X, TikTok no permite anuncios políticos y dice que puede eliminar incluso el contenido etiquetado como generado por IA si representa a una figura pública como una celebridad «cuando se usa para respaldos políticos o comerciales». Truth Social, una plataforma creada por Trump, no aborda los medios manipulados en sus reglas sobre lo que no está permitido en su plataforma. Los reguladores federales y estatales ya están tomando medidas enérgicas contra el contenido generado por IA. La Comisión Federal de Comunicaciones propuso en mayo una multa de $ 6 millones contra Steve Kramer, un consultor político demócrata detrás de una llamada automática que usó IA para suplantar la voz del presidente Biden. La llamada falsa desalentó la participación en las primarias presidenciales demócratas de New Hampshire en enero. Kramer, quien le dijo a NBC News que planeó la llamada para llamar la atención sobre los peligros de la IA en la política, también enfrenta cargos criminales por delitos graves de supresión de votantes y suplantación de identidad de un candidato. Szabo dijo que las leyes actuales son suficientes para abordar las preocupaciones sobre las falsificaciones profundas de las elecciones. NetChoice ha demandado a varios estados para detener algunas leyes destinadas a proteger a los niños en las redes sociales, alegando que violan las protecciones de la libertad de expresión bajo la Primera Enmienda. «Simplemente crear una nueva ley no hace nada para detener el mal comportamiento; en realidad, es necesario hacer cumplir las leyes», dijo Szabo. Más de dos docenas de estados han promulgado, aprobado o están trabajando en una legislación para regular las falsificaciones profundas, según la organización sin fines de lucro de defensa del consumidor Public Citizen. En 2019, California instituyó una ley destinada a combatir los medios manipulados después de que un video que hacía parecer que la presidenta de la Cámara de Representantes, Nancy Pelosi, estaba borracha, se volviera viral en las redes sociales. Hacer cumplir esa ley ha sido un desafío. «Tuvimos que diluirla», dijo el asambleísta Marc Berman (D-Menlo Park), quien escribió el proyecto de ley. “Atrajo mucha atención sobre los riesgos potenciales de esta tecnología, pero me preocupaba que, al final, no sirviera de mucho”. En lugar de emprender acciones legales, dijo Danielle Citron, profesora de la Facultad de Derecho de la Universidad de Virginia, los candidatos políticos podrían optar por desacreditar un deepfake o incluso ignorarlo para limitar su propagación. Para cuando pudieran pasar por el sistema judicial, el contenido podría ya haberse vuelto viral. “Estas leyes son importantes por el mensaje que envían. Nos enseñan algo”, dijo, y agregó que informan a las personas que comparten deepfakes que existen costos. Este año, los legisladores trabajaron con la Iniciativa de California para la Tecnología y la Democracia, un proyecto de la organización sin fines de lucro California Common Cause, en varios proyectos de ley para abordar los deepfakes políticos. Algunos apuntan a plataformas en línea que han sido protegidas por la ley federal de ser consideradas responsables del contenido publicado por los usuarios. Berman presentó un proyecto de ley que requiere que una plataforma en línea con al menos 1 millón de usuarios de California elimine o etiquete cierto contenido engañoso relacionado con las elecciones dentro de los 120 días posteriores a una elección. Las plataformas tendrían que tomar medidas a más tardar 72 horas después de que un usuario informe la publicación. Según la AB 2655, que se aprobó en la Legislatura el miércoles, las plataformas también necesitarían procedimientos para identificar, eliminar y etiquetar contenido falso. Tampoco se aplica a la parodia o la sátira ni a los medios de comunicación que cumplan ciertos requisitos. Otro proyecto de ley, coescrito por la asambleísta Buffy Wicks (demócrata de Oakland), requiere que las plataformas en línea etiqueten el contenido generado por IA. Aunque NetChoice y TechNet, otro grupo de la industria, se oponen al proyecto de ley, el fabricante de ChatGPT OpenAI apoya la AB 3211, informó Reuters. Sin embargo, los dos proyectos de ley no entrarían en vigor hasta después de las elecciones, lo que subraya los desafíos de aprobar nuevas leyes a medida que la tecnología avanza rápidamente. «Parte de mi esperanza con la presentación del proyecto de ley es la atención que crea y, con suerte, la presión que pone en las plataformas de redes sociales para que se comporten ahora mismo», dijo Berman.