La IA y las elecciones estadounidenses de 2024 Desde hace años, la IA ha socavado la capacidad del público para confiar en lo que ve, oye y lee. El Comité Nacional Republicano publicó un anuncio provocativo que ofrecía una “mirada generada por IA sobre el posible futuro del país si Joe Biden es reelegido”, mostrando imágenes apocalípticas hechas a máquina de paisajes urbanos arruinados y caos en la frontera. Llamadas automáticas falsas que supuestamente eran de Biden instaron a los residentes de New Hampshire a no votar en las elecciones primarias de 2024. Este verano, el Departamento de Justicia tomó medidas enérgicas contra una granja de bots rusa que utilizaba IA para hacerse pasar por estadounidenses en las redes sociales, y OpenAI desbarató a un grupo iraní que utilizaba ChatGPT para generar comentarios falsos en las redes sociales. No está del todo claro qué daño puede causar la propia IA, aunque los motivos de preocupación son obvios: la tecnología facilita que los malos actores construyan contenido altamente persuasivo y engañoso. Teniendo en cuenta ese riesgo, ha habido cierto movimiento hacia la limitación del uso de la IA, pero el progreso ha sido extremadamente lento en el área donde puede contar más: las elecciones de 2024. Hace dos años, la administración Biden emitió un anteproyecto para una Declaración de Derechos de la IA cuyo objetivo es abordar los “sistemas inseguros o ineficaces”, la “discriminación algorítmica” y las “prácticas abusivas de datos”, entre otras cosas. Luego, el año pasado, Biden se basó en ese documento cuando emitió su orden ejecutiva sobre la IA. También en 2023, el líder de la mayoría del Senado, Chuck Schumer, celebró una cumbre de IA en Washington en la que participaron los centibillonarios Bill Gates, Mark Zuckerberg y Elon Musk. Varias semanas después, el Reino Unido organizó una Cumbre internacional sobre seguridad de la IA que condujo a la seria “Declaración de Bletchley”, que instaba a la cooperación internacional en la regulación de la IA. Los riesgos de la falsificación de la IA en las elecciones no han sorprendido a nadie. Sin embargo, nada de esto ha resultado en cambios que resolverían el uso de la IA en las campañas políticas estadounidenses. Peor aún, las dos agencias federales que tenían posibilidades de hacer algo al respecto han abandonado la situación, muy probablemente hasta después de las elecciones. El 25 de julio, la Comisión Federal de Comunicaciones emitió una propuesta que requeriría que los anuncios políticos en televisión y radio revelaran si utilizaban IA. (La FCC no tiene jurisdicción sobre el streaming, las redes sociales o los anuncios web). Eso parece un paso adelante, pero hay dos grandes problemas. En primer lugar, es poco probable que las normas propuestas, incluso si se promulgan, entren en vigor antes de que comience la votación anticipada en las elecciones de este año. En segundo lugar, la propuesta inmediatamente se convirtió en una pelea partidista. Un comisionado republicano de la FCC alegó que el Comité Nacional Demócrata estaba orquestando el cambio de reglas porque los demócratas se están quedando atrás del Partido Republicano en el uso de la IA en las elecciones. Además, argumentó, ese era el trabajo que le correspondía a la Comisión Federal Electoral. Sin embargo, el mes pasado, la FEC anunció que ni siquiera intentará establecer nuevas reglas contra el uso de IA para hacerse pasar por candidatos en anuncios de campaña mediante audio o video deepfake. La FEC también dijo que carece de autoridad legal para establecer reglas sobre tergiversaciones utilizando audio o video deepfake. Y lamentó que, de todos modos, carece de la experiencia técnica para hacerlo. Luego, la semana pasada, la FEC se comprometió y anunció que tiene la intención de hacer cumplir sus normas existentes contra la tergiversación fraudulenta, independientemente de la tecnología con la que se realice. Los defensores de normas más estrictas sobre la IA en los anuncios de campaña, como Public Citizen, no consideraron que esto fuera suficiente y lo caracterizaron como un “enfoque de esperar y ver” para manejar el “caos electoral”. Quizás esto sea de esperar: la libertad de expresión garantizada por la Primera Enmienda generalmente permite mentir en los anuncios políticos. Pero el público estadounidense ha señalado que le gustaría que existieran reglas que regulen el uso de la IA en las campañas. En 2023, más de la mitad de los estadounidenses encuestados respondieron que el gobierno federal debería prohibir todo uso de contenido generado por IA en anuncios políticos. Yendo más allá, en 2024, aproximadamente la mitad de los estadounidenses encuestados dijeron que pensaban que a los candidatos políticos que manipularan intencionalmente audio, imágenes o videos se les debería impedir ocupar cargos públicos o destituirlos si hubieran ganado una elección. Sólo el 4 por ciento pensaba que no debería haber ninguna sanción. El problema subyacente es que el Congreso no ha otorgado claramente a ninguna agencia la responsabilidad de mantener los anuncios políticos basados ​​en la realidad, ya sea en respuesta a la IA o a formas anticuadas de desinformación. La Comisión Federal de Comercio tiene jurisdicción sobre la verdad en la publicidad, pero los anuncios políticos están en gran medida exentos (una vez más, parte de nuestra tradición de la Primera Enmienda). El cometido de la FEC es la financiación de campañas, pero el Tribunal Supremo ha ido despojando progresivamente de sus autoridades. Incluso cuando podría actuar, la comisión a menudo se ve obstaculizada por un estancamiento político. La FCC tiene una responsabilidad más evidente en la regulación de la publicidad política, pero sólo en ciertos medios: transmisiones, llamadas automáticas, mensajes de texto. Peor aún, las reglas de la FCC no son exactamente sólidas. De hecho, con el tiempo ha flexibilizado las reglas sobre el spam político, lo que ha llevado al aluvión de mensajes que muchos reciben hoy. (Dicho esto, en febrero, la FCC dictaminó por unanimidad que las llamadas automáticas que utilizan tecnología de clonación de voz mediante IA, como el anuncio de Biden en New Hampshire, ya son ilegales según una ley que data de hace 30 años). Es un sistema fragmentado, con muchos aspectos importantes actividades que son víctimas de lagunas en la autoridad legal y de una guerra territorial entre agencias federales. Y a medida que las campañas políticas se volvieron digitales, ingresaron a un espacio en línea con aún menos requisitos de divulgación u otras regulaciones. Nadie parece estar de acuerdo sobre dónde o si la IA está bajo la jurisdicción de alguna de estas agencias. A falta de una regulación amplia, algunos estados han tomado sus propias decisiones. En 2019, California fue el primer estado del país en prohibir el uso de medios de comunicación manipulados engañosamente en las elecciones, y ha fortalecido estas protecciones con una serie de leyes recientemente aprobadas este otoño. Diecinueve estados han aprobado leyes que regulan el uso de deepfakes en las elecciones. Un problema con el que tienen que lidiar los reguladores es la amplia aplicabilidad de la IA: la tecnología puede usarse simplemente para muchas cosas diferentes, cada una de las cuales exige su propia intervención. La gente puede aceptar que un candidato retoque digitalmente su foto para lucir mejor, pero no hacer lo mismo para que su oponente luzca peor. Estamos acostumbrados a recibir mensajes de campaña personalizados y cartas firmadas por el candidato; ¿Está bien recibir una llamada automática con un clon de voz del mismo político que pronuncia nuestro nombre? ¿Y qué deberíamos hacer con los memes de campaña generados por IA que ahora comparten figuras como Musk y Donald Trump? A pesar del estancamiento en el Congreso, estos son temas de interés bipartidista. Esto hace posible que se pueda hacer algo, pero probablemente no hasta después de las elecciones de 2024 y sólo si los legisladores superan los principales obstáculos. Un proyecto de ley bajo consideración, la Ley de Transparencia de IA en las Elecciones, ordenaría a la FEC exigir la divulgación cuando la publicidad política utilice medios generados sustancialmente por IA. Los críticos dicen, de manera inverosímil, que la divulgación es onerosa y aumentaría el costo de la publicidad política. La Ley de Anuncios Honestos modernizaría la ley de financiación de campañas, ampliando la autoridad de la FEC para abarcar definitivamente la publicidad digital. Sin embargo, ha languidecido durante años debido a la oposición de la industria tecnológica. La Ley para Proteger las Elecciones de la IA Engañosa prohibiría el contenido materialmente engañoso generado por IA en las elecciones federales, como en California y otros estados. Estas son propuestas prometedoras, pero los grupos libertarios y de libertades civiles ya están señalando desafíos a todas ellas basándose en la Primera Enmienda. Y, de manera desconcertante, al menos un comisionado de la FEC ha citado directamente la consideración del Congreso de algunos de estos proyectos de ley como una razón para que su agencia no actúe sobre la IA mientras tanto. Un grupo que se beneficia de toda esta confusión: las plataformas tecnológicas. Cuando hay pocas o ninguna regla evidente que gobierne los gastos políticos en línea y el uso de nuevas tecnologías como la inteligencia artificial, las empresas tecnológicas tienen la máxima libertad para vender anuncios, servicios y datos personales a las campañas. Esto se refleja en sus esfuerzos de cabildeo, así como en las restricciones políticas voluntarias que ocasionalmente pregonan para convencer al público de que no necesitan una mayor regulación. Las grandes empresas tecnológicas han demostrado que mantendrán estos compromisos voluntarios sólo si benefician a la industria. Facebook una vez prohibió brevemente la publicidad política en su plataforma. Ya no; ahora incluso permite anuncios que niegan sin fundamento el resultado de las elecciones presidenciales de 2020. Las políticas de OpenAI han prohibido durante mucho tiempo que las campañas políticas utilicen ChatGPT, pero es fácil evadir esas restricciones. Varias empresas se han ofrecido voluntariamente a añadir marcas de agua al contenido generado por IA, pero son fáciles de eludir. Las marcas de agua podrían incluso empeorar la desinformación al dar la falsa impresión de que las imágenes sin marca de agua son legítimas. Esta importante política pública no debería dejarse en manos de las corporaciones, pero el Congreso parece resignado a no actuar antes de las elecciones. Schumer insinuó a NBC News en agosto que el Congreso podría intentar adjuntar regulaciones ultrafalsas a los proyectos de ley de financiación o defensa que deben aprobarse este mes para garantizar que se conviertan en ley antes de las elecciones. Más recientemente, ha señalado la necesidad de actuar “más allá de las elecciones de 2024”. Los tres proyectos de ley enumerados anteriormente valen la pena, pero son sólo un comienzo. No se debe dejar que la FEC y la FCC se enfrenten entre sí sobre qué territorio pertenece a qué agencia. Y la FEC necesita una reforma estructural más significativa para reducir el estancamiento partidista y permitirle hacer más. También necesitamos transparencia y gobernanza de la amplificación algorítmica de la desinformación en las plataformas de redes sociales. Eso requiere que la influencia generalizada de las empresas tecnológicas y sus inversores multimillonarios se limite mediante un cabildeo más fuerte y protecciones para el financiamiento de campañas. Nuestra regulación del electoralismo nunca alcanzó a AOL, y mucho menos a las redes sociales y la inteligencia artificial. Y los videos engañosos dañan nuestro proceso democrático, ya sean creados por IA o actores en un escenario de sonido. Pero la preocupación urgente por la IA debería aprovecharse para impulsar la reforma legislativa. El Congreso necesita hacer más que meter unos cuantos dedos en el dique para controlar la próxima ola de desinformación electoral. Necesita actuar con más audacia para remodelar el panorama de la regulación de las campañas políticas. Este ensayo apareció originalmente en The Atlantic. Etiquetas: inteligencia artificial, deepfake, democracia, leyes, LLM, regulación Publicado el 30 de septiembre de 2024 a las 7:00 • 0 Comentarios