La imagen patriótica muestra a la megaestrella Taylor Swift vestida como el Tío Sam, sugiriendo falsamente que apoya al candidato presidencial republicano Donald Trump. «Taylor quiere que votes por Donald Trump», dice la imagen, que parece estar generada por inteligencia artificial. Durante el fin de semana, Trump amplificó la mentira cuando compartió la imagen junto con otras que mostraban el apoyo de los fanáticos de Swift con sus 7,6 millones de seguidores en su red social Truth Social. El engaño ha jugado un papel en la política durante mucho tiempo, pero el auge de las herramientas de inteligencia artificial que permiten a las personas generar rápidamente imágenes o videos falsos escribiendo una frase agrega otra capa compleja a un problema familiar en las redes sociales. Estas imágenes y vídeos alterados digitalmente, conocidos como deepfakes, pueden hacer que parezca que alguien está diciendo o haciendo algo que no es así. A medida que se intensifica la carrera entre Trump y la candidata demócrata Kamala Harris, los expertos en desinformación están haciendo sonar la alarma sobre los riesgos de la IA generativa. «Me preocupa que, a medida que nos acerquemos a las elecciones, esto vaya a explotar», dijo Emilio Ferrara, profesor de informática en la Escuela de Ingeniería Viterbi de la USC. «Va a empeorar mucho más de lo que es ahora». Plataformas como Facebook y X, antes conocida como Twitter, tienen reglas contra las imágenes, el audio y los vídeos manipulados, pero han tenido dificultades para aplicar estas políticas a medida que el contenido generado por IA inunda Internet. Ante las acusaciones de que están censurando el discurso político, se han centrado más en etiquetar el contenido y verificar los hechos, en lugar de eliminar publicaciones. Y hay excepciones a las reglas, como la sátira, que permite a las personas crear y compartir imágenes falsas en línea. «Tenemos todos los problemas del pasado, todos los mitos y desacuerdos y la estupidez general, con los que hemos estado lidiando durante 10 años», dijo Hany Farid, profesor de UC Berkeley que se centra en la desinformación y la ciencia forense digital. «Ahora lo tenemos supercargado con IA generativa y somos muy, muy partidistas». En medio del creciente interés en OpenAI, el creador de la popular herramienta de IA generativa ChatGPT, las empresas de tecnología están animando a las personas a utilizar nuevas herramientas de IA que pueden generar texto, imágenes y videos. Farid, que analizó las imágenes de Swift que compartió Trump, dijo que parecen ser una mezcla de imágenes reales y falsas, una forma «torcida» de difundir contenido engañoso. Las personas comparten imágenes falsas por varias razones. Podrían estar haciéndolo simplemente para volverse virales en las redes sociales o para trollear a otros. Las imágenes visuales son una parte poderosa de la propaganda, distorsionando las opiniones de las personas sobre la política, incluida la legitimidad de las elecciones presidenciales de 2024, dijo. En X, las imágenes que parecen generadas por IA muestran a Swift abrazando a Trump, sosteniendo su mano o cantando un dueto mientras el republicano rasguea una guitarra. Los usuarios de las redes sociales también han utilizado otros métodos para afirmar falsamente que Swift apoyó a Trump. X etiquetó un video que afirmaba falsamente que Swift respaldaba a Trump como «medios manipulados». El video, publicado en febrero, usa imágenes de Swift en los Grammy de 2024 y hace que parezca que sostiene un cartel que dice: «Trump ganó. ¡Los demócratas hicieron trampa!». Las campañas políticas se han estado preparando para el impacto de la IA en las elecciones. La campaña de la vicepresidenta Harris tiene un equipo interdepartamental «para prepararse para los posibles efectos de la IA en esta elección, incluida la amenaza de deepfakes maliciosos», dijo la portavoz Mia Ehrenberg en un comunicado. La campaña solo autoriza el uso de IA para «herramientas de productividad» como el análisis de datos, agregó. La campaña de Trump no respondió a una solicitud de comentarios. Parte del desafío para frenar los videos falsos o manipulados es que la ley federal que guía las operaciones de las redes sociales no aborda específicamente los deepfakes. La Ley de Decencia en las Comunicaciones de 1996 no responsabiliza a las empresas de redes sociales por alojar contenido, siempre que no ayuden o controlen a quienes lo publicaron. Pero a lo largo de los años, las empresas de tecnología han sido criticadas por lo que aparece en sus plataformas y muchas empresas de redes sociales han establecido pautas de moderación de contenido para abordar esto, como prohibir el discurso de odio. «Realmente es caminar por la cuerda floja para las empresas de redes sociales y los operadores en línea», dijo Joanna Rosen Forster, socia del bufete de abogados Crowell & Moring. Los legisladores están trabajando para abordar este problema proponiendo proyectos de ley que requerirían que las empresas de redes sociales eliminen los deepfakes no autorizados. El gobernador. Gavin Newsom dijo en julio que apoya una legislación que haría ilegal alterar la voz de una persona con el uso de IA en un anuncio de campaña. Los comentarios fueron una respuesta a un video que compartió el multimillonario Elon Musk, propietario de X, que usa IA para clonar la voz de Harris. Musk, que ha respaldado a Trump, aclaró más tarde que el video que compartió era una parodia. El Screen Actors Guild-American Federation of Television and Radio Artists es uno de los grupos que aboga por leyes que aborden los deepfakes. Duncan Crabtree-Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA, dijo que las empresas de redes sociales no están haciendo lo suficiente para abordar el problema. «La desinformación y las mentiras descaradas difundidas por los deepfakes nunca podrán revertirse», dijo Crabtree-Ireland. «Especialmente cuando las elecciones se deciden en muchos casos por márgenes estrechos y a través de sistemas complejos y arcanos como el colegio electoral, estas mentiras alimentadas por deepfakes pueden tener consecuencias devastadoras en el mundo real». Crabtree-Ireland ha experimentado el problema de primera mano. El año pasado, fue objeto de un video deepfake que circuló en Instagram durante una campaña de ratificación de contrato. El video, que mostraba imágenes falsas de Crabtree-Ireland instando a los miembros a votar en contra de un contrato que él negoció, tuvo decenas de miles de vistas. Y aunque tenía un subtítulo que decía «deepfake», recibió docenas de mensajes de miembros del sindicato preguntándole al respecto. Pasaron varios días antes de que Instagram eliminara el video deepfake, dijo. «Fue, me pareció, muy abusivo», dijo Crabtree-Ireland. «No deberían robarme la voz y la cara para presentar un caso con el que no estoy de acuerdo». Con una carrera reñida entre Harris y Trump, no es sorprendente que ambos candidatos se apoyen en celebridades para atraer a los votantes. La campaña de Harris adoptó la descripción que hizo la estrella del pop Charli XCX de la candidata como «mocosa» y ha usado canciones populares como «Freedom» de Beyoncé y «Femininomenon» de Chappell Roan para promover a la candidata presidencial demócrata negra y asiático-estadounidense. Los músicos Kid Rock, Jason Aldean y Ye, anteriormente conocido como Kanye West, han expresado su apoyo a Trump, quien fue blanco de un intento de asesinato en julio. Swift, quien ha sido blanco de deepfakes antes, no ha respaldado públicamente a un candidato en las elecciones presidenciales de 2024, pero ha criticado a Trump en el pasado. En el documental de 2020 “Miss Americana”, Swift dice en una conversación entre lágrimas con sus padres y su equipo que lamenta no haber hablado en contra de Trump durante las elecciones de 2016 y critica a la republicana de Tennessee Marsha Blackburn, que se postulaba para el Senado de los Estados Unidos en ese momento, como “’Trump con peluca’”. El publicista de Swift, Tree Paine, no respondió a una solicitud de comentarios. Los chatbots impulsados ​​por IA de plataformas como Meta, X y OpenAI facilitan que las personas creen imágenes ficticias. Si bien los medios de comunicación han descubierto que el chatbot de IA de X, Grok, puede generar imágenes de fraude electoral, otros chatbots son más restrictivos. El chatbot de Meta AI se negó a crear imágenes de Swift respaldando a Trump después de un intento de un periodista. “No puedo generar imágenes que puedan usarse para difundir información errónea o crear la impresión de que una figura pública ha respaldado a un candidato político en particular”, respondió el chatbot de Meta AI. Meta y TikTok citaron sus esfuerzos para etiquetar el contenido generado por IA y asociarse con verificadores de hechos. Por ejemplo, TikTok dijo que no está permitido un video generado por IA que muestre falsamente el respaldo político de una figura pública por parte de un individuo o grupo. X no respondió a una solicitud de comentarios. Cuando se le preguntó cómo Truth Social modera el contenido generado por IA, la empresa matriz de la plataforma, Trump Media and Technology Group Corp., acusó a los periodistas de «exigir más censura». Las pautas de la comunidad de Truth Social tienen reglas contra la publicación de fraude y spam, pero no explican cómo maneja el contenido generado por IA. Dado que las plataformas de redes sociales enfrentan amenazas de regulación y demandas judiciales, algunos expertos en desinformación son escépticos de que las redes sociales quieran moderar adecuadamente el contenido engañoso. Las redes sociales obtienen la mayor parte de su dinero de los anuncios, por lo que mantener a los usuarios en las plataformas durante más tiempo es «bueno para el negocio», dijo Farid. «Lo que atrae a la gente es el contenido absoluto, más conspirativo, odioso, salaz y enojado», dijo. “Eso es lo que somos como seres humanos”. Es una dura realidad de la que ni siquiera los Swifties podrán librarse. El redactor Mikael Wood contribuyó a este informe.