Michel Janse estaba de luna de miel cuando descubrió que había sido clonada. La creadora de contenido de 27 años estaba con su esposo en una cabaña alquilada en la nevada Maine cuando comenzaron a llegar mensajes de sus seguidores, advirtiendo que un comercial de YouTube estaba usando su imagen para promover suplementos para la disfunción eréctil. El comercial mostraba a Janse, una influenciadora cristiana de las redes sociales que publica sobre viajes, decoración del hogar y planificación de bodas, en su dormitorio real, vestida con su ropa real pero describiendo a una pareja inexistente con problemas de salud sexual. “Michael «Pasé años teniendo muchas dificultades para mantener una erección y teniendo un miembro muy pequeño», dice su doble en el anuncio. Los estafadores parecían haber robado y manipulado su video más popular, un relato emotivo de su divorcio anterior, probablemente usando una nueva ola. de herramientas de inteligencia artificial que facilitan la creación de deepfakes realistas, un término general para medios alterados o creados con IA. Con solo unos segundos de metraje, los estafadores ahora pueden combinar video y audio usando herramientas de compañías como HeyGen y Eleven Labs para generar una versión sintética de la voz de una persona real, cambiar el sonido de un video existente y animar los labios del hablante, haciendo que el resultado manipulado sea más creíble. Debido a que es más sencillo y económico basar videos falsos en contenido real, los malos actores están recogiendo videos. en las redes sociales que coinciden con la demografía de un argumento de venta, lo que lleva a lo que los expertos predicen será una explosión de anuncios hechos con identidades robadas. Celebridades como Taylor Swift, Kelly Clarkson, Tom Hanks y la estrella de YouTube MrBeast han utilizado sus imágenes en el pasado. seis meses para vender suplementos dietéticos engañosos, promociones de planes dentales y obsequios de iPhone. Pero a medida que estas herramientas proliferan, aquellos con una presencia más modesta en las redes sociales se enfrentan a un tipo similar de robo de identidad: encuentran sus rostros y palabras distorsionados por la IA para promocionar productos e ideas a menudo ofensivos. Los delincuentes en línea o los programas de desinformación patrocinados por el estado son esencialmente » administrar una pequeña empresa, donde cada ataque tiene un costo”, dijo Lucas Hansen, cofundador de la organización sin fines de lucro CivAI, que crea conciencia sobre los riesgos de la IA. Pero con herramientas promocionales baratas, “el volumen aumentará drásticamente”. La tecnología requiere sólo una pequeña muestra para funcionar, dijo Ben Colman, director ejecutivo y cofundador de Reality Defender, que ayuda a empresas y gobiernos a detectar deepfakes. , videos o imágenes existen públicamente, aunque sea por unos pocos segundos, se pueden clonar, alterar o fabricar fácilmente para que parezca como si hubiera sucedido algo completamente único”, escribió Colman por mensaje de texto. Los videos son difíciles de buscan y pueden propagarse rápidamente, lo que significa que las víctimas a menudo no saben que se están utilizando sus imágenes. Cuando Olga Loiek, una estudiante de 20 años de la Universidad de Pensilvania, descubrió que había sido clonada para un video de IA, casi 5,000 videos se había extendido a través de los sitios de redes sociales chinos. Para algunos de los vídeos, los estafadores utilizaron una herramienta de clonación de IA de la empresa HeyGen, según una grabación de mensajes directos compartida por Loiek con The Washington Post. En diciembre, Loiek vio un vídeo en el que aparecía una chica que se veía y sonaba exactamente igual a ella. . Fue publicado en Little Red Book, la versión china de Instagram, y el clon hablaba mandarín, un idioma que Loiek no conoce. En un video, Loiek, que nació y creció en Ucrania, vio a su clon, llamado Natasha, estacionado en frente a una imagen del Kremlin, diciendo “Rusia era el mejor país del mundo” y elogiando al presidente Vladimir Putin. «Me sentí extremadamente violada», dijo Loiek en una entrevista. “Estas son las cosas que obviamente nunca haría en mi vida”. Aquí se ve el clon falso de IA de Olga Loiek hablando mandarín. (Video: obtenido por The Washington Post) Los representantes de HeyGen y Eleven Labs no respondieron a las solicitudes de comentarios. Los esfuerzos para prevenir este nuevo tipo de robo de identidad han sido lentos. Los departamentos de policía con problemas de liquidez no están equipados para pagar costosas investigaciones de delitos cibernéticos o capacitar a oficiales dedicados, dijeron los expertos. No existe una ley federal sobre deepfakes y, si bien más de tres docenas de legislaturas estatales están impulsando proyectos de ley sobre inteligencia artificial, las propuestas que rigen los deepfakes se limitan en gran medida a anuncios políticos y pornografía no consensuada. Danielle Citron, profesora de la Universidad de Virginia, quien comenzó a advertir sobre los deepfakes en 2018, dijo No sorprende que la próxima frontera de la tecnología esté dirigida a las mujeres. Si bien algunas leyes estatales de derechos civiles restringen el uso de la cara o la imagen de una persona para anuncios, Citron dijo que presentar un caso es costoso y que los estafadores de IA en todo el mundo saben cómo «jugar el papel». juego jurisdiccional”. Algunas víctimas cuyo contenido de redes sociales ha sido robado dicen que se sienten impotentes con recursos limitados. YouTube dijo este mes que todavía estaba trabajando para permitir a los usuarios solicitar la eliminación de contenido generado por IA u otro contenido sintético o alterado que “ simula a un individuo identificable, incluido su rostro o su voz”, una política que la compañía prometió por primera vez en noviembre. En un comunicado, el portavoz Nate Funkhouser escribió: “Estamos invirtiendo mucho en nuestra capacidad para detectar y eliminar anuncios fraudulentos deepfake y los malos actores detrás ellos, como hicimos en este caso. Nuestra última actualización de la política de anuncios nos permite tomar medidas más rápidas para suspender las cuentas de los perpetradores”. La empresa administradora de Janse logró que YouTube eliminara rápidamente el anuncio. Pero para aquellos con menos recursos, rastrear anuncios deepfake o identificar al culpable puede ser desafiante. El video falso de Janse condujo a un sitio web con derechos de autor de una entidad llamada Vigor Wellness Pulse. El sitio fue creado este mes y registrado en una dirección en Brasil, según Groove Digital, una empresa de herramientas de marketing con sede en Florida que ofrece sitios web gratuitos y se utilizó para crear la página de destino. La página redirige a una larga carta en video que une fragmentos de pornografía dura con vídeos de archivo cursis. La propuesta es narrada por un hombre infelizmente divorciado que conoce a un urólogo jubilado convertido en playboy con una solución secreta para la disfunción eréctil: Boostaro, un suplemento disponible para comprar en forma de cápsulas. El director ejecutivo de Groove, Mike Filsaime, dijo que el servicio prohíbe el contenido para adultos y solo aloja la página de inicio, que evadió los detectores de la compañía porque no había contenido inapropiado allí. Filsaime, un entusiasta de la IA y autodenominado “Michael Jordan del marketing”, sugirió que los estafadores pueden buscar sitios de redes sociales para aplicar videos populares para sus propios fines. Pero con menos de 1.500 me gusta, el vídeo robado a Carrie Williams no fue el más popular. El verano pasado, la ejecutiva de recursos humanos de 46 años de Carolina del Norte recibió un mensaje en Facebook de la nada. Un viejo amigo le envió una captura de pantalla y le preguntó: «¿Eres tú?». La amiga le advirtió que estaba promocionando una técnica de mejora eréctil. El audio combinado con el rostro de Carrie Williams en el video falso de IA fue tomado de un anuncio de video protagonizado por la actriz de cine para adultos Lana Smalls. (Video: The Washington Post) Williams reconoció la captura de pantalla al instante. Era de un video de TikTok que había publicado dándole consejos a su hijo adolescente mientras enfrentaba insuficiencia renal y hepática en 2020. Pasó horas recorriendo el sitio de noticias donde el amigo afirmó haberlo visto, pero no apareció nada. Aunque Williams abandonó su búsqueda. Para el anuncio del año pasado, The Post la identificó en una publicación de Reddit sobre deepfakes. Vio el anuncio, publicado en YouTube, por primera vez la semana pasada en su habitación de hotel durante un viaje de trabajo. El anuncio de 30 segundos, que trata sobre el tamaño del pene de los hombres, es granulado y está mal editado. «Aunque ella puede estar feliz contigo, en el fondo definitivamente está enamorada de los grandes», dice la falsa Williams, con audio tomado de un video de YouTube de la actriz de cine para adultos Lana Smalls. Después de las preguntas de The Post, YouTube suspendió al anunciante. Cuenta ligada al deepfake de Williams. El agente de Smalls no respondió a las solicitudes de comentarios. Williams quedó desconcertado. A pesar de la mala calidad, fue más explícito de lo que temía. Estaba preocupada por su hijo de 19 años. “Me sentiría muy mortificada si él o su amigo lo viera”, dijo. “Nunca en un millón de años hubiera pensado que alguien haría uno de mí”, dijo. “Soy simplemente una madre de Carolina del Norte que vive su vida”. Heather Kelly y Samuel Oakford contribuyeron a este informe.

Source link