Cuando los deepfakes sexualmente explícitos de Taylor Swift se volvieron virales en X (anteriormente conocido como Twitter), millones de sus fanáticos se unieron para enterrar las imágenes de IA con publicaciones que decían «Protege a Taylor Swift». La medida funcionó, pero no pudo evitar que la noticia llegara a todos los medios importantes. En los días siguientes, se llevó a cabo una conversación en toda regla sobre los daños de los deepfakes, y la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, pidió una legislación para proteger a las personas del contenido dañino de la IA. Pero aquí está el trato: si bien el incidente que involucró a Swift fue nada menos que alarmante, no es el primer caso de contenido generado por IA que daña la reputación de una celebridad. Ha habido varios casos de celebridades famosas y personas influyentes que han sido blanco de deepfakes en los últimos años, y la situación solo empeorará con el tiempo. “Con un vídeo corto tuyo, hoy puedes crear un vídeo nuevo en el que el diálogo esté impulsado por un guión. Es divertido si quieres clonarte, pero la desventaja es que otra persona puede crear con la misma facilidad un vídeo tuyo difundiendo desinformación y potencialmente infligir daño a la reputación”, dijo a VentureBeat Nicos Vekiarides, director ejecutivo de Attestiv, una empresa que crea herramientas para la validación de fotografías y videos. A medida que las herramientas de inteligencia artificial capaces de crear contenido deepfake continúen proliferando y volviéndose más avanzadas, Internet estará lleno de imágenes y videos engañosos. Esto plantea la pregunta: ¿cómo pueden las personas identificar qué es real y qué no? Evento VB The AI ​​Impact Tour – Nueva York Estaremos en Nueva York el 29 de febrero en asociación con Microsoft para discutir cómo equilibrar los riesgos y las recompensas de las aplicaciones de IA. Solicite una invitación al evento exclusivo a continuación. Solicite una invitación Comprender los deepfakes y sus amplios daños. Un deepfake puede describirse como la imagen, video o audio artificial de cualquier individuo creado con la ayuda de tecnología de aprendizaje profundo. Este tipo de contenido existe desde hace varios años, pero empezó a aparecer en los titulares a finales de 2017, cuando un usuario de Reddit llamado «deepfake» empezó a compartir imágenes y vídeos pornográficos generados por IA. Inicialmente, estos deepfakes giraban en gran medida en torno al intercambio de rostros, donde la imagen de una persona se superponía a vídeos e imágenes existentes. Esto requirió mucha potencia de procesamiento y conocimiento especializado. Sin embargo, durante el último año, el auge y la difusión de la tecnología de IA generativa basada en texto ha brindado a cada individuo la capacidad de crear contenido manipulado casi realista, retratando a actores y políticos de maneras inesperadas para engañar a los usuarios de Internet. “Es seguro decir que los deepfakes ya no son el ámbito de los artistas gráficos o los piratas informáticos. Crear deepfakes se ha vuelto increíblemente fácil con marcos generativos de conversión de texto a fotografía con IA como DALL-E, Midjourney, Adobe Firefly y Stable Diffusion, que requieren poca o ninguna experiencia artística o técnica. De manera similar, los marcos de video deepfake están adoptando un enfoque similar con la conversión de texto a video, como Runway, Pictory, Invideo, Tavus, etc.”, explicó Vekiarides. Si bien la mayoría de estas herramientas de inteligencia artificial tienen barreras de seguridad para bloquear mensajes potencialmente peligrosos o aquellos que involucran a personas famosas, los actores maliciosos a menudo encuentran formas o lagunas para evitarlas. Al investigar el incidente de Taylor Swift, el medio de noticias de tecnología independiente 404 Media descubrió que las imágenes explícitas se generaron aprovechando las lagunas (que ahora están solucionadas) en las herramientas de inteligencia artificial de Microsoft. De manera similar, se utilizó Midjourney para crear imágenes de IA del Papa Francisco con una chaqueta acolchada y se utilizó la plataforma de voz de IA ElevenLabs para la controvertida llamada automática de Joe Biden. Probablemente hayas visto en las noticias a varias generaciones del Papa Francisco vistiendo una acogedora chaqueta blanca. Me encantaría ver a tus generaciones inspiradas por ello. Aquí hay una sugerencia del creador original Guerrero Art (Pablo Xavier): el Papa católico Francisco con una chaqueta hinchada de Balenciaga en taladro rap… pic.twitter.com/5WA2UTYG7b— Kris Kashtanova (@icreatelife) 28 de marzo de 2023 Este tipo de accesibilidad puede tener mucho -alcanzando consecuencias, desde arruinar la reputación de figuras públicas y engañar a los votantes antes de las elecciones hasta engañar a personas desprevenidas para cometer fraudes financieros inimaginables o eludir los sistemas de verificación establecidos por las organizaciones. «Hemos estado investigando esta tendencia durante algún tiempo y hemos descubierto un aumento en lo que llamamos ‘cheapfakes’, que es cuando un estafador toma algunas secuencias de video reales, generalmente de una fuente creíble como un medio de comunicación, y las combina con IA. «Audio generado y falso en la misma voz de la celebridad o figura pública… Las imágenes clonadas de celebridades como Taylor Swift son atractivos señuelos para estas estafas, ya que su popularidad las convierte en nombres muy conocidos en todo el mundo», Steve Grobman, CTO de la empresa de seguridad de Internet. McAfee, dijo a VentureBeat. Según el informe de Fraude de Identidad de Sumsub, solo en 2023, se multiplicó por diez el número de deepfakes detectados a nivel mundial en todas las industrias, y las criptomonedas enfrentaron la mayoría de los incidentes con un 88%. A esto le siguió la tecnología financiera con un 8%. La gente está preocupada Dado el meteórico ascenso de los generadores de inteligencia artificial y las herramientas de intercambio de rostros, combinado con el alcance global de las plataformas de redes sociales, la gente ha expresado su preocupación por ser engañados por los deepfakes. En la encuesta Deepfakes de 2023 de McAfee, el 84% de los estadounidenses expresaron su preocupación sobre cómo se explotarán los deepfakes en 2024, y más de un tercio dijo que ellos o alguien que conocen han visto o experimentado una estafa de deepfakes. Lo que es incluso preocupante aquí es el hecho de que la tecnología que impulsa las imágenes, el audio y el vídeo maliciosos aún está madurando. A medida que mejore, su abuso será más sofisticado. “La integración de la inteligencia artificial ha llegado a un punto en el que distinguir entre contenido auténtico y manipulado se ha convertido en un desafío formidable para la persona promedio. Esto plantea un riesgo importante para las empresas, ya que tanto los individuos como las organizaciones diversas ahora son vulnerables a ser víctimas de estafas deepfake. En esencia, el aumento de los deepfakes refleja una tendencia más amplia en la que los avances tecnológicos, alguna vez anunciados por su impacto positivo, ahora… plantean amenazas a la integridad de la información y la seguridad de empresas e individuos por igual”, Pavel Goldman-Kalaydin, jefe de AI y ML en Sumsub, dijo a VentureBeat. Cómo detectar deepfakes A medida que los gobiernos continúan haciendo su parte para prevenir y combatir el contenido deepfake, una cosa está clara: lo que estamos viendo ahora se va a multiplicar, porque el desarrollo de la IA no se va a desacelerar. Esto hace que sea muy importante para el público en general saber distinguir entre lo que es real y lo que no lo es. Todos los expertos que hablaron con VentureBeat sobre el tema convergieron en dos enfoques clave para la detección de deepfake: analizar el contenido en busca de pequeñas anomalías y verificar dos veces la autenticidad de la fuente. Actualmente, las imágenes generadas por IA son casi realistas (la Universidad Nacional de Australia descubrió que las personas ahora encuentran que los rostros blancos generados por IA son más reales que los rostros humanos), mientras que los videos de IA están en el camino para llegar allí. Sin embargo, en ambos casos, puede haber algunas inconsistencias que podrían revelar que el contenido es producido por IA. “Si se detecta alguna de las siguientes características (movimiento antinatural de las manos o los labios, fondo artificial, movimiento desigual, cambios en la iluminación, diferencias en los tonos de la piel, patrones de parpadeo inusuales, mala sincronización de los movimientos de los labios con el habla o artefactos digitales), el contenido es probablemente generado”, dijo Goldman-Kalaydin al describir anomalías en videos de IA. Un deep fake del CEO de Tesla, Elon Musk. Para las fotografías, Vekiarides de Attestiv recomendó buscar sombras faltantes y detalles inconsistentes entre los objetos, incluida una mala representación de los rasgos humanos, particularmente manos/dedos y dientes, entre otros. Matthieu Rouif, director ejecutivo y cofundador de Photoroom, también reiteró los mismos artefactos y señaló que las imágenes de IA también tienden a tener un mayor grado de simetría que los rostros humanos. Entonces, si el rostro de una persona en una imagen parece demasiado bueno para ser verdad, es probable que sea generado por IA. Por otro lado, si ha habido un intercambio de rostros, es posible que haya algún tipo de combinación de rasgos faciales. Pero, repito, estos métodos sólo funcionan en el presente. Cuando la tecnología madure, es muy probable que estas lagunas visuales sean imposibles de encontrar a simple vista. Aquí es donde entra en juego el segundo paso de mantenerse alerta. Según Rauif, cada vez que aparece una imagen o un vídeo cuestionable en el feed, el usuario debe abordarlo con una dosis de escepticismo, teniendo en cuenta la fuente del contenido, sus posibles sesgos e incentivos. para crear el contenido. “Todos los videos deben considerarse en el contexto de su intención. Un ejemplo de una señal de alerta que puede indicar una estafa es solicitar a un comprador que utilice formas de pago no tradicionales, como criptomonedas, para un trato que parece demasiado bueno para ser verdad. Alentamos a las personas a cuestionar y verificar la fuente de los videos y a tener cuidado con cualquier respaldo o publicidad, especialmente cuando se les pide que entreguen información personal o dinero”, dijo Grobman de McAfee. Para contribuir aún más a los esfuerzos de verificación, los proveedores de tecnología deben tomar medidas para crear tecnologías de detección sofisticadas. Algunos actores principales, incluidos Google y ElevenLabs, ya han comenzado a explorar esta área con tecnologías para detectar si un contenido es real o generado a partir de sus respectivas herramientas de inteligencia artificial. McAfee también lanzó un proyecto para marcar el audio generado por IA. “Esta tecnología utiliza una combinación de modelos de detección contextuales, conductuales y categóricos basados ​​en IA para identificar si el audio de un vídeo probablemente haya sido generado por IA. Actualmente, con una tasa de precisión del 90%, podemos detectar y proteger contra contenido de IA creado para ‘cheapfakes’ o deepfakes maliciosos, brindando capacidades de protección incomparables a los consumidores”, explicó Grobman. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.


Source link