Al Roker nunca tuvo un ataque al corazón. No tiene hipertensión. Pero si viste un video reciente de Deepfake de él que se extendió por Facebook, podría pensar lo contrario. En un segmento reciente sobre NBC’s Today, Roker reveló que un video falso generado por la IA estaba usando su imagen y voz para promover una cura de hipertensión floja, reclamando, falsamente, que había sufrido «un par de ataques cardíacos». «Un amigo mío me envió un enlace y dijo: ‘¿Es esto real?'», Dijo Roker a la corresponsal de investigación Vicky Nguyen. «Y hice clic en él, y de repente, me veo y me escucho hablar de tener un par de ataques cardíacos. ¡No tengo hipertensión!» El clip fabricado se veía y sonaba lo suficientemente convincente como para engañar a amigos y familiares, incluidos algunos de los compañeros de celebridades de Roker. «¡Me parece a mí! Quiero decir, puedo decir que no soy yo, sino para el espectador casual, Al Roker está promocionando esta cura de hipertensión … He llamado a algunos amigos famosos porque sus padres fueron acogidos por él». Si bien Meta rápidamente eliminó el video de Facebook después de ser contactado hoy, el daño se realizó. El incidente destaca una preocupación creciente en la era digital: lo fácil que es crear y creer, convincir los defectos profundos. “Solíamos decir: ‘Ver es creer’. Bueno, eso está fuera de la ventana ahora ”, dijo Roker. Desde Al Roker hasta Taylor Swift: una nueva era de estafas al Roker no es la primera figura pública en ser atacada por las estafas de Deepfake. Taylor Swift apareció recientemente en un video generado por IA que promociona las ventas falsas de horneado. Tom Hanks ha hablado sobre un anuncio de plan dental falso que usó su imagen sin permiso. Oprah, Brad Pitt y otros han enfrentado una explotación similar. Estas estafas no solo confunden a los espectadores, sino que pueden defraudarlos. Los delincuentes usan el lugar de la gente de la confianza en caras familiares para promover productos falsos, atraerlos a inversiones sombrías o robar su información personal. «Es aterrador», dijo Roker a sus co-presentadores Craig Melvin y Dylan Dreyer. Craig agregó: «Lo que da miedo es que si aquí es donde está la tecnología ahora, entonces dentro de cinco años …» Nguyen demostró cuán simple es crear una falsa usando herramientas en línea gratuitas, y trajo al CEO de Brandshield Yoav Keren para subrayar el punto: «Creo que esto se está convirtiendo en uno de los mayores problemas en el mundo en línea», dijo Keren. «No creo que el consumidor promedio entienda … y estás empezando a ver más de estos videos». Por qué funcionan los defectos de profundidad, y por qué son peligrosos según el informe del estado del escamiverso de McAfee, el estadounidense promedio ve 2.6 videos de defake profundos por día, con la Generación Z viendo hasta 3.5 diariamente. Estas estafas están diseñadas para ser creíbles, porque la tecnología hace posible copiar la voz, los gestos y las expresiones de alguien con precisión aterradora. Y no solo afecta a las celebridades: los estafadores han falsificado a los CEO para autorizar transferencias fraudulentas de alambre. Han hecho pasar por familiares en crisis para robar dinero. Han realizado entrevistas de trabajo falsas para cosechar datos personales. Cómo protegerse de las estafas de Deepfake mientras que la tecnología detrás de Deepfakes avanza, todavía hay formas de detectar y detenerse: Ejemplo: Observe expresiones faciales extrañas, movimientos rígidos o labios fuera de sincronización con el habla. Escuche el audio robótico, las pausas faltantes o el ritmo antinatural. Busque iluminación que parezca inconsistente o mal representada. Verifique las afirmaciones impactantes a través de fuentes de confianza, especialmente si involucran dinero o asesoramiento de salud. Y lo más importante, sea escéptico de los avales de celebridades en las redes sociales. Si parece fuera de lugar o demasiado bueno para ser verdad, probablemente lo sea. Cómo las herramientas de IA de McAfee pueden ayudar al detector Deepfake de McAfee, impulsado por la Unidad de Procesamiento Neural de AMD (NPU) en los nuevos procesadores de la serie Ryzen ™ AI 300, identifica el audio y el video manipulados en tiempo real, dando a los usuarios una ventaja crítica en detectar falsificaciones. Esta tecnología se ejecuta localmente en su dispositivo para una detección privada más rápida y tranquilidad. La experiencia de Al Roker muestra cuán personales y persuasivas se han vuelto las estafas profundas. Desduzan la línea entre la verdad y la ficción, apuntando a su confianza en las personas que admira. Con McAfee, puedes defenderte. Presentación de protección y privacidad de robo de identidad McAfee+ para su vida digital. Descargue McAfee+ ahora \ x3cimg Height = «1» Width = «1» Style = «Display: None» src = «https://www.facebook.com/tr?id=766537420057144&ev=pageview&noScript=1″/> \ x3c/noscript> ‘);
Deja una respuesta