Un empleado de finanzas de una empresa global ha sido engañado para que transfiera 38,8 millones de dólares a estafadores que utilizaron tecnología avanzada de deepfake para organizar una reunión falsa con su jefe. Los estafadores pudieron utilizar tecnología de vanguardia para hacerse pasar por el director financiero de la empresa de Hong Kong durante una videollamada. El empleado de finanzas fue engañado con éxito y transfirió la suma de ocho cifras directamente a sus bolsillos. Este complejo fraude llevó al empleado a participar en una videoconferencia falsa bajo la impresión de que se reuniría con varios colegas. Sin embargo, las figuras con las que interactuó eran todas creaciones artificiales generadas por tecnología deepfake, según las autoridades de Hong Kong. “(En la) videoconferencia de varias personas, resulta que todos [he saw] era falso”, explicó el superintendente principal Baron Chan Shun-ching. El acto fraudulento que involucró al director financiero falso salió a la luz sólo después de que el trabajador de finanzas verificara la transacción con la oficina principal de la compañía. El incidente se encuentra entre los últimos de una serie de fraudes en los que los delincuentes han explotado la tecnología deepfake para manipular vídeos existentes y otros medios con fines de estafas financieras. Durante la misma conferencia de prensa, los agentes de policía de Hong Kong revelaron que habían arrestado a seis personas en relación con esquemas de fraude similares. Chan mencionó además que entre julio y septiembre del año anterior año, los estafadores utilizaron ocho documentos de identidad robados de Hong Kong, declarados perdidos, para presentar 90 solicitudes de préstamos y registrar 54 cuentas bancarias. La tecnología deepfake se empleó al menos en 20 ocasiones para eludir las medidas de seguridad de reconocimiento facial imitando las identidades de los titulares de las tarjetas. Los críticos de esta tecnología altamente avanzada han predicho durante mucho tiempo las repercusiones potencialmente catastróficas que rodean la creación de imágenes ultrarrealistas de IA y su uso en estafas. Los deepfakes tienen potencial para aplicaciones legítimas en entretenimiento, educación y creación de contenido, pero también han dado lugar a formas más creativas de estafas y actividades maliciosas. Para crear un deepfake, se necesitan cantidades sustanciales de datos (imágenes o secuencias de video) de la persona objetivo. recogido. Cuantos más datos estén disponibles, más convincente puede ser el deepfake. Con la explosión de las redes sociales en los últimos 20 años, junto con el hecho de que cada vez más propietarios de teléfonos inteligentes utilizan su rostro para desbloquear su dispositivo, los estafadores y piratas informáticos sofisticados tienen una presencia cada vez mayor. una mezcla heterogénea de información a su disposición. Personas de alto perfil se han transformado regularmente en videos falsos para promover estafas en las redes sociales. Recientemente, la imagen del multimillonario australiano Dr. Andrew Forrest se utilizó en una estafa de videos criptográficos falsos. El empresario y magnate minero, apodado Twiggy, se utilizó su identidad para diseñar un plan para hacerse rico rápidamente con el anuncio que circula en Instagram. El video manipulado, que apareció a fines del mes pasado en la plataforma propiedad de Meta, muestra al ‘Dr. Forrest’ instando a los usuarios a registrarse para una plataforma fraudulenta que promete hacer ganar a la “gente común” miles de dólares diarios. Luego lleva a las víctimas a un sitio web llamado “Quantum AI”, que se ha convertido en un nombre asociado con estafas y fraudes financieros, según Cybertrace, la organización liderada por inteligencia. empresa de investigaciones cibernéticas que identificó el video de la estafa. El clip fue cuidadosamente editado a partir de una “charla junto a la chimenea” de Rhodes Trust, cambiando la apariencia y el comportamiento del Dr. Forrest para que parezca que está promocionando software para el comercio de criptomonedas. También existen grandes riesgos de desinformación como deepfakes se vuelven cada vez más comunes en línea. Los analistas estadounidenses ya han dado la alarma sobre las falsificaciones de audio en el período previo a las elecciones estadounidenses de 2024, que se consideran una de las más apasionantes de los últimos tiempos. Una llamada automática en la que aparece un falso presidente estadounidense, Joe Biden, ha generado especial alarma sobre los audios falsificados. La llamada automática instó a los residentes de New Hampshire a no emitir su voto en las primarias demócratas del mes pasado, lo que llevó a las autoridades estatales a iniciar una investigación sobre una posible supresión de votantes. Los reguladores estadounidenses han estado considerando ilegalizar las llamadas automáticas generadas por IA, y la llamada falsa de Biden dio un nuevo impulso al esfuerzo. “El momento político del deepfake está aquí”, dijo Robert Weissman, presidente del grupo de defensa Public Citizen. “Los formuladores de políticas deben apresurarse a implementar protecciones o Estamos ante un caos electoral. El deepfake de New Hampshire es un recordatorio de las muchas formas en que los deepfake pueden sembrar confusión”. Los investigadores temen el impacto de las herramientas de inteligencia artificial que crean videos y textos tan aparentemente reales que los votantes podrían tener dificultades para descifrar la verdad de la ficción, socavando la confianza en el proceso electoral. Pero los deepfakes de audio utilizados para suplantar o difamar a celebridades y políticos de todo el mundo han generado la mayor preocupación. “De todas las superficies (video, imagen, audio) en las que la IA puede usarse para suprimir votantes, el audio es la mayor vulnerabilidad”, Tim Harper , dijo a la AFP un analista político del Centro para la Democracia y la Tecnología. “Es fácil clonar una voz usando IA, y es difícil de identificar”. Publicado originalmente como Trabajador financiero de una empresa global engañado para transferir 38 millones de dólares después de un deepfake Los estafadores se hacen pasar por su jefe.

Source link