Los ciberataques impulsados ​​por inteligencia artificial están aumentando exponencialmente en la región de Asia y el Pacífico, en particular aquellos que involucran deepfakes. La Oficina de las Naciones Unidas contra la Droga y el Delito (UNODC) rastreó una variedad de amenazas de IA en su nuevo informe que cubre el cibercrimen en el Sudeste Asiático. Las bandas de ciberdelincuentes han estado utilizando IA generativa (GenAI) para crear mensajes de phishing en varios idiomas, chatbots que manipulan a las víctimas, desinformación masiva en las redes sociales y documentos falsos para eludir los controles de conocimiento de su cliente (KYC). Lo han estado utilizando para impulsar malware polimórfico capaz de evadir el software de seguridad e identificar objetivos ideales, entre otras actividades nefastas. Sin embargo, la amenaza más destacada son los deepfakes. De febrero a junio de 2024, la UNODC registró un aumento del 600 % en las menciones de deepfakes en canales de Telegram y foros clandestinos de ciberdelincuentes. Y eso va más allá de la intensa actividad de 2023, cuando los delitos de deepfake aumentaron más de un 1.500 % en comparación con el año anterior, y las inyecciones de intercambio de rostros aumentaron un 704 % en la segunda mitad del año en comparación con la primera. Proliferan los ataques deepfake Los líderes en ciberseguridad de Asia y el Pacífico, al igual que los de todo el mundo, anticipan una ola de problemas cibernéticos impulsados ​​por la IA. En una encuesta de Cloudflare centrada en Asia publicada el 9 de octubre, el 50% de los encuestados dijeron que esperan que la IA se utilice para descifrar contraseñas y cifrado, el 47% espera que impulse el phishing y la ingeniería social, el 44% cree que impulsará la denegación distribuida. ataques de servicio (DDoS) también, y el 40% considera que se utilizan para crear deepfakes y respaldar violaciones de privacidad. Sin embargo, la mayoría de esas preocupaciones, si no todas, ya no son teóricas, como pueden atestiguar algunas organizaciones. En enero, por ejemplo, un empleado de la oficina de Hong Kong de Arup, una empresa de ingeniería británica, recibió un correo electrónico que supuestamente provenía del director financiero (CFO) de la empresa en Londres. El director financiero ordenó al empleado que realizara una transacción financiera secreta. Posteriormente, el empleado se unió a una videoconferencia con el director financiero y otros participantes que pretendían ser miembros de la alta dirección, todos los cuales eran, en realidad, deepfakes. El resultado: en mayo, Arup informó haber perdido 200 millones de dólares de Hong Kong (25,6 millones de dólares). Los deepfakes de importantes figuras políticas se han difundido ampliamente, como las grabaciones de video y audio falsas del primer ministro y el viceprimer ministro de Singapur en diciembre de 2023, y el video falso de julio pasado que muestra a un jefe de estado del sudeste asiático con drogas ilícitas. En Tailandia, una mujer policía fue falsificada en una campaña en la que se engañaba a las víctimas haciéndoles creer que estaban hablando con agentes reales de la ley. Según la ONUDD, la mitad de todos los delitos de deepfake denunciados en Asia en 2023 provinieron de Vietnam (25,3%) y Japón (23,4%), pero el aumento más rápido de casos provino de Filipinas, que experimentó un 4.500% más en 2023 que en 2022. Todo está respaldado por un gran ecosistema de desarrolladores y compradores maliciosos, en Telegram y en rincones aún más oscuros de la Deep Web. La UNODC identificó más de 10 proveedores de software deepfake que prestan servicios específicamente a grupos de ciberdelincuentes en el sudeste asiático. Sus ofertas cuentan con lo último y lo mejor en tecnología deepfake, como MediaPipe Face Landmarker de Google, que captura expresiones faciales detalladas en tiempo real, el modelo de detección de objetos You Only Look Once v5 (YOLOv5) y mucho más. Por qué sufre Asia Aunque el cibercrimen impulsado por la IA amenaza a las organizaciones en todas partes del mundo, disfruta de algunas ventajas particulares en Asia. «El Sudeste Asiático está muy densamente poblado y una gran parte de la población no sabe inglés, o el inglés no es su lengua materna», señala Shashank Shekhar, editor en jefe de CloudSEK, con sede en India. Las señales típicas que podrían indicar una estafa para un hablante nativo de inglés podrían no traducirse para un hablante no nativo. Además de eso, señala, “mucha gente está desempleada, buscando empleo, buscando oportunidades”. La desesperación tiene el efecto de bajar las defensas de las víctimas. «Hay algunos tipos de estafas que sólo funcionan bien en esta parte del mundo», dice Anirudh Batra, investigador de amenazas de CloudSEK. «Las estafas más simples son particularmente frecuentes debido a la pobreza que ha experimentado esta región del mundo». Frente a fuerzas socioeconómicas intratables, es posible que esas viejas y cansadas líneas sobre educación e higiene cibernéticas no parezcan suficientes. En cambio, los ciberdelincuentes tendrán que ser bloqueados en la fuente: en esos foros y canales clandestinos donde intercambian sus herramientas de deepfake y sus ganancias en criptomonedas. Ya se ha hecho antes. «Es posible colaborando: diferentes países se unen y comparten inteligencia», dice Batra. Aunque advierte: “A menos que atrapen a estos tipos, mañana se abrirá otro foro. Se vuelve realmente difícil detenerlos, porque los actores de amenazas saben que las tres agencias de letras están mirando los foros: todos están rastreando todo. Por eso mantienen muchas copias de seguridad. En cualquier momento, si [their assets are] Si lo agarran, empezarán de nuevo con el espejo. URL de la publicación original: https://www.darkreading.com/threat-intelligence/ai-powered-cybercrime-cartels-asia