El uso malicioso de la IA está remodelando el panorama de fraude, creando grandes riesgos para las empresas 10 de marzo de 2025 •, 4 min. Leer la inteligencia artificial (AI) está haciendo cosas maravillosas para muchas empresas. Está ayudando a automatizar tareas repetitivas para la eficiencia y el ahorro de costos. Es sobrealimentar el servicio al cliente y la codificación. Y está ayudando a desenterrar información para impulsar una mejor toma de decisiones comerciales. En octubre de 2023, Gartner estimó que el 55% de las organizaciones estaban en modo piloto o de producción con IA generativa (Genai). Esa cifra seguramente será más alta hoy. Sin embargo, las empresas criminales también están innovando con la tecnología, y eso deletrea malas noticias para los líderes de TI y empresas en todas partes. Para abordar esta creciente amenaza de fraude, necesita una respuesta en capas que se centre en las personas, el proceso y la tecnología. ¿Cuáles son las últimas amenazas de IA y Deepfake? Los ciberdelincuentes están aprovechando el poder de la IA y los profundos de varias maneras. Incluyen: empleados falsos:, según los informes, cientos de empresas han sido infiltradas por los norcoreanos que se hacen pasar por trabajadores remotos de trabajo independiente. Utilizan herramientas de IA para compilar currículums falsos y documentos forjados, incluidas las imágenes manipuladas con AI-AI, para aprobar verificaciones de antecedentes. El objetivo final es ganar dinero para enviar al régimen de Corea del Norte, así como al robo de datos, el espionaje e incluso el ransomware. Se está utilizando una nueva raza de estafas BEC: Audio de Deepfake y videoclips para amplificar el fraude de tipo de compromiso de correo electrónico comercial (BEC), donde los trabajadores financieros se engañan para transferir fondos corporativos a cuentas bajo el control del estafador. En un caso infame reciente, un trabajador financiero fue persuadido para transferir $ 25 millones a los estafadores que aprovecharon los defectos de Deepfakes para posar como CFO de la compañía y otros miembros del personal en una videoclama. Sin embargo, esto no es nuevo: ya en 2019, un ejecutivo de energía del Reino Unido fue engañado para cablear £ 200,000 a estafadores después de hablar con una versión de su jefe en el teléfono. Bypass de autenticación: los profundos también se están utilizando para ayudar a los estafadores a hacerse pasar por clientes legítimos, crear nuevos personajes y omitir las verificaciones de autenticación para la creación de cuentas y los registros. Una pieza de malware particularmente sofisticada, GoldPickaxe, está diseñada para cosechar datos de reconocimiento facial, que luego se utiliza para crear videos de Deepfake. Según un informe, el 13.5% de todas las aberturas de cuentas digitales globales se sospechaban de actividad fraudulenta el año pasado. Estafas de profundos: los ciberdelincuentes también pueden usar defensores profundos de maneras menos específicas, como hacerse pasar por los CEO de la compañía y otras figuras de alto perfil en las redes sociales, para obtener más inversiones y otras estafas. Como ha demostrado Jake Moore de Eset, teóricamente cualquier líder corporativo podría ser víctima de la misma manera. En una nota similar, como describe el último informe de amenazas de Eset, los ciberdelincuentes están aprovechando los profundos y las publicaciones en las redes sociales con la marca de la compañía para atraer a las víctimas como parte de un nuevo tipo de fraude de inversión llamado Nomani. Cracking de contraseña: los algoritmos de IA se pueden configurar para trabajar en las contraseñas de clientes y empleados, habilitando el robo de datos, el ransomware y el fraude de identidad masiva. Según los informes, uno de ello, Passgan, puede descifrar contraseñas en menos de medio minuto. Las falsificaciones de documentos: los documentos generados por IA o alterados son otra forma de evitar los controles de su cliente (KYC) en los bancos y otras compañías. También se pueden usar para fraude de seguros. Casi todos los (94%) reclamos de reclamos sospechan que al menos el 5% de las reclamaciones están siendo manipuladas con IA, especialmente reclamos de valor más bajo. Phishing and Reconnaissance: el Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC) advirtió que los cibercriminales de elevación están obteniendo de los tipos generativos y de otros tipos de IA. A principios de 2024 afirmó que la tecnología «casi seguramente aumentará el volumen y aumentará el impacto de los ataques cibernéticos en los próximos dos años». Tendrá un impacto particularmente alto en mejorar la efectividad de la ingeniería social y el reconocimiento de los objetivos. Esto alimentará el ransomware y el robo de datos, así como los ataques de phishing de amplio alcance a los clientes. ¿Cuál es el impacto de las amenazas de IA? El impacto del fraude habilitado para la AI es, en última instancia, un daño financiero y reputacional de diversos grados. Un informe estima que el 38% de los ingresos perdidos por fraude durante el año pasado se debió al fraude impulsado por la IA. Considere cómo: KYC Bypass permite a los estafadores ejecutar el crédito y drenar las cuentas legítimas de los clientes de los fondos. Los empleados falsos podrían robar IP confidencial y información regulada al cliente, creando dolores de cabeza financieros, de reputación y cumplimiento. Las estafas de BEC pueden generar grandes pérdidas únicas. La categoría ganó cibercriminales más de $ 2.9 mil millones solo en 2023. Las estafas de suplantación amenazan la lealtad del cliente. Un tercio de los clientes dicen que se alejarán de una marca que aman después de solo una mala experiencia. Presionar contra el fraude habilitado para la AI que lucha contra este aumento en el fraude habilitado para la AI se requiere una respuesta de varias capas, centrada en las personas, el proceso y la tecnología. Esto debe incluir: evaluaciones de riesgos de fraude frecuentes Una actualización de las políticas anti-fraude para hacerlos programas integrales de capacitación y conciencia para el personal (por ejemplo, sobre cómo detectar phishing y profundos) programas de educación y conciencia para los clientes que cambian en la autenticación multifactores (MFA) para todos los empleados sensibles y los clientes mejoran los cheques de antecedentes para los empleados, al igual que los clientes que se encuentran en los videocámaras de los videocléticos para los videocletos de la carrera, los videocletos de la carrera, los videocletos de la carrera, los videocletos de la carrera, se aseguran todos los empleados, los videocletos de la carrera, los videocletos de la carrera, se aseguran todos los empleados para los empleados. Antes de contratar, mejorar la colaboración entre los equipos de recursos humanos y los equipos de ciberseguridad AI Tech también se puede usar en esta pelea, por ejemplo: herramientas con IA para detectar defensores profundos (por ejemplo, en controles de KYC). Algoritmos de aprendizaje automático para detectar patrones de comportamiento sospechoso en los datos del personal y los clientes. Genai para generar datos sintéticos, con los cuales se pueden desarrollar, probar y capacitar nuevos modelos de fraude. A medida que la batalla entre la IA maliciosa y benevolente ingresa a una nueva fase intensa, las organizaciones deben actualizar sus políticas cibernéticas y anti-fraude para garantizar que sigan el ritmo del panorama de amenazas en evolución. Con tanto en juego, la incapacidad de hacerlo podría afectar la lealtad del cliente a largo plazo, el valor de la marca e incluso descarrilar importantes iniciativas de transformación digital. AI tiene el potencial de cambiar el juego para nuestros adversarios. Pero también puede hacerlo para los equipos de seguridad corporativa y riesgos.
Deja una respuesta