Los deepfakes de IA generativa pueden alimentar información errónea o manipular imágenes de personas reales con fines desagradables. También pueden ayudar a los actores de amenazas a pasar la autenticación de dos factores, según un informe de investigación del 9 de octubre de CTRL Threat Research de Cato Networks. La IA genera videos de personas falsas mirando a una cámara. El actor de amenazas perfilado por CTRL Threat Research, conocido por el nombre de ProKYC, utiliza deepfakes para falsificar identificaciones gubernamentales y falsificar sistemas de reconocimiento facial. El atacante vende la herramienta en la web oscura a aspirantes a estafadores, cuyo objetivo final es infiltrarse en los intercambios de criptomonedas. Algunos intercambios requieren que el posible titular de una cuenta presente una identificación gubernamental y aparezca en vivo en un video. Con la IA generativa, el atacante crea fácilmente una imagen realista del rostro de una persona. La herramienta deepfake de ProKYC luego coloca esa imagen en una licencia de conducir o pasaporte falso. Las pruebas de reconocimiento facial de los intercambios de cifrado requieren una breve prueba de que la persona está presente frente a la cámara. La herramienta deepfake falsifica la cámara y crea una imagen creada por IA de una persona que mira de izquierda a derecha. VER: Meta es el último gigante de la inteligencia artificial en crear herramientas para videos fotorrealistas. Luego, el atacante crea una cuenta en el intercambio de criptomonedas utilizando la identidad de la persona inexistente generada. Desde allí, pueden utilizar la cuenta para lavar dinero obtenido ilegalmente o cometer otras formas de fraude. Este tipo de ataque, conocido como fraude de cuentas nuevas, causó pérdidas por 5.300 millones de dólares en 2023, según Javelin Research y AARP. Vender formas de irrumpir en las redes no es nuevo: los esquemas de ransomware como servicio permiten a los aspirantes a atacantes comprar su acceso a los sistemas. Más cobertura de IA de lectura obligada Cómo prevenir el fraude de nuevas cuentas El estratega jefe de seguridad de Cato Research, Etay Maor, ofreció varios consejos para que las organizaciones eviten la creación de cuentas falsas utilizando IA: Las empresas deben buscar características comunes en los videos generados por IA, como niveles muy altos Vídeos de calidad: la IA puede producir imágenes con mayor claridad que las que normalmente captura una cámara web estándar. Mire o busque fallas en videos generados por IA, especialmente irregularidades alrededor de los ojos y los labios. Recopile datos de inteligencia sobre amenazas de toda su organización en general. Puede ser complicado encontrar un equilibrio entre demasiado o muy poco escrutinio, escribió Maor en el informe de investigación de Cato Research. «Como se mencionó anteriormente, la creación de sistemas de autenticación biométrica que sean súper restrictivos puede generar muchas alertas falsas positivas», escribió. «Por otro lado, los controles laxos pueden dar lugar a fraude».