Los investigadores de seguridad cibernética han demostrado una nueva técnica de inyección rápida llamada TISTFIX que engaña a un modelo generativo de inteligencia artificial (Genai) para llevar a cabo acciones previstas al incrustar la instrucción maliciosa dentro de una verificación falsa de Captcha en una página web. Descrito por Guardio Labs, una «toma de la era de A-A-en la estafa de clickfix», la técnica de ataque demuestra cómo los navegadores impulsados por la IA, como el cometa de Perplexity, que prometen automatizar tareas mundanas como compras para artículos en línea o que manejan los correos electrónicos en el nombre de los usuarios de los usuarios. «Con PromptFix, el enfoque es diferente: no tratamos de ver al modelo a la obediencia», dijeron los investigadores de Guardio Nati Tal y sacudieron Chen. «En cambio, lo engañamos utilizando técnicas tomadas del libro de jugadas de ingeniería social humana, atrayendo directamente a su objetivo de diseño central: ayudar a su humano rápidamente, por completo y sin dudarlo». Esto lleva a una nueva realidad que la compañía llama Scamlexity, un portmanteau de los términos «estafa» y «complejidad», donde la IA agente, los sistemas que pueden buscar objetivos de forma autónoma, tomar decisiones y tomar medidas con una supervisión humana mínima, lleva estafas a un nivel completamente nuevo. Con asistentes de codificación con AI como adorable demostrado que son susceptibles a técnicas como Vibescamming, un atacante puede engañar efectivamente al modelo AI para que entregue información confidencial o realice compras en sitios web parecidos que se disfrazan de Walmart. Todo esto se puede lograr emitiendo una instrucción tan simple como «Comprar un Apple Watch» después de que el humano aterriza en el sitio web falso en cuestión a través de uno de los diversos métodos, como anuncios de redes sociales, mensajes de spam o envenenamiento de optimización de motores de búsqueda (SEO). La escamlexidad es «una nueva era compleja de estafas, donde la conveniencia de IA choca con una nueva superficie de estafa invisible y los humanos se convierten en el daño colateral», dijo Guardio. La compañía de seguridad cibernética dijo que realizó la prueba varias veces en Comet, y el navegador solo se detiene ocasionalmente y le pide al usuario humano que complete el proceso de pago manualmente. Pero en varios casos, el navegador entró todo, agregando el producto al carrito y llenando automáticamente la dirección guardada del usuario y los detalles de la tarjeta de crédito sin pedir su confirmación en un sitio de compras falso. En una línea similar, se ha descubierto que pedirle a Comet que revise sus mensajes de correo electrónico para cualquier elemento de acción es suficiente para analizar los correos electrónicos de spam que pretenden ser de su banco, haga clic automáticamente en un enlace integrado en el mensaje e ingrese las credenciales de inicio de sesión en la página de inicio de sesión falsa. «El resultado: una cadena de confianza perfecta que se volvió pícaro. Al manejar toda la interacción del correo electrónico al sitio web, Comet efectivamente respondió para la página de phishing», dijo Guardio. «El humano nunca vio la dirección sospechosa del remitente, nunca se cernía sobre el enlace, y nunca tuvo la oportunidad de cuestionar el dominio». Eso no es todo. A medida que las inyecciones rápidas continúan afectando a los sistemas de IA de manera directa e indirecta, los navegadores de IA también tendrán que lidiar con las indicaciones ocultas ocultas dentro de una página web que es invisible para el usuario humano, pero que el modelo AI puede analizar las acciones no intencionadas. Este llamado Attfix Attack está diseñado para convencer al modelo AI de que haga clic en botones invisibles en una página web para evitar los cheques de Captcha y descargar cargas útiles maliciosas sin ninguna participación por parte del usuario humano, lo que resulta en un ataque de descarga. «PromptFix solo funciona en Comet (que realmente funciona como un agente de IA) y, para el caso, también en el modo de agente de ChatGPT, donde logramos hacer clic en el botón o llevar a cabo acciones según las instrucciones», dijo Guardio a The Hacker News. «La diferencia es que en el caso de ChatGPT, el archivo descargado aterriza dentro de su entorno virtual, no directamente en su computadora, ya que todo todavía se ejecuta en una configuración de sandboxed». Los hallazgos muestran la necesidad de que los sistemas de IA vayan más allá de las defensas reactivas para anticipar, detectar y neutralizar estos ataques mediante la construcción de barandillas robustas para la detección de phishing, verificaciones de reputación de URL, falsificación de dominio y archivos maliciosos. El desarrollo también se produce cuando los adversarios se apoyan cada vez más en plataformas Genai como constructores de sitios web y asistentes de escritura para crear contenido realista de phishing, marcas de confianza clon y automatizar la implementación a gran escala utilizando servicios como constructores de sitios de bajo código, según Palo Alto Networks Unit 42. Lo que es más, los asistentes de codificación de IA pueden exponer inadvertidamente el código propaño o el código sensible a la propiedad sensible, la creación de los puntos de entrada potencial de la compañía. La firma de seguridad empresarial, Proofpoint, dijo que ha observado «numerosas campañas que aprovechan los servicios adorables para distribuir kits de phishing de autenticación multifactor (MFA) como el magnate, el malware, como los drenadores de billeteras de criptomonedas o los cargadores de malware, y los kits de phishing con tarjeta de crédito e información personal». Los sitios web falsificados creados con el uso adorable de CaptCha cheques que, cuando se resuelven, redirigen a una página de phishing de credencial de marca Microsoft. Se ha encontrado que otros sitios web se hacen pasar por servicios de envío y logística como UPS para engañar a las víctimas para que ingresen su información personal y financiera, o los lleven a páginas que descargan troyanos de acceso remoto como Zgrat. Las URL adorables también han sido abusadas por estafas de inversión y el phishing de la credencial bancaria, reduciendo significativamente la barrera de entrada para el delito cibernético. Desde entonces, Levable ha eliminado los sitios e implementado protecciones de seguridad impulsadas por la LA AI para evitar la creación de sitios web maliciosos. Otras campañas han aprovechado el contenido engañado engañoso distribuido en las plataformas de YouTube y las redes sociales para redirigir a los usuarios a sitios de inversión fraudulentos. Estas estafas de comercio de IA también se basan en blogs falsos y sitios de revisión, a menudo alojados en plataformas como Medium, Blogger y Pinterest, para crear una falsa sensación de legitimidad. Una vez que los usuarios aterrizan en estas plataformas falsas, se les pide que se registren para una cuenta comercial e instruyen por correo electrónico por su «gerente de cuentas» que haga un pequeño depósito inicial entre $ 100 y $ 250 para supuestamente activar las cuentas. La plataforma de negociación también los insta a proporcionar prueba de identidad para la verificación e ingrese su billetera de criptomonedas, tarjeta de crédito o detalles de banca por Internet como métodos de pago. Estas campañas, por grupo-IB, han atacado a los usuarios en varios países, incluidos India, el Reino Unido, Alemania, Francia, España, Bélgica, México, Canadá, Australia, la República Checa, Argentina, Japón y Turquía. Sin embargo, las plataformas fraudulentas son inaccesibles de las direcciones IP que se originan en los Estados Unidos e Israel. «Genai mejora las operaciones de los actores de amenaza en lugar de reemplazar las metodologías de ataque existentes», dijo CrowdStrike en su informe de caza de amenazas para 2025. «Los actores de amenazas de todas las motivaciones y niveles de habilidad casi seguramente aumentarán su uso de herramientas de Genai para la ingeniería social en el término cercano, particularmente a medida que estas herramientas se vuelven más disponibles, afortunadas de los usuarios y sofisticadas».
Deja una respuesta