27 de agosto de 2024Ravie LakshmananSeguridad de IA / Vulnerabilidad Han surgido detalles sobre una vulnerabilidad ahora parcheada en Microsoft 365 Copilot que podría permitir el robo de información confidencial del usuario mediante una técnica llamada contrabando de ASCII. «El contrabando de ASCII es una técnica novedosa que utiliza caracteres Unicode especiales que reflejan ASCII pero que en realidad no son visibles en la interfaz de usuario», dijo el investigador de seguridad Johann Rehberger. «Esto significa que un atacante puede tener la [large language model] El ataque en su totalidad combina una serie de métodos de ataque para convertirlos en una cadena de explotación fiable. Esto incluye los siguientes pasos: Activar la inyección de aviso a través de contenido malicioso oculto en un documento compartido en el chat Utilizar una carga útil de inyección de aviso para indicar a Copilot que busque más correos electrónicos y documentos Aprovechar el contrabando de ASCII para incitar al usuario a hacer clic en un enlace para exfiltrar datos valiosos a un servidor de terceros El resultado neto del ataque es que los datos confidenciales presentes en los correos electrónicos, incluidos los códigos de autenticación multifactor (MFA), podrían transmitirse a un servidor controlado por el adversario. Desde entonces, Microsoft ha abordado los problemas tras la divulgación responsable en enero de 2024. El desarrollo se produce cuando se han demostrado ataques de prueba de concepto (PoC) contra el sistema Copilot de Microsoft para manipular respuestas, exfiltrar datos privados y esquivar las protecciones de seguridad, lo que destaca una vez más la necesidad de monitorear los riesgos en las herramientas de inteligencia artificial (IA). Los métodos, detallados por Zenity, permiten a los actores maliciosos realizar envenenamiento por generación aumentada de recuperación (RAG) e inyección indirecta de mensajes que conducen a ataques de ejecución remota de código que pueden controlar por completo Microsoft Copilot y otras aplicaciones de IA. En un escenario de ataque hipotético, un pirata informático externo con capacidades de ejecución de código podría engañar a Copilot para que proporcione a los usuarios páginas de phishing. Quizás uno de los ataques más novedosos es la capacidad de convertir la IA en una máquina de phishing selectivo. La técnica de trabajo en equipo rojo, denominada LOLCopilot, permite a un atacante con acceso a la cuenta de correo electrónico de una víctima enviar mensajes de phishing que imitan el estilo de los usuarios comprometidos. Microsoft también ha reconocido que los bots de Copilot expuestos públicamente creados con Microsoft Copilot Studio y que carecen de protecciones de autenticación podrían ser una vía para que los actores de amenazas extraigan información confidencial, suponiendo que tengan conocimiento previo del nombre o la URL de Copilot. «Las empresas deben evaluar su tolerancia y exposición al riesgo para evitar fugas de datos de Copilots (anteriormente Power Virtual Agents) y habilitar la prevención de pérdida de datos y otros controles de seguridad en consecuencia para controlar la creación y publicación de Copilots», afirmó Rehberger. ¿Te resultó interesante este artículo? Síguenos en Twitter  y LinkedIn para leer más contenido exclusivo que publicamos.