Inteligencia artificial y aprendizaje automático, gobernanza y gestión de riesgos, tecnologías de próxima generación y desarrollo seguro Las empresas ansiosas por herramientas están anteponiendo el poder transformador de la IA a la seguridad Rashmi Ramesh (rashmiramesh_) •25 de junio de 2024 Oh, no, no todos los administradores de Ollama se han parcheado el defecto “Probllama”. (Imagen: Shutterstock) Los piratas informáticos que apuntan a un popular proyecto de código abierto para ejecutar inteligencia artificial Ollama podrían toparse con un gran «Probllama» si aún no lo han parcheado. Ver también: Introducción a Ruby AI Security de Rubrik Los investigadores de Wiz revelaron el lunes que descubrieron una vulnerabilidad de ejecución remota de código Ollama fácil de explotar cuyo nombre es (y probablemente no podría ser mejor que) Probllama. La falla, rastreada como CVE-2024-37032, recibió un parche el 7 de mayo. Una «gran cantidad» de instancias no se han actualizado a principios de este mes, dijo Wiz. Las empresas han “dejado de lado en gran medida” las medidas de seguridad de la IA en favor de centrarse en su poder transformador, mientras que los clientes están adoptando rápidamente nuevas herramientas e infraestructura para obtener una ventaja competitiva, dijo Wiz. Pero estas herramientas son los “objetivos perfectos” para los actores de amenazas, ya que su etapa inicial de desarrollo generalmente carece de características de seguridad estandarizadas como la autenticación, y es relativamente más fácil encontrar fallas en una base de código más joven. Ollama no tiene un proceso de autenticación incorporado, por lo que los investigadores recomiendan no exponer las instalaciones a Internet a menos que las empresas usuarias tengan sus propios procesos de seguridad. «El problema crítico no son sólo las vulnerabilidades en sí mismas, sino la falta inherente de soporte de autenticación en estas nuevas herramientas», dijo Sagi Tzadik, investigador de Wiz. Otras herramientas similares a Ollama, como TorchServe y Ray Anyscale, también eran anteriormente vulnerables a fallas de RCE. Ollama simplifica el proceso de empaquetar e implementar modelos de inteligencia artificial. Su servidor proporciona puntos finales API, incluido uno que permite a los usuarios descargar modelos del registro de Ollama y otros registros privados. Compatible con LLM como Meta’s Llama, Microsoft’s Phi y los modelos Mistral, Ollama es uno de los proyectos más populares para ejecutar un modelo de IA, con cientos de miles de extracciones por mes en el repositorio Docker Hub y más de 70.000 estrellas en GitHub. Cuando los usuarios extraen un modelo de un registro privado, los piratas informáticos pueden incrustar un archivo de manifiesto malicioso y potencialmente comprometer el entorno que alberga un servidor Ollama vulnerable. Los atacantes pueden aprovechar la falla enviando una solicitud HTTP especialmente diseñada al servidor API de Ollama, que es público en las instalaciones de Docker. La falla es causada por una validación insuficiente en el lado del servidor, dijo Tzadik. “Al extraer un modelo de un registro privado, consultando el enlace http://[victim]:11434/api/pull API endpoint, es posible proporcionar un archivo de manifiesto malicioso que contenga una carga útil de recorrido de ruta en el campo de resumen”, dijo en un correo electrónico. Los piratas informáticos podrían usar esa carga útil para leer y corromper archivos sin permiso en el sistema comprometido y ejecutar código vulnerable de forma remota. La facilidad de explotación era «extremadamente grave» en las instalaciones de Docker, dijo Tzadik. URL de la publicación original: https://www.databreachtoday.com/patched-weeks-ago-rce-bug-in-ai-tool-still-probllama-a-25611