Con el objetivo de facilitar el desarrollo de aplicaciones de IA generativa, Meta está compartiendo sus primeras distribuciones oficiales de Llama Stack, para simplificar la forma en que los desarrolladores trabajan con los modelos de lenguaje grande (LLM) de Llama en diferentes entornos. Presentadas el 25 de septiembre, las distribuciones de Llama Stack empaquetan múltiples proveedores de API de Llama Stack que funcionan bien juntos para proporcionar un único punto final para los desarrolladores, anunció Meta en una publicación de blog. Llama Stack define los componentes básicos para llevar al mercado aplicaciones de IA generativa. Estos componentes básicos abarcan el ciclo de vida del desarrollo, desde el entrenamiento y el ajuste del modelo hasta la evaluación del producto y la creación y ejecución de agentes de IA y aplicaciones de generación aumentada de recuperación (RAG) en producción. Puede encontrar un repositorio de especificaciones de Llama Stack API en GitHub. Meta también está creando proveedores para las API de Llama Stack. La compañía busca garantizar que los desarrolladores puedan ensamblar soluciones de inteligencia artificial utilizando piezas consistentes y entrelazadas en todas las plataformas. Las distribuciones de Llama Stack están destinadas a permitir a los desarrolladores trabajar con modelos de Llama en múltiples entornos, incluidos el local, la nube, un solo nodo y el dispositivo, dijo Meta. Llama Stack consta del siguiente conjunto de API: