¡Queremos saber de ti! Responde nuestra encuesta rápida sobre IA y comparte tus ideas sobre el estado actual de la IA, cómo la estás implementando y qué esperas ver en el futuro. Más información La generación aumentada de recuperación (RAG) es una técnica importante que extrae información de bases de conocimiento externas para ayudar a mejorar la calidad de los resultados de los modelos de lenguaje grandes (LLM). También proporciona transparencia en las fuentes de los modelos que los humanos pueden verificar. Sin embargo, según Jerry Liu, cofundador y director ejecutivo de LlamaIndex, los sistemas RAG básicos pueden tener interfaces primitivas y una comprensión y planificación de mala calidad, carecer de llamadas de funciones o uso de herramientas y no tener estado (sin memoria). Los silos de datos solo exacerban este problema. Liu habló durante VB Transform en San Francisco ayer. Esto puede dificultar la producción de aplicaciones LLM a escala, debido a problemas de precisión, dificultades con la escala y demasiados parámetros requeridos (que requieren experiencia en tecnología profunda). Esto significa que hay muchas preguntas que RAG simplemente no puede responder. Regístrese para acceder a VB Transform On-Demand ¡Los pases presenciales para VB Transform 2024 ya están agotados! No se lo pierda: regístrese ahora para obtener acceso exclusivo a pedido disponible después de la conferencia. Obtenga más información «RAG fue realmente solo el comienzo», dijo Liu en el escenario esta semana en VB Transform. Muchos conceptos básicos de RAG ingenuo son «algo tontos» y toman «decisiones muy subóptimas». LlamaIndex tiene como objetivo trascender estos desafíos al ofrecer una plataforma que ayude a los desarrolladores a crear de manera rápida y sencilla aplicaciones de próxima generación impulsadas por LLM. El marco ofrece extracción de datos que convierte datos no estructurados y semiestructurados en formatos uniformes y accesibles mediante programación; RAG que responde consultas en datos internos a través de sistemas de preguntas y respuestas y chatbots; y agentes autónomos, explicó Liu. Sincronización de datos para que siempre estén actualizados Es fundamental unir todos los diferentes tipos de datos dentro de una empresa, ya sean no estructurados o estructurados, señaló Liu. Los sistemas multiagente pueden entonces «aprovechar la riqueza de datos heterogéneos» que contienen las empresas. “Cualquier aplicación LLM es tan buena como sus datos”, dijo Liu. “Si no tienes una buena calidad de datos, no vas a tener buenos resultados”. LlamaCloud, ahora disponible por lista de espera, cuenta con capacidades avanzadas de extracción, transformación y carga (ETL). Esto permite a los desarrolladores “sincronizar los datos a lo largo del tiempo para que siempre estén actualizados”, explicó Liu. “Cuando haces una pregunta, tienes la garantía de tener el contexto relevante, sin importar cuán compleja o de alto nivel sea esa pregunta”. La interfaz de LlamaIndex puede manejar preguntas simples y complejas, así como tareas de investigación de alto nivel, y los resultados pueden incluir respuestas breves, resultados estructurados o incluso informes de investigación, dijo. LllamaParse de la compañía es un analizador de documentos avanzado específicamente destinado a reducir las alucinaciones de LLM. Liu dijo que tiene 500.000 descargas mensuales y 14.000 usuarios únicos, y ha procesado más de 13 millones de páginas. “LlamaParse es actualmente la mejor tecnología que he visto para analizar estructuras de documentos complejos para los pipelines de RAG empresariales”, dijo Dean Barr, líder de IA aplicada en la firma de inversión global The Carlyle Group. “Su capacidad para preservar tablas anidadas, extraer diseños espaciales desafiantes e imágenes es clave para mantener la integridad de los datos en la construcción avanzada de modelos RAG y de agentes”. Liu explicó que la plataforma de LlamaIndex se ha utilizado en asistencia a analistas financieros, búsqueda centralizada en Internet, paneles de análisis para datos de sensores y plataformas de desarrollo de aplicaciones LLM internas, y en industrias que incluyen tecnología, consultoría, servicios financieros y atención médica. De agentes simples a agentes múltiples avanzados Es importante destacar que LlamaIndex superpone el razonamiento de agentes para ayudar a proporcionar una mejor comprensión de las consultas, planificación y uso de herramientas en diferentes interfaces de datos, explicó Liu. También incorpora múltiples agentes que ofrecen especialización y paralelización, y que ayudan a optimizar los costos y reducir la latencia. El problema con los sistemas de un solo agente es que “cuanto más cosas intentas meter en él, menos confiable se vuelve, incluso si la sofisticación teórica general es mayor”, dijo Liu. Además, los agentes individuales no pueden resolver conjuntos infinitos de tareas. «Si intentas darle a un agente 10.000 herramientas, en realidad no le va muy bien». Los agentes múltiples ayudan a cada agente a especializarse en una tarea determinada, explicó. Tiene beneficios a nivel de sistemas, como costos de paralelización y latencia. «La idea es que al trabajar juntos y comunicarse, se pueden resolver tareas de nivel incluso superior», dijo Liu. VB Daily ¡Manténgase informado! Reciba las últimas noticias en su bandeja de entrada todos los días Al suscribirse, acepta los Términos de servicio de VentureBeat. Gracias por suscribirse. Consulte más boletines de VB aquí. Se produjo un error.