El lanzamiento de ChatGPT en noviembre de 2022 marcó un momento innovador para la IA, al presentar al mundo un ámbito completamente nuevo de posibilidades creado por la fusión de la IA generativa (genAI) y los modelos básicos del aprendizaje automático, o modelos de lenguajes grandes (LLM). Para desbloquear realmente el poder de los LLM, las organizaciones no solo deben acceder a modelos comerciales innovadores y de código abierto, sino también alimentarlos con grandes cantidades de datos internos de calidad y actualizados. Al combinar una combinación de datos públicos y privados en los modelos, las organizaciones pueden esperar respuestas LLM más precisas y relevantes que reflejen mejor lo que está sucediendo en este momento. La forma ideal de hacer esto hoy es aprovechando la generación aumentada de recuperación (RAG), una Enfoque poderoso en el procesamiento del lenguaje natural (PNL) que combina la recuperación de información y la generación de texto. La mayoría de las personas ya están familiarizadas con el concepto de ingeniería de indicaciones, que consiste esencialmente en aumentar las indicaciones para indicar al LLM que responda de una manera determinada. Con RAG, está aumentando las indicaciones con datos patentados para dirigir al LLM a devolver respuestas basadas en datos contextuales. La información recuperada sirve como base para generar un texto coherente y contextualmente relevante. Esta combinación permite que los modelos de IA brinden respuestas más precisas, informativas y contextuales a consultas o indicaciones. Aplicación de la generación de recuperación aumentada (RAG) en el mundo real Usemos una cotización de bolsa como ejemplo para ilustrar la utilidad de la generación de recuperación aumentada. en un escenario del mundo real. Dado que los LLM no están capacitados en datos recientes como los precios de las acciones, el LLM alucinará e inventará una respuesta o desviará la respuesta de la pregunta por completo. Al utilizar la generación de recuperación aumentada, primero recuperaría los fragmentos de noticias más recientes de una base de datos (a menudo usando incrustaciones de vectores en una base de datos de vectores como MongoDB Atlas Vector Search) que contiene las últimas noticias sobre acciones. Luego, inserta o «aumenta» estos fragmentos en el mensaje de LLM. Finalmente, le indica al LLM que haga referencia a las noticias bursátiles actualizadas al responder la pregunta. Con RAG, debido a que no es necesario volver a capacitar al LLM, la recuperación es muy rápida (latencia inferior a 100 ms) y es adecuada para aplicaciones en tiempo real. Otra aplicación común de la generación de recuperación aumentada son los chatbots o sistemas de respuesta a preguntas. . Cuando un usuario hace una pregunta, el sistema puede utilizar el mecanismo de recuperación para recopilar información relevante de un vasto conjunto de datos y luego genera una respuesta en lenguaje natural que incorpora los hechos recuperados. RAG versus ajuste fino Los usuarios inmediatamente chocarán con los límites de genAI cada vez que hay una pregunta que requiere información que se encuentra fuera del corpus de entrenamiento del LLM, lo que resulta en alucinaciones, inexactitudes o desviaciones. RAG llena los vacíos de conocimiento en los que el LLM no fue capacitado, esencialmente convirtiendo la tarea de respuesta a preguntas en una «prueba a libro abierto», que es más fácil y menos compleja que una tarea de respuesta a preguntas abierta e ilimitada. El ajuste es otra forma de aumentar los LLM con datos personalizados, pero a diferencia de RAG, es como darle recuerdos completamente nuevos, o una lobotomía, por así decirlo. También requiere mucho tiempo y recursos, generalmente no es viable para conectar los LLM en un contexto específico y es especialmente inadecuado para información y datos personales altamente volátiles y urgentes. La startup de IA Potion crea videos personalizados para los equipos de ventas. Trabajando a partir de una plantilla de video, los modelos de visión y audio de Potion inspeccionan cada cuadro de video y lo reaniman con mensajes personalizados. La solución aprovecha RAG con MongoDB Vector Search para impulsar la búsqueda semántica impulsada por IA. «Utilizamos la base de datos MongoDB para almacenar metadatos de todos los vídeos, incluido el contenido de origen para la personalización, como la lista de contactos y las llamadas a la acción», dice Kanad. Bahalkar, cofundador y director ejecutivo de Potion: «Por cada nueva entrada de contacto creada en MongoDB, se genera un vídeo utilizando nuestros modelos de IA y un enlace a ese vídeo se almacena en la base de datos». mejorar la calidad del texto generado al garantizar que se base en conocimientos relevantes, contextuales y del mundo real. También puede ayudar en escenarios en los que el modelo de IA necesita acceder a información para la que no fue entrenado, lo que lo hace particularmente útil para tareas que requieren precisión fáctica, como investigación, atención al cliente o generación de contenido. Al aprovechar RAG con sus propios datos patentados, puede servir mejor a sus clientes actuales y obtener una ventaja competitiva significativa con resultados generados por IA confiables, relevantes y precisos. obtenga más información sobre cómo Atlas ayuda a las organizaciones a integrar y poner en funcionamiento datos genAI y LLM, descargue nuestro documento técnico, Incorporación de IA generativa y búsqueda avanzada en sus aplicaciones con MongoDB. Copyright © 2024 IDG Communications, Inc.

Source link