A medida que el trascendental primer año de ChatGPT llega a su fin, queda claro que la IA generativa (genAI) y los grandes modelos de lenguaje (LLM) son tecnologías interesantes. Pero, ¿están listos para su uso empresarial en horario de máxima audiencia? Hay desafíos bien comprendidos con ChatGPT, donde sus respuestas tienen poca precisión. A pesar de estar basado en sofisticados modelos informáticos de conocimiento humano como GPT-4, ChatGPT rara vez quiere admitir su ignorancia, un fenómeno conocido como alucinaciones de IA, y a menudo tiene problemas con el razonamiento lógico. Por supuesto, esto se debe a que ChatGPT no razona: funciona como un sistema avanzado de autocompletar texto. Esto puede resultar difícil de aceptar para los usuarios. Después de todo, GPT-4 es un sistema impresionante: puede realizar un examen de abogacía simulado y aprobarlo con una puntuación entre el 10% superior de los participantes. La perspectiva de emplear un sistema tan inteligente para interrogar las bases de conocimiento corporativo es sin duda atractiva. Pero debemos protegernos tanto de su exceso de confianza como de su estupidez. Para combatirlos, han surgido tres nuevos y poderosos enfoques que pueden ofrecer una manera de mejorar la confiabilidad. Si bien estos enfoques pueden diferir en su énfasis, comparten un concepto fundamental: tratar el LLM como una «caja cerrada». En otras palabras, la atención no se centra necesariamente en perfeccionar el LLM en sí (aunque los ingenieros de IA continúan mejorando sus modelos considerablemente), sino en desarrollar una capa de verificación de datos para respaldarlo. Esta capa tiene como objetivo filtrar respuestas inexactas e infundir al sistema un «sentido común». Veamos cada una de ellas y veamos cómo. Una capacidad de búsqueda más amplia Uno de estos enfoques implica la adopción generalizada de la búsqueda vectorial. Esta es ahora una característica común de muchas bases de datos, incluidas algunas bases de datos especializadas únicamente en vectores. Una base de datos vectorial está destinada a poder indexar datos no estructurados como texto o imágenes, colocándolos en un espacio de alta dimensión para su búsqueda, recuperación y cercanía. Por ejemplo, al buscar el término “manzana” se puede encontrar información sobre una fruta, pero cerca en el “espacio vectorial” puede haber resultados sobre una empresa de tecnología o un sello discográfico. Los vectores son un pegamento útil para la IA porque podemos usarlos para correlacione puntos de datos entre componentes como bases de datos y LLM, y no solo utilícelos como claves en una base de datos para entrenar modelos de aprendizaje automático. De RAG a riquezasLa generación de recuperación aumentada, o RAG, es un método común para agregar contexto a una interacción con un LLM. Debajo del capó, RAG recupera contenido complementario de un sistema de base de datos para contextualizar una respuesta de un LLM. Los datos contextuales pueden incluir metadatos, como marca de tiempo, geolocalización, referencia e identificación del producto, pero en teoría podrían ser el resultado de consultas de bases de datos arbitrariamente sofisticadas. Esta información contextual sirve para ayudar al sistema general a generar respuestas relevantes y precisas. La esencia de este enfoque radica en obtener la información más precisa y actualizada disponible sobre un tema determinado en una base de datos, refinando así las respuestas del modelo. Un subproducto útil de este enfoque es que, a diferencia del opaco funcionamiento interno de GPT-4, si RAG forma la base para el LLM empresarial, el usuario empresarial obtiene una visión más transparente de cómo el sistema llegó a la respuesta presentada. La base de datos subyacente tiene capacidades vectoriales, entonces la respuesta del LLM, que incluye vectores integrados, se puede utilizar para encontrar datos pertinentes de la base de datos para mejorar la precisión de la respuesta. El poder de un gráfico de conocimiento Sin embargo, incluso los gráficos vectoriales más avanzados , la función de búsqueda impulsada por RAG sería insuficiente para garantizar la confiabilidad crítica de ChatGPT para la empresa. Los vectores por sí solos son simplemente una forma de catalogar datos, por ejemplo, y ciertamente no son los modelos de datos más ricos. En cambio, los gráficos de conocimiento han ganado una importancia significativa como la base de datos elegida por RAG. Un gráfico de conocimiento es una red semánticamente rica de información interconectada, que reúne información de muchas dimensiones en una única estructura de datos (muy parecido a lo que ha hecho la web con los humanos). Debido a que un gráfico de conocimiento contiene contenido transparente y curado, se puede garantizar su calidad. También podemos unir el LLM y el gráfico de conocimiento utilizando vectores. Pero en este caso, una vez que el vector se resuelve en un nodo en el gráfico de conocimiento, la topología del gráfico se puede utilizar para realizar verificación de hechos, búsquedas de cercanía y coincidencia de patrones generales para garantizar que lo que se devuelve al usuario sea exacto. No es la única forma en que se utilizan los gráficos de conocimiento. Un investigador de IA llamado profesor Yejin Choi, a quien Bill Gates entrevistó recientemente, está explorando un concepto interesante en la Universidad de Washington. La profesora Choi y su equipo han creado una base de conocimientos creada por máquinas que ayuda al LLM a separar los conocimientos buenos de los malos haciendo preguntas y luego añadiendo (como reglas) respuestas que coincidan consistentemente. El trabajo de Choi utiliza una IA llamada «crítica». ”que prueba el razonamiento lógico de un LLM para construir un gráfico de conocimiento que consta únicamente de buen razonamiento y buenos hechos. Un claro ejemplo de razonamiento deficiente es evidente si se pregunta a ChatGPT (3.5) cuánto tiempo tardarían en secar cinco camisas al sol si se necesita una hora para secar una camisa. Si bien el sentido común dicta que si se necesita una hora para secar una camisa, igualmente tomaría una hora independientemente de la cantidad, la IA intentó hacer cálculos complicados para resolver el problema, justificando su enfoque mostrando su (incorrecto) funcionamiento. Si bien los ingenieros de inteligencia artificial trabajan duro para resolver estos problemas (y ChatGPT 4 no falla aquí), el enfoque de Choi para destilar un gráfico de conocimiento ofrece una solución de propósito general. Es particularmente apropiado que este gráfico de conocimiento se utilice luego para entrenar un LLM, que tiene una precisión mucho mayor a pesar de ser más pequeño. Recuperar el contexto Hemos visto que los gráficos de conocimiento mejoran los sistemas GPT al proporcionar más contexto y estructura a través de RAG. También hemos visto aumentar la evidencia de que al utilizar una combinación de búsqueda semántica basada en vectores y en gráficos (sinónimo de gráficos de conocimiento), las organizaciones logran resultados consistentemente de alta precisión. Al incorporar una arquitectura que aprovecha una combinación de vectores, RAG y un gráfico de conocimiento para respaldar un modelo de lenguaje grande, podemos construir aplicaciones comerciales de gran valor sin requerir experiencia en los intrincados procesos de creación, capacitación y ajuste de un LLM. Es una síntesis que significa que podemos agregar un rico y comprensión contextual de un concepto con la «comprensión» más fundamental que una computadora (LLM) puede lograr. Es evidente que las empresas pueden beneficiarse de este enfoque. Donde los gráficos tienen éxito es en responder las grandes preguntas: ¿Qué es importante en los datos? ¿Qué es inusual? Lo más importante es que, dados los patrones de los datos, los gráficos pueden pronosticar lo que sucederá a continuación. Esta destreza fáctica, junto con el elemento generativo de los LLM, es convincente y tiene una amplia aplicabilidad. A medida que avancemos hacia 2024, predigo que veremos una aceptación generalizada de esta poderosa forma de convertir los LLM en herramientas comerciales de misión crítica. Jim Webber es científico jefe de Neo4j, líder en análisis y bases de datos de gráficos. Es coautor de Graph Databases (primera y segunda ediciones, O’Reilly), Graph Databases for Dummies (Wiley) y Building Knowledge Graphs (O’Reilly).—Generative AI Insights proporciona un lugar para los líderes tecnológicos, incluidos los proveedores. y otros contribuyentes externos, para explorar y discutir los desafíos y oportunidades de la inteligencia artificial generativa. La selección es amplia, desde análisis profundos de tecnología hasta estudios de casos y opiniones de expertos, pero también subjetiva, basada en nuestro juicio sobre qué temas y tratamientos servirán mejor a la audiencia técnicamente sofisticada de InfoWorld. InfoWorld no acepta garantías de marketing para su publicación y se reserva el derecho de editar todo el contenido aportado. Póngase en contacto con doug_dineley@foundryco.com. Copyright © 2024 IDG Communications, Inc.

Source link