Los investigadores de AWS están trabajando en el desarrollo de un depurador de bases de datos basado en un modelo de lenguaje grande en un esfuerzo por ayudar a las empresas a resolver problemas de rendimiento en dichos sistemas. Apodado Panda, el nuevo marco de depuración ha sido diseñado para funcionar de una manera similar a un ingeniero de bases de datos. (DBE), escribió la compañía en una publicación de blog, y agregó que solucionar problemas de rendimiento en una base de datos puede ser «notoriamente difícil». A diferencia de los administradores de bases de datos, que tienen la tarea de administrar múltiples bases de datos, los ingenieros de bases de datos tienen la tarea de diseñar, desarrollar y mantener. bases de datos. Panda, efectivamente, es un marco que proporciona una base contextual a los LLM previamente capacitados para generar recomendaciones de solución de problemas más «útiles» y «en contexto», explicaron los investigadores. Componentes y arquitectura de Panda El marco incluye cuatro componentes clave, base , verificación, asequibilidad y retroalimentación. Los investigadores describen la verificación como la capacidad del modelo para poder verificar la respuesta generada utilizando fuentes relevantes y producir la cita junto con su resultado para que el usuario final pueda verificarla. Por otro lado, la asequibilidad puede describirse como la capacidad del marco para informar al usuario sobre las consecuencias de la acción recomendada sugerida por un LLM mientras resalta explícitamente las acciones de alto riesgo, como DROP o DELETE, dijeron los investigadores. El componente, según los investigadores, permite que el depurador basado en LLM acepte comentarios del usuario y los tenga en cuenta al generar respuestas. Estos cuatro componentes, a su vez, conforman la arquitectura del depurador, que incluye el agente de verificación de preguntas (QVA), el mecanismo de conexión a tierra, el mecanismo de verificación, el mecanismo de retroalimentación y el mecanismo de prestación. Mientras que el QVA identifica y filtra las consultas irrelevantes, el El mecanismo de conexión a tierra comprende un recuperador de documentos, Telemetría-2-texto y un agregador de contexto para proporcionar más contexto a un mensaje o consulta. El mecanismo de verificación comprende la verificación de la respuesta y la atribución de la fuente, dijeron los investigadores, y agregaron que todos estos mecanismos junto con el El mecanismo de retroalimentación y disponibilidad funciona en el fondo de una interfaz de lenguaje natural (NL) con la que interactúa el usuario empresarial. Comparar a Panda con GPT-4 de OpenAI Los investigadores que trabajan en AWS también compararon a Panda con el modelo GPT-4 de OpenAI, que actualmente subraya ChatGPT. «… solicitar a ChatGPT consultas sobre el rendimiento de la base de datos a menudo da como resultado recomendaciones ‘técnicamente correctas’ pero muy ‘vagas’ o ‘genéricas’ que los ingenieros de bases de datos experimentados (DBE) suelen considerar inútiles y poco confiables», escribieron los investigadores mientras mostraban un resultado mientras solucionaban problemas en un Aurora. Base de datos PostgreSQL. Para el experimento, los investigadores de AWS habían reunido un grupo de DBE con tres niveles de competencia diferentes y la mayoría de ellos se inclinaron a favor de Panda, según muestra el documento. Además, los investigadores afirmaron que Panda, aunque se utilizó en bases de datos en la nube en su experimento , se puede extender a cualquier sistema de base de datos. Copyright © 2024 IDG Communications, Inc.

Source link