VentureBeat presenta: AI Unleashed: un evento ejecutivo exclusivo para líderes de datos empresariales. Establezca contactos y aprenda con pares de la industria. Más información Cualquiera que haya trabajado en un trabajo de cara al cliente, o incluso que haya trabajado con un equipo de más de unas pocas personas, sabe que cada persona en la Tierra tiene sus propias preferencias únicas, a veces desconcertantes. Comprender las preferencias de cada individuo es difícil incluso para nosotros, los demás humanos. Pero ¿qué pasa con los modelos de IA, que no tienen experiencia humana directa a la que recurrir, y mucho menos utilizarlos como marco de referencia para aplicar a otros cuando intentan comprender lo que quieren? Un equipo de investigadores de instituciones líderes y la startup Anthropic, la compañía detrás del modelo de lenguaje grande (LLM)/chatbot Claude 2, está trabajando en este mismo problema y ha encontrado una solución aparentemente obvia pero aún así: conseguir modelos de IA para preguntar más. preguntas de los usuarios para saber lo que realmente quieren. Entrando en un nuevo mundo de comprensión de la IA a través del investigador antrópico de GATE Alex Tamkin, junto con sus colegas Belinda Z. Li y Jacob Andreas del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Instituto Tecnológico de Massachusetts (MIT), junto con Noah Goodman de Stanford, publicaron un artículo de investigación a principios de este mes sobre su método, al que llaman «elicitación generativa de tareas activas (GATE)». Evento AI Unleashed Una velada exclusiva de conocimientos y networking a la que solo se puede invitar, diseñada para altos ejecutivos empresariales que supervisan pilas de datos y estrategias. Más información ¿Su objetivo? «Usar [large language] se modelan a sí mismos para ayudar a convertir las preferencias humanas en sistemas automatizados de toma de decisiones”. En otras palabras: tomar la capacidad existente de un LLM para analizar y generar texto y utilizarla para hacer preguntas escritas al usuario en su primera interacción con el LLM. Luego, el LLM leerá e incorporará las respuestas del usuario en sus generaciones futuras, vivirá sobre la marcha y (esto es importante) inferirá de esas respuestas, basándose en otras palabras y conceptos con los que están relacionados en la base de datos del LLM, en cuanto a lo que el usuario finalmente pide. Como escriben los investigadores: «La eficacia de los modelos de lenguaje (LM) para comprender y producir texto de forma libre sugiere que pueden ser capaces de provocar y comprender las preferencias del usuario». Las tres GATES El método en realidad se puede aplicar de varias maneras diferentes, según los investigadores: Aprendizaje activo generativo: los investigadores describen este método como el LLM que básicamente produce ejemplos del tipo de respuestas que puede ofrecer y pregunta si le gustan al usuario. Un ejemplo de pregunta que ofrecen a un LLM es: “¿Está interesado en el siguiente artículo? El arte de la cocina fusión: mezclando culturas y sabores […] .” Según lo que responda el usuario, el LLM entregará más o menos contenido en ese sentido. Generación de preguntas sí/no: este método es tan simple como parece (y es). El LLM hará preguntas binarias de sí o no, como: «¿Te gusta leer artículos sobre salud y bienestar?» y luego tener en cuenta las respuestas del usuario al responder en el futuro, evitando información que asocie con aquellas preguntas que recibieron una respuesta “no”. Preguntas abiertas: similar al primer método, pero aún más amplio. Como escriben los investigadores, el LLM buscará obtener “los conocimientos más amplios y abstractos” del usuario, incluidas preguntas como “¿Qué pasatiempos o actividades disfrutas en tu tiempo libre?” […]¿Y por qué te cautivan estos pasatiempos o actividades?” Resultados prometedores Los investigadores probaron el método GATE en tres dominios: recomendación de contenido, razonamiento moral y validación de correo electrónico. Al ajustar el GPT-4 de Anthropic rival de OpenAI y reclutar a 388 participantes pagados a $12 por hora para responder preguntas de GPT-4 y calificar sus respuestas, los investigadores descubrieron que GATE a menudo produce modelos más precisos que las líneas de base y requiere un esfuerzo mental comparable o menor. de los usuarios. Específicamente, descubrieron que el GPT-4 ajustado con GATE hizo un mejor trabajo al adivinar las preferencias individuales de cada usuario en sus respuestas en aproximadamente 0,05 puntos de significancia cuando se midió subjetivamente, lo que suena como una cantidad pequeña, pero en realidad es mucho cuando se mide subjetivamente. partiendo de cero, como lo hace la escala de los investigadores. Figura 3, gráfico del artículo “Eliciting Human Preferences With Language Models” publicado en arXiv.org con fecha del 17 de octubre de 2023. En última instancia, los investigadores afirman que “presentaron evidencia inicial de que los modelos de lenguaje pueden implementar GATE con éxito para provocar preferencias humanas ( a veces) con mayor precisión y con menos esfuerzo que el aprendizaje supervisado, el aprendizaje activo o los enfoques basados ​​en indicaciones”. Esto podría ahorrarles a los desarrolladores de software empresarial mucho tiempo al iniciar chatbots con tecnología LLM para aplicaciones orientadas a clientes o empleados. En lugar de entrenarlos con un corpus de datos y tratar de usarlos para determinar las preferencias individuales de los clientes, ajustar sus modelos preferidos para realizar el baile de preguntas y respuestas especificado anteriormente podría facilitarles la creación de experiencias atractivas, positivas y útiles. para sus usuarios previstos. Por lo tanto, si su chatbot de IA favorito comienza a hacerle preguntas sobre sus preferencias en un futuro cercano, es muy probable que esté utilizando el método GATE para intentar brindarle mejores respuestas en el futuro. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link