Aguantamos software incorrecto todo el tiempo. Cualquiera que se haya enfurecido contra su máquina de reserva de viajes empresarial o haya intentado descifrar la interfaz de su herramienta corporativa para registrar los comentarios de los empleados sabe de lo que estoy hablando. A pesar de estos problemas, seguimos usando (y, seamos honestos, escribiendo) software malo. Sin embargo, cuando se trata de grandes modelos de lenguaje, ChatGPT y otros aspectos de nuestro universo de IA generativa (genAI), no parecemos estar de acuerdo. el mismo nivel de paciencia. Como señala el desarrollador Simon Willison: «Aunque normalmente la gente se queja de lo difícil que es utilizar el software, en este caso [of genAI]las personas que tienen problemas para obtener buenos resultados asumen que en realidad es inútil y lo abandonan por completo”. ¿Estamos manteniendo la IA generativa en un estándar poco realista? Expectativas infladas La respuesta es claramente sí, pero ¿quién tiene la culpa? Casi todo el mundo. Desde las personas que temen que las máquinas impulsadas por IA nos quiten el trabajo, hasta los proveedores que lavan con IA sus productos gastados, hasta los medios de comunicación que buscan contenido interesante, hasta [insert demographic here]colectivamente hemos llegado a esperar demasiado de la IA, tanto para bien como para mal. En el caso de la genAI, esto ha llevado a sus defensores a pasar por alto o suavizar algunas de sus deficiencias obvias. Bill Gates, por ejemplo, tiene una visión increíblemente ambiciosa de hacia dónde se dirige la genAI que parece divorciada incluso de la realidad actual más optimista. Tal exageración no ayuda a nadie y hace que sea más difícil abordar algunos de los problemas centrales de genAI. Para empezar, como sostiene Amelia Wattenberger, el chat es una forma extraña y poco intuitiva de descubrir la inteligencia de genAI. Como ella señala, cosas como ChatGPT “saludan” a los usuarios con un cuadro de texto, sin una guía real sobre qué escribir en el cuadro y, esencialmente, sin visibilidad de por qué responde de cierta manera. Y continúa: «Por supuesto, los usuarios pueden aprender con el tiempo qué indicaciones funcionan bien y cuáles no, pero la carga de saber qué funciona sigue recayendo en cada usuario». Para agravar este problema, los investigadores Zamfirescu-Pereira, Wong, Hartmann y Yang afirman: «Incluso para [natural language processing] Para los expertos, la ingeniería rápida requiere prueba y error extensa, experimentando y evaluando iterativamente los efectos de varias estrategias rápidas en pares concretos de entrada y salida antes de evaluarlos de manera más sistemática en grandes conjuntos de datos”. Todos estamos tratando de descubrir cómo crear insumos que produzcan grandes resultados, y en la mayoría de los casos estamos fracasando. No ayuda que la industria se haya movido tan rápido, como señala Benj Edwards: “Sean cuales sean las técnicas que se desarrollen para usar [large language models] Bueno [are] obsoleto en tres o cuatro meses”. Seguramente proveedores como OpenAI podrían incorporar más barreras de seguridad en sus productos, facilitando que los no expertos se vuelvan productivos y eliminen algunos de estos problemas de UX. Sin embargo, estos dolores de cabeza con genAI no garantizan la conclusión de que todo es exageración o que no funciona. Realidad práctica La fricción inherente a ChatGPT y otras herramientas genAI es real, como detalla Sebastian Bensusan en un registro de fricción, pero también solucionable. Y parte de esa “solución” se reduce a la experiencia del usuario. Sí, las herramientas pueden y deben incorporar más inteligencia a la interfaz, pero también es cierto que una forma clave de obtener más valor de genAI es seguir practicando hasta que descubramos dónde están sus aristas. Pocos tienen más experiencia en esto que Willison. , quien sugiere: “Para obtener el máximo valor de [large language models]—Y para evitar las muchas trampas que ponen al usuario desprevenido—es necesario pasar tiempo con ellos y trabajar para construir un modelo mental preciso de cómo funcionan, de qué son capaces y dónde es más probable que salgan mal. .” Sí, las herramientas necesitan mejorar, pero esto no elimina la necesidad de que los usuarios se vuelvan más inteligentes e inteligentes también. Para aquellos que tienden a descartar genAI porque es difícil, les recomiendo paciencia y práctica, como lo hace Willison. Como concluye, la genAI “puede ser defectuosa y mentirosa y tener todas las [sorts of] problemas… y también puede suponer un enorme impulso a la productividad”. Copyright © 2024 IDG Communications, Inc.

Source link