Una señal de que todavía estamos en una etapa muy temprana de la evolución de la IA es la cantidad de trabajo pesado que aún le queda al usuario por resolver. Como lamenta Jono Bacon, fundador de Community Leadership Core, incluso el mero acto de “necesidad[ing] Elegir entre [large language] modelos” para ejecutar una consulta es “complejo y confuso para la mayoría de las personas”. Una vez que haya elegido el modelo “correcto” (lo que sea que eso signifique), aún necesita hacer todo tipo de trabajo para que el modelo devuelva resultados relevantes (y olvídese de obtener resultados consistentes, esa no es realmente una característica de los LLM actuales). Dicho todo esto, cuando le pregunté al cofundador de RedMonk, James Governor, si AI/genAI había perdido su brillo, su respuesta fue un enfático “No”. Puede que actualmente estemos sentados en el abismo de la desilusión (mi frase, no la suya), pero eso es solo porque estamos siguiendo la misma línea de tiempo que parecen seguir todas las nuevas tecnologías importantes: de la indiferencia a la adoración, al desprecio y a la adopción general. Algunos desarrolladores de software ya están saltando a esa última fase; para otros, las cosas van a llevar más tiempo. Consistencia eventual Está claro desde hace un tiempo que la IA tardaría en alcanzar su ritmo. Quiero decir, basta con trastear un poco con algo como Midjourney para crear una imagen antes de que te des cuenta, como hizo Governor, de que “la mayoría del arte de la IA tiende a ser kitsch”. ¿Será porque las computadoras no saben cómo es el buen arte? Como señala Grady Booch, un gruñón empedernido de la IA, a veces pretendemos que la IA puede razonar y pensar, pero ninguna de las dos cosas es cierta. Por el contrario, “el pensamiento y la comprensión humanos no son meros procesos estadísticos como lo son los LLM, y afirmar que lo son representa una profunda incomprensión de la exquisita singularidad de la cognición humana”.