Solíamos especular sobre cuándo veríamos un software que pudiera pasar la prueba de Turing de manera constante. Ahora, hemos llegado a dar por sentado no solo que esta increíble tecnología existe, sino que seguirá mejorando y adquiriendo más capacidades rápidamente. Es fácil olvidar cuánto ha sucedido desde que se lanzó ChatGPT el 30 de noviembre de 2022. Desde entonces, la innovación y el poder no han dejado de surgir de los grandes modelos de lenguaje públicos LLM. Cada pocas semanas, parecía que veíamos algo nuevo que superaba los límites. Ahora, por primera vez, hay señales de que ese ritmo podría estar desacelerándose de manera significativa. Para ver la tendencia, considere los lanzamientos de OpenAI. El salto de GPT-3 a GPT-3.5 fue enorme, impulsando a OpenAI a la conciencia pública. El salto a GPT-4 también fue impresionante, un gran paso adelante en potencia y capacidad. Luego llegó GPT-4 Turbo, que agregó algo de velocidad, luego GPT-4 Vision, que realmente desbloqueó las capacidades de reconocimiento de imágenes existentes de GPT-4. Y solo unas semanas atrás, vimos el lanzamiento de GPT-4o, que ofrecía multimodalidad mejorada pero relativamente poco en términos de potencia adicional. Otros LLM, como Claude 3 de Anthropic y Gemini Ultra de Google, han seguido una tendencia similar y ahora parecen estar convergiendo en torno a puntos de referencia de velocidad y potencia similares a GPT-4. Todavía no estamos en territorio de meseta, pero parece que estamos entrando en una desaceleración. El patrón que está surgiendo: menos progreso en potencia y alcance con cada generación. Esto dará forma al futuro de la innovación de soluciones ¡Esto importa mucho! Imagine que tuviera una bola de cristal de un solo uso: le dirá cualquier cosa, pero solo puede hacerle una pregunta. Si estuviera tratando de obtener una lectura de lo que viene en IA, esa pregunta bien podría ser: ¿Qué tan rápido seguirán aumentando los LLM en potencia y capacidad? Porque a medida que avanzan los LLM, así avanza el mundo más amplio de la IA. Cada mejora sustancial en la potencia de LLM ha marcado una gran diferencia en lo que los equipos pueden crear y, lo que es más importante, en lo que pueden hacer para trabajar de manera confiable. Piense en la efectividad de los chatbots. Con el GPT-3 original, las respuestas a las indicaciones de los usuarios podían ser impredecibles. Luego tuvimos GPT-3.5, que facilitó mucho la creación de un chatbot convincente y ofreció respuestas mejores, pero aún desiguales. No fue hasta GPT-4 que vimos resultados consistentemente acertados de un LLM que realmente seguía las instrucciones y mostraba cierto nivel de razonamiento. Esperamos ver GPT-5 pronto, pero OpenAI parece estar manejando las expectativas con cuidado. ¿Nos sorprenderá ese lanzamiento al dar un gran salto hacia adelante, causando otro aumento en la innovación de IA? Si no es así, y seguimos viendo un progreso decreciente también en otros modelos LLM públicos, anticipo profundas implicaciones para el espacio de IA en general. Aquí está cómo se desarrollaría eso: Más especialización: cuando los LLM existentes simplemente no son lo suficientemente potentes para manejar consultas matizadas en todos los temas y áreas funcionales, la respuesta más obvia para los desarrolladores es la especialización. Es posible que veamos más agentes de IA desarrollados que asuman casos de uso relativamente estrechos y sirvan a comunidades de usuarios muy específicas. De hecho, el lanzamiento de GPT por parte de OpenAI podría interpretarse como un reconocimiento de que no es realista tener un sistema que pueda leer y reaccionar a todo. El auge de las nuevas interfaces de usuario: hasta ahora, la interfaz de usuario (IU) dominante en IA ha sido, sin lugar a dudas, el chatbot. ¿Seguirá siendo así? Porque, si bien los chatbots tienen algunas ventajas claras, su aparente apertura (el usuario puede escribir cualquier mensaje) en realidad puede llevar a una experiencia de usuario decepcionante. Es posible que veamos más formatos en los que la IA esté en juego, pero donde haya más barandillas y restricciones que guíen al usuario. Pensemos, por ejemplo, en un sistema de IA que escanee un documento y ofrezca al usuario algunas sugerencias posibles. Los LLM de código abierto cierran la brecha: dado que el desarrollo de LLM se considera increíblemente costoso, parecería que Mistral, Llama y otros proveedores de código abierto que carecen de un modelo comercial claro estarían en gran desventaja. Sin embargo, eso podría no importar tanto si OpenAI y Google ya no producen grandes avances. Cuando la competencia se centre en las características, la facilidad de uso y las capacidades multimodales, es posible que puedan mantenerse a la par. La carrera por los datos se intensifica: una posible razón por la que estamos viendo que los LLM comienzan a caer en el mismo rango de capacidad podría ser que se están quedando sin datos de entrenamiento. A medida que nos acercamos al final de los datos públicos basados ​​en texto, las empresas LLM necesitarán buscar otras fuentes. Esta puede ser la razón por la que OpenAI se está centrando tanto en Sora. Aprovechar las imágenes y el vídeo para el entrenamiento significaría no solo una posible mejora radical en la forma en que los modelos manejan las entradas que no son de texto, sino también más matices y sutileza en la comprensión de las consultas. Aparición de nuevas arquitecturas LLM: hasta ahora, todos los sistemas principales utilizan arquitecturas de transformadores, pero hay otras que han demostrado ser prometedoras. Sin embargo, nunca se exploraron por completo ni se invirtió en ellas debido a los rápidos avances que vienen de los LLM de transformadores. Si estos comienzan a desacelerarse, podríamos ver más energía e interés en Mamba y otros modelos no transformadores. Reflexiones finales: el futuro de los LLM Por supuesto, esto es especulativo. Nadie sabe hacia dónde progresarán las capacidades LLM o la innovación en IA. Lo que sí está claro, sin embargo, es que ambas están estrechamente relacionadas. Y eso significa que cada desarrollador, diseñador y arquitecto que trabaje en IA debe pensar en el futuro de estos modelos. Un posible patrón que podría surgir para los LLM es que compitan cada vez más en los niveles de características y facilidad de uso. Con el tiempo, podríamos ver un cierto nivel de mercantilización, similar a lo que hemos visto en otras partes del mundo de la tecnología. Pensemos, por ejemplo, en las bases de datos y los proveedores de servicios en la nube. Si bien existen diferencias sustanciales entre las diversas opciones del mercado, y algunos desarrolladores tendrán preferencias claras, la mayoría las consideraría ampliamente intercambiables. No hay un «ganador» claro y absoluto en términos de cuál es el más poderoso y capaz. Cai GoGwilt es el cofundador y arquitecto jefe de Ironclad. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es donde los expertos, incluidos los técnicos que realizan trabajos de datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podría considerar contribuir con un artículo propio! Leer más de DataDecisionMakers