¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora aquí hay una analogía: las autopistas no existían en los Estados Unidos hasta después de 1956, cuando lo imaginan el presidente Dwight D. Eisenhower, pero autos súper rápido y poderoso como Porsche, BMW, Jaguars, Ferrari y otros habían existido durante décadas. Se podría decir que la IA está en ese mismo punto de pivote: mientras que los modelos se están volviendo cada vez más capaces, performadores y sofisticados, la infraestructura crítica que necesitan para lograr una verdadera innovación del mundo real aún no se ha construido completamente. «Todo lo que hemos hecho es crear algunos motores muy buenos para un automóvil, y nos estamos emocionando súper, como si tuviéramos este sistema de carreteras completamente funcional en su lugar», dijo Arun Chandrasekaran, analista de VP distinguido de Gartner, VentureBeat. Esto está llevando a una meseta, en capacidades modelo como el GPT-5 de OpenAi: si bien un paso adelante importante, solo presenta finas de brillo de IA verdaderamente agente. AI Scaling alcanza sus límites de potencia de límites, el aumento de los costos de los tokens y los retrasos de inferencia están remodelando Enterprise AI. Únase a nuestro salón exclusivo para descubrir cómo son los mejores equipos: convertir la energía en una ventaja estratégica arquitectando una inferencia eficiente para las ganancias de rendimiento real que desbloquean el ROI competitivo con sistemas de IA sostenibles asegura su lugar para mantenerse a la vanguardia: https://bit.ly/4mwgngo «Es un modelo muy capaz, es un modelo muy versátil, ha logrado algunos buenos progresos en dominios específicos, dijo Chandrokaran. «Pero mi punto de vista es que es más un progreso incremental, en lugar de un progreso radical o una mejora radical, dadas todas las altas expectativas que Operai ha establecido en el pasado». GPT-5 mejora en tres áreas clave para ser claras, OpenAi ha avanzado con GPT-5, según Gartner, incluidas las tareas de codificación y las capacidades multimodales. Chandrasekaran señaló que OpenAi ha girado para hacer que GPT-5 sea «muy bueno» en la codificación, sintiendo claramente la enorme oportunidad de la Generación Ai en la ingeniería de software empresarial y apuntar al liderazgo de la competencia Anthrope en esa área. Mientras tanto, el progreso de GPT-5 en modalidades más allá del texto, particularmente en el habla y las imágenes, ofrece nuevas oportunidades de integración para las empresas, señaló Chandrasekaran. GPT-5 también, si es sutilmente, avance de agente AI y diseño de orquestación, gracias al uso mejorado de la herramienta; El modelo puede llamar a API y herramientas de terceros y realizar llamadas de herramientas paralelas (manejar múltiples tareas simultáneamente). Sin embargo, esto significa que los sistemas empresariales deben tener la capacidad de manejar las solicitudes de API concurrentes en una sola sesión, señala Chandrasekaran. La planificación de múltiplesis en GPT-5 permite que más lógica comercial resida dentro del modelo en sí, reduciendo la necesidad de motores de flujo de trabajo externos y sus ventanas de contexto más amplias (8k para usuarios gratuitos, 32k para más de $ 20 por mes y 128k para Pro a $ 200 por mes) puede «reformular los patrones de arquitectura AI AI», dijo. Esto significa que las aplicaciones que se basaban previamente en las tuberías complejas de generación de recuperación (RAG) para trabajar en torno a los límites de contexto ahora pueden pasar conjuntos de datos mucho más grandes directamente a los modelos y simplificar algunos flujos de trabajo. Pero esto no significa que el trapo sea irrelevante; «Recuperar solo los datos más relevantes sigue siendo más rápido y más rentable que siempre enviar entradas masivas», señaló Chandraskaran. Gartner ve un cambio a un enfoque híbrido con una recuperación menos estricta, con los desarrolladores que usan GPT-5 para manejar «contextos más grandes y desordenados» al tiempo que mejora la eficiencia. En el frente de los costos, GPT-5 «significativamente» reduce las tarifas de uso de API; Los costos de nivel superior son $ 1.25 por 1 millón de tokens de entrada y $ 10 por 1 millón de tokens de salida, lo que lo hace comparable a modelos como Gemini 2.5, pero redimentando seriamente la obra de Claude. Sin embargo, la relación de precio de entrada/salida de GTP-5 es más alta que los modelos anteriores, que los líderes de IA deben tener en cuenta al considerar GTP-5 para escenarios de uso de alto contenido de alta token, aconsejó Chandrasekaran. Adiós versiones anteriores de GPT (Sorta), en última instancia, GPT-5 está diseñado para reemplazar eventualmente GPT-4O y la serie O (inicialmente fueron puestas de atardecer, luego algunos reintroducidos por OpenAI debido a la disidencia del usuario). Tres tamaños de modelo (Pro, Mini, Nano) permitirán a los arquitectos que sean servicios de niveles basados en las necesidades de costo y latencia; Las consultas simples pueden ser manejadas por modelos más pequeños y tareas complejas por el modelo completo, señala Gartner. Sin embargo, las diferencias en los formatos de salida, la memoria y los comportamientos de llamas de funciones pueden requerir la revisión y ajuste del código, y debido a que GPT-5 puede hacer que algunas soluciones anteriores sean obsoletas, los desarrolladores deben auditar sus plantillas y instrucciones del sistema. Finalmente, al soltar las versiones anteriores, «Creo que lo que Operai está tratando de hacer es abstrae ese nivel de complejidad del usuario», dijo Chandrasekaran. «A menudo no somos las mejores personas para tomar esas decisiones, y a veces incluso podemos tomar decisiones erróneas, diría que». Otro hecho detrás de los graduados: «Todos sabemos que OpenAi tiene un problema de capacidad», dijo, y por lo tanto ha forjado asociaciones con Microsoft, Oracle (Project Stargate), Google y otros para aprovisionar la capacidad de calcular. Ejecutar múltiples generaciones de modelos requeriría múltiples generaciones de infraestructura, creando nuevas implicaciones de costos y limitaciones físicas. Nuevos riesgos, asesoramiento para adoptar GPT-5 OpenAI afirma que redujo las tasas de alucinación de hasta un 65% en GPT-5 en comparación con los modelos anteriores; Esto puede ayudar a reducir los riesgos de cumplimiento y hacer que el modelo sea más adecuado para los casos de uso empresarial, y sus explicaciones de la cadena de pensamiento (COT) apoyan la auditabilidad y la alineación regulatoria, señala Gartner. Al mismo tiempo, estas tasas de alucinación más bajas, así como el razonamiento avanzado y el procesamiento multimodal de GPT-5, podrían amplificar el uso indebido, como la estafa avanzada y la generación de phishing. Los analistas aconsejan que los flujos de trabajo críticos permanezcan bajo revisión humana, incluso con menos muestreo. La firma también aconseja que los líderes empresariales: piloto y de referencia GPT-5 en casos de uso de misión crítica, ejecutando evaluaciones de lado a lado contra otros modelos para determinar las diferencias en precisión, velocidad y experiencia del usuario. Monitoree las prácticas como la codificación de VIBE esa exposición a los datos del riesgo (pero sin ser ofensivo al respecto o arriesgar defectos o fallas en las barandillas). Revise las políticas y pautas de gobernanza para abordar los nuevos comportamientos del modelo, las ventanas de contexto expandidas y las terminaciones seguras, y calibrar los mecanismos de supervisión. Experimente con integraciones de herramientas, parámetros de razonamiento, almacenamiento en caché y dimensionamiento del modelo para optimizar el rendimiento y use el enrutamiento dinámico incorporado para determinar el modelo correcto para la tarea correcta. Los planes de auditoría y actualización para las capacidades ampliadas de GPT-5. Esto incluye validar cuotas API, senderos de auditoría y tuberías de datos multimodales para admitir nuevas características y un mayor rendimiento. Las pruebas de integración rigurosas también son importantes. Los agentes no solo necesitan más cómputo; No necesitan infraestructura, sin duda, la IA de Agente es un «tema súper candente hoy», señaló Chandrasekaran, y es una de las principales áreas de inversión en el ciclo de bombo 2025 de Gartner para la Generación de la Generación de la Generación. Al mismo tiempo, la tecnología ha alcanzado el «pico de las expectativas infladas» de Gartner, lo que significa que ha experimentado una publicidad generalizada debido a las primeras historias de éxito, a su vez que construyen expectativas poco realistas. Esta tendencia suele ser seguida por lo que Gartner llama el «canal de la desilusión», cuando el interés, la emoción y la inversión se enfrían a medida que los experimentos y las implementaciones no logran entregar (recuerde: ha habido dos inviernos de IA notables desde la década de 1980). «Muchos proveedores están promocionando productos más allá de los que los productos son capaces», dijo Chandrasekaran. «Es casi como si estuvieran posicionando como preparados para la producción, listos para la empresa y van a entregar valor comercial en un rango de tiempo realmente corto». Sin embargo, en realidad, el abismo entre la calidad del producto en relación con la expectativa es amplio, señaló. Gartner no está viendo implementaciones de agentes en toda la empresa; Aquellos que están viendo están en «bolsillos pequeños y estrechos» y dominios específicos como ingeniería de software o adquisiciones. «Pero incluso esos flujos de trabajo no son completamente autónomos; a menudo son de naturaleza semiautónoma o de forma semiautónoma», explicó Chandrasekaran. Una de las culpables clave es la falta de infraestructura; Los agentes requieren acceso a un amplio conjunto de herramientas empresariales y deben tener la capacidad de comunicarse con tiendas de datos y aplicaciones SaaS. Al mismo tiempo, debe haber sistemas de gestión de identidad y acceso adecuados para controlar el comportamiento y el acceso del agente, así como la supervisión de los tipos de datos a los que pueden acceder (no identificables personalmente o sensibles), señaló. Por último, las empresas deben estar seguros de que la información que los agentes producen es confiable, lo que significa que está libre de sesgo y no contiene alucinaciones o información falsa. Para llegar allí, los proveedores deben colaborar y adoptar estándares más abiertos para la comunicación de la herramienta de agente a estimación y agente a agente, aconsejó. «Si bien los agentes o las tecnologías subyacentes pueden estar progresando, esta orquestación, gobernanza y capa de datos aún está esperando ser construida para que los agentes prosperen», dijo Chandrasekaran. «Ahí es donde vemos mucha fricción hoy». Sí, la industria está progresando con el razonamiento de la IA, pero aún lucha por lograr que la IA entienda cómo funciona el mundo físico. AI opera principalmente en un mundo digital; No tiene fuertes interfaces para el mundo físico, aunque se están realizando mejoras en robótica espacial. Pero, «Somos muy, muy, muy, muy temprano para ese tipo de entornos», dijo Chandrasekaran. Hacer verdaderamente avances significativos requiere una «revolución» en la arquitectura o razonamiento de modelos. «No puede estar en la curva actual y solo esperar más datos, más cómputo y esperar llegar a AGI», dijo. Eso es evidente en el tan esperado despliegue de GPT-5: el objetivo final que OpenAi definió por sí mismo fue AGI, pero «es realmente evidente que no estamos cerca de eso», dijo Chandrasekaran. En última instancia, «todavía estamos muy, muy lejos de AGI». Insights diarias sobre casos de uso de negocios con VB diariamente Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo. Lea nuestra Política de privacidad Gracias por suscribirse. Mira más boletines de VB aquí. Ocurrió un error.