GPT-4o (“o” para “omni”) es el último modelo de lenguaje grande (LLM) multimodal de OpenAI y aporta importantes avances en la generación de contenido de texto, voz e imágenes para ofrecer una interacción más natural entre los usuarios y la IA. OpenAI afirma que su nuevo modelo de IA puede responder a entradas de audio en tan solo 232 milisegundos y es significativamente más rápido en respuesta de texto en mensajes que no están en inglés, con soporte para más de 50 idiomas. También puedes interrumpir al modelo con nuevas preguntas o aclaraciones mientras habla. GPT-4o también cuenta con un asistente de voz más capaz con sonido humano que responde en tiempo real y puede observar su entorno a través de la cámara de su dispositivo. Incluso puedes decirle al asistente que suene más alegre o que vuelva a adoptar una voz que suene más robótica. También obtiene traducciones en tiempo real en más de 50 idiomas y puede actuar como un asistente de accesibilidad para personas con discapacidad visual. OpenAI demostró una larga lista de capacidades de GPT-4o en su transmisión en vivo. Puede ver todas las demostraciones de las nuevas funciones de GPT-4o en el canal de YouTube de OpenAI. GPT-4o estará disponible para los usuarios de ChatGPT de nivel gratuito, mientras que aquellos en ChatGPT Plus obtendrán límites de mensajes 5 veces más altos. Las funciones de texto e imagen de GPT-4o ya están disponibles en la aplicación ChatGPT y en la web. El nuevo modo de voz estará disponible como modo alfa para ChatGPT Plus en las próximas semanas. En noticias relacionadas, OpenAI anunció una aplicación de escritorio ChatGPT para macOS, mientras que una versión para Windows llegará a finales de este año. OpenAI también anunció su tienda ChatGPT, que alberga millones de bots de chat personalizados a los que los usuarios pueden acceder de forma gratuita. Fuente