OpenAICuando OpenAI celebró su evento de lanzamiento de primavera en mayo, uno de los aspectos más destacados fue su demostración del nuevo modo de voz en ChatGPT, potenciado con las nuevas capacidades de audio y video de GPT-4o. El nuevo y muy esperado modo de voz finalmente está aquí (o algo así). Además: Los mejores chatbots de IA de 2024: ChatGPT, Copilot y alternativas dignasEl martes, OpenAI anunció a través de una publicación en X que el modo de voz se está implementando en versión alfa para un pequeño grupo de usuarios de ChatGPT Plus, ofreciéndoles un asistente de voz más inteligente que puede ser interrumpido y responder a las emociones de los usuarios. Estamos comenzando a implementar el modo de voz avanzado para un pequeño grupo de usuarios de ChatGPT Plus. El modo de voz avanzado ofrece conversaciones más naturales y en tiempo real, le permite interrumpir en cualquier momento y detecta y responde a sus emociones. pic.twitter.com/64O94EhhXK— OpenAI (@OpenAI) 30 de julio de 2024 Los usuarios que participen en la versión alfa recibirán un correo electrónico con instrucciones y un mensaje en la aplicación móvil, como se muestra en el video de arriba. Si aún no has recibido una notificación, no te preocupes. OpenAI compartió que seguirá añadiendo usuarios de forma continua, con el plan de que todos los usuarios de ChatGPT Plus accedan a él en otoño. En la demostración original en el evento de lanzamiento, que se muestra a continuación, la empresa mostró las capacidades multimodales del Modo de Voz, incluida la asistencia con el contenido en las pantallas de los usuarios y el uso de la cámara del teléfono del usuario como contexto para una respuesta. Sin embargo, la versión alfa del Modo de Voz no tendrá estas funciones. OpenAI compartió que «las capacidades de video y uso compartido de pantalla se lanzarán en una fecha posterior». La empresa también dijo que desde que demostró originalmente la tecnología, ha mejorado la calidad y la seguridad de las conversaciones de voz. OpenAI probó las capacidades de voz con más de 100 miembros externos del equipo rojo en 45 idiomas, según el hilo X. La compañía también entrenó al modelo para que hable solo en las cuatro voces preestablecidas, bloquee las salidas que se desvíen de esas voces designadas e implemente barandillas para bloquear las solicitudes. La compañía también dijo que se tendrán en cuenta los comentarios de los usuarios para mejorar aún más el modelo, y compartirá un informe detallado sobre el rendimiento de GPT-4os, incluidas las limitaciones y las evaluaciones de seguridad, en agosto. Además: las herramientas de inteligencia artificial de nueva generación de Google ayudan a hiperorientar sus campañas publicitarias Puede convertirse en un suscriptor de ChatGPT Plus por $ 20 por mes. Otros beneficios de la membresía incluyen funciones avanzadas de análisis de datos, generación de imágenes, acceso prioritario a GPT-4o y más. Una semana después de que OpenAI revelara esta función, Google reveló una función similar llamada Gemini Live. Sin embargo, Gemini Live aún no está disponible para los usuarios. Eso puede cambiar pronto en el evento Made by Google que se realizará en unas pocas semanas.