Dejo activado el modo de voz avanzado de ChatGPT mientras escribo este artículo como un compañero de inteligencia artificial ambiental. De vez en cuando, le pido que proporcione un sinónimo para una palabra muy usada o algo de ánimo. Alrededor de media hora después, el chatbot interrumpe nuestro silencio y comienza a hablarme en español, sin que se lo pida. Me río un poco y pregunto qué está pasando. «¿Solo un pequeño cambio? Tengo que mantener las cosas interesantes», dice ChatGPT, ahora nuevamente en inglés. Mientras probaba el modo de voz avanzado como parte de la versión alfa temprana, mis interacciones con la nueva función de audio de ChatGPT fueron entretenidas, desordenadas y sorprendentemente variadas, aunque vale la pena señalar que las funciones a las que tuve acceso fueron solo la mitad de lo que OpenAI demostró cuando lanzó el modelo GPT-4o en mayo. El aspecto de visión que vimos en la demostración transmitida en vivo ahora está programado para un lanzamiento posterior, y la voz mejorada de Sky, que la actriz de Her Scarlett Johanssen rechazó, se ha eliminado del Modo de voz avanzado y ya no es una opción para los usuarios. Entonces, ¿cuál es el ambiente actual? En este momento, el Modo de voz avanzado recuerda a cuando se lanzó el ChatGPT original basado en texto, a fines de 2022. A veces conduce a callejones sin salida poco impresionantes o se convierte en lugares comunes de IA vacíos. Pero otras veces, las conversaciones de baja latencia funcionan de una manera que Siri de Apple o Alexa de Amazon nunca lo han hecho para mí, y me siento obligado a seguir chateando por placer. Es el tipo de herramienta de IA que le mostrarás a tus familiares durante las vacaciones para reírse un poco. OpenAI les dio a algunos periodistas de WIRED acceso a la función una semana después del anuncio inicial, pero la retiró a la mañana siguiente, citando preocupaciones de seguridad. Dos meses después, OpenAI lanzó el Modo de Voz Avanzado para un pequeño grupo de usuarios y publicó la tarjeta del sistema de GPT-4o, un documento técnico que describe los esfuerzos del equipo rojo, lo que la empresa considera riesgos de seguridad y los pasos de mitigación que ha tomado la empresa para reducir los daños. ¿Tienes curiosidad por probarlo tú mismo? Esto es lo que necesitas saber sobre la implementación más amplia del Modo de Voz Avanzado y mis primeras impresiones de la nueva función de voz de ChatGPT, para ayudarte a comenzar. Entonces, ¿cuándo será la implementación completa? OpenAI lanzó un Modo de Voz Avanzado solo de audio para algunos usuarios de ChatGPT Plus a fines de julio, y el grupo alfa todavía parece relativamente pequeño. La empresa planea habilitarlo para todos los suscriptores en algún momento de este otoño. Niko Felix, un portavoz de OpenAI, no compartió detalles adicionales cuando se le preguntó sobre el cronograma de lanzamiento. El uso compartido de pantalla y video fue una parte central de la demostración original, pero no están disponibles en esta prueba alfa. OpenAI planea agregar esos aspectos eventualmente, pero tampoco está claro cuándo sucederá eso. Si eres suscriptor de ChatGPT Plus, recibirás un correo electrónico de OpenAI cuando el Modo de voz avanzado esté disponible para ti. Una vez que esté en tu cuenta, puedes cambiar entre Estándar y Avanzado en la parte superior de la pantalla de la aplicación cuando el modo de voz de ChatGPT esté abierto. Pude probar la versión alfa en un iPhone y en un Galaxy Fold. Mis primeras impresiones del Modo de voz avanzado de ChatGPT En la primera hora de hablar con él, descubrí que me encanta interrumpir ChatGPT. No es como hablarías con un humano, pero tener la nueva capacidad de cortar ChatGPT a mitad de oración y solicitar una versión diferente del resultado se siente como una mejora dinámica y una característica destacada. Los primeros usuarios que estaban entusiasmados con las demostraciones originales pueden sentirse frustrados por obtener acceso a una versión del Modo de voz avanzado que está restringida con más barandillas de las anticipadas. Por ejemplo, aunque el canto generativo de IA fue un componente clave de las demostraciones de lanzamiento, con canciones de cuna susurradas y múltiples voces intentando armonizar, las serenatas de IA están ausentes en la versión alfa.