Kerry Wan/ZDNETEn el evento Meta Connect a principios de esta semana, Mark Zuckerberg mostró una serie de nuevas funciones en las gafas inteligentes insignia Meta Ray-Ban de la compañía. Llamando a las gafas «el factor de forma perfecto para la IA», las nuevas mejoras en la calidad de vida se centran en la IA multimodal de las gafas para una interacción más natural (similar a lo que vimos con Gemini y ChatGPT 4o de Google). Además: todo lo anunciado en Meta Connect 2024: Quest 3 asequible, gafas AR y más. Pero más allá de las mejoras en la comunicación, la IA multimodal de las gafas permite algunas interacciones nuevas e interesantes, dándoles la capacidad de «ver» lo que usted ve y «oír». lo que escucha con menos contexto necesario por parte del usuario. Una de las características más útiles es la capacidad de las gafas de «recordar» cosas por usted, tomando nota de números específicos o indicadores visuales para archivarlos para más adelante. Aquí hay un desglose de todo lo que se implementará pronto.1. Traducciones sobre la marcha MetaSimilar a otras tecnologías de traducción en vivo que hemos visto surgir este año, los Meta Ray-Ban tendrán una función de traducción en vivo diseñada para funcionar en tiempo real (o al menos cerca de él) con español, francés, e italiano. Durante el evento, Zuckerberg demostró una conversación con un hablante de español, y las gafas tradujeron lo que cada orador dijo y escuchó del español al inglés en solo unos segundos entre líneas. Por supuesto, no todas las conversaciones involucrarán a dos usuarios que usen gafas inteligentes, por lo que la compañía permite a los usuarios sincronizar su salida con la aplicación complementaria Meta, aprovechando el teléfono inteligente para mostrar las traducciones. Además: revisión de Meta Ray-Ban Smart Glasses: la mejor IA -Gafas AR para comprar ahora mismoAdemás de las nuevas características de las gafas, Meta también adelantó su nueva herramienta de traducción AI para Instagram Reels que traduce automáticamente el audio al inglés y luego usa AI para sincronizar los movimientos de la boca del hablante para que coincida con la traducción al inglés. El resultado, al menos en la demostración, fue un vídeo de aspecto natural en inglés utilizando la propia muestra de voz del hablante. Hasta ahora, esta función se encuentra en sus primeras etapas y solo está disponible en español por ahora en Instagram y Facebook mientras Meta continúa probando la tecnología. 2. Las gafas ahora pueden «recordar» cosas MetaLa demostración también mostró la «memoria fotográfica» de las gafas al resolver un problema que todos hemos tenido: recordar dónde estacionamos. El usuario miró el número de la plaza de aparcamiento y simplemente dijo: «Recuerda dónde estacioné». Más tarde, preguntando a las gafas: «Hola Meta, ¿dónde estacioné?». Invocó a la IA para que respondiera con el número de espacio de estacionamiento. Este tipo de «archivo» de conocimiento sobre la marcha es un ejemplo de cómo utilizar lo que la IA hace mejor: recordar datos específicos en un contexto predefinido. Tendremos que probar nosotros mismos qué tan confiable será la función para información menos sugerida visualmente. Es fácil imaginar ejemplos de usabilidad adicionales de esta función, analizando cualquier cosa, desde listas de compras hasta fechas de eventos o números de teléfono. 3. Multimodalidad del siguiente nivel. Anteriormente, tenías que decir «Hola Meta» para invocar la IA de las gafas y luego esperar a que se te indicara para comenzar tu consulta. Ahora, puede simplemente hacer preguntas sobre las gafas en tiempo real, incluso mientras está en movimiento, utilizando la IA multimodal de las gafas para analizar lo que está viendo o escuchando. Además: el nuevo acuerdo Quest 3 de 512 GB de Meta puede ser la mejor oferta de auriculares VR en este momento. Una demostración mostró a un usuario pelando un aguacate y preguntando: «¿Qué puedo hacer con estos?», sin especificar a qué se refería «estos». Otra demostración mostró a un usuario buscando en un armario y sacando varias prendas a la vez, pidiéndole a la IA que le ayudara a diseñar un conjunto en tiempo real. Al igual que se han desarrollado otros asistentes de voz populares, siempre puedes interrumpir Meta AI al realizar la conversión. En la misma línea, las capacidades multimodales de las gafas se extienden más allá del simple análisis de lo que está a la vista en un sentido estático. Las gafas reconocerán cosas como URL, números de teléfono a los que puede llamar o códigos QR que puede escanear instantáneamente con las gafas. 4. Asociación ‘Be My Eyes’ Por último, Zuckerberg hizo una demostración de una nueva e inteligente característica de accesibilidad de las gafas. Las personas ciegas y con problemas de visión pueden usar las gafas para transmitir lo que ven a un voluntario al otro lado de la línea, quien puede explicarles los detalles de lo que están viendo. Be My Eyes es un programa ya existente que conecta a personas con discapacidad visual con voluntarios virtuales a través de video en vivo. La demostración mostraba a una mujer mirando una invitación a una fiesta con fechas y horas. Aún así, los usos en el mundo real de esto podrían ser esencialmente cualquier cosa, desde leer letreros hasta comprar alimentos y navegar por un dispositivo tecnológico. Además: el cofundador de Google habla sobre el futuro de los dispositivos portátiles con IA (y sus arrepentimientos sobre las Google Glass) Finalmente, Zuck mostró algunos diseños nuevos, incluida una nueva edición limitada de Ray-Ban con marcos claros y transparentes, así como la introducción. de nuevas lentes de transición, duplicando efectivamente su utilidad como gafas de sol y gafas graduadas. Los Meta Ray-Ban comienzan en $300 y vienen en nueve diseños de montura diferentes y un nuevo estilo transparente de edición limitada.