Jason Hiner/ZDNet, mientras no escuchamos mucho sobre Siri o Apple Intelligence durante el evento de Apple 2025 que lanzó nuevos iPhones, AirPods y Apple Watches, hubo dos grandes características de IA anunciadas que se han anunciado en gran medida bajo el radar. Esto se debe principalmente a que se presentaron como nuevas características y no utilizaron un lenguaje de marketing de IA sobrevalorado. Sin embargo, tuví que demostrar ambas características en Apple Park el martes y mi primera impresión fue que ambos están casi completamente horneados y listos para comenzar a mejorar la vida diaria, y esos son mis tipos favoritos de características para hablar. Una cámara selfie que enmarca automáticamente el mejor shotapple ha implementado un nuevo tipo de cámara frontal. Esto utiliza un sensor cuadrado y aumenta la resolución del sensor desde 12 megapíxeles en modelos anteriores a 24MP. Sin embargo, debido a que el sensor es cuadrado, en realidad genera imágenes de 18MP. El verdadero truco es que puede generar en formatos verticales u horizontales. De hecho, ni siquiera tiene que girar el teléfono para cambiar entre el modo vertical y horizontal ya. Ahora puede simplemente mantener el teléfono en una mano y en la posición vertical u horizontal que prefiera, puede tocar el botón Rotar y voltee de vertical a horizontal y viceversa. Y debido a que tiene un sensor Ultrawide con el doble de los megapíxeles, puede tomar fotos igualmente nítidas en cualquier orientación. Ahora, aquí es donde entra la IA. Puede configurar la cámara frontal en zoom automático y girar automáticamente. Luego, encontrará automáticamente caras en su toma y ampliará o apretará la toma y decidirá si una orientación vertical u horizontal funcionará mejor para adaptarse a todos en la imagen. Apple llama a esta su función de «Center Stage», que es el mismo término que utiliza para centrarlo en el medio de la pantalla para una videollamada en el iPad y el Mac. De también: cada modelo de iPhone 17 comparó técnicamente el aprendizaje automático, pero aún es justo llamar a esto una función de IA. Sin embargo, la marca Center Stage es un poco confusa, porque la cámara selfie en el iPhone 17 se usa para fotos, mientras que la función en iPad y Mac es para videollamadas. La función de la cámara selfie también está dirigida a fotos con varias personas, mientras que la función iPad/Mac se usa principalmente con usted en el marco. Aún así, después de probarlo con varios iPhones de demostración en Apple Park después de la apertura del martes, es fácil llamar a esto la mejor y más inteligente cámara selfie que he visto. No tengo dudas de que otros fabricantes de teléfonos comenzarán a copiar esta función en 2026. Y la mejor parte es que Apple no solo la limitó a los iPhone 17 Pro y Pro Max de alta gama de este año, sino que también lo colocó en el iPhone 17 estándar y el aire del iPhone. Esa es una gran noticia para los consumidores, que tomaron 500 mil millones de selfies en iPhones el año pasado según Apple. 2. Traducción en vivo en AirPods Pro 3i ‘he dicho esto muchas veces antes, pero la traducción del idioma es uno de los mejores y más precisos usos para modelos de idiomas grandes. De hecho, es una de las mejores cosas que puede hacer con la IA generativa. Ha permitido a empresas como Apple que se quedan muy por detrás de Google y otras en su aplicación de traducción de idiomas para avanzar grandes en la implementación de características de traducción de idiomas en productos clave. Si bien Google Translate admite 249 idiomas diferentes, la aplicación Traducy de Apple admite 20. Google Translate ha existido desde 2006, mientras que la aplicación Traducy de Apple se lanzó en 2020. También: AirPods Pro 3 vs. AirPods Pro 2: Aquí hay quién debería actualizar, sin embargo, mientras que Google ha estado haciendo demostraciones durante años mostrando la traducción en el tiempo real en sus teléfonos y auriculares, ninguna de las características ha trabajado realmente bien en el mundo real. Google nuevamente hizo un gran problema sobre la traducción en tiempo real durante su evento de lanzamiento de Pixel 10 en agosto, pero incluso durante la demostración en el escenario, la función se convirtió en un poco. Ingrese a Apple. Junto con AirPods Pro 3, lanzó su propia función de traducción en vivo. Y aunque el número de idiomas no es tan amplio, la implementación es mucho más suave y fácil de usar. Obtuve una demostración en persona de esto con un grupo de otros periodistas en Apple Park el martes después de la apertura. El hablante de español de Nina Raemont/Zdneta entró en la habitación y comenzó a hablar mientras teníamos AirPods Pro 3 en nuestros oídos y un iPhone 17 Pro en nuestras manos con la función de traducción en vivo activada. El AirPods Pro 3 inmediatamente entró en modo ANC y comenzó a traducir las palabras habladas en español al inglés para que pudiéramos mirar la cara de la persona durante la conversación mientras escuchamos sus palabras en nuestro propio idioma sin la distracción de escuchar las palabras en ambos idiomas. Y sé suficiente español para entender que la traducción fue bastante precisa, sin hipo en este caso. Fue solo una breve demostración, pero intercambió los trucos de la demostración de Pixel 10 de Google (tratando de poner las palabras y la entonación en una voz de altavoz con clase AI) para una usabilidad más práctica. La versión de Apple es una característica beta que se limitará al inglés, español, francés, alemán y portugués para comenzar. Y para ser claros, el iPhone funciona la mayor parte del funcionamiento de procesamiento, mientras que los AirPods mejoran la experiencia al invocar automáticamente la cancelación de ruido. Pero debido a eso, la característica no se limita solo a AirPods Pro 3. También funcionará con AirPods Pro 2 y AirPods 4, siempre que estén conectados a un teléfono que pueda ejecutar Apple Intelligence (iPhone 15 Pro o más nuevo). Esa es otra victoria para los consumidores. Desde que planeo probar tanto el Pixel 10 Pro XL con Pixel Buds Pro 2 como el iPhone 17 Pro Max con AirPods Pro 3, pondré sus nuevas funciones de traducción cara a cabeza para ver qué tan bien funcionan. Cada semana, estoy en contacto con amigos y miembros de la comunidad que hablan uno o más de los idiomas apoyados, por lo que tendré amplias oportunidades para ponerlo a trabajar en el mundo real y luego compartir lo que aprendo.