Con el hardware de los teléfonos inteligentes en su punto máximo, los fabricantes de teléfonos inteligentes necesitan encontrar nuevas formas de impresionar. Para 2024, imaginamos que vendrá en forma de IA. Parece que Motorola se está preparando para subirse al tren de la IA con su próximo teléfono inteligente, según un adelanto reciente en Weibo para el Moto X50 Ultra. No se sabe mucho sobre el teléfono en este momento, pero dado que menciona la IA, imaginamos que vendrá con algunas funciones de software de IA. Motorola no sería el primero en llevar la IA a los teléfonos inteligentes. Tenemos que agradecerle a Google por eso. La nueva serie Galaxy S24 de Samsung se lanzó este año con su plataforma Galaxy AI. Apple también ha confirmado que están trabajando en funciones de IA que deberían debutar en iOS 18 y el iPhone 16. Será interesante ver qué tipo de funciones de IA podría incluir Motorola en el teléfono inteligente. Más importante aún, cómo le irá frente a la IA existente o si terminará siendo un desastre. Dicho esto, tenga en cuenta que la serie Moto X podría ser exclusiva de China. Podría debutar en los mercados globales con un nombre diferente, por lo que tendremos que esperar y ver. Motorola también ha adelantado una posible fecha de lanzamiento del teléfono. La compañía ha incluido el hashtag del Gran Premio de China de F1. El evento tendrá lugar el 21 de abril, por lo que tal vez tengamos más detalles entonces.
Etiqueta: ai Página 6 de 17
El impulso hacia la IA generativa en el panorama tecnológico actual ciertamente no ha pasado desapercibido, y una empresa tras otra se suma a la tendencia. Con eso en mente, el gigante tecnológico chino Oppo anunció recientemente que ha establecido el Centro de IA de Oppo, que se centrará en trabajar para fortalecer las capacidades de IA de Oppo y trabajará en una gama más amplia de productos y funciones de IA centrados en el usuario. Además, la compañía también anunció que la serie Oppo Reno 11 recibirá nuevas funciones de inteligencia artificial generativa a partir del segundo trimestre de 2024, que incluirán funciones de edición visual como Oppo AI Eraser y más. Pete Lau, director de productos de Oppo, afirma: “Después de los teléfonos inteligentes y los teléfonos inteligentes, los teléfonos inteligentes con inteligencia artificial de próxima generación representarán la tercera etapa transformadora importante en la industria de la telefonía móvil. En la era de los teléfonos inteligentes con IA, tanto la industria de la telefonía móvil como la experiencia del usuario serán testigos de cambios revolucionarios… OPPO se dedica a convertirse en contribuyente y promotor de los teléfonos inteligentes con IA. Esperamos trabajar junto con nuestros socios de la industria para impulsar conjuntamente la innovación de la industria de la telefonía móvil y remodelar la experiencia inteligente de los teléfonos móviles”. Quizás no sea sorprendente que Oppo haya lanzado su propio modelo de lenguaje grande llamado “AndesGPT”, que según la compañía comprende hasta 180 mil millones de parámetros. Dicho esto, podemos esperar que la compañía continúe incorporando nuevas funciones de inteligencia artificial a dispositivos futuros, comenzando con la serie Reno 11.
Para aprovechar al máximo la aplicación Gemini en su dispositivo Android, es clave comprender su uso. Con esta aplicación, puedes recopilar la información que necesitas e identificar áreas donde Google podría mejorar. La buena noticia es que usar Gemini es sencillo, especialmente si estás familiarizado con el Asistente de Google. Sin embargo, existe incertidumbre sobre el futuro del Asistente de Google. Sólo el tiempo revelará si el Asistente de Google seguirá existiendo. Por ahora, centrémonos en explorar las características y funcionalidades de la aplicación Gemini. Guía sobre el uso de la aplicación Google Gemini Para comenzar a usar la aplicación Google Gemini, primero descárguela de Google Play. Si no puede encontrarlo en los resultados de búsqueda, es posible que aún no esté disponible en su ubicación, pero debería estar accesible pronto. Si tiene dificultades para instalar la aplicación, puede visitar el sitio web de Gemini y probarla allí. Sin embargo, si instalas la aplicación con éxito, observarás que Gemini todavía depende del Asistente de Google para tareas específicas. Importante: para utilizar Google Gemini en Android, asegúrese de que su teléfono tenga un mínimo de 4 GB de RAM y funcione con Android 12 o una versión más reciente. Además, asegúrese de que su aplicación de Google esté actualizada. Si no es así, Gemini le pedirá que lo actualice. Tenga en cuenta que no se puede acceder a la aplicación Gemini con una cuenta de Google administrada por una cuenta de Google Workspace for Education para menores o Family Link. Una vez que elijas usar Gemini, se convertirá en tu Asistente principal de Google. La próxima vez que digas «Hola Google» o utilices tu método preferido para activarlo, Gemini será quien responda. Para comenzar a usar Gemini, siga estos pasos: Abra la aplicación Google Gemini. Toca «Comenzar». Después de conocer cómo Google Gemini puede ayudarlo, toque «Más». En la página siguiente, seleccione «Acepto». Toca el área que dice «Escribe, habla o comparte una foto». ¿Cómo puede Gemini mejorar su experiencia con Android? Puedes hacer preguntas como la hora de un país concreto o la previsión meteorológica semanal. Básicamente, Gemini puede realizar la mayoría de las tareas a las que estás acostumbrado con el Asistente de Google. Además, tiene la opción de habilitar/deshabilitar y administrar las funciones del Asistente dentro de Gemini. Localiza la miniatura de tu perfil en la esquina superior y tócala. Ahora, seleccione «Configuración». Toca «Funciones del Asistente de Google en Gemini». Active la función si aún no está habilitada. Además, puede administrar funciones individuales dentro de este menú. Sin embargo, Gemini es bastante útil por sí solo y ofrece una variedad de capacidades. Puedes buscar lo que hay en tu pantalla o iniciar una búsqueda usando fotos de tu galería. Para buscar con imágenes, toque el ícono de la cámara, cargue una imagen desde su teléfono y obtenga más información. Como ejemplo, utilicé una foto de mi Yorkie y Gemini me proporcionó información relevante. Noticias de la semana de Gizchina Encontrarás botones de reproducción y pausa en la parte superior derecha del texto, lo que permitirá a Gemini leer el texto en voz alta por ti. Esta es una característica útil, especialmente cuando tienes los ojos cansados. Es importante tener en cuenta que es posible que Google Gemini no identifique con precisión la ubicación de cada imagen mediante el análisis. En tales casos, le solicitará información adicional para determinar la ubicación de la imagen. Además, podrás consultar sobre lugares recomendados para visitar en una ciudad específica. Sin embargo, puede observar que en algunos casos, Gemini mostrará imágenes, mientras que en otros no. Otras funciones de la aplicación Google Gemini Google Gemini ofrece una variedad de funciones, incluida la creación de un plan de limpieza de siete días, codificación, configuración de temporizadores y realización de llamadas o cartas de presentación. Si tiene una gran cantidad de texto para leer, puede copiarlo y pegarlo en Gemini para recibir un resumen más breve. La página de inicio también ofrece sugerencias que puede explorar. Otra característica te permite tomar una fotografía de un objeto y preguntarle a Gemini qué es. Además, Gemini no solo traduce el texto sino que también identifica la fuente del texto. Por ejemplo, si toma una fotografía de un libro en otro idioma, la traducirá a su idioma preferido y le informará de dónde se obtuvo el texto. Además, Géminis tiene capacidad de razonamiento. Por ejemplo, si tomas una fotografía de una botella de vidrio y preguntas si se romperá, Géminis te explicará que la rotura de la botella depende de varios factores, como el tipo de vidrio, la altura desde la que se cae y la superficie sobre la que cae. . ¿La aplicación Gemini reemplaza al Asistente de Google? No necesitas el último teléfono Android para usar Gemini; funciona en modelos con Android 12. Sin embargo, utilice Gemini con precaución ya que puede proporcionar información incorrecta. Si opta por Gemini Advanced, obtendrá más funciones para manejar tareas complejas. Los primeros dos meses de Gemini Advanced son gratuitos y luego cuesta $ 19,99 por mes. Es importante tener en cuenta que cuando Gemini está activo, el ícono de la aplicación Asistente cambiará al ícono de Gemini, dando la apariencia de tener dos versiones de la misma aplicación. Si bien Gemini tiene sus capacidades, hay ciertas cosas que el Asistente no puede hacer, como rutinas, interactuar con aplicaciones multimedia, configurar recordatorios y el modo de intérprete. Google ha insinuado que traerá más funciones del Asistente a Gemini en el futuro. Tal como está ahora, Gemini no parece reemplazar completamente al Asistente debido a la falta de ciertas funciones. Sin embargo, es posible que este no sea el caso en el futuro cercano, ya que Google prometió cargar Gemini con más funciones. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.
El asistente virtual de Samsung, Bixby, deja bastante que desear. Si posee un teléfono Samsung pero prefiere usar el Asistente de Google, realmente no lo culpamos. Pero parece que podría haber una razón para darle otra oportunidad a Bixby. Samsung ha anunciado que integrará las funciones de Galaxy AI en Bixby. Para aquellos que no están familiarizados, Galaxy AI es un nuevo conjunto de herramientas de inteligencia artificial que hizo su debut con la serie Galaxy S24. Según Samsung, la integración con Bixby significa que los usuarios pueden iniciar fácilmente algunas funciones de Galaxy AI usando su voz. “Ahora, gracias a la integración de Galaxy AI con las capacidades de activación por voz de Bixby, los usuarios pueden potenciar su día a día mediante la activación rápida y sencilla de estas funciones, simplemente hablando. Con Bixby, los usuarios pueden abrir y activar rápidamente las funciones Galaxy AI1 con manos libres, eliminando la necesidad de buscar físicamente en su dispositivo para encontrar la función de su elección”. Galaxy AI viene con funciones como Live Translate, donde los usuarios pueden disfrutar de la traducción en tiempo real a medida que ocurre. Con la integración en Bixby, los usuarios pueden iniciar rápidamente la función en lugar de tener que buscarla. Es genial y debería hacer de Bixby una opción más atractiva. Google ha hecho algo similar con su Gemini AI y su Asistente de Google, por lo que no sorprende que Samsung también haya seguido un camino similar.
No hace mucho, el fabricante chino de teléfonos inteligentes Meizu estuvo en las noticias después de que los rumores sobre un próximo teléfono inteligente de la marca Polestar (sí, ese Polestar) revelaran que el próximo teléfono era, de hecho, un dispositivo renombrado de la serie Meizu Infinity. Dicho esto, parece que ahora se informa que la compañía planea abandonar el negocio de los teléfonos inteligentes por completo. LEA: El próximo teléfono de Polestar es en realidad un dispositivo chino renombrado. Nueva información en línea indica que Meizu anunció recientemente un cambio en la estrategia de su empresa y, en cambio, pasará al desarrollo de software de inteligencia artificial para la integración con hardware futuro potencial. Aparentemente, el cambio ha estado en proceso desde hace un tiempo, y el director ejecutivo del Grupo Xingji Meizu, Shen Ziyu, afirmó el año pasado que la compañía ha evolucionado de una mera marca de teléfonos móviles a un «grupo ecológico». Sin embargo, como resultado, el cambio de dirección de la empresa provocará la cancelación del trabajo en varios modelos de teléfonos inteligentes próximos, entre los que se incluyen el Meizu 21 Pro, Meizu 22 y Meizu 23, por ejemplo. Por otro lado, la compañía planea lanzar un nuevo sistema operativo móvil este año, además de un próximo «producto de hardware de IA». Sin embargo, la compañía asegura a los clientes que el soporte para los productos existentes en toda China seguirá vigente. Fuente: Gzimochina
Hay planes para que funciones seleccionadas de Galaxy AI debuten con el Galaxy S24 (revisión) en dispositivos más antiguos, una de las mejores funciones que quedó notablemente fuera del calendario fue Instant Slow-Mo. Es una función que agrega un efecto de cámara lenta para seleccionar partes de un video incluso si no está grabado en modo Slo-Mo de forma nativa. Sorprendentemente, se ha confirmado que esto eventualmente llegará a varios teléfonos inteligentes y tabletas Galaxy más antiguos. ¿Qué Samsung Galaxy tiene la función Instant Slow-Mo? En una publicación del foro, un moderador de la comunidad Samsung incluyó detalles adicionales sobre Instant Slow-Mo, indicando que se enviará a dispositivos equipados con el SoC Snapdragon 8 Gen 2. Esto significaría que las series Galaxy S23 (Ultra), Galaxy Z Fold 5 (revisión), Galaxy Z Flip 5 (revisión) y Galaxy Tab S9 recibirán esta función. Como se explica en la misma publicación, Instant Slwo-Mo aprovecha la NPU y la GPU del chip para potenciar el efecto. Describió además que la función es similar a hacer zoom en ciertos segmentos de la foto para distinguir los objetos más pequeños desde la distancia. Sin embargo, con la cámara lenta, está limitada por el tiempo y amplía el período entre los fotogramas de un vídeo grabado. Eso también explica la limitación de la nueva función AI y su incapacidad para admitir otros modelos Galaxy con un chipset más anticuado. Es una obviedad que requiere mucha potencia informática y recursos de aprendizaje automático para poder reaccionar a partir de una entrada del usuario en 16,6 ms para vídeos a 60 fps, por ejemplo. Además de la reproducción instantánea en cámara lenta al ver videos a través de la Galería o un reproductor de video, Samsung dijo que el nuevo editor de video que admite la edición de videos en cámara lenta también estará disponible en dispositivos antiguos seleccionados. Samsung también planea mejorar Instant Slow-Mo. Esta característica agregará compatibilidad con videos de 10 bits y 480 p, así como con el formato .mov para reproducir, compartir y editar. Todavía no hay una idea clara de cuándo llegará Instant Slow-Mo. Quizás se agregaría a las otras funciones de Galaxy AI en una sola actualización de software. Se espera que Samsung lance One UI 6.1 basado en Android 14 en dispositivos más antiguos en las próximas semanas, por lo que existe la posibilidad de que se incluyan varios de ellos. Además de Instant Slow-Mo, en una página de comparación de Samsung Reino Unido se reveló que Circle to Search, que se confirmó por primera vez para Google Pixel 8, Note Assist, Photo Assist y Live Translation estará disponible para una amplia gama de dispositivos Galaxy. Oferta para afiliados ¿Has comprobado las nuevas funciones de Galaxy AI? ¿Cuál de ellos crees que es el más práctico? Háganos saber en los comentarios.
Los evaluadores han detectado paneles laterales de DR Duet AI para cuentas gratuitas a través del programa Workspace Labs en servicios como Gmail, Google Drive, Google Docs, Google Sheets y Google Slides. Con Duet AI, puede utilizar la IA generativa para resumir, reescribir, hacer preguntas contextuales y más. Google ha anunciado un cambio de nombre de Duet AI a Gemini, pero la transición aún no se ha completado. Google recientemente emprendió una campaña relámpago de cambio de marca, cambiando el nombre de todos sus productos con IA a Gemini. Esto incluye cambiar el nombre de Google Bard y Duet AI for Workspace a Google Gemini. Si bien se anunció el cambio de marca, la marca continúa existiendo en lugares extraños aquí y allá mientras Google trabaja en una transición. Para algunos usuarios, el panel lateral Duet AI previamente anunciado ha comenzado a aparecer en Gmail, Google Drive, Google Docs, Sheets y más. Como informa 9to5Google, el panel Duet AI ha comenzado a realizar pruebas más amplias para cuentas gratuitas a través del programa Workspace Labs. La herramienta AI aparece junto a tu imagen de perfil y al hacer clic en ella se abre un panel lateral que te permite chatear con Duet AI. Para las cuentas personales de Google, Duet AI será parte del plan Google One AI Premium. Duet AI habilita funciones como Help Me Write, una herramienta dentro de Gmail que utiliza IA generativa para ayudar a redactar correos electrónicos. También puede usarlo para resumir hilos de correo electrónico, sugerir opciones de respuesta, buscar información de correos electrónicos anteriores y más. Puede usar Duet AI para resumir documentos o hacer preguntas contextuales específicas dentro de Google Drive. Encontrará una nueva opción «Preguntar a Duet AI» cuando haga clic con el botón derecho en un documento, donde podrá escribir su pregunta o solicitud. En Google Docs, el panel lateral de Duet AI le permite resumir, reescribir, hacer referencia a archivos de Google Drive y Correos electrónicos de Gmail, e incluso generar imágenes. Puede utilizar Duet AI para resumir y crear tablas, fórmulas y más en Google Sheets. De manera similar, puedes crear imágenes en Google Slides, generar nuevas diapositivas y resumir presentaciones. Con el cambio de marca de Google, todas las referencias de Duet AI cambiarán a Gemini, pero aún podrás realizar las mismas tareas. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios
Source link
TL;DR NVIDIA ha lanzado una nueva herramienta gratuita llamada «Chat with RTX» que permite a los propietarios de GeForce RTX serie 30 y superiores ejecutar un chatbot en su propio contenido desde su propia PC. Los usuarios pueden alimentar sus propios archivos o dirigirlos a videos y listas de reproducción de YouTube. Luego pueden realizar consultas para obtener respuestas de estas fuentes. El chat con RTX se ejecuta sin conexión, por lo que es inherentemente más privado que los chatbots de IA en línea como ChatGPT y Gemini. La IA ha permeado todos los aspectos de nuestra vida. Entre ChatGPT y Gemini, prácticamente todos tenemos acceso a un asistente virtual inteligente de IA que puede buscarnos en Internet y brindarnos información relevante en segundos. Pero donde estos asistentes gratuitos de IA fallan es cuando necesitas acciones en tu propio conjunto de datos. Ejecutar su propio chatbot de IA localmente no es del agrado de todos, y suscribirse a niveles más altos puede que tampoco sea una opción para algunos. NVIDIA está haciendo que sea mucho más fácil para los propietarios de GPU GeForce ejecutar su propio chatbot de IA con la nueva herramienta Chat with RTX. Chat with RTX es una herramienta gratuita ofrecida por NVIDIA que permite a los usuarios personalizar un chatbot con su propio contenido. Las consultas son aceleradas por la GPU NVIDIA en su PC con Windows, con soporte restringido a GeForce RTX serie 30 y superiores con al menos 8 GB de VRAM. También necesita Windows 10 o superior y los controladores de GPU NVIDIA más recientes. NVIDIA también aclara que la herramienta es una demostración técnica, así que no espere un nivel de pulido de ChatGPT desde el principio. Chat con RTX esencialmente brinda capacidades de IA generativa a su propia PC. Puede introducir sus propios archivos como conjunto de datos y utilizar grandes modelos de lenguaje de código abierto como Mistral o Meta’s Llama 2 para permitir consultas y obtener respuestas rápidas y contextualmente relevantes. Puede alimentar Chat con RTX en varios formatos de archivo, incluidos .txt, .pdf, .doc/.docx y .xml. También puedes alimentarlo con información de vídeos y listas de reproducción de YouTube. Dado que Chat with RTX se ejecuta localmente, sus datos permanecen en su dispositivo, lo cual es perfecto si desea procesar datos confidenciales sin conexión. NVIDIA observa algunas limitaciones para Chat with RTX. El chat con RTX no puede recordar el contexto, por lo que no puede hacer preguntas de seguimiento. La herramienta también funciona mejor si busca datos distribuidos en unos pocos documentos en lugar de solicitar un resumen de unos pocos documentos. NVIDIA se contenta con llamar a esto una demostración técnica, pero sigue siendo una gran herramienta para empezar. ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios
Source link
Calvin Wankhede / Android AuthorityTL;DR OpenAI ha anunciado una nueva función de memoria para ChatGPT. ChatGPT ahora puede recordar el contexto y los detalles de las conversaciones. Puede detectarlos por sí solo o el usuario puede decirle que recuerde algo específico. Los usuarios pueden desactivar la función de memoria o utilizar chats temporales para mantener conversaciones sin memoria. ChatGPT es una gran herramienta que satisface diversas necesidades, ya sea salvarlo del bloqueo del escritor o planificar unas vacaciones con un presupuesto limitado. Pero una de las desventajas del asistente virtual de IA es que debes especificar todo lo que necesitas en cada nueva instancia de tu conversación. Si bien ChatGPT recuerda los contextos conversacionales dentro de esa conversación, no los traslada a otras conversaciones en el futuro. OpenAI ahora le está dando a ChatGPT el poder de la memoria, permitiéndole recordar cosas si así lo desea. OpenAI ha anunciado que está probando la memoria con ChatGPT. La memoria le permite a ChatGPT recordar las cosas que discute en todos los chats y le evita repetir información. La memoria se está implementando para una pequeña parte de los usuarios de ChatGPT gratuito y ChatGPT Plus, y la compañía anunciará pronto una implementación más amplia. Algunos ejemplos de sus funciones de memoria incluyen decirle a ChatGPT que es dueño de una cafetería en el vecindario. La próxima vez que pienses en mensajes para una publicación en las redes sociales, ChatGPT recordará este hecho. En otro caso, puede mencionar su preferencia al ver las notas de su reunión resumidas de cierta manera, y ChatGPT las recordará en todas las reuniones. Para abordar de manera preventiva las inquietudes, OpenAI dice que los usuarios pueden controlar la memoria de ChatGPT. Los usuarios pueden decirle que recuerde algo (aunque también recordará cosas mediante una conversación), pero también puedes desactivar la función por completo. Si prefieres un término medio, puedes preguntarle a ChatGPT qué recuerda y decirle que olvide ese hecho mediante una conversación o mediante la configuración. Además, también puedes conversar en chats temporales para tener conversaciones sin memoria (con el beneficio adicional de que no aparecen en historial y no se utiliza para entrenar modelos). OpenAI reitera que el contenido que proporciona ChatGPT, incluidos los recuerdos, podría usarse para mejorar sus modelos para todos. Los usuarios pueden desactivar este comportamiento a través de Controles de datos. El contenido de los clientes ChatGPT Team y Enterprise no se utilizará para capacitación. La compañía también anunció que los GPT personalizados también tendrán su propia memoria distintiva, aunque habilitar la memoria será una opción ejercida por el constructor. Los recuerdos de los usuarios no se comparten con los constructores. ¿Qué opinas de la función de memoria en ChatGPT? ¡Háganos saber en los comentarios a continuación! ¿Tienes un consejo? ¡Háblanos! Envíe un correo electrónico a nuestro personal a news@androidauthority.com. Puedes permanecer en el anonimato u obtener crédito por la información, es tu elección.Comentarios
Source link
Samsung anunció que habilitará dos funciones Galaxy AI en Galaxy Buds 2 Pro (revisión) y Galaxy Buds 2. Las funciones, que incluyen traducción e interpretación en vivo, hacen que los verdaderos auriculares inalámbricos sean aún más prácticos de usar. Estos llegarán como una actualización OTA (inalámbrica) de los auriculares. Galaxy AI, que debutó por primera vez con el Galaxy S24 (revisión) y el Galaxy S24 Ultra (revisión), es el conjunto de funciones de inteligencia artificial de Samsung. Samsung se comprometió por primera vez a enviar funciones seleccionadas de Galaxy AI a otros teléfonos inteligentes y tabletas Galaxy a finales de este año. Los surcoreanos también mencionaron que expandirían esta función a sus dispositivos portátiles, como el Galaxy Watch 6 (revisión) y el Galaxy Watch 5. Galaxy AI llega a los Samsung Galaxy Buds En un comunicado de prensa, están confirmando qué funciones Galaxy AI llegarán a sus dos modelos Galaxy Buds. Es decir, la traducción e interpretación en vivo serán adiciones esenciales a los Galaxy Buds 2 Pro y Galaxy Buds 2 y funcionarán como funciones del dispositivo. En otras palabras, no es necesaria una conexión a Internet. Samsung habilitará la traducción e interpretación en vivo de Galaxy AI en Galaxy Buds 2 Pro y Galaxy Buds 2 a través de una actualización OTA. / © Samsung En cuanto a Live Translation, permite una traducción “casi natural” entre dos usuarios, pero necesita un Galaxy S24 (revisión) y Galaxy Buds en ambos extremos. Mientras tanto, al usar Interpretación, los textos hablados y traducidos se muestran en el Galaxy S24, mientras que la traducción de voz se enviará directamente a los auriculares. Samsung agregó que para ciertos idiomas, es posible que estos paquetes de idiomas deban descargarse de antemano. Las dos funciones de Galaxy AI ya se están implementando a través de una actualización de software para Galaxy Buds 2 y Galaxy Buds 2 Pro en India. Los usuarios de otros países también deberían recibir dichas funciones en los próximos días o semanas. No hay información oficial si la integración de Galaxy AI con los auriculares Galaxy también admitirá otros modelos de teléfonos inteligentes Galaxy una vez que estas funciones lleguen a estos teléfonos a finales de este año. ¿Has utilizado alguna de las funciones de Galaxy AI? ¿Cuál crees que es el más práctico? Queremos escuchar tu experiencia.