Si recientemente ha actualizado a un modelo de iPhone más nuevo, probablemente haya notado que Apple Intelligence se está presentando en algunas de sus aplicaciones más utilizadas, como mensajes, correo y notas. Apple Intelligence (sí, también abreviado a IA) apareció en el ecosistema de Apple en octubre de 2024, y está aquí para permanecer mientras Apple compite con Google, OpenAi, Anthrope y otros para construir las mejores herramientas de IA. ¿Qué es Apple Intelligence? Créditos de imagen: los ejecutivos de marketing de Apple Cupertino han marcado la inteligencia de Apple: «AI para el resto de nosotros». La plataforma está diseñada para aprovechar las cosas que la IA generativa ya hace bien, como el texto y la generación de imágenes, para mejorar las características existentes. Al igual que otras plataformas, incluidas ChatGPT y Google Gemini, Apple Intelligence fue entrenada en grandes modelos de información. Estos sistemas utilizan el aprendizaje profundo para formar conexiones, ya sea texto, imágenes, video o música. La oferta de texto, impulsada por LLM, se presenta como herramientas de escritura. La función está disponible en varias aplicaciones de Apple, incluidos correo, mensajes, páginas y notificaciones. Se puede utilizar para proporcionar resúmenes de texto largo, revisar e incluso escribir mensajes para usted, utilizando contenido y indicaciones de tono. La generación de imágenes también se ha integrado, de manera similar, aunque un poco menos sin problemas. Los usuarios pueden pedirle a Apple Intelligence que genere emojis personalizados (Genmojis) en un estilo de Apple House. Mientras tanto, el Playground de Image es una aplicación independiente de generación de imágenes que utiliza indicaciones para crear contenido visual que se puede usar en mensajes, notas clave a través de las redes sociales. Apple Intelligence también marca un tan esperado subida de cara para Siri. El asistente inteligente llegó temprano al juego, pero en su mayoría ha sido descuidado durante los últimos años. Siri está integrado mucho más profundamente en los sistemas operativos de Apple; Por ejemplo, en lugar del ícono familiar, los usuarios verán una luz brillante alrededor del borde de la pantalla de su iPhone cuando haga lo suyo. Más importante aún, el nuevo Siri funciona en las aplicaciones. Eso significa, por ejemplo, que puede pedirle a Siri que edite una foto y luego la inserte directamente en un mensaje de texto. Es una experiencia sin fricción que el asistente había faltado anteriormente. La conciencia en la pantalla significa que Siri usa el contexto del contenido con el que está actualmente comprometido para proporcionar una respuesta apropiada. Antes de WWDC 2025, muchos esperaban que Apple nos presentara una versión aún más repitada de Siri, pero vamos a tener que esperar un poco más. Evento de TechCrunch San Francisco | 27 al 29 de octubre de 2025 «Como hemos compartido, continuamos nuestro trabajo para entregar las características que hacen que Siri sea aún más personal», dijo Apple Svp de Software Engineering Craig Federighi en WWDC 2025. «Este trabajo necesita más tiempo para llegar a nuestra barra de alta calidad, y esperamos compartir más sobre el próximo año». Esto aún así, esta relación personalizada, más personalizada de Siri, es posible que comprenda, se supone que debe comprender más personalizado, es posible compartir más sobre su contexto personal. Rutina de comunicaciones y más. Pero según un informe de Bloomberg, la versión en desarrollo de este nuevo Siri está demasiado lleno de errores para enviar, de ahí su retraso. En WWDC 2025, Apple también dio a conocer una nueva función de IA llamada Visual Intelligence, que lo ayuda a hacer una búsqueda de imágenes de cosas que ve a medida que navega. Apple también presentó una función de traducción en vivo que puede traducir conversaciones en tiempo real en las aplicaciones de mensajes, Facetime y Teléfono. Se espera que la inteligencia visual y la traducción en vivo estén disponibles más tarde en 2025, cuando iOS 26 se lanza al público. ¿Cuándo se dio a conocer Apple Intelligence? Después de meses de especulación, Apple Intelligence ocupó el centro del escenario en WWDC 2024. La plataforma se anunció a raíz de un torrente de noticias generativas de IA de compañías como Google y Open AI, lo que causó preocupación de que el famoso gigante tecnológico de labios cerrados se haya perdido el bote en la última moda tecnológica. Sin embargo, al contrario de tales especulaciones, Apple tenía un equipo, trabajando en lo que resultó ser un enfoque muy de Apple para la inteligencia artificial. Todavía había pizzazz en medio de las demostraciones, a Apple siempre le encanta hacer un espectáculo, pero Apple Intelligence es, en última instancia, una versión muy pragmática de la categoría. Apple Intelligence no es una característica independiente. Más bien, se trata de integrarse en las ofertas existentes. Si bien es un ejercicio de marca en un sentido muy real, la tecnología impulsada por el modelo de lenguaje grande (LLM) funcionará detrás de escena. En lo que respecta al consumidor, la tecnología se presentará principalmente en forma de nuevas características para las aplicaciones existentes. Aprendimos más durante el evento del iPhone 16 de Apple en septiembre de 2024. Durante el evento, Apple promocionó una serie de características con IA que llegan a sus dispositivos, desde la traducción en la serie 10 de Apple Watch, la búsqueda visual en iPhones y una serie de ajustes a las capacidades de Siri. La primera ola de inteligencia de Apple llega a fines de octubre, como parte de iOS 18.1, iPados 18.1 y macOS Sequoia 15.1. Las características lanzadas primero en inglés de EE. UU. Más tarde, Apple agregó localizaciones inglesas australianas, canadienses, de Nueva Zelanda, Sudáfrica y del Reino Unido. Apoyo a chino, inglés (India), inglés (Singapur), francés, alemán, italiano, japonés, coreano, portugués, español y vietnamita llegará en 2025. ¿Quién recibe inteligencia de Apple? Créditos de imagen: Darrell Etherington La primera ola de inteligencia de Apple llegó en octubre de 2024 a través de iOS 18.1, iPados 18. y las actualizaciones de MacOS Sequoia 15.1. Estas actualizaciones incluyeron herramientas de escritura integradas, limpieza de imágenes, resúmenes de artículos y una entrada de escritura para la experiencia rediseñada de Siri. Una segunda ola de características estuvo disponible como parte de iOS 18.2, iPados 18.2 y macOS Sequoia 15.2. Esa lista incluye Genmoji, Image Playground, Visual Intelligence, Image Wand e ChatGPT Integration. These offerings are free to use, so long as you have one of the following pieces of hardware: All iPhone 16 models iPhone 15 Pro Max (A17 Pro) iPhone 15 Pro (A17 Pro) iPad Pro (M1 and later) iPad Air (M1 and later) iPad mini (A17 or later) MacBook Air (M1 and later) MacBook Pro (M1 and later) iMac (M1 and later) Mac mini (M1 and later) Mac Studio (M1 Max y más tarde) Mac Pro (M2 Ultra) en particular, solo las versiones Pro del iPhone 15 están obteniendo acceso, debido a las deficiencias en el chipset del modelo estándar. Presumiblemente, sin embargo, toda la línea del iPhone 16 podrá ejecutar Apple Intelligence cuando llegue. ¿Cómo funciona la IA de Apple sin conexión a Internet? Créditos de imagen: Apple Cuando le pregunta a GPT o Gemini una pregunta, su consulta se envía a servidores externos para generar una respuesta, lo que requiere una conexión a Internet. Pero Apple ha adoptado un enfoque de capacitación a medida de modelo pequeño. El mayor beneficio de este enfoque es que muchas de estas tareas se vuelven mucho menos intensivas en recursos y se pueden realizar en el dispositivo. Esto se debe a que, en lugar de confiar en el tipo de enfoque de fregadero de la cocina que alimenta plataformas como GPT y Gemini, la compañía ha compilado conjuntos de datos internos para tareas específicas como, por ejemplo, componer un correo electrónico. Sin embargo, eso no se aplica a todo. Las consultas más complejas utilizarán la nueva oferta de cómputo de la nube privada. La compañía ahora opera servidores remotos que se ejecutan en Apple Silicon, lo que afirma que le permite ofrecer el mismo nivel de privacidad que sus dispositivos de consumo. Si se realiza una acción localmente o a través de la nube será invisible para el usuario, a menos que su dispositivo esté fuera de línea, momento en el cual las consultas remotas arrojarán un error. Apple Intelligence con créditos de imagen de aplicaciones de terceros: Didem Mente / Anadolu Agency / Getty Images se hizo mucho ruido sobre la asociación pendiente de Apple con OpenAI antes del lanzamiento de Apple Intelligence. En última instancia, sin embargo, resultó que el acuerdo era menos sobre impulsar la inteligencia de Apple y más de ofrecer una plataforma alternativa para esas cosas para las que realmente no está construido. Es un reconocimiento tácito de que construir un sistema de modelos pequeños tiene sus limitaciones. La inteligencia de Apple es gratuita. Entonces, también es el acceso a ChatGPT. Sin embargo, aquellos con cuentas pagas para este último tendrán acceso a características premium que los usuarios gratuitos no lo hacen, incluidas consultas ilimitadas. La integración de ChatGPT, que debuta en iOS 18.2, iPados 18.2 y MacOS Sequoia 15.2, tiene dos roles principales: complementar la base de conocimiento de Siri y agregar a las opciones de herramientas de escritura existentes. Con el servicio habilitado, ciertas preguntas le pedirán al nuevo SIRI que le pida al usuario que apruebe su acceso CHATGPT. Las recetas y la planificación de viajes son ejemplos de preguntas que pueden surgir la opción. Los usuarios también pueden pedirle directamente a Siri que «solicite a ChatGPT». Compose es la otra característica principal de ChatGPT disponible a través de Apple Intelligence. Los usuarios pueden acceder a él en cualquier aplicación que admita la nueva función de escritura Herramientas. Compose agrega la capacidad de escribir contenido en función de un mensaje. Eso une herramientas de escritura existentes como estilo y resumen. Sabemos con certeza que Apple planea asociarse con servicios de IA generativos adicionales. La compañía casi dijo que Google Gemini es el siguiente en esa lista. ¿Pueden los desarrolladores basarse en los modelos de IA de Apple? En WWDC 2025, Apple anunció lo que llama el marco de los modelos de Foundation, que permitirá a los desarrolladores aprovechar sus modelos de IA mientras están fuera de línea. Esto hace que sea más posible que los desarrolladores generen características de IA en sus aplicaciones de terceros que aprovechan los sistemas existentes de Apple. «Por ejemplo, si se está preparando para un examen, una aplicación como Kahoot puede crear un cuestionario personalizado de sus notas para que el estudio sea más atractivo», dijo Federighi en WWDC. «Y debido a que sucede usando modelos en el dispositivo, esto sucede sin los costos de la API de la nube […] No podríamos estar más entusiasmados con cómo los desarrolladores pueden construir sobre la inteligencia de Apple para brindarle nuevas experiencias inteligentes, disponibles cuando está fuera de línea y que protegen su privacidad «. ¿Cuándo se espera que Siri obtenga su próxima revisión?