Apple Intelligence es el nombre del esfuerzo de Apple por la Inteligencia Artificial. La compañía dice que «se basa en su contexto personal al tiempo que establece un estándar completamente nuevo para la privacidad en la IA». Se presentó durante la conferencia magistral de la WWDC 2024 y será una parte central de los dispositivos iPhone, iPad y Mac de Apple, comenzando con iOS 18, iPadOS 18 y macOS Sequoia. FuncionesResumen de funciones de Apple Intelligence. Fuente de la imagen: Apple Inc. Estas son algunas de las funciones de Apple Intelligence que veremos en iPhone, iPad y Mac: Herramientas de escritura: los usuarios pueden reescribir, corregir y resumir texto en casi todos los lugares donde escriben, incluidos Mail, Notas, Pages, y aplicaciones de terceros; Image Playground: los usuarios pueden crear imágenes divertidas en segundos, eligiendo entre Animación, Ilustración o Boceto. Esta aplicación está integrada en aplicaciones como Mensajes y también está disponible en una aplicación dedicada; Recuerdos en fotos: los usuarios pueden crear historias que quieran ver simplemente escribiendo una descripción. Apple Intelligence seleccionará las mejores fotos y vídeos basándose en la descripción, elaborará una historia con capítulos basados ​​en temas identificados en las fotos y los organizará en una película con su propio arco narrativo; Herramienta de limpieza: esta función de la aplicación Fotos puede identificar y eliminar objetos que distraen en el fondo de una foto sin alterar accidentalmente el sujeto; Siri: los usuarios escriben en Siri y cambian entre texto y voz para comunicarse con Siri de la forma que les parezca adecuada en cada momento. Integración de ChatGPT: cuando crea que Apple Intelligence no es suficiente, puede permitir que ChatGPT acceda a las herramientas de escritura y otras funciones para obtener una mejor respuesta. Tim Cook explica la asociación ChatGPT de Apple y OpenAI Fuente de la imagen: YouTube/MKBHD Los rumores eran ciertos y Apple se ha asociado con OpenAI. Según la empresa, estos dos proyectos funcionan a la perfección, pero tienen características centrales que los separan. Tecnología. Entretenimiento. Ciencia. Tu bandeja de entrada. Suscríbete para recibir las noticias de tecnología y entretenimiento más interesantes que existen. Al registrarme, acepto los Términos de uso y he revisado el Aviso de privacidad. Con Apple AI, la compañía garantiza que todos los datos sean privados a través de Private Cloud Compute, mientras que ChatGPT de OpenAI generalmente recopila datos de los usuarios. En una entrevista con el YouTuber Marques Brownlee, el director ejecutivo de Apple, Tim Cook, explicó la diferencia fundamental entre la asociación Apple Intelligence y ChatGPT. «Existe la computación en la nube privada y el acuerdo con OpenAI», dice Tim Cook. “Estas dos cosas son diferentes. Entonces, si nos fijamos en Private Cloud Compute, utilizamos la misma arquitectura básica que el silicio del iPhone 15. Usamos el mismo software y creemos que lo hemos hecho de tal manera que es tan seguro y privado en Private Cloud Compute como en el dispositivo”. Eso significa que Apple no recopilará datos del usuario, no creará un perfil del usuario ni tomará estos datos para venderlos en otro lugar. Cupertino pretendía extender el procesamiento en el dispositivo del iPhone al siguiente nivel con un nivel de seguridad al que la gente está acostumbrada con sus iPhone. Tim Cook continúa: “Así que realmente trabajamos mucho en esto y pusimos mucho trabajo detrás de esa flecha para asegurarnos de que si estás trabajando en algo que requiere conocimiento mundial, estás fuera del dominio. de contexto personal, etc., entonces es posible que desee utilizar uno de los grandes modelos de lenguaje que hay en el mercado, y seleccionaremos el que consideremos que es el mejor con OpenAI y ChatGPT”. Dicho esto, todo es personal. Las solicitudes relacionadas con las aplicaciones integradas de Apple, como Mensajes, Correo, Calendario y más, utilizarán la inteligencia de la empresa. Por el contrario, se puede solicitar “conocimiento mundial” para OpenAI ChatGPT y más tarde para otros modelos de lenguaje grandes. Los nuevos LLM pueden unirse a la fiesta más adelante. Si bien Apple se integrará primero con OpenAI, la compañía planea trabajar también con otros LLm. Por ejemplo, Cupertino está en conversaciones con Google para obtener la licencia de Gemini. Un informe también afirma que Apple utilizará Baidu para sus funciones de IA generativa en China. Ernie Bot de Baidu es un rival de ChatGPT y uno de los más de 40 modelos de IA de China que los reguladores locales han aprobado. Una asociación con Apple sería una gran victoria para Baidu, considerando la creciente competencia en la región. Dispositivos compatibles con Apple Intelligence Fuente de la imagen: José Adorno para BGR Durante la conferencia magistral de la WWDC 2024, Apple anunció qué dispositivos serán compatibles con su Inteligencia: los artículos de Apple sugieren dónde están sus esfuerzos de IA Fuente de la imagen: Pixelmator Modelo de IA para edición de imágenes basada en instrucciones En febrero, Apple lanzó un Modelo de IA revolucionario para la edición de imágenes basada en instrucciones. Según un artículo publicado por investigadores de Apple, la edición de imágenes basada en instrucciones mejora la controlabilidad y la flexibilidad de la manipulación de imágenes mediante comandos naturales sin descripciones elaboradas ni máscaras regionales. El estudio muestra «capacidades prometedoras en la comprensión intermodal y la generación de respuestas visuales a través de LM» mientras investigaban cómo los MLLM facilitan las instrucciones de edición y la edición de imágenes guiada por MLLM. Este modelo de IA de edición de imágenes creado por Apple puede producir instrucciones concisas y claras para el proceso de edición, crear modificaciones al estilo de Photoshop, optimizar la calidad de las fotografías y editar elementos específicos de una imagen, como caras, ojos, cabello, ropa y accesorios. MM1: modelo de inteligencia artificial de Apple En marzo, los investigadores de Apple publicaron un artículo que destaca cómo están entrenando un nuevo modelo de lenguaje grande (LLM). Llamado MM1, este LLM puede integrar texto e información visual simultáneamente. El artículo ofrece una mirada interesante a la importancia de diversos componentes arquitectónicos y opciones de datos. Los investigadores dicen que pudieron «demostrar que para el preentrenamiento multimodal a gran escala, el uso de una combinación cuidadosa de datos de imagen-título, imagen-texto intercalado y datos de solo texto es crucial para lograr la tecnología más avanzada (SOTA). ) resultados de pocas tomas en múltiples puntos de referencia, en comparación con otros resultados de entrenamiento previo publicados». Además, demostraron que «el codificador de imágenes junto con la resolución de la imagen y el recuento de tokens de imagen tienen un impacto sustancial, mientras que el diseño del conector de visión-lenguaje es de importancia comparativamente insignificante”. El modelo MM1 AI de Apple utiliza una familia de modelos multimodales con hasta 30 mil millones de parámetros, que consisten en modelos densos y variantes de mezcla de expertos (MoE), que son lo último en métricas de preentrenamiento y logran resultados competitivos. desempeño después de un ajuste supervisado en una variedad de puntos de referencia multimodales establecidos. ReALM podría ser mejor que GPT-4 de OpenAI. Los investigadores de Apple han publicado un artículo sobre un nuevo modelo de IA. Según la empresa, ReALM es un modelo de lenguaje que puede comprender y manejar con éxito contextos de diferentes tipos. Con eso, los usuarios pueden preguntar sobre algo en la pantalla o ejecutarlo en segundo plano, y el modelo de lenguaje aún puede comprender el contexto y dar la respuesta adecuada. Este es el tercer artículo sobre IA que Apple publica en los últimos meses. Estos estudios solo muestran las próximas funciones de inteligencia artificial de iOS 18, macOS 15 y los sistemas operativos más nuevos de Apple. En el artículo, los investigadores de Apple dicen: “La resolución de referencias es un problema importante, esencial para comprender y manejar con éxito contextos de diferentes tipos. Un ejemplo es un usuario que pregunta por farmacias cercanas. Después de presentar una lista, algo que Siri podría hacer, el usuario podría preguntar: «Llame al de Rainbow Rd.», «Llame al de abajo» o «Llame a este número (presente en pantalla)». Siri no puede realizar esta segunda parte, pero con ReALM, este modelo de lenguaje podría comprender el contexto analizando los datos del dispositivo y completando la consulta. Ferret LLMEste artículo explica cómo un modelo de lenguaje grande multimodal puede comprender las interfaces de usuario de pantallas móviles. Los investigadores dicen que han avanzado en el uso de MLLM, pero aún «no alcanzan su capacidad para comprender e interactuar de manera efectiva con las pantallas de la interfaz de usuario (UI)». Este asistente de asistencia aún está lejos de ser lanzado. Pero una vez que Apple lo domine, podría integrarse junto con el modelo ReALM. BGR actualizará esta guía a medida que aprendamos más sobre los esfuerzos de IA de Apple.