Cuando Apple celebra su Conferencia Mundial de Desarrolladores anual, sus anuncios de software suelen provocar aplausos y entusiasmo por parte de los entusiastas de la tecnología. Pero este año hubo una excepción notable: Elon Musk. El director ejecutivo de Tesla y SpaceX amenazó con prohibir todos los dispositivos Apple en sus empresas, alegando que una nueva asociación entre Apple y la startup OpenAI, respaldada por Microsoft, podría plantear riesgos de seguridad. Como parte de su nueva actualización del sistema operativo, Apple dijo que los usuarios que le hagan una pregunta a Siri pueden optar por que Siri obtenga información adicional de ChatGPT. «Apple no tiene idea de lo que realmente sucede una vez que entregan tus datos a OpenAI», escribió Musk en X. «Te están vendiendo río abajo». La asociación permite a Siri preguntar a los usuarios de iPhone, Mac y iPad si el asistente digital puede mostrar respuestas del ChatGPT de OpenAI para ayudar a responder una pregunta. La nueva característica, que estará disponible en ciertos dispositivos Apple, es parte de la actualización del sistema operativo de la compañía prevista para finales de este año. «Si Apple integra OpenAI a nivel del sistema operativo, entonces los dispositivos Apple serán prohibidos en mis empresas», escribió Musk en X. “Esa es una violación de seguridad inaceptable”. Los representantes de Musk y Apple no respondieron a una solicitud de comentarios. En una presentación principal en su conferencia de desarrolladores el lunes, Apple dijo que ChatGPT sería gratuito para usuarios de iPhone, Mac y iPad. Según la asociación, los usuarios de dispositivos Apple no necesitarían configurar una cuenta ChatGPT para usarlo con Siri. «Las protecciones de privacidad están integradas para los usuarios que acceden a ChatGPT: sus direcciones IP están ocultas y OpenAI no almacenará solicitudes», Apple dijo en su sitio web. «Las políticas de uso de datos de ChatGPT se aplican a los usuarios que eligen conectar su cuenta». Muchos de los modelos y funciones de IA de Apple, que la compañía llama colectivamente «Inteligencia de Apple», se ejecutan en el propio dispositivo, pero algunas consultas requerirán el envío de información. a través de la nube. Apple dijo que los datos no se almacenan ni se hacen accesibles a Apple y que expertos independientes pueden inspeccionar el código que se ejecuta en los servidores para verificar esto. Apple Intelligence estará disponible para ciertos modelos de dispositivos Apple, como el iPhone 15 Pro y el iPhone 15 Pro Max y el iPad y Mac con M1 y posteriores. Entonces, ¿tiene razón Musk? Los expertos en tecnología y seguridad que hablaron con The Times ofrecieron opiniones encontradas. Algunos rechazaron la afirmación de Musk de que el acuerdo OpenAI de Apple plantea riesgos de seguridad, citando una falta de pruebas. «Como muchas cosas que dice Elon Musk, no se basa en ningún tipo de realidad técnica actual, en realidad se basa simplemente en sus creencias políticas», dijo Alex Stamos, director de confianza de la empresa de ciberseguridad SentinelOne, con sede en Mountain View, California. . «No existe una base fáctica real para lo que dijo». Stamos, que también es profesor de informática en la Universidad de Stanford y ex director de seguridad de Facebook, dijo que estaba impresionado con los esfuerzos de protección de datos de Apple y agregó: «Son prometedores». un nivel de transparencia que nadie ha proporcionado nunca. “Es difícil demostrarlo totalmente en este momento, pero lo que han expuesto es lo mejor que se puede hacer para proporcionar este nivel de servicios de IA que se ejecutan en los datos privados de las personas y al mismo tiempo protegen su privacidad. ”, dijo Stamos. «Para hacer las cosas a las que la gente se ha acostumbrado desde ChatGPT, todavía no se puede hacer en los teléfonos», añadió Stamos. «Estamos a años de poder ejecutar ese tipo de modelos en algo que quepa en tu bolsillo y que no te haga un agujero en los jeans por la cantidad de energía que consume». Musk ha sido crítico con OpenAI. En febrero demandó a la empresa por incumplimiento de contrato y deber fiduciario, alegando que había cambiado su enfoque de un acuerdo para desarrollar inteligencia artificial general «para el beneficio de la humanidad, no para una empresa con fines de lucro que busca maximizar las ganancias de los accionistas». El martes, Musk, cofundador e inversor de OpenAI, retiró su demanda. La empresa de Musk en San Francisco, xAI, compite con OpenAI en el campo de rápido crecimiento de la inteligencia artificial. Musk ha apuntado a Apple en el pasado, llamándolo “cementerio de Tesla”, porque, según él, Apple había contratado a personas que Tesla había despedido. «Si no triunfas en Tesla, irás a trabajar a Apple», dijo Musk en una entrevista con el periódico alemán Handelsblatt en 2015. «No estoy bromeando». Aun así, Rayid Ghani, profesor de aprendizaje automático y políticas públicas en la Universidad Carnegie Mellon, dijo que, a un alto nivel, cree que deberían plantearse las preocupaciones que Musk planteó sobre la asociación OpenAI-Apple. Si bien Apple dijo que OpenAI no almacena las solicitudes de Siri, «no creo que debamos tomar eso al pie de la letra», dijo Ghani. “Creo que debemos pedir pruebas de ello. ¿Cómo se asegura Apple de que existan procesos? ¿Cuál es el recurso si no sucede? ¿Quién es responsable, Apple u OpenAI, y cómo abordamos los problemas? Algunos observadores de la industria también han planteado preguntas sobre la opción que tienen los usuarios de Apple que tienen una cuenta ChatGPT de vincularla con su iPhone, y qué información recopila OpenAI en esa caso. «Tenemos que tener cuidado con eso: vincular su cuenta en su teléfono móvil es un gran problema», dijo Pam Dixon, directora ejecutiva del Foro Mundial de Privacidad. «Personalmente, no me vincularía hasta que haya mucha más claridad sobre lo que sucede con los datos». OpenAI señaló una declaración en su sitio web que dice: «Los usuarios también pueden optar por conectar su cuenta ChatGPT, lo que significa que se aplicarán sus preferencias de datos». bajo las políticas de ChatGPT”. La compañía declinó hacer más comentarios. Según la política de privacidad de OpenAI, la compañía dice que recopila información personal que se incluye en las entradas, cargas de archivos o comentarios cuando los titulares de cuentas utilizan su servicio. ChatGPT tiene una forma para que los usuarios opten por no utilizar sus consultas para entrenar modelos de IA. A medida que el uso de la IA se entrelaza cada vez más con la vida de las personas, los observadores de la industria dicen que será crucial brindar transparencia a los clientes y probar la confiabilidad de las herramientas de IA. “Tendremos que entender algo sobre la IA. Será muy parecido a la plomería. Estará integrado en nuestros dispositivos y en nuestras vidas en todas partes”, dijo Dixon. «La IA tendrá que ser confiable y necesitaremos poder probar esa confiabilidad». La supervisora ​​de archivo nocturno Valerie Hood contribuyó a este informe.