¿Han pasado solo unas semanas desde que OpenAI anunció su nueva aplicación para computadoras macOS? Con gran fanfarria, los creadores de ChatGPT revelaron una versión de escritorio que permitía a los usuarios de Mac hacer preguntas directamente en lugar de hacerlo a través de la web. «ChatGPT se integra perfectamente con la forma en que trabajas, escribes y creas», se jactó OpenAI. ¿Qué podría salir mal? Bueno, cualquiera que se apresure a probar el software puede estar lamentando su impaciencia, porque, como publicó el ingeniero de software Pedro José Pereira Vieito en Threads, el siempre inteligente software ChatGPT de OpenAI estaba haciendo algo realmente estúpido. Estaba almacenando los chats de los usuarios con ChatGPT para Mac en texto sin formato en su computadora. En resumen, cualquiera que haya obtenido un uso no autorizado de su computadora, ya sea un pirata informático remoto malintencionado, un socio celoso o un rival en la oficina, podría leer fácilmente sus conversaciones con ChatGPT y los datos asociados a ellas. Como describió Pereira Vieito, la aplicación de OpenAI no estaba aislada y almacenaba todas las conversaciones, sin cifrar, en una carpeta a la que podían acceder otros procesos en ejecución (incluido el malware) en la computadora. «MacOS ha bloqueado el acceso a cualquier dato privado del usuario desde macOS Mojave 10.14 (¡hace 6 años!). Cualquier aplicación que acceda a datos privados del usuario (Calendario, Contactos, Correo, Fotos, cualquier entorno aislado de aplicaciones de terceros, etc.) ahora requiere acceso explícito del usuario», explicó Pereira Vieito. «OpenAI decidió optar por no participar en el entorno aislado y almacenar las conversaciones en texto sin formato en una ubicación no protegida, deshabilitando todas estas defensas integradas». Afortunadamente, el error de seguridad ya se ha solucionado. The Verge informa que, después de ponerse en contacto con OpenAI sobre el problema planteado por Pereira Vieito, se envió una nueva versión de la aplicación ChatGPT para macOS, que cifra correctamente las conversaciones. Pero el incidente actúa como un recordatorio saludable. En este momento, existe una mentalidad de «fiebre del oro» en lo que respecta a la inteligencia artificial. Las empresas están avanzando a toda velocidad con sus desarrollos de IA, desesperadas por mantenerse por delante de sus competidores. Inevitablemente, eso puede llevar a que se tenga menos cuidado con la seguridad y la privacidad, ya que se toman atajos para lanzar desarrollos a una velocidad cada vez mayor. Mi consejo para los usuarios es que no cometan el error de lanzarse a cada nuevo desarrollo el mismo día del lanzamiento. Dejen que otros sean los primeros en investigar las nuevas características y desarrollos de IA. Pueden ser los probadores beta que prueban el software de IA cuando es más probable que contenga errores y vulnerabilidades, y solo cuando estén seguros de que se han solucionado los problemas, pruébenlo ustedes mismos.