El foro en línea que los empleados de OpenAI usan para comunicaciones internas confidenciales fue violado el año pasado, según dijeron fuentes anónimas a The New York Times. Los piratas informáticos obtuvieron detalles sobre el diseño de las tecnologías de inteligencia artificial de la empresa de las publicaciones del foro, pero no se infiltraron en los sistemas donde OpenAI realmente alberga y construye su inteligencia artificial. Los ejecutivos de OpenAI anunciaron el incidente a toda la empresa durante una reunión general en abril de 2023, y también informaron a la junta directiva. Sin embargo, no se reveló al público porque no se había robado información sobre clientes o socios. Los ejecutivos no informaron a las fuerzas del orden, según las fuentes, porque no creían que el pirata informático estuviera vinculado a un gobierno extranjero y, por lo tanto, el incidente no representaba una amenaza para la seguridad nacional. Un portavoz de OpenAI le dijo a TechRepublic en un correo electrónico: «Como compartimos con nuestra Junta y empleados el año pasado, identificamos y solucionamos el problema subyacente y seguimos invirtiendo en seguridad». ¿Cómo reaccionaron algunos empleados de OpenAI a este ataque? La noticia de la violación del foro fue motivo de preocupación para otros empleados de OpenAI, informó el NYT; Pensaron que indicaba una vulnerabilidad en la empresa que podría ser explotada por piratas informáticos patrocinados por el estado en el futuro. Si la tecnología de vanguardia de OpenAI cayera en las manos equivocadas, podría usarse para fines nefastos que podrían poner en peligro la seguridad nacional. VER: GPT-4 de OpenAI puede explotar de forma autónoma el 87% de las vulnerabilidades de un día, según un estudio Además, el tratamiento del incidente por parte de los ejecutivos llevó a algunos empleados a cuestionar si OpenAI estaba haciendo lo suficiente para proteger su tecnología patentada de adversarios extranjeros. Leopold Aschenbrenner, ex gerente técnico de la empresa, dijo que lo habían despedido después de plantear estas preocupaciones a la junta directiva en un podcast con Dwarkesh Patel. OpenAI lo negó en una declaración a The New York Times, y también que no estaba de acuerdo con las «caracterizaciones de nuestra seguridad» de Aschenbrenner. Más noticias de seguridad de OpenAI, incluida la aplicación ChatGPT para macOS La violación del foro no es la única indicación reciente de que la seguridad no es la máxima prioridad en OpenAI. La semana pasada, el ingeniero de datos Pedro José Pereira Vieito reveló que la nueva aplicación ChatGPT para macOS almacenaba datos de chat en texto sin formato, lo que significa que los actores maliciosos podrían acceder fácilmente a esa información si se apoderaban de la Mac. Después de que The Verge les informara de esta vulnerabilidad, OpenAI lanzó una actualización que encripta los chats, señaló la empresa. Un portavoz de OpenAI le dijo a TechRepublic en un correo electrónico: «Somos conscientes de este problema y hemos enviado una nueva versión de la aplicación que encripta estas conversaciones. Estamos comprometidos a brindar una experiencia de usuario útil mientras mantenemos nuestros altos estándares de seguridad a medida que nuestra tecnología evoluciona». VER: Millones de aplicaciones de Apple fueron vulnerables al ataque a la cadena de suministro de CocoaPods En mayo de 2024, OpenAI publicó un comunicado en el que decía que había interrumpido cinco operaciones de influencia encubiertas originadas en Rusia, China, Irán e Israel que buscaban usar sus modelos para «actividad engañosa». Las actividades que se detectaron y bloquearon incluyen generar comentarios y artículos, inventar nombres y biografías para cuentas de redes sociales y traducir textos. Ese mismo mes, la empresa anunció que había formado un Comité de Seguridad y Protección para desarrollar los procesos y salvaguardas que utilizará durante el desarrollo de sus modelos de frontera. Más cobertura de IA de lectura obligada ¿El hackeo de los foros de OpenAI es indicativo de más incidentes de seguridad relacionados con la IA? El Dr. Ilia Kolochenko, socio y director de la práctica de ciberseguridad de Platt Law LLP, dijo que cree que este incidente de seguridad en los foros de OpenAI es probablemente uno de muchos. Le dijo a TechRepublic en un correo electrónico: «La carrera mundial de la IA se ha convertido en una cuestión de seguridad nacional para muchos países, por lo tanto, los grupos de ciberdelincuencia respaldados por el estado y los mercenarios están apuntando agresivamente a los proveedores de IA, desde nuevas empresas talentosas hasta gigantes tecnológicos como Google u OpenAI». Los piratas informáticos apuntan a la valiosa propiedad intelectual de la IA, como grandes modelos de lenguaje, fuentes de datos de entrenamiento, investigación técnica e información comercial, agregó el Dr. Kolochenko. También pueden implementar puertas traseras para poder controlar o interrumpir las operaciones, similares a los recientes ataques a la infraestructura nacional crítica en los países occidentales. En declaraciones a TechRepublic, el Sr. OpenAI dijo: “Todos los usuarios corporativos de los proveedores de GenAI deben ser especialmente cuidadosos y prudentes cuando compartan o den acceso a sus datos de propiedad exclusiva para la formación o el ajuste de los LLM, ya que sus datos (que abarcan desde información privilegiada entre abogados y clientes y secretos comerciales de las principales empresas industriales o farmacéuticas hasta información militar clasificada) también están en la mira de los ciberdelincuentes ávidos de IA que están dispuestos a intensificar sus ataques”. ¿Se pueden aliviar los riesgos de violación de la seguridad al desarrollar IA? No existe una respuesta sencilla para aliviar todos los riesgos de violación de la seguridad por parte de adversarios extranjeros al desarrollar nuevas tecnologías de IA. OpenAI no puede discriminar a los trabajadores por su nacionalidad y, de manera similar, no quiere limitar su grupo de talentos contratando solo en ciertas regiones. También es difícil evitar que los sistemas de IA se utilicen con fines nefastos antes de que esos fines salgan a la luz. Un estudio de Anthropic descubrió que los LLM eran solo marginalmente más útiles para los malos actores para adquirir o diseñar armas biológicas que el acceso estándar a Internet. Otro estudio de OpenAI llegó a una conclusión similar. Por otra parte, algunos expertos coinciden en que, si bien hoy no suponen una amenaza, los algoritmos de IA podrían volverse peligrosos cuando se vuelvan más avanzados. En noviembre de 2023, representantes de 28 países firmaron la Declaración de Bletchley, que instaba a la cooperación mundial para abordar los desafíos que plantea la IA. “Existe el potencial de causar daños graves, incluso catastróficos, ya sea deliberados o no intencionales, derivados de las capacidades más significativas de estos modelos de IA”, se leía en ella.