Inteligencia artificial y aprendizaje automático, tecnologías de próxima generación y desarrollo seguro Un pirata informático tuvo acceso no autorizado a datos sobre diseños para nuevos casos de uso de IA Rashmi Ramesh (rashmiramesh_) • 5 de julio de 2024 OpenAi no reveló un ataque informático en 2023 a sus sistemas de mensajería interna. (Imagen: Shutterstock) Según se informa, un pirata informático robó información sobre las nuevas tecnologías de OpenAI el año pasado al irrumpir en los sistemas de mensajería interna de la empresa. Ver también: Cierre las brechas en su estrategia de seguridad Los mensajes de una reunión de toda la empresa en abril del año pasado tenían a los empleados discutiendo detalles de las nuevas tecnologías de inteligencia artificial, informó el New York Times, citando fuentes anónimas. El pirata informático no accedió a los sistemas que albergan o construyen sus aplicaciones, dijo. OpenAI no respondió a una solicitud de comentarios. La empresa no informó de la violación a las fuerzas del orden federales ni hizo pública la noticia, ya que creía que no se había robado información de los clientes. No consideró el evento como una amenaza a la seguridad nacional, y calificó al pirata informático como un individuo privado sin vínculos con atacantes de estados nacionales. Al parecer, no todos los empleados estaban contentos con la explicación. El incidente generó inquietudes sobre la seriedad de OpenAI en materia de ciberseguridad y la falta de ella, lo que llevó a naciones adversarias como China a robar potencialmente información de IA. OpenAI dijo en mayo que interrumpió cinco operaciones de influencia encubiertas, incluidas algunas de China y Rusia, que intentaron usar sus servicios de inteligencia artificial para «actividades engañosas» (ver: OpenAI interrumpe operaciones de influencia implementadas con IA). Leopold Aschenbrenner, un gerente de programa técnico de OpenAI cuyo papel implica garantizar que la futura tecnología de IA no cause daños graves, supuestamente envió un memorando a la junta directiva de la empresa después de la violación, argumentando que la empresa no estaba haciendo lo suficiente para proteger sus datos de adversarios como el gobierno chino. Agregó que si un actor de amenazas violara los sistemas de la empresa, la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo. OpenAI supuestamente despidió a Aschenbrenner por filtrar información, y el ex empleado argumentó que su despido tuvo motivaciones políticas. La empresa negó las acusaciones y un portavoz de OpenAI le dijo al periódico que “comparte su compromiso de construir una IA segura”, pero no estuvo de acuerdo con las afirmaciones sobre las “caracterizaciones de nuestra seguridad, en particular este incidente, que abordamos y compartimos con nuestra junta antes de que se uniera a la empresa”. URL original de la publicación: https://www.databreachtoday.com/openai-did-disclose-2023-breach-to-feds-public-report-a-25713