Los piratas informáticos que trabajan para estados-nación han utilizado los sistemas de OpenAI en la creación de sus ataques cibernéticos, según una investigación publicada el miércoles por OpenAI y Microsoft. Las compañías creen que su investigación, publicada en sus sitios web, documenta por primera vez cómo los piratas informáticos con vínculos con gobiernos extranjeros están utilizando inteligencia artificial generativa en sus ataques. Pero en lugar de utilizar IA para generar ataques exóticos, como temían algunos en la industria tecnológica, los piratas informáticos la han utilizado de formas mundanas, como redactar correos electrónicos, traducir documentos y depurar códigos informáticos, dijeron las empresas. «Simplemente lo usan como todos los demás, para tratar de ser más productivos en lo que hacen», dijo Tom Burt, quien supervisa los esfuerzos de Microsoft para rastrear y desbaratar los principales ataques cibernéticos. (El New York Times ha demandado a OpenAI y Microsoft por infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial). Microsoft ha comprometido 13 mil millones de dólares para OpenAI, y el gigante tecnológico y la nueva empresa son socios cercanos. Compartieron información sobre amenazas para documentar cómo cinco grupos de piratas informáticos con vínculos con China, Rusia, Corea del Norte e Irán utilizaron la tecnología de OpenAI. Las empresas no dijeron qué tecnología OpenAI se utilizó. La nueva empresa dijo que había cerrado su acceso después de enterarse del uso. Desde que OpenAI lanzó ChatGPT en noviembre de 2022, a los expertos en tecnología, la prensa y los funcionarios gubernamentales les ha preocupado que los adversarios puedan convertir en armas las herramientas más poderosas, buscando formas nuevas y creativas. para explotar vulnerabilidades. Al igual que otras cosas con la IA, la realidad podría ser más subestimada. “¿Está proporcionando algo nuevo y novedoso que está acelerando a un adversario, más allá de lo que podría hacerlo un mejor motor de búsqueda? No he visto ninguna evidencia de eso”, dijo Bob Rotsted, quien dirige la inteligencia de amenazas de ciberseguridad para OpenAI. Dijo que OpenAI limitaba dónde los clientes podían registrarse para obtener cuentas, pero que los culpables sofisticados podían evadir la detección a través de varias técnicas, como enmascarar sus Ubicación. “Se registran como cualquier otra persona”, dijo Rotsted. Microsoft dijo que un grupo de piratas informáticos conectado con el Cuerpo de la Guardia Revolucionaria Islámica en Irán había utilizado los sistemas de inteligencia artificial para investigar formas de evitar los escáneres antivirus y generar correos electrónicos de phishing. Los correos electrónicos incluían «uno que pretendía provenir de una agencia de desarrollo internacional y otro que intentaba atraer a feministas prominentes a un sitio web sobre feminismo creado por un atacante», dijo la compañía. En otro caso, un grupo afiliado a Rusia que está tratando de influir en la guerra. en Ucrania utilizó los sistemas de OpenAI para realizar investigaciones sobre protocolos de comunicación por satélite y tecnología de imágenes de radar, dijo OpenAI. Microsoft rastrea a más de 300 grupos de piratas informáticos, incluidos ciberdelincuentes y estados-nación, y los sistemas patentados de OpenAI facilitaron el seguimiento e interrupción de su uso, el dijeron los ejecutivos. Dijeron que si bien había formas de identificar si los piratas informáticos estaban utilizando tecnología de inteligencia artificial de código abierto, la proliferación de sistemas abiertos dificultaba la tarea.“Cuando el trabajo es de código abierto, no siempre se puede saber quién está implementando esa tecnología, cómo la están implementando y cuáles son sus políticas para el uso responsable y seguro de la tecnología”, dijo Burt. Microsoft no descubrió ningún uso de IA generativa en el ataque ruso a altos ejecutivos de Microsoft que la compañía reveló el mes pasado. dijo.Cade Metz contribuyó con informes desde San Francisco.

Source link