10 de octubre de 2024Ravie LakshmananCibercrimen/Desinformación OpenAI dijo el miércoles que ha interrumpido más de 20 operaciones y redes engañosas en todo el mundo que intentaron utilizar su plataforma con fines maliciosos desde principios de año. Esta actividad incluía depurar malware, escribir artículos para sitios web, generar biografías para cuentas de redes sociales y crear imágenes de perfil generadas por IA para cuentas falsas en X. «Los actores de amenazas continúan evolucionando y experimentando con nuestros modelos, pero no hemos visto evidencia de esto conduce a avances significativos en su capacidad para crear malware sustancialmente nuevo o crear audiencias virales», dijo la compañía de inteligencia artificial (IA). También dijo que interrumpió la actividad que generaba contenido en las redes sociales relacionado con las elecciones en Estados Unidos, Ruanda y, en menor medida, India y la Unión Europea, y que ninguna de estas redes atrajo una participación viral o audiencias sostenidas. Esto incluyó los esfuerzos realizados por una empresa comercial israelí llamada STOIC (también denominada Zero Zeno) que generó comentarios en las redes sociales sobre las elecciones indias, como lo revelaron anteriormente Meta y OpenAI a principios de mayo. Algunas de las operaciones cibernéticas destacadas por OpenAI son las siguientes: SweetSpecter, un presunto adversario con sede en China que aprovechó los servicios de OpenAI para reconocimiento informado por LLM, investigación de vulnerabilidades, soporte de secuencias de comandos, evasión de detección de anomalías y desarrollo. También se ha observado realizar intentos fallidos de phishing contra empleados de OpenAI para entregar SugarGh0st RAT. Cyber ​​Av3ngers, un grupo afiliado al Cuerpo de la Guardia Revolucionaria Islámica de Irán (IRGC), utilizó sus modelos para realizar investigaciones sobre controladores lógicos programables. Storm-0817, un actor de amenazas iraní, utilizó sus modelos para depurar malware de Android capaz de recopilar información confidencial, herramientas para extraer perfiles de Instagram a través de Selenium y traducir perfiles de LinkedIn al persa. Por otra parte, la compañía dijo que tomó medidas para bloquear varios grupos, incluida una operación de influencia con nombre en código A2Z y Stop News, de cuentas que generaban contenido en inglés y francés para su posterior publicación en varios sitios web y cuentas de redes sociales en varias plataformas. «[Stop News] fue inusualmente prolífico en el uso de imágenes», dijeron los investigadores Ben Nimmo y Michael Flossman. «Muchos de sus artículos web y tweets iban acompañados de imágenes generadas con DALL·E. Estas imágenes a menudo tenían un estilo de dibujos animados y usaban paletas de colores brillantes o tonos dramáticos para atraer la atención». Se ha descubierto que otras dos redes identificadas por OpenAI Bet Bot y Corrupt Comment usan su API para generar conversaciones con usuarios en X y enviarles enlaces. a sitios de juegos de azar, así como a fabricar comentarios que luego se publicaron en X, respectivamente. La divulgación se produce casi dos meses después de que OpenAI prohibiera un conjunto de cuentas vinculadas a una operación de influencia encubierta iraní llamada Storm-2035 que aprovechó ChatGPT para generar contenido que, entre otras cosas, se centró en las próximas elecciones presidenciales de EE. UU. «Los actores de amenazas utilizaron con mayor frecuencia nuestros modelos para realizar tareas en una fase intermedia específica de la actividad, después de haber adquirido herramientas básicas como acceso a Internet, direcciones de correo electrónico y cuentas de redes sociales. pero antes de que implementaran productos ‘terminados’, como publicaciones en redes sociales o malware en Internet a través de una variedad de canales de distribución», escribieron Nimmo y Flossman. La empresa de ciberseguridad Sophos, en un informe publicado la semana pasada, dijo que se podría abusar de la IA generativa para difundir información errónea personalizada mediante correos electrónicos microdirigidos. Esto implica abusar de los modelos de IA para inventar sitios web de campañas políticas, personas generadas por IA en todo el espectro político y mensajes de correo electrónico dirigidos específicamente a ellos en función de los puntos de la campaña, permitiendo así un nuevo nivel de automatización que hace posible difundir información errónea a escala. . «Esto significa que un usuario podría generar cualquier cosa, desde material de campaña benigno hasta información errónea intencional y amenazas maliciosas con una reconfiguración menor», dijeron los investigadores Ben Gelman y Adarsh ​​Kyadige. «Es posible asociar cualquier movimiento político real o candidato con el apoyo a cualquier política, incluso si no están de acuerdo. La desinformación intencional como esta puede hacer que las personas se alineen con un candidato que no apoyan o no estén de acuerdo con uno que pensaban que les gustaba. » ¿Encontró interesante este artículo? Síganos en Twitter  y LinkedIn para leer más contenido exclusivo que publicamos.