OpenAI ha alegado que la compañía interrumpió una campaña de phishing en la que un grupo con sede en China atacaba a sus empleados a través de sus direcciones de correo electrónico personales y corporativas. El grupo, que según OpenAI se llama SweetSpecter, envió correos electrónicos de phishing que contenían un archivo adjunto malicioso diseñado para implementar el malware SugarGh0st RAT. El malware tenía la capacidad de darle al grupo de hackers control sobre una máquina comprometida, permitiéndoles ejecutar comandos arbitrarios, tomar capturas de pantalla y filtrar datos. OpenAI fue alertado de la campaña por lo que llamó una «fuente creíble» y prohibió las cuentas asociadas. Los correos electrónicos fueron bloqueados por los sistemas de seguridad de la empresa antes de llegar a los empleados. «A lo largo de este proceso, nuestra colaboración con socios de la industria jugó un papel clave en la identificación de estos intentos fallidos de comprometer las cuentas de los empleados», afirmó [PDF] OpenAI. «Esto resalta la importancia de compartir y colaborar en inteligencia sobre amenazas para mantenerse por delante de adversarios sofisticados en la era de la IA». La compañía cree que SweetSpecter también ha estado utilizando los servicios de OpenAI para operaciones cibernéticas ofensivas, incluido reconocimiento, investigación de vulnerabilidades y soporte de secuencias de comandos. El fabricante de ChatGPT minimizó el uso de su IA y escribió que el uso de sus modelos por parte del actor de amenazas no le ayudó a desarrollar capacidades novedosas que no podían obtenerse de recursos públicos. La acusación de phishing en China se planteó en un documento titulado “Influencia y operaciones cibernéticas: una actualización” en el que OpenAI también afirmó haber “interrumpido más de 20 operaciones y redes engañosas de todo el mundo que intentaron utilizar nuestros modelos”. El análisis de la firma sobre esos esfuerzos es que la mayoría “usó nuestros modelos para realizar tareas en una fase intermedia específica de actividad, después de haber adquirido herramientas básicas como acceso a Internet, direcciones de correo electrónico y cuentas de redes sociales, pero antes de implementar herramientas ‘terminadas’. productos como publicaciones en redes sociales o malware”. «Las actividades variaban en complejidad, desde simples solicitudes de generación de contenido hasta esfuerzos complejos de varias etapas para analizar y responder a publicaciones en las redes sociales», detalló OpenAI. El documento también encontró que los actores de amenazas «continúan evolucionando y experimentando con nuestros modelos», pero OpenAI no ha visto evidencia de que sus herramientas permitieran «avances significativos en su capacidad para crear malware sustancialmente nuevo o construir audiencias virales». Pero los actores de amenazas están encontrando otros usos para la IA abierta. Un actor de amenazas, un equipo llamado “STORM-0817”, utiliza sus herramientas para depurar su código. El equipo de inteligencia artificial también «encontró e interrumpió un grupo de cuentas ChatGPT que utilizaban la misma infraestructura para intentar responder preguntas y completar tareas de investigación de vulnerabilidades y secuencias de comandos». El fabricante de modelos también ha observado intentos de utilizar sus herramientas para influir en las elecciones, generalmente mediante la creación de publicaciones o artículos de noticias en las redes sociales. OpenAI cortó algunos de esos esfuerzos de raíz, pero ninguno de los que vio obtuvo una audiencia sustancial. ®