Se ha encontrado una nueva vulnerabilidad en el servicio EmailGPT, una extensión de Google Chrome y un servicio API que utiliza los modelos GPT de OpenAI para ayudar a los usuarios a escribir correos electrónicos en Gmail. La falla descubierta por los investigadores del Centro de Investigación de Ciberseguridad Synopsys (CyRC) es particularmente alarmante porque permite a los atacantes obtener control sobre el servicio de inteligencia artificial simplemente enviando mensajes dañinos. Estas indicaciones maliciosas pueden obligar al sistema a divulgar información confidencial o ejecutar comandos no autorizados. En particular, cualquier persona con acceso al servicio EmailGPT puede aprovechar este problema, lo que genera preocupación sobre la posibilidad de un abuso generalizado. La rama principal del software EmailGPT se ve afectada, con riesgos importantes, incluido el robo de propiedad intelectual, ataques de denegación de servicio y pérdidas financieras derivadas de repetidas solicitudes API no autorizadas. A la vulnerabilidad se le ha asignado una puntuación base CVSS de 6,5, lo que indica un nivel de gravedad medio. A pesar de los múltiples intentos de contactar a los desarrolladores, CyRC no recibió respuesta dentro del período de divulgación de 90 días. En consecuencia, CyRC recomendó a los usuarios que eliminaran inmediatamente las aplicaciones EmailGPT de sus redes para mitigar los riesgos potenciales. Lea más sobre estos riesgos: Por qué necesitamos gestionar el riesgo de las extensiones de navegador con IA Eric Schwake, director de estrategia de ciberseguridad de Salt Security, enfatizó la gravedad de la situación. Destacó que esta vulnerabilidad se diferencia de los típicos ataques de inyección rápida, ya que permite la manipulación directa del servicio mediante la explotación de código. También pidió a las organizaciones que realicen auditorías de todas las aplicaciones instaladas, centrándose específicamente en aquellas que utilizan servicios de inteligencia artificial y modelos de lenguaje. «Esta auditoría debería identificar cualquier aplicación similar a EmailGPT que dependa de servicios API externos y evaluar sus medidas de seguridad», añadió Schwake. Patrick Harr, director ejecutivo de SlashNext, también comentó la noticia y subrayó la necesidad de prácticas sólidas de gobernanza y seguridad en el desarrollo de modelos de IA. «La seguridad y la gobernanza de los modelos de IA son primordiales como parte de la cultura y la higiene de las empresas que construyen y prueban los modelos de IA, ya sea a través de aplicaciones o API», dijo Harr. «Los clientes y, en particular, las empresas deben exigir pruebas de cómo se protegen los proveedores de estos modelos, incluido el acceso a los datos, antes de incorporarlos a sus negocios».