Según un nuevo estudio de Corelight, los líderes de TI europeos siguen sin llegar a un consenso sobre el valor de la IA generativa (GenAI) en un contexto de ciberseguridad. El especialista en detección y respuesta de redes (NDR) encuestó a 300 responsables de la toma de decisiones de TI (ITDM) en el Reino Unido, Francia y Alemania para elaborar el informe Generative AI in Security: Empowering or Divisive? (IA generativa en seguridad: ¿empoderadora o divisiva?). El estudio concluyó que la tecnología es una fuente de optimismo y preocupación, casi en igual medida. Alrededor del 46 % de los encuestados afirmó que está buscando de forma proactiva cómo incorporar la tecnología en sus estrategias de ciberseguridad. Sin embargo, un porcentaje similar (44 %) afirmó que las preocupaciones por la exposición de datos y los silos empresariales dificultan o imposibilitan el uso de GenAI en ciberseguridad. Otro 37 % afirmó que GenAI «no es seguro de usar en ciberseguridad». EspañolLea más sobre los riesgos de seguridad de GenAI: la quinta parte de los CISO admiten que el personal filtró datos a través de GenAI Las preocupaciones de seguridad se han demostrado en varios casos, por ejemplo, Samsung prohibió el uso de ChatGPT en 2023 después de que el personal compartiera notas de reuniones privadas y código fuente con la herramienta. En teoría, otros usuarios podrían acceder a cualquier dato confidencial de los clientes o IP compartido con herramientas como esta, lo que presenta claros riesgos de seguridad, privacidad y cumplimiento. Sin embargo, estos desafíos no son insuperables, siempre que la herramienta GenAI y el modelo de lenguaje grande (LLM) subyacente estén correctamente diseñados teniendo en cuenta la privacidad, afirmó Corelight. La propia oferta comercial de NDR del proveedor establece un «cortafuegos funcional» entre los datos del cliente y una función de GenAI, afirmó. «La adopción de GenAI se ve obstaculizada por las preocupaciones sobre la confidencialidad de los datos y la precisión del modelo. A medida que los modelos mejoran en la capacidad de razonamiento general y el conocimiento de la ciberseguridad, y a medida que más implementaciones de LLM incluyen protecciones estructurales de privacidad, GenAI se convertirá en parte integral de las operaciones de seguridad», argumentó Ignacio Arnaldo, director de ciencia de datos en Corelight. La mitad (50%) de los ITDM encuestados por el proveedor afirmó que el mayor impacto de GenAI en la ciberseguridad podría ser proporcionar contexto y análisis de alertas para los equipos de SecOps. Otros casos de uso que citaron incluyen: Mantener políticas de cumplimiento (41%) Recomendar las mejores prácticas en lenguajes específicos del dominio como la política de gestión de identidad y acceso (36%) Información de vulnerabilidad no estructurada (35%) Orientación para la remediación (35%) Información de proceso y conexión de red no estructurada (32%)