Según un estudio de Netskope, actualmente el 96 % de las organizaciones utilizan aplicaciones de IA generativa, lo que aumenta el riesgo de que se compartan datos confidenciales con estas herramientas públicas. El informe descubrió que el uso compartido de código fuente propietario con aplicaciones de IA generativa representa el 46 % de todas las infracciones de políticas de datos. Además, los datos regulados, que las organizaciones tienen la obligación legal de proteger, representan más de un tercio (35 %) de los datos confidenciales que se comparten con aplicaciones genAI, lo que pone a las empresas en riesgo de costosas violaciones de datos. La información sobre propiedad intelectual comprende el 15 % de los datos compartidos con aplicaciones genAI. Las aplicaciones de colaboración y almacenamiento en la nube fueron la fuente de datos confidenciales compartidos con estas aplicaciones el 84 % de las veces. Las fuentes de datos confidenciales enviadas con mayor frecuencia a las aplicaciones genAI fueron: OneDrive (34%) Google Drive (29%) SharePoint (21%) Outlook.com (8%) Google Gmail (6%) Leer más: La quinta parte de los CISO admiten que el personal filtró datos a través de GenAI El uso de aplicaciones genAI aumentó del 74% al 96% de las organizaciones de 2023 a 2024. Las empresas ahora usan casi 10 aplicaciones genAI en promedio, frente a las tres de 2023. El 1% superior de los adoptantes usa un promedio de 80 aplicaciones, un aumento significativo en comparación con las 14 del año pasado. Las aplicaciones genAI más comúnmente adoptadas por las organizaciones son: ChatGPT (80%) Grammarly (60%) Microsoft Copilot (57%) Google Gemini (51%) Perplexity AI (42%) Sin embargo, la proporción general de empleados que usan aplicaciones genAI sigue siendo baja, del 5%. Controles de seguridad de la IA generativa Netskope observó un aumento del 75 % en las organizaciones que utilizan controles de prevención de pérdida de datos (DLP) para gestionar los riesgos de los datos de genAI, pasando del 24 % de las organizaciones en 2023 al 42 % en 2024. Las políticas de DLP tienen como objetivo controlar flujos de datos específicos, en particular bloquear los avisos de genAI que contienen información sensible o confidencial. Alrededor de tres cuartas partes de las empresas bloquean por completo al menos una aplicación de genAI para intentar limitar el riesgo de exfiltración de datos sensibles. Casi una quinta parte (19 %) ha impuesto una prohibición general de GitHub CoPilot. El informe también descubrió que para las organizaciones con políticas para controlar el uso de genAI, el uso de diálogos de entrenamiento aumentó del 20 % en 2023 al 31 % en 2024. Estos diálogos brindan una advertencia a los usuarios mientras interactúan con las aplicaciones de genAI, dándoles la opción de cancelar o continuar con su acción. Este enfoque está diseñado para adoptar un enfoque más específico de la seguridad, informando y permitiendo a los usuarios cambiar sus comportamientos sin bloquear su trabajo. Los usuarios optaron por detener la acción que estaban realizando con una herramienta genAI y en el 57 % de los casos se les envió una alerta de diálogo de entrenamiento.