Sep 02, 2025  La privacidad de los Datos del Hacker Privacy / SaaS Security Las duras verdades de AI Adoption MITS State of AI en el informe comercial revelaron que, si bien el 40% de las organizaciones han comprado suscripciones de Enterprise LLM, más del 90% de los empleados usan activamente herramientas de IA en su trabajo diario. Del mismo modo, la investigación de la seguridad armónica encontró que el 45.4% de las interacciones de IA sensibles provienen de cuentas de correo electrónico personales, donde los empleados están evitando por completo los controles corporativos. Esto, comprensiblemente, ha llevado a muchas preocupaciones en torno a una creciente «economía de IA de sombra». Pero, ¿qué significa eso y cómo pueden los equipos de gobernanza de seguridad y AI superar estos desafíos? Póngase en contacto con Harmonic Security para obtener más información sobre el descubrimiento de la IA Shadow y hacer cumplir su política de uso de IA. El uso de la IA está impulsado por empleados, no las empresas de los comités, las empresas consideran incorrectamente el uso de la IA como algo que viene de arriba hacia abajo, definido por sus propios líderes empresariales visionarios. Ahora sabemos que eso está mal. En la mayoría de los casos, los empleados conducen la adopción de abajo hacia arriba, a menudo sin supervisión, mientras que los marcos de gobernanza todavía se están definiendo de arriba hacia abajo. Incluso si tienen herramientas sancionadas por la empresa, a menudo las evitan a favor de otras herramientas más nuevas que están mejor ubicadas para mejorar su productividad. A menos que los líderes de seguridad entiendan esta realidad, descubren y rigen esta actividad, están exponiendo el negocio a riesgos significativos. Por qué el bloqueo falla, muchas organizaciones han tratado de enfrentar este desafío con una estrategia de «bloquear y esperar». Este enfoque busca restringir el acceso a plataformas de IA conocidas y la adopción de esperanza se desacelera. La realidad es diferente. La IA ya no es una categoría que se puede cercar fácilmente. Desde aplicaciones de productividad como Canva y Grammarly hasta herramientas de colaboración con asistentes integrados, la IA se entrelaza en casi todas las aplicaciones SaaS. Bloquear una herramienta solo lleva a los empleados a otro, a menudo a través de cuentas personales o dispositivos de inicio, dejando a la empresa a ciegas a un uso real. Este no es el caso para todas las empresas, por supuesto. Los equipos de seguridad y gobernanza de IA de avance están buscando comprender de manera proactiva lo que los empleados están utilizando y para qué casos de uso. Buscan comprender lo que está sucediendo y cómo ayudar a sus empleados a usar las herramientas de la manera más segura posible. Shadow AI Discovery como un imperativo de gobernanza Un inventario de activos AI es un requisito regulatorio y no es agradable de tener. Los marcos como la Ley de la UE AI exigen explícitamente a las organizaciones a mantener la visibilidad de los sistemas de IA en uso, porque sin descubrimiento no hay inventario, y sin un inventario no puede haber gobernanza. Shadow AI es un componente clave de esto. Diferentes herramientas de IA plantean diferentes riesgos. Algunos pueden entrenar silenciosamente en datos propietarios, otros pueden almacenar información confidencial en jurisdicciones como China, creando exposición a la propiedad intelectual. Para cumplir con las regulaciones y proteger el negocio, los líderes de seguridad primero deben descubrir el alcance completo del uso de la IA, abarcar cuentas empresariales sancionadas y las personales no autorizadas. Una vez armado con esta visibilidad, las organizaciones pueden separar casos de uso de bajo riesgo de aquellos que involucran datos confidenciales, flujos de trabajo regulados o exposición geográfica. Solo entonces pueden hacer cumplir políticas de gobierno significativas que protejan los datos y permitan la productividad de los empleados. La forma en que la seguridad armónica ayuda a la seguridad armónica permite este enfoque al ofrecer controles de inteligencia para el uso de la IA de los empleados. Esto incluye el monitoreo continuo de la IA de la sombra, con evaluaciones de riesgos estándar para cada aplicación. En lugar de confiar en las listas de bloques estáticos, Harmonic proporciona visibilidad tanto en el uso de IA sancionado como no autorizado, luego aplica políticas inteligentes basadas en la sensibilidad de los datos, el papel del empleado y la naturaleza de la herramienta. Eso significa que se puede permitir que un equipo de marketing ponga información específica en herramientas específicas para la creación de contenido, mientras que los equipos de recursos humanos o legales están restringidos del uso de cuentas personales para la información confidencial de los empleados. Esto está respaldado por modelos que pueden identificar y clasificar la información a medida que los empleados comparten los datos. Esto permite a los equipos hacer cumplir las políticas de IA con la precisión necesaria. El camino hacia adelante Shadow Ai está aquí para quedarse. A medida que más aplicaciones SaaS incrustan la IA, el uso no administrado solo se expandirá. Las organizaciones que no abordan el descubrimiento hoy no pueden gobernar mañana. El camino a seguir es gobernarlo de manera inteligente, en lugar de bloquearlo. Shadow AI Discovery le da a CISOS la visibilidad que necesitan para proteger los datos confidenciales, cumplir con los requisitos reglamentarios y capacitar a los empleados para aprovechar los beneficios de productividad de manera segura. La seguridad armónica ya está ayudando a las empresas a dar el siguiente paso en la gobernanza de la IA. Para CISO, ya no se trata de si los empleados están usando Shadow AI … es si puedes verlo. ¿Encontró este artículo interesante? Este artículo es una pieza contribuida de uno de nuestros valiosos socios. Síguenos en Google News, Twitter y LinkedIn para leer más contenido exclusivo que publicamos.