09 de septiembre de 2024The Hacker NewsSeguridad de datos / Seguridad GenAI GenAI se ha convertido en una herramienta de suma importancia para los empleados, debido a las ganancias de productividad y las capacidades innovadoras que ofrece. Los desarrolladores lo utilizan para escribir código, los equipos de finanzas lo utilizan para analizar informes y los equipos de ventas crean correos electrónicos y activos para clientes. Sin embargo, estas capacidades son exactamente las que introducen graves riesgos de seguridad. Regístrese en nuestro próximo seminario web para aprender cómo prevenir la fuga de datos de GenAI Cuando los empleados ingresan datos en herramientas GenAI como ChatGPT, a menudo no diferencian entre datos confidenciales y no confidenciales. La investigación de LayerX indica que uno de cada tres empleados que usan herramientas GenAI también comparten información confidencial. Esto podría incluir código fuente, números financieros internos, planes comerciales, IP, PII, datos de clientes y más. Los equipos de seguridad han estado tratando de abordar este riesgo de exfiltración de datos desde que ChatGPT entró de manera tumultuosa en nuestras vidas en noviembre de 2022. Sin embargo, hasta ahora el enfoque común ha sido «permitir todo» o «bloquear todo», es decir, permitir el uso de GenAI sin ninguna medida de seguridad o bloquear el uso por completo. Este enfoque es altamente ineficaz porque abre las puertas al riesgo sin ningún intento de proteger los datos empresariales o prioriza la seguridad sobre los beneficios comerciales, y las empresas pierden las ganancias de productividad. A largo plazo, esto podría llevar a Shadow GenAI o, peor aún, a que la empresa pierda su ventaja competitiva en el mercado. ¿Pueden las organizaciones protegerse contra las fugas de datos y, al mismo tiempo, aprovechar los beneficios de GenAI? La respuesta, como siempre, implica tanto conocimiento como herramientas. El primer paso es comprender y mapear cuáles de sus datos requieren protección. No todos los datos deben compartirse (planes comerciales y código fuente, sin duda). Pero la información disponible públicamente en su sitio web se puede ingresar de manera segura en ChatGPT. El segundo paso es determinar el nivel de restricción que desea aplicar a los empleados cuando intenten pegar datos tan sensibles. Esto podría implicar un bloqueo total o simplemente advertirles de antemano. Las alertas son útiles porque ayudan a capacitar a los empleados sobre la importancia de los riesgos de los datos y fomentan la autonomía, de modo que los empleados puedan tomar la decisión por sí mismos en función de un equilibrio entre el tipo de datos que están ingresando y sus necesidades. Ahora es el momento de la tecnología. Una herramienta GenAI DLP puede aplicar estas políticas: analizar de forma granular las acciones de los empleados en las aplicaciones GenAI y bloquear o alertar cuando los empleados intenten pegar datos sensibles en ellas. Una solución de este tipo también puede deshabilitar las extensiones GenAI y aplicar diferentes políticas para diferentes usuarios. En un nuevo seminario web de expertos de LayerX, se profundiza en los riesgos de los datos GenAI y se brindan las mejores prácticas y los pasos prácticos para proteger la empresa. CISO, profesionales de seguridad, oficinas de cumplimiento: regístrese aquí. ¿Le resultó interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síganos en Twitter  y LinkedIn para leer más contenido exclusivo que publicamos.