01 de octubre de 2024The Hacker NewsIA generativa / Protección de datos Desde su aparición, la IA generativa ha revolucionado la productividad empresarial. Las herramientas GenAI permiten un desarrollo de software, análisis financiero, planificación empresarial y participación del cliente más rápido y eficaz. Sin embargo, esta agilidad empresarial conlleva riesgos importantes, en particular la posibilidad de fuga de datos confidenciales. A medida que las organizaciones intentan equilibrar las ganancias de productividad con las preocupaciones de seguridad, muchas se han visto obligadas a elegir entre el uso ilimitado de GenAI o su prohibición total. Una nueva guía electrónica de LayerX titulada 5 medidas prácticas para prevenir la fuga de datos mediante herramientas de IA generativa está diseñada para ayudar a las organizaciones a afrontar los desafíos del uso de GenAI en el lugar de trabajo. La guía ofrece pasos prácticos para que los administradores de seguridad protejan los datos corporativos confidenciales y al mismo tiempo obtengan los beneficios de productividad de las herramientas GenAI como ChatGPT. Este enfoque pretende permitir a las empresas lograr el equilibrio adecuado entre innovación y seguridad. ¿Por qué preocuparse por ChatGPT? La guía electrónica aborda la creciente preocupación de que el uso irrestricto de GenAI pueda provocar una exposición involuntaria de los datos. Por ejemplo, como ponen de relieve incidentes como la filtración de datos de Samsung. En este caso, los empleados expusieron accidentalmente código propietario mientras usaban ChatGPT, lo que llevó a una prohibición total de las herramientas GenAI dentro de la empresa. Estos incidentes subrayan la necesidad de que las organizaciones desarrollen políticas y controles sólidos para mitigar los riesgos asociados con GenAI. Nuestra comprensión del riesgo no es sólo anecdótica. Según una investigación de LayerX Security: el 15% de los usuarios empresariales han pegado datos en herramientas GenAI. El 6% de los usuarios empresariales ha pegado datos confidenciales, como código fuente, PII o información organizacional confidencial, en herramientas GenAI. Entre el 5% de los usuarios principales de GenAI, que son los usuarios más habituales, un 50% pertenece a I+D. El código fuente es el principal tipo de datos confidenciales que quedan expuestos y representa el 31% de los datos expuestos. Pasos clave para los gerentes de seguridad ¿Qué pueden hacer los gerentes de seguridad para permitir el uso de GenAI sin exponer a la organización a riesgos de filtración de datos? Los aspectos más destacados de la guía electrónica incluyen los siguientes pasos: Mapeo del uso de la IA en la organización: comience por comprender qué necesita proteger. Mapee quién utiliza las herramientas GenAI, de qué manera, con qué fines y qué tipos de datos están expuestos. Esta será la base de una estrategia eficaz de gestión de riesgos. Restricción de cuentas personales: a continuación, aproveche la protección que ofrecen las herramientas GenAI. Las cuentas corporativas GenAI proporcionan medidas de seguridad integradas que pueden reducir significativamente el riesgo de fuga de datos confidenciales. Esto incluye restricciones sobre los datos que se utilizan con fines de capacitación, restricciones sobre la retención de datos, limitaciones para compartir cuentas, anonimización y más. Tenga en cuenta que esto requiere imponer el uso de cuentas no personales cuando se utiliza GenAI (que requiere una herramienta patentada para hacerlo). Incitar a los usuarios: como tercer paso, utilice el poder de sus propios empleados. Los simples mensajes recordatorios que aparecen al utilizar las herramientas GenAI ayudarán a crear conciencia entre los empleados sobre las posibles consecuencias de sus acciones y de las políticas organizacionales. Esto puede reducir eficazmente el comportamiento riesgoso. Bloqueo de la entrada de información confidencial: ahora es el momento de introducir tecnología avanzada. Implemente controles automatizados que restrinjan la entrada de grandes cantidades de datos confidenciales en las herramientas GenAI. Esto es especialmente efectivo para evitar que los empleados compartan código fuente, información del cliente, PII, datos financieros y más. Restricción de las extensiones del navegador GenAI: finalmente, evite el riesgo de las extensiones del navegador. Administre y clasifique automáticamente las extensiones del navegador de IA según el riesgo para evitar su acceso no autorizado a datos organizacionales confidenciales. Para disfrutar de todos los beneficios de productividad de la IA generativa, las empresas deben encontrar el equilibrio entre productividad y seguridad. Como resultado, la seguridad de GenAI no debe ser una elección binaria entre permitir toda la actividad de IA o bloquearla toda. Más bien, adoptar un enfoque más matizado y afinado permitirá a las organizaciones cosechar los beneficios empresariales, sin dejarlas expuestas. Para los gerentes de seguridad, esta es la manera de convertirse en un socio comercial y facilitador clave. Descargue la guía para aprender cómo implementar fácilmente estos pasos de inmediato. ¿Encontró interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síganos en Twitter y LinkedIn para leer más contenido exclusivo que publicamos.
Deja una respuesta