A los líderes de seguridad les preocupa que sus empleados introduzcan datos internos confidenciales de la empresa en herramientas de inteligencia artificial generativa, pero no saben cómo pueden abordar el desafío. En el escenario de la Cumbre de Identidad de Máquinas 2024 de Venafi en Boston, Jeff Hudson, director ejecutivo emérito de Venafi, citó un estudio reciente. en el que el 39% de los encuestados dijeron que habían utilizado sistemas personales de IA en información confidencial de la empresa. Hudson advirtió que los empleados están utilizando sistemas de IA de consumo para ayudarlos a optimizar su flujo de trabajo, sin considerar las consecuencias de introducir datos empresariales en modelos públicos. “Conocemos a la gente descarga ChatGPT y tienen un archivo de datos de cliente de terabytes o 100 GB, y dicen: ‘dígame para qué clientes tengo una estrategia de comercialización’. Puedes ver a la gente haciéndolo y no saben nada diferente”, explicó. El problema, según Hudson, es que la vigilancia policial es “demasiado resbaladiza” y que tan pronto como las empresas dicen que no a su personal, o bloquean acceso a las plataformas, simplemente encuentran formas de eludir estas medidas. Hudson preguntó a un panel de CISO de las principales instituciones financieras de EE. UU. sobre cómo atravesaban este panorama plagado de posibles violaciones de la privacidad. Togai Andrews, CISO de la Oficina de Grabado de EE. UU. and Printing, dijo que había estado trabajando en el desarrollo de una política de gobernanza para permitir el uso de tecnología de IA generativa de manera responsable, pero tuvo dificultades para respaldar esta política con controles técnicos efectivos. Reciba nuestras últimas noticias, actualizaciones de la industria, recursos destacados y más. Regístrese hoy para recibir nuestro informe GRATUITO sobre seguridad y delitos cibernéticos de IA, recientemente actualizado para 2024. Andrews dijo que esta falta de aplicación de la política quedó al descubierto en un informe interno reciente sobre el uso de IA generativa por parte de los empleados en la oficina, y señaló que estaba prácticamente impotente para evitarlo. “Hace un mes recibí un informe que decía que alrededor del 40% de nuestros usuarios estaban usando [tools like] Copilot, Grammarly o ChatGPT para hacer informes y resumir documentos internos, pero no tenía forma de detenerlo”. Explicó que, como resultado, cambió su enfoque para garantizar que los empleados comprendan mejor los riesgos de datos asociados con el uso. estas herramientas en su flujo de trabajo diario.“En lo que realmente me he centrado es en la educación, la concientización y el compromiso abierto con todas mis comunidades de usuarios sobre cómo usar la tecnología de manera responsable porque creo que es lo mejor que tengo. en este punto”. IA para casos de uso internos, pero más precaución al implementarla para los clientes. “Creo que hay mucho interés y mucha capacidad para generar casos de uso, aunque ahora hay una ola secundaria de ser un poco cautelosos. Muchos de los casos de uso que se implementan suelen ser para procesos internos, [bringing] optimización, eficiencia, etc., lo cual es genial, pero creo que hay un poco de renuencia a poner eso en manos de los clientes, y creo que eso es algo bueno”. Marco Maiurano, vicepresidente ejecutivo y CISO de First Citizens Banks, dijo que tenía que equilibrar sus intentos de evitar que los usuarios accedan a las herramientas de IA, impulsados ​​por el entorno regulatorio de su organización, con la demanda de los clientes internos que querían usarlas. Esto llevó a Maiurano y su equipo a crear un entorno de pruebas donde pudieran construir casos de uso con los límites adecuados. y controles implementados. «Permite a la gente calmarse», agregó, brindando a los usuarios una mejor alternativa al uso de agentes personales como ChatGPT, que podría poner en riesgo información confidencial. Hudson dijo que esta es la forma en que ha visto a las empresas acercarse a la IA. problemas de protección de datos, ya que no existe una solución sencilla. “Creo que ese es el camino, al menos para los cientos de organizaciones con las que he hablado. Así es como funciona porque si te dedicas a decir no a la gente, te ignoran. Es demasiado resbaladizo”.