Los números de Calypsoai, dijo: «Muestre cuán fuerte es ese tirón. Sus datos muestran que más de la mitad de los trabajadores dicen que usarían la IA, incluso si la política de su organización dice que no, un tercero ya lo ha usado en documentos confidenciales, y casi la mitad de los equipos de seguridad de seguridad admitidos por haber pegado material de propiedad de la gente de la gente. El riesgo aquí es claro, agregado ST-Maurice, porque cada aviso no supervisado puede conducir a propiedad intelectual, estrategias corporativas, contratos confidenciales o datos de clientes que se filtran al público. «Y naturalmente», señaló, «si bloquea estos servicios de IA, impulsará a los usuarios a la subterránea a buscar nuevas formas de acceder a ellos. La solución práctica es a través de habilitación estructurada». Una estrategia adecuada, dijo, es proporcionar una puerta de enlace de IA sancionada, conectarla con la identidad, registrar las indicaciones y resultados, aplicar la redacción para campos sensibles y publicar algunas reglas claras y simples que las personas pueden recordar. Esto debe emparejarse con capacitación corta basada en roles y un catálogo de modelos y casos de uso aprobados. Esto les da a los empleados un camino seguro a las mismas ganancias.
Deja una respuesta