Más de un tercio (38%) de los empleados comparten información laboral confidencial con herramientas de inteligencia artificial sin el permiso de su empleador, según una nueva investigación de CybSafe y la Alianza Nacional de Ciberseguridad (NCA). El informe encontró que este comportamiento era particularmente prominente entre las generaciones más jóvenes. Alrededor de la mitad (46%) de la Generación Z y el 43% de los millennials encuestados admitieron haber compartido información laboral confidencial con dichas herramientas sin el conocimiento de su empleador. CybSafe encuestó a más de 7.000 personas en EE. UU., Reino Unido, Canadá, Alemania, Australia, India y Nueva Zelanda como parte de su investigación. La encuesta también encontró que el 52% de los participantes empleados revelaron que aún no habían recibido ninguna capacitación sobre el uso seguro de la IA. Además, el 58% de los estudiantes no ha recibido dicha formación, mientras que el 84% de los que no están empleados activamente y el 83% de los jubilados no han recibido formación en IA. Oz Alashe, director ejecutivo y fundador de CybSafe, comentó: “La introducción de la IA ha creado una categoría completamente nueva de comportamientos de seguridad de los que deben preocuparse los CISO y los líderes empresariales. Si bien la comunidad de seguridad es muy consciente de las amenazas que plantea la IA, está claro que esta conciencia aún no se ha traducido en comportamientos de seguridad consistentes dentro de la fuerza laboral”. La IA plantea los riesgos «más grandes de todos los tiempos» Ronan Murphy, miembro del Consejo Asesor de IA del Gobierno de Irlanda, dijo a Infosecurity que el acceso de las herramientas de IA a los datos organizacionales representa el mayor riesgo que cualquier industria haya enfrentado con respecto a la ciberseguridad, la gobernanza y el cumplimiento. «Si alimentas un modelo de IA con toda tu propiedad intelectual, entonces cualquiera que tenga acceso a ella puede pedirle que te cuente la información», explicó. Murphy agregó: «Para adoptar la IA e impulsar la eficiencia operativa, las organizaciones deben asegurarse de que la capa base, que son sus datos, esté adecuadamente desinfectada antes de ingresar a cualquiera de estas aplicaciones de IA». Predominio de la preocupación y la falta de confianza en la IA Dos tercios (65%) de los encuestados también expresaron preocupación por los delitos cibernéticos relacionados con la IA, como por ejemplo que aprovechar estas herramientas crea correos electrónicos de phishing más convincentes. Más de la mitad (52%) cree que la IA hará que sea más difícil detectar estafas y el 55% dijo que esta tecnología hará que sea más difícil estar seguro en línea. Además, una proporción significativa de personas expresó falta de confianza en la implementación y el uso de la IA por parte de la empresa. Una cantidad similar dijo que tenía una alta confianza en la implementación de IA por parte de las organizaciones (36%) frente a aquellos con poca confianza (35%). El resto (29%) tuvo una postura neutral. Alrededor de un tercio (36%) cree que las empresas se están asegurando de que las tecnologías de IA estén libres de prejuicios, mientras que el 30% sigue sin estar convencido. También hubo una división equitativa en el nivel de confianza de los encuestados en su capacidad para reconocer contenido generado por IA: el 36% expresó alta confianza y el 35% baja confianza. Lo preocupante es que el 36% cree que es probable que la IA influya en sus decisiones sobre lo que es real y lo falso durante las campañas electorales.