Los agentes de inteligencia artificial (IA) están ganando terreno en el lugar de trabajo, pero los trabajadores humanos se resisten a sus incursiones, según una investigación comercializada en día de trabajo. El informe basado en la encuesta, los agentes de IA están aquí, pero no los llaman jefe, encontró al 30% de los encuestados desconcertados con ser administrados por un agente de IA, aunque las tres cuartas partes dijeron que están a gusto trabajando con ellos. Hanover Research llevó a cabo el estudio en mayo y junio de 2025, comisionado por el día de trabajo. Se basó en una encuesta global de 2.950 empresas de tiempo completo de TI tomadores de decisiones y líderes de implementación de software en América del Norte (706), APAC (1,031) y EMEA (1,213). La investigación encontró que las preocupaciones éticas, de seguridad y de gobernanza están impediendo el despliegue de agentes de IA. Alrededor del 44% citó preocupaciones de ética y gobernanza, que incluyen sesgo, privacidad de datos y asuntos legales, y el 39% citó desafíos de seguridad y privacidad. Además, el 30% dijo que estaban muy preocupados por el mal uso de la IA, fundamentalmente. Los investigadores eligieron centrarse en la IA agente, no a la IA más ampliamente. «Para el propósito de este informe, ‘los agentes de IA’ se refieren a sistemas de inteligencia artificial capaces de realizar tareas, tomar decisiones e interactuar de manera autónoma o semiautónoma dentro de un alcance definido, a menudo aprendiendo y adaptarse con el tiempo para lograr objetivos específicos», dice el informe. «A diferencia de la IA más amplia, que puede abarcar una amplia gama de tecnologías inteligentes, los agentes de IA se caracterizan por su capacidad para actuar en nombre de un usuario o sistema con cierto grado de independencia. Nuestra investigación se centra específicamente en la adopción e impacto de estos agentes de IA en el lugar de trabajo». Para el proveedor de comisionamiento, Kathy Pham, vicepresidenta de IA en Workday, dijo: «Estamos entrando en una nueva era de trabajo donde la IA puede ser una pareja increíble y un complemento para el juicio humano, el liderazgo y la empatía.» Construir confianza significa ser intencional en cómo se usa la IA y mantener a las personas en el centro de cada decisión «. En el informe, ella dice: “El optimismo en la IA agente se forja a través de límites claros. Estos límites, definidos por nuestras elecciones, son esenciales para el despliegue con propósito y responsable, liberándonos para explorar el máximo potencial de la IA sin temor al mal uso. Los líderes deben priorizar la capacitación que capacite a los empleados para comprender cuándo y cómo usar la IA, mientras que los proveedores de tecnología incorporan estos límites directamente en sus soluciones, dando a los clientes la confianza para innovar, especialmente en áreas de alto riesgo como RRHH y finanzas «. La investigación encontró que el 82% de las organizaciones encuestadas están ampliando su uso de agentes, y aunque el 36% de los que exploran los agentes de IA confían en su organización para usarlas de manera responsable, la investigación encontró que el número aumentó al 95% entre aquellos con más experiencia de los agentes, en la etapa de buscar el uso del 90%, el 90% de los que buscan la confianza de que el uso del agente de la IA vio un impacto social positivo. son cómodos con los agentes de IA que operan en segundo plano sin conocimiento humano. Para el apoyo de TI y el desarrollo de las habilidades, y las áreas como la contratación, las finanzas y los asuntos legales. (32%), y detección de fraude (30%). El liderazgo debe participar más allá de su alcance tradicional para la IA responsable. Aquí es donde RR.HH. asume un papel estratégico indispensable «.
Deja una respuesta