Hoy en día, se ha vuelto un estribillo común que la IA generativa puede encargarse de tareas más simples, pero tiene dificultades con las más difíciles. En ese caso, ¿cuánto ahorra realmente la IA generativa o mejora el rendimiento en el trabajo? Thomson Reuters, una empresa de servicios profesionales y tecnología en los campos del derecho, los impuestos, el cumplimiento normativo y más, exploró cómo los profesionales están utilizando la IA en su informe Future of Professionals 2024. Hablamos con el director de productos de Thomson Reuters, David Wong, sobre la IA generativa en el lugar de trabajo en una entrevista exclusiva sobre la publicación del informe. Thomson Reuters encuestó a 2205 profesionales de los sectores legal, fiscal, de riesgo y cumplimiento normativo en todo el mundo. El informe no especificó la inteligencia artificial generativa cuando preguntó sobre la IA, pero las capacidades analizadas en el informe a menudo se relacionan con la IA generativa. En la conversación con Wong, utilizamos IA como un término general para los modelos generativos que pueden redactar imágenes o texto. El porcentaje de profesionales que cree que la IA será «transformadora» aumentó un 10% El informe fue en gran medida optimista sobre la IA, y se espera que la inteligencia artificial libere tiempo. Y el 77% de los encuestados dijo que cree que la IA tendrá un «impacto alto o transformador en su trabajo durante los próximos cinco años»; ese número aumentó un 10% con respecto al informe del año pasado. «Me sorprendió un poco que aumentara la relevancia estratégica, porque podría haber pensado el año pasado cuando ChatGPT y GPT-4 aparecieron en escena que el ciclo de exageración estaría en su apogeo y que la gente estaría tan emocionada», dijo Wong. Sin embargo, el interés en la relevancia estratégica de la IA se extendió principalmente de los bufetes de abogados a casi todas las industrias a las que sirve Thomson Reuters. Entonces, dijo Wong, los números más altos podrían reflejar un interés más amplio en todas las industrias en lugar de un interés intensificado de los bufetes de abogados. La división entre aquellos que son muy cautelosos con la IA y aquellos que son muy ambiciosos con la IA Wong señaló que hay una división interesante entre las personas que son cautelosas y las personas que son ambiciosas en términos de IA generativa. En el informe, esto aparece como una pregunta en la que Thomson Reuters preguntó: “En un año, tres años y cinco años, aproximadamente qué porcentaje del trabajo que actualmente produce su equipo cree que será [performed by either humans or AI].” La encuesta proporcionó cuatro posibles respuestas (un espectro de trabajo dirigido por IA o dirigido por humanos) para determinar si los profesionales eran cautelosos o ambiciosos sobre el uso de la tecnología de IA para el trabajo. Encontraron que el 13% de los profesionales caían en la categoría de “cautelosos”, pensando que un bajo porcentaje del trabajo será realizado por asistentes de IA incluso dentro de cinco años. El otro extremo era la categoría de “ambiciosos”, en la que el 19% de los profesionales predijo que la IA hará una gran parte de su trabajo dentro de cinco años. “Muchos profesionales se han dado cuenta de cuál es la implicación práctica, la realidad de gran parte de la tecnología”, dijo Wong. “Y en base a esa experimentación que ocurrió durante los últimos 12 meses aproximadamente, ahora estamos empezando a ver a esos profesionales traducir la experimentación en implementación”. ¿Qué tareas no puede realizar la IA? Las expectativas para la IA generativa fueron muy altas en 2023, pero es probable que vuelvan a bajar antes de estabilizarse, según Gartner. Para los profesionales del derecho y los demás puestos de trabajo que se tratan en el informe de Thomson Reuters, “las soluciones de IA son extremadamente buenas en cualquier tipo de tarea en la que se pueda proporcionar, francamente, un conjunto bastante bueno de instrucciones”, dijo Wong. Ese tipo de tarea incluye la investigación, el resumen de documentos o “la investigación de conceptos de alto nivel que no requieren citas legales específicas”, como dijo uno de los encuestados en el informe. Lo que la IA no puede hacer es tomar decisiones por sí misma. Las empresas de IA quieren que, con el tiempo, pueda hacer esto; de hecho, llevar a cabo acciones de forma autónoma en nombre de un usuario es el nivel 3 de 5 en las nuevas clasificaciones de capacidades de IA de OpenAI. Pero la IA aún no ha llegado a ese punto, y Wong señaló que, para las industrias de Thomson Reuters, este problema es una cuestión tanto de las capacidades de la tecnología como de la confianza que la gente deposita en ella. VER: Una organización de datos empresariales moderna necesita los miembros del equipo humano adecuados para prosperar. “Creo que la IA realmente no ha podido llegar a un punto, al menos en términos de confianza, para poder tomar decisiones por sí misma”, dijo Wong. En muchos casos, dijo Wong, la IA «no funciona tan bien como los revisores humanos, excepto en las cosas más simples». Según el informe, el 83% de los profesionales legales, el 43% de los profesionales de riesgo, fraude y cumplimiento y el 35% de los profesionales de impuestos piensan que «utilizar la IA para brindar asesoramiento o recomendaciones estratégicas» es «éticamente… un paso demasiado lejos». La mayoría de los encuestados (el 95% de los encuestados legales y fiscales) piensan que «permitir que la IA represente a los clientes en los tribunales o tome decisiones finales sobre asuntos legales, fiscales, de riesgo, fraude y cumplimiento complejos» sería «un paso demasiado lejos». «Si haces la pregunta ‘¿qué probabilidad crees que la IA tomaría la decisión correcta o una decisión tan buena como la de un humano?’ Creo que la respuesta en realidad sería potencialmente diferente a ‘¿es ético?'», dijo Wong. Más cobertura de IA de lectura obligada ¿Todos tendrán un asistente de IA dentro de cinco años? A pesar de estos reparos, Thomson Reuters hizo una afirmación audaz en el informe de que «Todos los profesionales tendrán un asistente genAI dentro de cinco años». Ese asistente funcionará como un miembro del equipo humano y realizará tareas complejas, predijeron. Wong señaló que parte del optimismo proviene de cifras puras. La cantidad de empresas que ofrecen productos de IA se ha disparado en los últimos dos años, incluidos los gigantescos fabricantes de teléfonos inteligentes. “Casi todo el mundo que tiene un iPhone 15 o superior e iOS 18 tendrá un sistema de IA en su bolsillo”, dijo Wong. “Y estoy seguro de que en un par de años más, en cada nueva versión y en cada dispositivo Apple podrás tener acceso a ese asistente. Microsoft también ha estado implementando Copilot de manera muy agresiva. Creo que, en unos años, será bastante difícil tener una versión de Microsoft 365 que no tenga Copilot”. VER: Aprenda todo lo que necesita saber sobre Microsoft Copilot con la hoja de trucos de TechRepublic. Además de usar potencialmente la IA para crear, analizar o resumir contenido, las organizaciones están considerando cómo su producto o proceso de producción podría cambiar usando la IA. Según el informe, la mayoría de los encuestados de la alta dirección consideran que la IA influye más fuertemente en su estrategia operativa (59%) y en su estrategia de producto/servicio (53%). “Creo que eso es lo que prácticamente todas las empresas están considerando en este momento, que las operaciones de una empresa tienen mucho trabajo rutinario y repetitivo que se podría describir con un manual de instrucciones”, dijo Wong. Esas tareas repetitivas son ideales para la IA. En el campo legal, dijo, la IA podría cambiar el proceso de las empresas para presentar documentos reglamentarios o estatutarios. Cómo es una IA responsable y de «nivel profesional» Los encuestados del informe tenían ideas variadas sobre lo que constituía un uso responsable de la IA en el trabajo. Muchos consideraban que la seguridad de los datos era una parte clave del uso responsable de la IA. Otros valoraban: La seguridad de los datos en el paso de solicitud o consulta. La revisión obligatoria de los resultados por parte de un profesional humano. El cuidado en términos de para qué tareas se pueden utilizar las tecnologías impulsadas por IA. La transparencia en las fuentes de datos de las que se han extraído las respuestas. “Si alguien dice que [generative AI is] “Si los sistemas de IA responsables que se utilizan en entornos profesionales son perfectos, sin alucinaciones, sin errores, entonces están engañados o la afirmación debería ser objeto de un escrutinio minucioso”, dijo Wong. “Sin embargo, lo que se quiere es tener transparencia en el rendimiento”. Los sistemas de IA responsables que se utilizan en entornos profesionales deben basarse en contenido validado, ser medibles y poder citar sus referencias, dijo. Deben construirse teniendo en cuenta la seguridad, la fiabilidad y la confidencialidad. ChatGPT es “el peor ejemplo de una solución de IA generativa para profesionales porque no satisface esas necesidades”, dijo Wong. “Pero, de hecho, se puede diseñar un ChatGPT que sea seguro para la privacidad y respete la confidencialidad y que no se entrene con datos. Esas son opciones de diseño de los sistemas. No son inherentes a la IA”.