zf L/Getty Images El término «IA agente» o «agentes de inteligencia artificial» se está convirtiendo rápidamente en algo común, hasta el punto de que quienes invierten en la tecnología ven la necesidad de hacer distinciones. En una serie de publicaciones de blog publicadas la semana pasada, los socios de la firma de capital riesgo Menlo Ventures (que ha financiado nuevas empresas en inteligencia artificial como Anthropic), definen «la próxima ola de agentes» y cómo superarán a los agentes introducidos hasta ahora. Los agentes, escriben, tienen cuatro capacidades distintas. Además: Las redes de agentes colaborativos de IA transformarán la forma en que trabajamos, dice este experto. «Los agentes totalmente autónomos se definen por cuatro elementos que, en combinación, ascienden hasta la capacidad de agente total: razonamiento, memoria, ejecución y planificación», escriben los autores. «Para ser claros, los agentes totalmente autónomos del mañana podrían poseer los cuatro componentes básicos, pero las aplicaciones y agentes LLM de hoy no», declaran. Los autores, Tim Tully, Joff Redfern, Deedy Das y Derek Xiao, exploran en su Primera publicación de blog sobre lo que significa que algo sea «agente». El software, escriben, debe, en última instancia, ganar cada vez más autonomía a la hora de seleccionar entre los posibles pasos a seguir para resolver un problema. Además: la encuesta del Bank of America predice un aumento masivo de la IA en las ganancias corporativas. Los agentes surgen cuando colocas el LLM en el flujo de control de tu aplicación y le dejas decidir dinámicamente qué acciones tomar, qué herramientas usar y cómo interpretar y responder a «entradas», escriben los autores. Un modelo de lenguaje grande convencional puede tener acceso a «herramientas», como programas externos que permiten al LLM realizar una tarea. Anthropic ya ha hecho esto con su función Uso de herramientas y OpenAI tiene algo similar. Sin embargo, los autores explican que invocar una herramienta simplemente le da al LLM los medios para resolver un problema, no el control para decidir la forma en que se debe resolver un problema. Además: el 98% de las pequeñas empresas utilizan herramientas de inteligencia artificial para «superar sus posibilidades». Como escriben los autores: «El uso de herramientas es poderoso, pero por sí solo, [it] no puede considerarse «agente». Los flujos de control lógicos permanecen predefinidos por la aplicación». Más bien, el agente debe tener una amplia capacidad para elegir qué herramienta se utilizará, una lógica de decisión. Algunas versiones de software se acercan más a ser verdaderos agentes, explican los autores. Uno es un «agente de toma de decisiones», que utiliza el modelo de lenguaje grande para elegir entre un conjunto de reglas que a su vez deciden qué herramienta debe usarse. Citan a la startup de software de atención médica Anterior como ejemplo de dicho sistema de toma de decisiones. a un agente de orden superior, llamado «agente sobre rieles», «se le asignan objetivos de orden superior que debe alcanzar (por ejemplo, ‘conciliar esta factura con el libro mayor'», escriben). Al programa se le otorga más libertad para igualar los objetivos de alto nivel. -solicitud de nivel y qué conjuntos de reglas seguir. Además: hay muchas razones por las que las empresas luchan por explotar la IA generativa, según una encuesta de Deloitte. Varias empresas emergentes están siguiendo este enfoque de «agente sobre rieles», señalan los autores, incluida la empresa de servicio al cliente Sierra y el software. empresa de desarrollo All Hands AI. Menlo VenturesEl tercer nivel, el más alto, de IA agente, el santo grial, como dicen, tiene «razonamiento dinámico» y una «generación de código personalizado» que permite que el modelo de lenguaje grande «subsumir» el libro de reglas de la empresa. Este tipo de enfoque, conocido como «agente general de IA», aún se encuentra en fase de investigación, señalan los autores. Los ejemplos incluyen a Devin, el «primer ingeniero de software de IA», creado por la startup Cognition. En la segunda publicación del blog, «Más allá de los bots: cómo los agentes de IA están impulsando la próxima ola de automatización empresarial», los autores reflexionan sobre cómo se aplicará la IA agente. en las empresas. El impacto inmediato, escriben, es ir más allá de la «automatización robótica de procesos», o RPA, herramientas que reemplazan algunas tareas humanas básicas con software, vendido por empresas como UiPath y Zapier. Además: el 73% de los profesionales de la IA buscan cambiar de trabajo durante el próximo año. Los agentes de decisión y los agentes sobre rieles explorados en la primera publicación encuentran aplicaciones prácticas en tareas comerciales, como conciliar facturas de proveedores con un libro mayor: digamos que una empresa necesita conciliar una factura de un proveedor internacional con su libro mayor. Este proceso implica múltiples consideraciones, incluida la moneda de la factura, la moneda del libro mayor, la fecha de la transacción, las fluctuaciones del tipo de cambio, las tarifas transfronterizas y las tarifas bancarias, todas las cuales deben recuperarse y calcularse en conjunto para conciliar los pagos. Los agentes son capaces de realizar este tipo de inteligencia, mientras que un agente de RPA podría simplemente escalar el caso a un humano. La idea principal de la publicación del blog es que numerosas empresas emergentes ya están vendiendo cosas que se acercan a funciones de agencia tan superiores. «Tampoco son sólo ciencia ficción», escriben. «Aunque la categoría aún está emergiendo, empresas desde nuevas empresas hasta compañías Fortune 500 ya están comprando y aprovechando estos sistemas a escala». por el grado de autonomía de los programas de agentes a lo largo de un eje y el grado de enfoque vertical u horizontal en el mercado: Menlo Ventures. En las dos publicaciones del blog no se tratan dos limitaciones clave que han surgido en los sistemas de IA generativa (gen AI) existentes y amenazan con obstaculizar el progreso de los agentes. En primer lugar, los autores no discuten sustancialmente cómo lidiar con las alucinaciones, lo que afirma con confianza es un resultado falso. Cualquiera que sea el proceso de razonamiento utilizado por la generación de IA y por formidables que sean las herramientas, no hay razón para suponer que los agentes de IA no seguirán generando resultados erróneos como los chatbots convencionales. Además: prepárese para los ‘ecosistemas de agentes’ impulsados por la IA que dominarán los servicios del mañana. Al menos, la cuestión de si los agentes de decisión y los agentes sobre rieles disminuyen o no las alucinaciones es una cuestión de investigación abierta. En segundo lugar, si bien la IA agente puede automatizar una serie de procesos corporativos, hasta la fecha hay muy pocos datos sobre el efecto de esa automatización y si realmente constituye una mejora. Esto está relacionado en parte con el primer punto sobre las alucinaciones, pero no del todo. Un agente que no se equivoca en su razonamiento o acciones aún puede conducir a resultados subóptimos en comparación con los que haría una persona. Un ejemplo destacado se analiza en el libro «AI Snake Oil» de los académicos en informática de Princeton Arvind Narayan y Sayash Kapoor, publicado este mes por Princeton University Press. Un modelo de IA rastreó el historial de pacientes con asma que presentaron síntomas de neumonía al ingresar al hospital. El modelo de IA encontró que se encontraban entre los pacientes con menor riesgo en la población hospitalaria. Utilizando ese «razonamiento», estos pacientes podrían ser dados de alta. Además: ¿Hacer preguntas médicas a través de MyChart? Su médico puede dejar que la IA responda. Sin embargo, el modelo pasó por alto la conexión causal: los pacientes con asma y síntomas de neumonía tenían menos riesgo porque recibían atención de emergencia. Simplemente darles de alta habría pasado por alto esa atención y los resultados podrían haber sido «catastróficos», declaran Narayan y Kapoor. Es ese tipo de correlación en lugar de causalidad lo que puede llevar a resultados muy subóptimos en situaciones del mundo real con situaciones causales complejas. También quedan fuera del alcance de la discusión de los autores los agentes que colaboran. Como dijo recientemente a ZDNET el CTO de Hubspot, Dharmesh Shah, el trabajo futuro de la IA agente no lo realizará un solo agente, sino probablemente redes de agentes de IA que colaboran entre sí. Además: la IA está aliviando a los terapeutas del agotamiento. Así es como está cambiando la salud mental. Dadas esas omisiones, está bastante claro que a pesar del alcance de la investigación de los capitalistas de riesgo, solo han arañado la superficie de lo que se logrará en un mundo de agentes de IA cada vez más poderosos.
Deja una respuesta