OpenAI ha presentado recientemente un sistema de cinco niveles para medir su avance hacia el desarrollo de la inteligencia artificial general (AGI), según un portavoz de OpenAI que habló con Bloomberg. La empresa compartió este nuevo sistema de clasificación el martes con los empleados durante una reunión general, con el objetivo de proporcionar un marco claro para comprender el avance de la IA. Sin embargo, el sistema describe una tecnología hipotética que aún no existe y posiblemente se interprete mejor como un movimiento de marketing para obtener dólares de inversión. OpenAI ha declarado anteriormente que la AGI (un término nebuloso para un concepto hipotético que significa un sistema de IA que puede realizar tareas novedosas como un humano sin entrenamiento especializado) es actualmente el objetivo principal de la empresa. La búsqueda de tecnología que pueda reemplazar a los humanos en la mayoría de los trabajos intelectuales impulsa la mayor parte del bombo publicitario duradero sobre la empresa, a pesar de que una tecnología de este tipo probablemente sería tremendamente disruptiva para la sociedad. El director ejecutivo de OpenAI, Sam Altman, ha declarado anteriormente su creencia de que la AGI podría lograrse en esta década, y una gran parte del mensaje público del director ejecutivo ha estado relacionado con cómo la empresa (y la sociedad en general) podría manejar la disrupción que la AGI puede traer. En ese sentido, tiene sentido un sistema de clasificación para comunicar los hitos de IA alcanzados internamente en el camino hacia la IAG. Los cinco niveles de OpenAI, que planea compartir con los inversores, abarcan desde las capacidades actuales de IA hasta los sistemas que podrían gestionar organizaciones enteras. La empresa cree que su tecnología (como GPT-4o que impulsa ChatGPT) se encuentra actualmente en el Nivel 1, que abarca la IA que puede participar en interacciones conversacionales. Sin embargo, los ejecutivos de OpenAI habrían dicho al personal que están a punto de alcanzar el Nivel 2, denominado «Reasoners». Bloomberg enumera las cinco «Etapas de la Inteligencia Artificial» de OpenAI de la siguiente manera: Nivel 1: Chatbots, IA con lenguaje conversacional Nivel 2: Razonadores, resolución de problemas a nivel humano Nivel 3: Agentes, sistemas que pueden tomar acciones Nivel 4: Innovadores, IA que puede ayudar en la invención Nivel 5: Organizaciones, IA que puede hacer el trabajo de una organización Un sistema de IA de Nivel 2 sería capaz de resolver problemas básicos a la par de un humano que tiene un doctorado pero carece de acceso a herramientas externas. Durante la reunión de todos los empleados, los líderes de OpenAI demostraron un proyecto de investigación utilizando su modelo GPT-4 que los investigadores creen que muestra signos de acercarse a esta capacidad de razonamiento similar a la humana, según alguien familiarizado con la discusión que habló con Bloomberg. Los niveles superiores de la clasificación de OpenAI describen capacidades de IA hipotéticas cada vez más potentes. Los «Agentes» de Nivel 3 podrían trabajar de forma autónoma en tareas durante días. Los sistemas de Nivel 4 generarían innovaciones novedosas. El pináculo, el Nivel 5, imagina a la IA gestionando organizaciones enteras. Este sistema de clasificación todavía es un trabajo en progreso. OpenAI planea recopilar comentarios de empleados, inversores y miembros de la junta, potencialmente refinando los niveles con el tiempo. Ars Technica preguntó a OpenAI sobre el sistema de clasificación y la precisión del informe de Bloomberg, y un portavoz de la empresa dijo que no tenían «nada que agregar». El problema con la clasificación de las capacidades de IA OpenAI no es el único que intenta cuantificar los niveles de capacidades de IA. Como señala Bloomberg, el sistema de OpenAI se siente similar a los niveles de conducción autónoma trazados por los fabricantes de automóviles. Y en noviembre de 2023, los investigadores de Google DeepMind propusieron su propio marco de cinco niveles para evaluar el avance de la IA, lo que demuestra que otros laboratorios de IA también han estado tratando de descubrir cómo clasificar cosas que aún no existen. El sistema de clasificación de OpenAI también se parece un poco a los «Niveles de seguridad de IA» (ASL) de Anthropic publicados por primera vez por el fabricante del asistente de IA Claude en septiembre de 2023. Ambos sistemas tienen como objetivo categorizar las capacidades de IA, aunque se centran en diferentes aspectos. Los niveles de ASL de Anthropic se centran más explícitamente en la seguridad y los riesgos catastróficos (como el ASL-2, que se refiere a «sistemas que muestran signos tempranos de capacidades peligrosas»), mientras que los niveles de OpenAI rastrean las capacidades generales. Sin embargo, cualquier sistema de clasificación de IA plantea preguntas sobre si es posible cuantificar de manera significativa el progreso de la IA y qué constituye un avance (o incluso qué constituye un sistema de IA «peligroso», como en el caso de Anthropic). Hasta ahora, la industria tecnológica tiene un historial de prometer demasiado sobre las capacidades de la IA, y los modelos de progresión lineal como el de OpenAI corren el riesgo de alimentar expectativas poco realistas. Actualmente, no hay consenso en la comunidad de investigación de IA sobre cómo medir el progreso hacia la IAG o incluso si la IAG es un objetivo bien definido o alcanzable. Como tal, el sistema de cinco niveles de OpenAI probablemente debería verse como una herramienta de comunicación para atraer a los inversores que muestra los objetivos aspiracionales de la empresa en lugar de una medición científica o incluso técnica del progreso.