La reciente saga laboral de Sam Altman y las especulaciones sobre el innovador modelo Q* de OpenAI han renovado el interés público en las posibilidades y riesgos de la inteligencia artificial general (AGI). AGI podría aprender y ejecutar tareas intelectuales de manera comparable a los humanos. Los rápidos avances en IA, particularmente en el aprendizaje profundo, han despertado optimismo y aprensión sobre el surgimiento de AGI. Varias empresas, incluidas OpenAI y xAI de Elon Musk, pretenden desarrollar AGI. Esto plantea la pregunta: ¿los desarrollos actuales de la IA conducen hacia la AGI? Talvez no. Limitaciones del aprendizaje profundo El aprendizaje profundo, un método de aprendizaje automático (ML) basado en redes neuronales artificiales, se utiliza en ChatGPT y en gran parte de la IA contemporánea. Ha ganado popularidad debido a su capacidad para manejar diferentes tipos de datos y su menor necesidad de preprocesamiento, entre otros beneficios. Muchos creen que el aprendizaje profundo seguirá avanzando y desempeñará un papel crucial para lograr la AGI. Evento VB The AI ​​Impact Tour – Nueva York Estaremos en Nueva York el 29 de febrero en asociación con Microsoft para discutir cómo equilibrar los riesgos y las recompensas de las aplicaciones de IA. Solicite una invitación al evento exclusivo a continuación. Solicite una invitación Sin embargo, el aprendizaje profundo tiene limitaciones. Se requieren grandes conjuntos de datos y costosos recursos computacionales para crear modelos que reflejen los datos de entrenamiento. Estos modelos derivan reglas estadísticas que reflejan los fenómenos del mundo real. Luego, esas reglas se aplican a los datos actuales del mundo real para generar respuestas. Los métodos de aprendizaje profundo, por tanto, siguen una lógica centrada en la predicción; vuelven a derivar reglas actualizadas cuando se observan nuevos fenómenos. La sensibilidad de estas reglas a la incertidumbre del mundo natural las hace menos adecuadas para realizar AGI. El accidente de un crucero Robotaxi en junio de 2022 podría atribuirse a que el vehículo se encontró con una nueva situación para la que carecía de entrenamiento, lo que lo hizo incapaz de tomar decisiones con certeza. El enigma del ‘qué pasaría si’ Los humanos, los modelos para AGI, no crean reglas exhaustivas para los sucesos del mundo real. Los seres humanos suelen interactuar con el mundo percibiéndolo en tiempo real, basándose en representaciones existentes para comprender la situación, el contexto y cualquier otro factor incidental que pueda influir en las decisiones. En lugar de construir reglas para cada nuevo fenómeno, reutilizamos las reglas existentes y las modificamos según sea necesario para una toma de decisiones eficaz. Por ejemplo, si está caminando por un sendero forestal y se encuentra con un objeto cilíndrico en el suelo y desea decidir su próximo paso utilizando el aprendizaje profundo, necesita recopilar información sobre las diferentes características del objeto cilíndrico, categorizarlo como potencial amenaza (una serpiente) o no amenazante (una cuerda), y actúa en base a esta clasificación. Por el contrario, un humano probablemente comenzaría a evaluar el objeto desde la distancia, actualizaría la información continuamente y optaría por una decisión sólida extraída de una “distribución” de acciones que demostraron ser efectivas en situaciones análogas anteriores. Este enfoque se centra en caracterizar acciones alternativas con respecto a los resultados deseados en lugar de predecir el futuro, una diferencia sutil pero distintiva. Lograr el AGI podría requerir alejarse de las deducciones predictivas y mejorar un inductivo «¿y si…?» capacidad cuando la predicción no es factible. ¿La toma de decisiones en condiciones de profunda incertidumbre es un camino a seguir? Los métodos de toma de decisiones bajo incertidumbre profunda (DMDU), como la toma de decisiones robusta, pueden proporcionar un marco conceptual para realizar el razonamiento AGI sobre las opciones. Los métodos DMDU analizan la vulnerabilidad de posibles decisiones alternativas en varios escenarios futuros sin requerir un reentrenamiento constante con nuevos datos. Evalúan las decisiones señalando factores críticos comunes entre aquellas acciones que no cumplen con criterios de resultados predeterminados. El objetivo es identificar decisiones que demuestren solidez: la capacidad de desempeñarse bien en diversos futuros. Si bien muchos enfoques de aprendizaje profundo priorizan soluciones optimizadas que pueden fallar cuando se enfrentan a desafíos imprevistos (como lo hicieron los sistemas de suministro optimizados justo a tiempo frente a COVID-19), los métodos DMDU valoran alternativas sólidas que pueden intercambiar la optimización por la capacidad de lograr resultados aceptables en muchos entornos. Los métodos DMDU ofrecen un valioso marco conceptual para desarrollar una IA que pueda sortear las incertidumbres del mundo real. El desarrollo de un vehículo totalmente autónomo (AV) podría demostrar la aplicación de la metodología propuesta. El desafío radica en navegar por condiciones diversas e impredecibles del mundo real, emulando así las habilidades humanas de toma de decisiones mientras se conduce. A pesar de las importantes inversiones realizadas por las empresas automotrices para aprovechar el aprendizaje profundo para lograr una autonomía total, estos modelos a menudo tienen dificultades en situaciones inciertas. Debido a la impracticabilidad de modelar todos los escenarios posibles y tener en cuenta las fallas, se están abordando desafíos imprevistos en el desarrollo antivirus. Toma de decisiones sólida Una posible solución implica adoptar un enfoque de decisión sólido. Los sensores AV recopilarían datos en tiempo real para evaluar la idoneidad de diversas decisiones (como acelerar, cambiar de carril, frenar) dentro de un escenario de tráfico específico. Si los factores críticos plantean dudas sobre la respuesta algorítmica de memoria, el sistema evalúa la vulnerabilidad de decisiones alternativas en el contexto dado. Esto reduciría la necesidad inmediata de volver a capacitarse en conjuntos de datos masivos y fomentaría la adaptación a las incertidumbres del mundo real. Un cambio de paradigma de este tipo podría mejorar el rendimiento de los AV al redirigir el enfoque de lograr predicciones perfectas a evaluar las decisiones limitadas que un AV debe tomar para su funcionamiento. El contexto de decisión hará avanzar la AGI A medida que la IA evoluciona, es posible que debamos alejarnos del paradigma del aprendizaje profundo y enfatizar la importancia del contexto de decisión para avanzar hacia la AGI. El aprendizaje profundo ha tenido éxito en muchas aplicaciones, pero tiene inconvenientes para realizar AGI. Los métodos DMDU pueden proporcionar el marco inicial para hacer pivotar el paradigma contemporáneo de la IA hacia métodos de IA sólidos y basados ​​en decisiones que puedan manejar las incertidumbres del mundo real. Swaptik Chowdhury es un Ph.D. estudiante de la Escuela de Graduados Pardee RAND e investigador asistente de políticas en RAND Corporation, una organización no partidista y sin fines de lucro. Steven Popper es economista senior adjunto de RAND Corporation y profesor de ciencias de la decisión en el Tecnológico de Monterrey. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podrías considerar contribuir con un artículo propio! Leer más de DataDecisionMakers

Source link