Hay una carrera en marcha para construir inteligencia artificial general, una visión futurista de máquinas que sean tan inteligentes como los humanos o que al menos puedan hacer muchas cosas tan bien como las personas. Lograr tal concepto, comúnmente conocido como AGI, es la misión impulsora de OpenAI, creador de ChatGPT, y una prioridad para las alas de investigación de élite de los gigantes tecnológicos Amazon, Google, Meta y Microsoft. También es motivo de preocupación para los gobiernos del mundo. Los principales científicos de IA publicaron una investigación el jueves en la revista Science advirtiendo que los agentes de IA no controlados con habilidades de «planificación a largo plazo» podrían representar un riesgo existencial para la humanidad. Pero, ¿qué es exactamente AGI y cómo sabremos cuándo se ha alcanzado? En el campo de la informática, ahora es una palabra de moda que aquellos que intentan hacerla realidad redefinen constantemente. No debe confundirse con la IA generativa, que suena similar, y que describe los sistemas de IA detrás de la cosecha de herramientas que «generan» nuevos documentos e imágenes. y sonidos: la inteligencia artificial general es una idea más nebulosa. No es un término técnico sino «un concepto serio, aunque mal definido», dijo Geoffrey Hinton, un científico pionero en IA que ha sido apodado el «padrino de la IA». «No creo que haya acuerdo sobre lo que significa el término», dijo Hinton por correo electrónico esta semana. «Lo uso para referirme a una IA que es al menos tan buena como los humanos en casi todas las cosas cognitivas que hacen los humanos». Hinton prefiere un término diferente –superinteligencia– “para los AGI que son mejores que los humanos”. Un pequeño grupo de los primeros defensores del término AGI buscaban evocar cómo los científicos informáticos de mediados del siglo XX imaginaban una máquina inteligente, antes de que la investigación en IA se ramificara en subcampos que promovían versiones especializadas y comercialmente viables de la tecnología, desde el reconocimiento facial hasta el habla. -reconociendo asistentes de voz como Siri y Alexa. La investigación convencional sobre IA «se alejó de la visión original de la inteligencia artificial, que al principio era bastante ambiciosa», dijo Pei Wang, profesor que imparte un curso AGI en la Universidad de Temple y ayudó a organizar el primera conferencia de AGI en 2008. Poner la ‘G’ en AGI fue una señal para aquellos que “todavía quieren hacer algo grande. No queremos construir herramientas. Queremos construir una máquina pensante”, afirmó Wang. Sin una definición clara, es difícil saber cuándo una empresa o un grupo de investigadores habrá alcanzado la inteligencia artificial general, o si ya lo ha hecho. «Hace veinte años, creo que la gente habría estado felizmente de acuerdo en que los sistemas con la capacidad de GPT-4 o Gemini (de Google) habían logrado una inteligencia general comparable a la de los humanos», dijo Hinton. “Ser capaz de responder más o menos a cualquier pregunta de forma sensata habría pasado la prueba. Pero ahora que la IA puede hacer eso, la gente quiere cambiar la prueba”. Las mejoras en las técnicas de IA «autoregresivas» que predicen la siguiente palabra más plausible en una secuencia, combinadas con una potencia informática masiva para entrenar esos sistemas con grandes cantidades de datos, han dado lugar a chatbots impresionantes, pero todavía no son el AGI que mucha gente tenía en mente. Llegar a AGI requiere tecnología que pueda funcionar tan bien como los humanos en una amplia variedad de tareas, incluido el razonamiento, la planificación y la capacidad de aprender de las experiencias. A algunos investigadores les gustaría llegar a un consenso sobre cómo medirlo. Es uno de los temas de un próximo taller de AGI el próximo mes en Viena, Austria, el primero en una importante conferencia de investigación de IA. «Esto realmente necesita el esfuerzo y la atención de una comunidad para que podamos acordar mutuamente algún tipo de clasificación de AGI», dijo el organizador del taller Jiaxuan You, profesor asistente de la Universidad de Illinois Urbana-Champaign. Una idea es segmentarlo en niveles de la misma manera que los fabricantes de automóviles intentan comparar el camino entre el control de crucero y los vehículos totalmente autónomos. Otros planean resolverlo por sí solos. La empresa OpenAI de San Francisco ha otorgado a su junta directiva sin fines de lucro, entre cuyos miembros se encuentra un exsecretario del Tesoro de Estados Unidos, la responsabilidad de decidir cuándo sus sistemas de inteligencia artificial han alcanzado el punto en el que “superan a los humanos en la mayoría de los trabajos económicamente valiosos”. «La junta determina cuándo hemos alcanzado el AGI», dice la propia explicación de OpenAI sobre su estructura de gobierno. Tal logro privaría al mayor socio de la compañía, Microsoft, de los derechos para comercializar dicho sistema, ya que los términos de sus acuerdos «sólo se aplican a la tecnología anterior a AGI». Hinton fue noticia mundial el año pasado cuando dejó Google y advirtió sobre los peligros existenciales de la IA. Un nuevo estudio de Science publicado el jueves podría reforzar esas preocupaciones. Su autor principal es Michael Cohen, investigador de la Universidad de California, Berkeley, que estudia el «comportamiento esperado de agentes artificiales generalmente inteligentes», en particular aquellos lo suficientemente competentes como para «presentarnos una amenaza real al planificarnos». Cohen dejó claro en una entrevista el jueves que tales agentes de planificación de IA a largo plazo aún no existen. Pero “tienen el potencial” de avanzar más a medida que las empresas tecnológicas busquen combinar la tecnología de chatbot actual con habilidades de planificación más deliberadas utilizando una técnica conocida como aprendizaje por refuerzo. “Dar a un sistema de IA avanzado el objetivo de maximizar su recompensa y, en algún momento, , retenerle la recompensa, incentiva fuertemente al sistema de IA a sacar a los humanos del circuito, si tiene la oportunidad”, según el artículo cuyos coautores incluyen a los destacados científicos de IA Yoshua Bengio y Stuart Russell y al profesor de derecho y ex asesor de OpenAI. Gillian Hadfield. «Espero que hayamos demostrado que la gente en el gobierno (necesita) empezar a pensar seriamente sobre exactamente qué regulaciones necesitamos para abordar este problema», dijo Cohen. Por ahora, «los gobiernos sólo saben lo que estas empresas deciden hacer». Dígales.» Con tanto dinero en juego en la promesa de los avances de la IA, no sorprende que AGI también se esté convirtiendo en una palabra de moda corporativa que a veces atrae un fervor casi religioso. Ha dividido parte del mundo tecnológico entre aquellos que sostienen que debe desarrollarse lenta y cuidadosamente. y otros, incluidos los capitalistas de riesgo y el rapero MC Hammer, que se han declarado parte de un campo «aceleracionista». La startup DeepMind, con sede en Londres, fundada en 2010 y ahora parte de Google, fue una de las primeras empresas en establecer explícitamente para desarrollar AGI. OpenAI hizo lo mismo en 2015 con un compromiso centrado en la seguridad. Pero ahora podría parecer que todos los demás se están subiendo al tren. El cofundador de Google, Sergey Brin, fue visto recientemente en un lugar de California llamado AGI House. Y menos de tres años después de cambiar su nombre de Facebook para centrarse en mundos virtuales, Meta Platforms reveló en enero que AGI también estaba en lo más alto de su agenda. El CEO de Meta, Mark Zuckerberg, dijo que el objetivo a largo plazo de su compañía era «construir inteligencia” que requeriría avances en el razonamiento, la planificación, la codificación y otras habilidades cognitivas. Si bien la compañía de Zuckerberg ha tenido investigadores centrados en esos temas durante mucho tiempo, su atención marcó un cambio de tono. En Amazon, una señal del nuevo mensaje fue cuando el científico jefe de la asistente de voz Alexa cambió de puesto para convertirse en científico jefe de AGI. Si bien no es tan tangible para Wall Street como la IA generativa, transmitir las ambiciones de AGI puede ayudar a reclutar talentos de IA que puedan elegir dónde quieren trabajar. Al decidir entre un “instituto de IA de la vieja escuela” o uno cuyo “objetivo es construir AGI” y que tenga recursos suficientes para hacerlo, muchos elegirían este último, dijo You, el investigador de la Universidad de Illinois. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link