Cuando Elon Musk demandó a OpenAI y a su director ejecutivo, Sam Altman, por incumplimiento de contrato el jueves, convirtió en un arma las reclamaciones del socio más cercano de la startup, Microsoft. Citó repetidamente un artículo polémico pero muy influyente escrito por investigadores y altos ejecutivos de Microsoft sobre el poder de GPT-4, el innovador sistema de inteligencia artificial que OpenAI lanzó en marzo pasado. En el artículo «Sparks of AGI», el laboratorio de investigación de Microsoft dijo que, aunque no entendía cómo, GPT-4 había demostrado «chispas» de «inteligencia general artificial» o AGI, una máquina que puede hacer todo lo que el cerebro humano puede hacer. Fue una afirmación audaz y se produjo cuando las empresas de tecnología más grandes del mundo se apresuraban a introducir la IA en sus propios productos. .Señor. Musk está volviendo el documento contra OpenAI, diciendo que muestra cómo OpenAI dio marcha atrás en sus compromisos de no comercializar productos verdaderamente poderosos. Microsoft y OpenAI se negaron a comentar sobre la demanda. (El New York Times ha demandado a ambas empresas, alegando infracción de derechos de autor en el entrenamiento de GPT-4.) Musk no respondió a una solicitud de comentarios. ¿Cómo surgió el trabajo de investigación? Un equipo de investigadores de Microsoft, dirigido Sébastien Bubeck, un expatriado francés de 38 años y exprofesor de Princeton, comenzó a probar una versión inicial de GPT-4 en el otoño de 2022, meses antes de que la tecnología se lanzara al público. Microsoft ha comprometido 13 mil millones de dólares para OpenAI y ha negociado acceso exclusivo a las tecnologías subyacentes que impulsan sus sistemas de IA. Mientras conversaban con el sistema, quedaron asombrados. Escribió una prueba matemática compleja en forma de poema, generó un código de computadora que podría dibujar un unicornio y explicó la mejor manera de apilar una colección aleatoria y ecléctica de artículos para el hogar. El Dr. Bubeck y sus colegas investigadores comenzaron a preguntarse si estaban presenciando una nueva forma de inteligencia. «Comencé siendo muy escéptico, y eso evolucionó hacia una sensación de frustración, molestia y tal vez incluso miedo», dijo Peter Lee, director de Microsoft. de investigación. “Uno piensa: ¿De dónde diablos viene esto?” ¿Qué papel juega el papel en el traje de Musk? Musk argumentó que OpenAI había incumplido su contrato porque había acordado no comercializar ningún producto que su junta directiva hubiera considerado AGI. «GPT-4 es un algoritmo AGI», escribieron los abogados de Musk. Dijeron que eso significaba que el sistema nunca debería haber tenido licencia para Microsoft. La denuncia de Musk citó repetidamente el artículo de Sparks para argumentar que GPT-4 era AGI. Sus abogados dijeron: «Los propios científicos de Microsoft reconocen que GPT-4 ‘alcanza una forma de inteligencia general'», y dada «la amplitud y profundidad de las capacidades de GPT-4». , creemos que podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia general artificial (AGI). ¿Cómo fue recibido? El artículo ha tenido una enorme influencia desde que se publicó una semana después del GPT-4. fue lanzado.Thomas Wolf, cofundador de la destacada empresa de inteligencia artificial Hugging Face, escribió en X al día siguiente que el estudio «tenía ejemplos completamente alucinantes» de GPT-4. Desde entonces, la investigación de Microsoft ha sido citada por más de 1.500 otros artículos, según Google Scholar. Es uno de los artículos sobre IA más citados en los últimos cinco años, según Semantic Scholar. También ha enfrentado críticas de expertos, incluidos algunos dentro de Microsoft, quienes estaban preocupados de que el documento de 155 páginas que respaldaba la afirmación careciera de rigor y alimentara una Frenesí de marketing de IA. El documento no fue revisado por pares y sus resultados no se pueden reproducir porque se realizó en versiones anteriores de GPT-4 que estaban estrechamente custodiadas en Microsoft y OpenAI. Como señalaron los autores en el artículo, no utilizaron la versión GPT-4 que luego se lanzó al público, por lo que cualquier otra persona que replicara los experimentos obtendría resultados diferentes. Algunos expertos externos dijeron que no estaba claro si GPT-4 y similares los sistemas exhibían un comportamiento que era algo así como el razonamiento humano o el sentido común. “Cuando vemos un sistema o una máquina complicados, lo antropomorfizamos; todo el mundo hace eso: la gente que trabaja en este campo y la gente que no”, dijo Alison Gopnik, profesora de la Universidad de California, Berkeley. «Pero pensar en esto como una comparación constante entre la IA y los humanos, como una especie de competencia de programa de juegos, simplemente no es la forma correcta de pensar en ello». ¿Hubo otras quejas? En la introducción del artículo, los autores inicialmente definieron «inteligencia». ” al citar un artículo de opinión del Wall Street Journal de hace 30 años que, al defender un concepto llamado Curva de Bell, afirmaba que “los judíos y los asiáticos orientales” tenían más probabilidades de tener coeficientes intelectuales más altos que los “negros e hispanos”. Lee, que figura como autor del artículo, dijo en una entrevista el año pasado que cuando los investigadores buscaban definir AGI, «lo tomamos de Wikipedia». Dijo que cuando más tarde se enteraron de la conexión de Bell Curve, «nos sentimos realmente mortificados por eso e hicimos el cambio de inmediato». Eric Horvitz, científico jefe de Microsoft, quien fue uno de los principales contribuyentes al artículo, escribió en un correo electrónico que recibió personalmente. responsabilidad de insertar la referencia, diciendo que había visto una referencia a ella en un artículo de un cofundador del laboratorio de inteligencia artificial DeepMind de Google y que no había notado las referencias racistas. Cuando se enteraron de esto, a través de una publicación en X, «nos horrorizamos porque simplemente buscábamos una definición razonablemente amplia de inteligencia por parte de los psicólogos», dijo. ¿Es esto AGI o no? Cuando los investigadores de Microsoft escribieron inicialmente el artículo, lo llamaron «Primer contacto con un sistema AGI». Pero algunos miembros del equipo, incluido el Dr. Horvitz, no estuvieron de acuerdo con la caracterización. Más tarde le dijo a The Times que no estaban viendo algo que él “llamaría ‘inteligencia general artificial’, sino más bien destellos a través de sondas y resultados sorprendentemente poderosos en ocasiones. «GPT-4 está lejos de hacer todo lo que el cerebro humano puede hacer. En un mensaje enviado a los empleados de OpenAI el viernes por la tarde y que fue visto por The Times, el director de estrategia de OpenAI, Jason Kwon, dijo explícitamente que GPT-4 no era AGI». Es capaz de resolver pequeñas tareas en muchos trabajos, pero la proporción entre el trabajo realizado por un humano y el trabajo realizado por GPT-4 en la economía sigue siendo asombrosamente alta”, escribió. «Es importante destacar que un AGI será un sistema altamente autónomo capaz de idear soluciones novedosas para desafíos de larga data; el GPT-4 no puede hacer eso». Aún así, el artículo alimentó las afirmaciones de algunos investigadores y expertos de que el GPT-4 representaba un paso significativo. hacia AGI y que empresas como Microsoft y OpenAI continuarían mejorando las habilidades de razonamiento de la tecnología. El campo de la IA todavía está amargamente dividido sobre cuán inteligente es la tecnología hoy o será en el corto plazo. Si Musk se sale con la suya, un jurado puede resolver el argumento.

Source link