Tres investigadores de Google publicaron recientemente un artículo sobre ArXiv sobre el progreso de la IA. El artículo informa que el transformador de red neuronal profunda, la tecnología subyacente en el campo de la IA, no es bueno para generalizar. Los transformadores son la base de grandes modelos de lenguaje detrás de herramientas de inteligencia artificial como ChatGPT. En el nuevo artículo, los autores Steve Yadlowsky, Lyric Doshi y Nilesh Tripuraneni escribieron: “Los transformadores exhiben varios modos de falla cuando una tarea o función requiere algo más allá del alcance de los datos previamente entrenados. El informe afirma que la IA puede encontrar difíciles de ejecutar tareas simples si están más allá de su entrenamiento. Sin embargo, los transformadores de redes neuronales profundas son buenos para realizar tareas relacionadas con datos de entrenamiento y no son muy buenos para manejar tareas más allá de este alcance. Para aquellos que esperan lograr la Inteligencia General Artificial (AGI), esta cuestión no puede ignorarse. AGI es un término utilizado por los tecnólogos para describir una IA hipotética que puede hacer cualquier cosa que un humano pueda hacer. Tal como está, la IA es muy buena para realizar tareas específicas, pero no transfiere habilidades entre dominios como lo hacen los humanos. Pedro Domingos, profesor emérito de ciencias informáticas e ingeniería de la Universidad de Washington, dijo que la nueva investigación significa que «en este momento, no deberíamos obsesionarnos demasiado con la IA que se avecina». AGI se promociona como el objetivo final de la IA. En teoría, esto representa la creación de algo tan inteligente o más inteligente que nosotros. Muchos inversores y tecnólogos están invirtiendo mucho tiempo y energía en esto. El lunes, el director ejecutivo de OpenAI, Sam Altman, subió al escenario con el director ejecutivo de Microsoft, Satya Nadella, y reiteró su visión de «colaborar para construir AGI». Aún lejos del objetivo. Lograr este objetivo significa pedirle a la IA que realice muchas de las tareas inductivas que el cerebro humano puede realizar. Esto incluye adaptarse a escenarios desconocidos, crear analogías, procesar nuevos datos y pensar de forma abstracta. Pero, como señala el artículo, si la tecnología tiene dificultades para lograr incluso “tareas simples”, entonces claramente todavía estamos lejos de la meta. El profesor de informática de la Universidad de Princeton, Arvind Narayanan, dijo que muchas personas han aceptado las limitaciones de la IA. Sin embargo, también dice “Es hora de despertar”. Jin Fan, científico senior de inteligencia artificial de NVIDIA, cuestionó por qué los hallazgos de este artículo sorprenderían a la gente porque “los transformadores no son una panacea en primer lugar”. Domingos dijo que el estudio destaca cómo «mucha gente está muy confundida» acerca del potencial de una tecnología que se ha promocionado como un camino hacia la AGI. Noticias de la semana de Gizchina Añadió: «Este es un artículo que se acaba de publicar y lo interesante es quién se sorprenderá y quién no». Si bien Domingos reconoce que los transformadores son tecnología avanzada, cree que muchas personas piensan que estas redes neuronales profundas son mucho más poderosas de lo que realmente son. “El problema es que las redes neuronales son muy opacas. Estos grandes modelos de lenguaje se entrenan con cantidades de datos inimaginablemente grandes. Esto deja a mucha gente muy confundida acerca de lo que pueden y no pueden hacer”, afirmó. «Están empezando a pensar que siempre se pueden hacer milagros». Agrega cuotas y límites Según Google, la IA tiene ciertas cuotas y límites que se le aplican. Estas cuotas restringen la cantidad de un recurso compartido de Google Cloud en particular que puede usar su proyecto de Google Cloud. Por ejemplo, los máximos del conjunto de datos de entrenamiento son 30 000 documentos y 100 000 páginas. Además, el mínimo del conjunto de datos de entrenamiento es cada etiqueta en al menos 10 documentos. Estas cuotas se aplican a cada proyecto de Google Cloud Console. También se comparten entre todas las aplicaciones y direcciones IP que utilizan ese proyecto. La aceleración de Google en el desarrollo de la IA se produce como una cacofonía de voces. Esto incluye a notables ex alumnos de la empresa y veteranos de la industria que piden que los desarrolladores de IA disminuyan la velocidad. Advierten que la tecnología se está desarrollando más rápido de lo que incluso sus inventores anticiparon. Geoffrey Hinton, uno de los pioneros de la tecnología de inteligencia artificial que se unió a Google en 2013 y recientemente dejó la compañía, desde entonces ha lanzado una campaña mediática advirtiendo sobre los peligros de que la inteligencia artificial superinteligente escape al control humano. Pichai y otros ejecutivos han comenzado a hablar cada vez más sobre la perspectiva de que la tecnología de IA iguale o supere la inteligencia humana, un concepto conocido como inteligencia artificial general o AGI. El término que alguna vez fue marginal, asociado con la idea de que la IA representa un riesgo existencial para la humanidad, es central para la misión de OpenAI y ha sido adoptado por DeepMind pero evitado por los altos mandos de Google. Limitaciones de la gobernanza de la IA Existen límites técnicos en cuanto a lo que actualmente es factible para los sistemas complejos de IA. Con suficiente tiempo y experiencia, normalmente es posible obtener una idea de cómo funcionan los sistemas complejos. Sin embargo, en la práctica, hacerlo rara vez será económicamente viable a escala. Además, los requisitos estrictos pueden bloquear inadvertidamente la adopción de sistemas de inteligencia artificial. Desde una perspectiva de gobernanza, la IA plantea un desafío único tanto en la formulación como en el cumplimiento de regulaciones y normas. Por último, simplemente existe una sensación cada vez mayor de que ha llegado el momento de adoptar un enfoque más coherente en la supervisión de la IA. Dada la cultura de investigación abierta en el campo de la IA, es necesario un enfoque integral para la gobernanza de la IA. Esto es más necesario debido a los componentes funcionales más altos y al creciente número de aplicaciones de inteligencia artificial. Palabras finales La IA ha logrado avances significativos en los últimos años, pero aún no está lista para superar a los humanos. Todavía existen muchas limitaciones para la IA, incluidas cuotas y límites, limitaciones de las explicaciones de la IA y limitaciones de la gobernanza de la IA. A medida que la IA continúa desarrollándose, es importante tener en cuenta estas limitaciones.

Source link