Ampliar / Una ilustración proporcionada por Google. El jueves, Google DeepMind anunció que los sistemas de IA llamados AlphaProof y AlphaGeometry 2 resolvieron cuatro de los seis problemas de la Olimpiada Internacional de Matemáticas (OIM) de este año, logrando una puntuación equivalente a una medalla de plata. El gigante tecnológico afirma que esta es la primera vez que una IA alcanza este nivel de rendimiento en la prestigiosa competencia de matemáticas, pero como es habitual en la IA, las afirmaciones no son tan claras como parecen. Google dice que AlphaProof usa aprendizaje de refuerzo para demostrar enunciados matemáticos en el lenguaje formal llamado Lean. El sistema se entrena a sí mismo generando y verificando millones de pruebas, abordando progresivamente problemas más difíciles. Mientras tanto, AlphaGeometry 2 se describe como una versión mejorada del anterior modelo de IA de resolución de geometría de Google, ahora impulsado por un modelo de lenguaje basado en Gemini entrenado con significativamente más datos. Según Google, los destacados matemáticos Sir Timothy Gowers y el Dr. Joseph Myers calificaron las soluciones del modelo de IA utilizando las reglas oficiales de la OIM. La compañía informa que su sistema combinado obtuvo 28 de los 42 puntos posibles, apenas por debajo del umbral de la medalla de oro de 29 puntos. Esto incluyó una puntuación perfecta en el problema más difícil de la competencia, que Google afirma que solo cinco concursantes humanos resolvieron este año. Un concurso de matemáticas como ningún otro El IMO, que se celebra anualmente desde 1959, enfrenta a matemáticos preuniversitarios de élite contra problemas excepcionalmente difíciles de álgebra, combinatoria, geometría y teoría de números. El desempeño en los problemas de IMO se ha convertido en un punto de referencia reconocido para evaluar las capacidades de razonamiento matemático de un sistema de IA. Google afirma que AlphaProof resolvió dos problemas de álgebra y un problema de teoría de números, mientras que AlphaGeometry 2 abordó la pregunta de geometría. Según se informa, el modelo de IA no logró resolver los dos problemas de combinatoria. La compañía afirma que sus sistemas resolvieron un problema en minutos, mientras que otros tardaron hasta tres días. Google dice que primero tradujo los problemas de IMO a un lenguaje matemático formal para que su modelo de IA los procesara. Este paso difiere de la competencia oficial, donde los participantes humanos trabajan directamente con los enunciados de los problemas durante dos sesiones de 4,5 horas. Google informa que antes de la competencia de este año, AlphaGeometry 2 podía resolver el 83 por ciento de los problemas de geometría históricos de la OMI de los últimos 25 años, frente al 53 por ciento de éxito de su predecesor. La compañía afirma que el nuevo sistema resolvió el problema de geometría de este año en 19 segundos después de recibir la versión formalizada. Limitaciones A pesar de las afirmaciones de Google, Sir Timothy Gowers ofreció una perspectiva más matizada sobre los modelos de Google DeepMind en un hilo publicado en X. Si bien reconoció el logro como «muy superior a lo que los demostradores automáticos de teoremas podían hacer antes», Gowers señaló varias calificaciones clave. «La calificación principal es que el programa necesitó mucho más tiempo que los competidores humanos -para algunos de los problemas más de 60 horas- y, por supuesto, una velocidad de procesamiento mucho más rápida que el pobre cerebro humano», escribió Gowers. «Si a los competidores humanos se les hubiera permitido ese tipo de tiempo por problema, sin duda habrían obtenido una puntuación más alta». Gowers también señaló que los humanos tradujeron manualmente los problemas al lenguaje formal Lean antes de que el modelo de IA comenzara a funcionar. Enfatizó que, si bien la IA realizó el razonamiento matemático central, este paso de «autoformalización» fue realizado por humanos. En cuanto a las implicaciones más amplias para la investigación matemática, Gowers expresó incertidumbre. «¿Estamos cerca del punto en que los matemáticos sean redundantes? Es difícil decirlo. Supongo que aún nos faltan uno o dos avances para eso», escribió. Sugirió que los largos tiempos de procesamiento del sistema indican que no ha «resuelto las matemáticas», pero reconoció que «claramente está sucediendo algo interesante cuando opera». Incluso con estas limitaciones, Gowers especuló que tales sistemas de IA podrían convertirse en valiosas herramientas de investigación. «Por lo tanto, podríamos estar cerca de tener un programa que permita a los matemáticos obtener respuestas a una amplia gama de preguntas, siempre que esas preguntas no sean demasiado difíciles, el tipo de cosas que uno puede hacer en un par de horas. Eso sería enormemente útil como herramienta de investigación, incluso si no fuera capaz de resolver problemas abiertos».