El modelado del clima y el tiempo ha sido durante mucho tiempo un elemento básico de la computación de alto rendimiento, pero a medida que los meteorólogos buscan mejorar la velocidad y la resolución de los pronósticos, el aprendizaje automático se está abriendo camino cada vez más en la mezcla. En un artículo publicado en la revista Nature esta semana, un equipo de Google y el Centro Europeo de Pronósticos Meteorológicos a Plazo Medio (ECMWF) detalló un enfoque novedoso que utiliza el aprendizaje automático para superar las limitaciones de los modelos climáticos existentes e intentar generar pronósticos más rápido y con mayor precisión que los métodos existentes. El modelo, denominado NeuralGCM, se desarrolló utilizando datos meteorológicos históricos recopilados por el ECMWF y utiliza redes neuronales para aumentar las simulaciones físicas de estilo HPC más tradicionales. Como escribió Stephan Hoyer, uno de los miembros del equipo detrás de NeuralGCM en un informe reciente, la mayoría de los modelos climáticos actuales hacen predicciones dividiendo el globo en cubos de 50 a 100 kilómetros de lado y luego simulando cómo se mueven el aire y la humedad dentro de ellos basándose en leyes conocidas de la física. NeuralGCM funciona de manera similar, pero el aprendizaje automático adicional se utiliza para rastrear procesos climáticos que no necesariamente se comprenden tan bien o que ocurren a escalas más pequeñas. «Muchos procesos climáticos importantes, incluidas las nubes y la precisión, varían en escalas mucho más pequeñas (de milímetros a kilómetros) que las dimensiones del cubo utilizadas en los modelos actuales y, por lo tanto, no se pueden calcular en función de la física», escribió Hoyer. Tradicionalmente, estos fenómenos de menor escala se han rastreado utilizando una serie de modelos secundarios más simples, llamados parametrizaciones, explicó Hoyer. Señaló que, además del problema, «estas aproximaciones simplificadas limitan inherentemente la precisión de los modelos climáticos basados ​​en la física». En otras palabras, esas parametrizaciones no siempre son las más confiables y pueden degradar la precisión general del modelo. NeuralGCM funciona intercambiando estas parametrizaciones por una red neuronal. Se entrenaron tres modelos con datos meteorológicos existentes recopilados por ECMWF entre 1979 y 2019 con 0,7, 1,4 y 2,8 grados de resolución. Según el artículo, los resultados son muy prometedores. Utilizando el marco WeatherBench2 de Google, el equipo afirma que NeuralGCM pudo alcanzar la paridad con los modelos de pronóstico de última generación existentes hasta cinco días con una resolución de 0,7 grados, mientras que, con 1,4 grados de resolución, los pronósticos para cinco a 15 días fueron aún más precisos. Mientras tanto, a 2,8 grados, el equipo descubrió que el modelo podía predecir la temperatura global promedio entre 1980 y 2020 con una tasa de error promedio, un tercio de la de los modelos atmosféricos existentes. NeuralGCM también demostró ser bastante competitivo frente a modelos más específicos como X-SHiELD, que, según explicó Hoyer, ofrece una resolución mucho mayor a costa de ser más intensivo en términos computacionales. Frente a X-SHiELD, los científicos descubrieron que el modelo de 1,4 grados de NeuralGCM podía predecir la humedad y las temperaturas a partir de 2020 con un 15-20 por ciento menos de errores. Durante esa misma prueba, pudieron pronosticar patrones de ciclones tropicales que coincidían con el número y la intensidad de los observados ese año. Aceleración de la previsión El equipo no se limitó a sustituir estas parametrizaciones por redes neuronales. La totalidad de NeuralGCM se escribió en Google JAX, un marco de aprendizaje automático para transformar funciones numéricas para su uso en Python. Según Hoyer, pasar a JAX tuvo una serie de beneficios, incluida una mayor estabilidad numérica durante el entrenamiento y la capacidad de ejecutar el modelo en TPU o GPU. En contraste, los modelos meteorológicos se han ejecutado tradicionalmente en CPU, aunque las GPU se utilizan cada vez más; abordaremos este tema un poco más adelante. Debido a que NeuralGCM se ejecuta de forma nativa en aceleradores, Google afirma que su sistema es órdenes de magnitud más rápido y más económico de ejecutar. «Nuestro modelo de 1,4 grados es más de 3.500 veces más rápido que X-SHiELD, lo que significa que si los investigadores simularan la atmósfera durante un año con X-SHiELD, les llevaría 20 días en comparación con solo ocho minutos con NeuralGCM», escribió Hoyer. Además, Hoyer afirma que la simulación se puede realizar en una única TPU en lugar de las 13.000 CPU necesarias para ejecutar X-SHiELD, e incluso se podría ejecutar NeuralGCM en un ordenador portátil si se quiere. Aunque es prometedor, es importante señalar que NeuralGCM es solo un punto de partida, y Hoyer admite libremente que no es un modelo climático completo. Sin embargo, ese parece ser el objetivo a largo plazo. «Esperamos incluir en el futuro otros aspectos del sistema climático de la Tierra, como los océanos y el ciclo del carbono, en el modelo. Al hacerlo, permitiremos que NeuralGCM haga predicciones en escalas de tiempo más largas, yendo más allá de predecir el tiempo en días y semanas para hacer pronósticos en escalas de tiempo climáticas», escribió Hoyer. Para apoyar estos esfuerzos, el código fuente y los pesos del modelo se han publicado en GitHub bajo una licencia no comercial. Los meteorólogos aficionados pueden divertirse un poco con él. El aprendizaje automático gana impulso en el modelado climático Esta no es la primera vez que vemos el uso del aprendizaje automático en el modelado climático. El modelo climático Earth-2 de Nvidia es otro ejemplo de cómo la IA y la HPC se pueden combinar no solo para mejorar la precisión de los pronósticos, sino también para acelerarlos. Anunciado en GTC esta primavera, Earth-2 es esencialmente un gemelo digital masivo diseñado para usar una combinación de modelos HPC e IA para generar simulaciones de alta resolución de hasta dos kilómetros. Esto es posible en parte gracias a un modelo llamado CorrDiff, un modelo de difusión que, según Nvidia, puede generar imágenes de patrones climáticos con una resolución 12,5 veces mayor y hasta 1000 veces más rápido que otros modelos numéricos. El resultado es un modelo que es lo suficientemente rápido y preciso como para despertar el interés de Taiwán, que está considerando la plataforma para mejorar sus pronósticos de tifones. Mientras tanto, más centros de investigación climática han comenzado a adoptar sistemas acelerados por GPU. La investigación climática es una de las diversas áreas de estudio a las que se dirige el sistema Isambard-AI de 200 petaFLOP (FP64) que se está implementando en la Universidad de Bristol. A principios de este año, el Centro Euromediterráneo sobre el Cambio Climático en Lecce, Italia, eligió a Lenovo para su nuevo Cassandra super, que estará equipado con CPU Xeon Max de Intel y un pequeño complemento de GPU Nvidia H100, que el laboratorio pretende utilizar ejecutando una variedad de simulaciones climáticas basadas en IA. ®