Edgar Cervantes / Android AuthorityTodo tiene un costo, y la IA no es diferente. Si bien ChatGPT y Gemini pueden usarse de forma gratuita, requieren una cantidad asombrosa de potencia computacional para funcionar. Y si eso no fuera suficiente, las grandes tecnológicas están actualmente enfrascadas en una carrera armamentista para construir modelos más grandes y mejores como GPT-5. Los críticos argumentan que esta creciente demanda de hardware potente (y de alto consumo de energía) tendrá un impacto devastador en el cambio climático. Entonces, ¿cuánta energía usa una IA como ChatGPT y qué significa este uso de electricidad desde una perspectiva ambiental? Vamos a desglosarlo. Consumo de energía de ChatGPT: ¿Cuánta electricidad necesita la IA? Calvin Wankhede / Android Authority El antiguo modelo de lenguaje grande GPT-3 de OpenAI requería poco menos de 1300 megavatios hora (MWh) de electricidad para entrenarse, lo que equivale al consumo anual de energía de unos 120 hogares estadounidenses. Para dar un poco de contexto, un hogar estadounidense promedio consume poco más de 10 000 kilovatios hora cada año. Pero eso no es todo: los modelos de IA también necesitan potencia de cálculo para procesar cada consulta, lo que se conoce como inferencia. Y para lograrlo, se necesitan muchos servidores potentes repartidos en miles de centros de datos en todo el mundo. En el corazón de estos servidores se encuentran normalmente los chips H100 de NVIDIA, que consumen 700 vatios cada uno y se instalan por cientos. Las estimaciones varían enormemente, pero la mayoría de los investigadores coinciden en que ChatGPT por sí solo requiere unos pocos cientos de MWh cada día. Esa es suficiente electricidad para abastecer a miles de hogares estadounidenses, y tal vez incluso a decenas de miles, al año. Dado que ChatGPT ya no es el único actor de la IA generativa, es lógico que su uso no haga más que crecer a partir de ahora. La IA podría utilizar el 0,5% del consumo eléctrico mundial en 2027. Un artículo publicado en 2023 intenta calcular cuánta electricidad consumirá la industria de la IA generativa en los próximos años. Su autor, Alex de Vries, estima que el líder del mercado, NVIDIA, enviará hasta 1,5 millones de unidades de servidores de IA para 2027. Eso daría como resultado que los servidores de IA utilicen entre 85,4 y 134 teravatios hora (TWh) de electricidad cada año, más que el consumo anual de energía de países más pequeños como los Países Bajos, Bangladesh y Suecia. Si bien estas son cifras ciertamente alarmantes, vale la pena señalar que la producción total de electricidad mundial fue de casi 29.000 TWh hace solo un par de años. En otras palabras, los servidores de IA representarían aproximadamente el medio por ciento del consumo de energía mundial para 2027. ¿Sigue siendo mucho? Sí, pero debe juzgarse con cierto contexto. El caso del consumo de electricidad de la IA La IA puede consumir suficiente electricidad para igualar la producción de naciones más pequeñas, pero no es la única industria que lo hace. De hecho, los centros de datos que alimentan el resto de Internet consumen mucho más que los dedicados a la IA y la demanda en ese frente ha estado creciendo independientemente de nuevos lanzamientos como ChatGPT. Según la Agencia Internacional de la Energía, todos los centros de datos del mundo consumen hoy 460 TWh. Sin embargo, la tendencia ha ido aumentando considerablemente desde que terminó la Gran Recesión en 2009 (la IA no tuvo ningún papel que desempeñar en esto hasta finales de 2022). Incluso si consideramos el peor escenario del investigador desde arriba y asumimos que los servidores de IA representarán 134 TWh de electricidad, palidecerá en comparación con el consumo general de los centros de datos del mundo. Solo Netflix utilizó suficiente electricidad para abastecer a 40.000 hogares estadounidenses en 2019, y esa cifra ciertamente ha aumentado desde entonces, pero no se ve a nadie clamando por terminar con el streaming por Internet en su conjunto. Los aires acondicionados representan un enorme 10% del consumo mundial de electricidad, o 20 veces más que la peor estimación de consumo de IA para 2027. El uso de electricidad de la IA palidece en comparación con el de los centros de datos globales en su conjunto. El consumo de electricidad de la IA también se puede comparar con la controversia en torno al uso de energía de Bitcoin. Al igual que la IA, Bitcoin enfrentó duras críticas por su alto consumo de electricidad, y muchos lo etiquetaron como una amenaza ambiental grave. Sin embargo, los incentivos financieros de la minería han impulsado su adopción en regiones con fuentes de energía más baratas y renovables. Esto solo es posible debido a la abundancia de electricidad en dichas regiones, donde de lo contrario podría estar infrautilizada o incluso desperdiciada. Todo esto significa que realmente deberíamos preguntarnos sobre la huella de carbono de la IA, y no solo centrarnos en las cifras brutas de consumo de electricidad. La buena noticia es que, al igual que las operaciones de minería de criptomonedas, los centros de datos a menudo se construyen estratégicamente en regiones donde la electricidad es abundante o más barata de producir. Es por eso que alquilar un servidor en Singapur es significativamente más barato que en Chicago. Google tiene como objetivo operar todos sus centros de datos con energía libre de carbono las 24 horas del día, los 7 días de la semana para 2030. Y según el informe ambiental de 2024 de la compañía, el 64% del uso de electricidad de sus centros de datos ya proviene de fuentes de energía libres de carbono. Microsoft se ha fijado un objetivo similar y sus centros de datos de Azure impulsan ChatGPT. Aumento de la eficiencia: ¿podría la demanda de electricidad de la IA estancarse? Robert Triggs / Android Authority A medida que la tecnología de IA generativa continúa evolucionando, las empresas también han estado desarrollando modelos más pequeños y eficientes. Desde el lanzamiento de ChatGPT a fines de 2022, hemos visto una gran cantidad de modelos que priorizan la eficiencia sin sacrificar el rendimiento. Algunos de estos modelos de IA más nuevos pueden ofrecer resultados comparables a los de sus predecesores más grandes de hace solo unos meses. Por ejemplo, el reciente GPT-4o mini de OpenAI es significativamente más barato que el GPT-3 Turbo al que reemplaza. La empresa no ha divulgado cifras de eficiencia, pero la reducción del orden de magnitud en los costos de API indica una gran reducción en los costos de cómputo (y, por lo tanto, en el consumo de electricidad). También hemos visto un impulso para el procesamiento en el dispositivo para tareas como el resumen y la traducción que se pueden lograr con modelos más pequeños. Si bien se podría argumentar que la inclusión de nuevas suites de software como Galaxy AI todavía resulta en un mayor consumo de energía en el dispositivo en sí, la compensación puede compensarse con las ganancias de productividad que permite. Yo, por mi parte, cambiaría gustosamente una vida útil de batería ligeramente inferior por la capacidad de obtener una traducción en tiempo real en cualquier parte del mundo. La mera comodidad puede hacer que el modesto aumento en el consumo de energía valga la pena para muchos otros. Sin embargo, no todos ven la IA como un desarrollo necesario o beneficioso. Para algunos, cualquier uso adicional de energía se considera innecesario o un derroche, y ninguna cantidad de aumento de la eficiencia puede cambiar eso. Solo el tiempo dirá si la IA es un mal necesario, similar a muchas otras tecnologías en nuestras vidas, o si es simplemente un desperdicio de electricidad. Comentarios