Nvidia ha anunciado un aumento del 154% en los ingresos de su negocio de centros de datos en el segundo trimestre de 2025, en comparación con el mismo período del año anterior, generando 26.300 millones de dólares. En general, la empresa registró lo que dijo fueron «ingresos trimestrales récord» de 30.000 millones de dólares, un 15% más que en el primer trimestre y un 122% más que hace un año. El fundador y director ejecutivo de Nvidia, Jensen Huang, dijo que los resultados mostraron que los operadores de centros de datos estaban haciendo la transición a la computación acelerada. «Nvidia logró ingresos récord mientras los centros de datos globales están a toda máquina para modernizar toda la pila informática con computación acelerada e IA generativa». [artificial intelligence]”, dijo. Los comentarios preparados que acompañan a los resultados financieros muestran que las cifras de los centros de datos de Nvidia fueron impulsadas por la demanda de su plataforma informática de unidad de procesamiento gráfico (GPU) Hopper, que se utiliza para la formación y la inferencia en grandes modelos de lenguaje, motores de recomendación y aplicaciones de IA generativa (GenAI). La empresa dijo que el crecimiento secuencial fue impulsado por las empresas de Internet para el consumidor y las empresas. Los resultados también muestran una división aproximadamente pareja entre el gasto de los proveedores de servicios en la nube (45%) y las inversiones en tecnología realizadas por las empresas de Internet para el consumidor y las empresas (50%). El crecimiento restante en el negocio de centros de datos de Nvidia provino de sus productos de red, que vieron un aumento secuencial de los ingresos del 16%. Según una transcripción de la conferencia sobre ganancias, publicada en Seeking Alpha, cuando se le preguntó a Huang sobre cómo los operadores de centros de datos justificaban el retorno de la inversión en servidores con GPU, basados ​​en la tecnología de Nvidia, describió una transición de la informática de propósito general a la informática acelerada. “Se sabe que el escalado de la CPU se está desacelerando desde hace algún tiempo. Se está desacelerando a paso de tortuga”, dijo. “Sin embargo, la demanda de computación sigue creciendo de manera significativa. Tal vez incluso se podría estimar que se duplica cada año, por lo que, si no tenemos un nuevo enfoque, la inflación de la computación estaría aumentando el costo para todas las empresas y estaría aumentando el consumo de energía de los centros de datos en todo el mundo”. Durante el año pasado, Huang ha estado impulsando la idea de la computación acelerada, impulsada por las GPU de los centros de datos. “No es inusual ver a alguien ahorrar el 90% de su costo de computación. Y la razón de eso es, por supuesto, que acabas de acelerar una aplicación 50 veces, [so] “Se esperaría que el coste de la computación disminuyera de manera bastante significativa”, dijo. Debido a la necesidad de satisfacer una mayor demanda de computación, Huang predijo que cada centro de datos incorporaría tecnología GPU. “El mundo construye centros de datos por un valor de aproximadamente 1 billón de dólares; en unos pocos años, 1 billón de dólares de centros de datos serán todos computación acelerada”. Huang apuesta a que su visión de acelerar las cargas de trabajo con GPU de Nvidia ofrecerá a los operadores de centros de datos una forma de aumentar la potencia computacional en sus centros de datos de una manera sostenible y, al mismo tiempo, reducir el coste de la computación, evitando lo que él llama “inflación computacional”. Afirmó que un centro de datos refrigerado por líquido ofrece entre tres y cinco veces el rendimiento de la IA en comparación con el pasado: “La refrigeración por líquido es más barata y te permite tener el beneficio de esta capacidad que llamamos NVLink, que nos permite ampliarla a 72 paquetes Grace Blackwell, que esencialmente tienen 144 GPU”.