Nvidia continúa aprovechando la ola de la IA, ya que la compañía ve una demanda sin precedentes de sus últimos procesadores GPU Blackwell de próxima generación. El suministro para los próximos 12 meses está agotado, dijo el director general de Nvidia, Jensen Huang, a los analistas de Morgan Stanley durante una reunión de inversores. Una situación similar ocurrió con las GPU Hopper hace varios trimestres, señaló Joe Moore, analista de Morgan Stanley. Los clientes tradicionales de Nvidia están impulsando la abrumadora demanda de GPU Blackwell, incluidos los principales gigantes tecnológicos como AWS, Google, Meta, Microsoft, Oracle y CoreWeave. Estas empresas ya han comprado todas las GPU Blackwell que Nvidia y su socio de fabricación TSMC puedan producir durante los próximos cuatro trimestres. La demanda excesivamente alta parece solidificar el crecimiento continuo de la ya formidable huella de Nvidia en el mercado de procesadores de IA, incluso con la competencia de rivales como AMD, Intel y varios proveedores más pequeños de servicios en la nube. «Nuestra opinión sigue siendo que es probable que Nvidia gane participación en los procesadores de IA en 2025, ya que los mayores usuarios de silicio personalizado verán rampas muy pronunciadas con las soluciones de Nvidia el próximo año», dijo Moore en una nota al cliente, según TechSpot. «Todo lo que escuchamos esta semana reforzó eso». La noticia llega meses después de que Gartner predijera que los ingresos por chips de IA se dispararían en 2024. Más cobertura de IA de lectura obligada Diseñado para implementaciones de IA a gran escala, Nvidia presentó la plataforma GPU Blackwell en marzo, elogiando su capacidad para “desbloquear avances en procesamiento de datos, ingeniería simulación, automatización del diseño electrónico, diseño de fármacos asistido por computadora, computación cuántica e inteligencia artificial generativa: todas ellas oportunidades emergentes para Nvidia”. El Blackwell incluye la GPU B200 Tensor Core y el “superchip” GB200 Grace. Estos procesadores están diseñados para manejar las exigentes cargas de trabajo de la inferencia de modelos de lenguaje grande (LLM) al tiempo que reducen significativamente el consumo de energía, una preocupación creciente en la industria. En el momento de su lanzamiento, Nvidia dijo que la arquitectura Blackwell agrega capacidades a nivel de chip para aprovechar el mantenimiento preventivo basado en inteligencia artificial para ejecutar diagnósticos y pronosticar problemas de confiabilidad. «Esto maximiza el tiempo de actividad del sistema y mejora la resiliencia para que las implementaciones de IA a gran escala funcionen ininterrumpidamente durante semanas o incluso meses seguidos y reduzcan los costos operativos», dijo la compañía en marzo. VER: AMD revela una flota de chips para cargas de trabajo pesadas de IA Los problemas de memoria siguen siendo una pregunta. Nvidia resolvió los problemas de empaquetado que enfrentó inicialmente con las GPU B100 y B200, lo que permitió a la empresa y a TSMC aumentar la producción. Tanto B100 como B200 utilizan el paquete CoWoS-L de TSMC, y todavía hay dudas sobre si el mayor fabricante de chips del mundo tiene suficiente capacidad CoWoS-L. También queda por ver si los fabricantes de memorias pueden suministrar suficiente memoria HBM3E para GPU de vanguardia como Blackwell, ya que la demanda de GPU con IA se está disparando. En particular, Nvidia aún no ha calificado la memoria HBM3E de Samsung para sus GPU Blackwell, otro factor que influye en la oferta. Nvidia reconoció en agosto que sus productos basados ​​en Blackwell estaban experimentando bajos rendimientos y necesitarían volver a girar algunas capas del procesador B200 para mejorar la eficiencia de la producción. A pesar de estos desafíos, Nvidia parecía confiar en su capacidad para impulsar la producción de Blackwell en el cuarto trimestre de 2024. Espera enviar GPU Blackwell por valor de varios miles de millones de dólares en el último trimestre de este año. La arquitectura Blackwell puede ser la arquitectura más compleja jamás construida para IA. Supera las demandas de los modelos actuales y prepara la infraestructura, la ingeniería y la plataforma que las organizaciones necesitarán para manejar los parámetros y el rendimiento de un LLM. Nvidia no sólo está trabajando en el procesamiento informático para satisfacer las demandas de estos nuevos modelos, sino que también se está concentrando en las tres mayores barreras que limitan la IA en la actualidad: el consumo de energía, la latencia y la precisión. Según la empresa, la arquitectura Blackwell está diseñada para ofrecer un rendimiento sin precedentes con una mejor eficiencia energética. Nvidia informó que los ingresos del centro de datos en el segundo trimestre fueron de 26.300 millones de dólares, un 154 por ciento más que en el mismo trimestre del año anterior.