Agrandar / La GPU Nvidia H200 cubierta con una extravagante explosión azul que, en sentido figurado, representa la potencia informática bruta que estalla en una ráfaga brillante. Nvidia | Benj Edwards El lunes, Nvidia anunció la GPU HGX H200 Tensor Core, que utiliza la arquitectura Hopper para acelerar las aplicaciones de inteligencia artificial. Es una continuación de la GPU H100, lanzada el año pasado y anteriormente el chip GPU AI más potente de Nvidia. Si se implementa ampliamente, podría conducir a modelos de IA mucho más potentes (y tiempos de respuesta más rápidos para los existentes como ChatGPT) en un futuro próximo. Según los expertos, la falta de potencia informática (a menudo llamada «computación») ha sido un importante obstáculo para el progreso de la IA el año pasado, obstaculizando la implementación de modelos de IA existentes y ralentizando el desarrollo de otros nuevos. La escasez de GPU potentes que aceleren los modelos de IA es en gran parte la culpable. Una forma de aliviar el cuello de botella informático es fabricar más chips, pero también se pueden hacer que los chips de IA sean más potentes. Ese segundo enfoque puede hacer que el H200 sea un producto atractivo para los proveedores de nube. ¿Para qué sirve el H200? A pesar de la «G» en el nombre «GPU», las GPU de centros de datos como esta normalmente no son para gráficos. Las GPU son ideales para aplicaciones de IA porque realizan una gran cantidad de multiplicaciones de matrices paralelas, que son necesarias para que funcionen las redes neuronales. Son esenciales en la parte de entrenamiento de la construcción de un modelo de IA y en la parte de «inferencia», donde las personas introducen entradas en un modelo de IA y este arroja resultados. «Para crear inteligencia con aplicaciones generativas de IA y HPC, se deben procesar de manera eficiente grandes cantidades de datos a alta velocidad utilizando una memoria GPU grande y rápida», dijo Ian Buck, vicepresidente de hiperescala y HPC de Nvidia en un comunicado de prensa. «Con Nvidia H200, la plataforma de supercomputación de IA de extremo a extremo líder de la industria ahora es más rápida para resolver algunos de los desafíos más importantes del mundo». Por ejemplo, OpenAI ha dicho repetidamente que tiene pocos recursos de GPU y eso provoca ralentizaciones con ChatGPT. La empresa debe confiar en la limitación de tarifas para proporcionar cualquier servicio. Hipotéticamente, el uso del H200 podría dar a los modelos de lenguaje de IA existentes que ejecutan ChatGPT más espacio para atender a más clientes. Anuncio 4,8 terabytes/segundo de ancho de banda Ampliar / La GPU Nvidia H200.Nvidia Según Nvidia, la H200 es la primera GPU que ofrece memoria HBM3e. Gracias a HBM3e, la H200 ofrece 141 GB de memoria y 4,8 terabytes por segundo de ancho de banda, que según Nvidia es 2,4 veces el ancho de banda de memoria de la Nvidia A100 lanzada en 2020. (A pesar de la antigüedad de la A100, todavía tiene una gran demanda debido a la escasez de más chips potentes.) Nvidia hará que el H200 esté disponible en varios factores de forma. Esto incluye placas de servidor Nvidia HGX H200 en configuraciones de cuatro y ocho vías, compatibles tanto con el hardware como con el software de los sistemas HGX H100. También estará disponible en el Superchip Nvidia GH200 Grace Hopper, que combina una CPU y una GPU en un solo paquete para brindar aún más empuje a la IA (ese es un término técnico). Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán los primeros proveedores de servicios en la nube en implementar instancias basadas en H200 a partir del próximo año, y Nvidia dice que el H200 estará disponible «de fabricantes de sistemas globales y proveedores de servicios en la nube» a partir de en el segundo trimestre de 2024. Mientras tanto, Nvidia ha estado jugando al gato y al ratón con el gobierno de EE. UU. sobre las restricciones a la exportación de sus potentes GPU que limitan las ventas a China. El año pasado, el Departamento de Comercio de Estados Unidos anunció restricciones destinadas a «mantener las tecnologías avanzadas fuera de manos equivocadas», como China y Rusia. Nvidia respondió creando nuevos chips para sortear esas barreras, pero Estados Unidos también los prohibió recientemente. La semana pasada, Reuters informó que Nvidia está nuevamente en eso, presentando tres nuevos chips AI reducidos (HGX H20, L20 PCIe y L2 PCIe) para el mercado chino, lo que representa una cuarta parte de los ingresos por chips de centros de datos de Nvidia. Dos de los chips están por debajo de las restricciones estadounidenses y un tercero se encuentra en una «zona gris» que podría estar permitida con una licencia. Espere ver más movimientos de ida y vuelta entre EE. UU. y Nvidia en los próximos meses.

Source link