Se han filtrado algunas de las especificaciones clave de las GPU con núcleo Blackwell Tensor de NVIDIA. Según @XpeaGPU, la B100 contará con dos matrices empaquetadas con CoWoS-L, lo que la convierte en la primera GPU NVIDIA modular (basada en chiplets). La GPU estará rodeada por 8 pilas HBM3e (8-Hi), que ofrecen 192 GB de memoria de gran ancho de banda. Su predecesor, el H100, ofrece 80 GB de memoria HBM3 distribuida en 5 pilas utilizando 10 controladores de memoria de 512 bits cada una. Calculo que el B100 utilizará de 12 a 13 controladores de memoria de 512 bits para conectar las 8 pilas HBM3e. El B200, cuyo lanzamiento está previsto para el próximo año, supuestamente aumentará la memoria gráfica a 288 GB utilizando pilas HBM3e de 12 Hi. El bus de memoria y el número de paquetes HBM deberían permanecer sin cambios en 13x 512 bits y 8, respectivamente. No se proporciona mucha información sobre la GPU (núcleos, SM, GPC). El uso de CoWoS-L para dos matrices gráficas implica un aumento masivo en la densidad del sombreador. Creo que un recuento de GPC de 10 a 12 sería razonable. Un B100 con 12 GPC contaría con más de 27K núcleos FP32 y 864 núcleos Tensor. El H100 consta de 16.896 núcleos FP32 y 528 núcleos Tensor. Será interesante ver si se modifican los SM o GPC, pero el resto no debería cambiar mucho. Se espera que el CEO de la compañía presente el B100 hoy durante la conferencia magistral de GTC 2024.
Source link
Deja una respuesta