Se han filtrado algunas de las especificaciones clave de las GPU con núcleo Blackwell Tensor de NVIDIA. Según @XpeaGPU, la B100 contará con dos matrices empaquetadas con CoWoS-L, lo que la convierte en la primera GPU NVIDIA modular (basada en chiplets). La GPU estará rodeada por 8 pilas HBM3e (8-Hi), que ofrecen 192 GB de memoria de gran ancho de banda. Su predecesor, el H100, ofrece 80 GB de memoria HBM3 distribuida en 5 pilas utilizando 10 controladores de memoria de 512 bits cada una. Calculo que el B100 utilizará de 12 a 13 controladores de memoria de 512 bits para conectar las 8 pilas HBM3e. El B200, cuyo lanzamiento está previsto para el próximo año, supuestamente aumentará la memoria gráfica a 288 GB utilizando pilas HBM3e de 12 Hi. El bus de memoria y el número de paquetes HBM deberían permanecer sin cambios en 13x 512 bits y 8, respectivamente. No se proporciona mucha información sobre la GPU (núcleos, SM, GPC). El uso de CoWoS-L para dos matrices gráficas implica un aumento masivo en la densidad del sombreador. Creo que un recuento de GPC de 10 a 12 sería razonable. Un B100 con 12 GPC contaría con más de 27K núcleos FP32 y 864 núcleos Tensor. El H100 consta de 16.896 núcleos FP32 y 528 núcleos Tensor. Será interesante ver si se modifican los SM o GPC, pero el resto no debería cambiar mucho. Se espera que el CEO de la compañía presente el B100 hoy durante la conferencia magistral de GTC 2024.

Source link