Según se informa, Nvidia está formando una unidad de negocios para vender su propiedad intelectual y servicios de diseño a empresas como AWS, Microsoft y Meta. El cambio corporativo se produce en respuesta al creciente número de probadores de nube e hiperescaladores que construyen alternativas locales a las GPU de Nvidia para IA y otras cargas de trabajo aceleradas, afirma un informe de Reuters, citando múltiples fuentes familiarizadas con el asunto. Amazon Web Services fue uno de los primeros en implementar silicio personalizado en sus centros de datos con sus GPU Graviton hace más de cinco años y desde entonces ha ampliado su línea para incluir NIC inteligentes y aceleradores de IA. De manera similar, las unidades de procesamiento tensorial (TPU) de Google, una alternativa a las GPU para cargas de trabajo de inferencia y entrenamiento de IA, han estado en desarrollo desde 2015, pero solo se han puesto a disposición del público desde 2017. Sin embargo, solo ha sido más recientemente que Microsoft y Meta, dos de los mayores consumidores de GPU Nvidia para IA generativa, han comenzado a implementar su propio silicio personalizado. La semana pasada analizamos los últimos chips de inferencia de Meta, que planea implementar a escala en sus centros de datos para impulsar modelos de recomendación de aprendizaje profundo. Mientras tanto, Microsoft reveló el otoño pasado sus aceleradores de IA Maia 100 diseñados para el entrenamiento e inferencia de modelos de lenguaje grandes. Si bien son personalizados en el sentido de que están construidos y optimizados para las cargas de trabajo internas de un proveedor de nube, estos chips a menudo dependen de propiedad intelectual de empresas como Marvell o Broadcom. Como informamos el otoño pasado, las TPU de Google hacen un uso extensivo de las tecnologías de Broadcom para cosas como interfaces serializador-deserializador de alta velocidad, o SerDes, que permiten que los chips se comuniquen con el mundo exterior. Nvidia, por su parte, ha desarrollado y adquirido una cantidad considerable de propiedad intelectual relacionada con todo, desde el procesamiento paralelo hasta las redes y las estructuras de interconexión. Según los informes, los ejecutivos de Nvidia ven una oportunidad de imitar a Broadcom y dividir estas tecnologías y ya se han acercado a Amazon, Meta, Microsoft, Google y OpenAI con respecto a la perspectiva de desarrollar chips personalizados basados ​​en sus diseños. Nvidia también se ha acercado a clientes de telecomunicaciones, automoción y videojuegos con ofertas similares, afirma. El cortejo de Nvidia a Google es particularmente interesante ya que el año pasado comenzó a circular el rumor ahora controvertido de que el gigante de las búsquedas estaba planeando cortar sus lazos con Broadcom. Le hemos pedido a Nvidia comentarios sobre sus planes de otorgar licencias de propiedad intelectual; Le avisaremos si escuchamos algo. Si bien cada vez más proveedores de nube buscan silicio personalizado, no parece que ninguno de ellos esté listo para reemplazar el hardware de Nvidia, AMD o Intel en el corto plazo. A pesar de los esfuerzos continuos para poner su silicio personalizado a disposición del público (Google, por ejemplo, anunció en diciembre una versión optimizada para el rendimiento de su acelerador de IA TPUv5 que se puede alquilar en grupos de hasta 8.960), las GPU siguen siendo las reinas en lo que respecta a la generación. AI. Es posible que Meta haya comenzado a implementar su chip de inferencia personalizado, pero no reemplazará las GPU para cada carga de trabajo. De hecho, Meta planea implementar 350.000 H100 y afirma que tendrá el equivalente a 600.000 H100 en computación para fin de año. Se dice que estos chips impulsarán la última fascinación del CEO Mark Zuckerberg: la inteligencia artificial general. Meta no es la única empresa que cubre sus apuestas de silicio personalizado con grandes implementaciones de GPU. Microsoft continúa implementando cantidades masivas de Nvidia H100 y recientemente reveló sus planes de emplear a escala la recientemente lanzada MI300X de AMD para impulsar sus servicios generativos respaldados por IA. Mientras tanto, AWS anunció el otoño pasado una gran implementación de 16.384 superchips Nvidia Grace-Hopper junto con sus CPU Graviton de cuarta generación y sus aceleradores Trainium AI de segunda generación. ®

Source link