La inteligencia artificial (IA) está en la cima de una ola en este momento. Y podría decirse que Nvidia también lo es. Entonces, en su evento GTC 2024 la semana pasada, muchos jugadores de almacenamiento aprovecharon la oportunidad para publicitar vínculos con el gigante de la unidad de procesamiento de gráficos (GPU). Las respuestas de los proveedores de almacenamiento se han centrado en abordar el cuello de botella de entrada/salida (E/S) para que los datos puedan entregarse de manera eficiente a una gran cantidad de GPU (muy costosas). Esos esfuerzos han abarcado desde integraciones, a través de microservicios de Nvidia (en particular NeMo para capacitación y NIM para inferencia) hasta la validación de productos de almacenamiento con ofertas de infraestructura de inteligencia artificial de Nvidia (como BasePOD) y ofertas completas de infraestructura de inteligencia artificial como las de HPE. Otro impulso evidente en los anuncios recientes ha sido el desarrollo de arquitecturas de hardware y canalizaciones de generación aumentada de recuperación (RAG). RAG tiene como objetivo validar los hallazgos de la IA integrándolos con información externa confiable, en parte para abordar las llamadas alucinaciones. ¿Cuál fue el mensaje central de Nvidia en GTC 2024? El núcleo del mensaje de Nvidia en GTC 2024, pronunciado por el CEO Jensen Huang, es un cambio en la industria informática basado en las cargas de trabajo de IA y su tendencia hacia la generación de datos en lugar de su recuperación. Por supuesto, hay bastante recuperación en la IA, ya que los datos se absorben en las ejecuciones de entrenamiento. El núcleo del desarrollo de productos en Nvidia son las GPU y sus procesadores más grandes y potentes, con su nuevo chip Blackwell que funciona con 200 mil millones de transistores y la capacidad de manejar un billón de modelos de lenguaje grande (LLM) de parámetros a un costo y uso de energía mucho menores que sus predecesor. Nvidia integra dicha potencia informática y GPU en sistemas de servidores (OGX y DGX (y OEMed HGX)) y en arquitecturas de referencia y ofertas de infraestructura llave en mano (BasePOD y SuperPOD). Aquí analizamos algunos anuncios de proveedores de almacenamiento en torno a Nvidia GTC 2024. El proveedor de Cohesity Backup, Cohesity, anunció que ofrecerá microservicios Nvidia NIM y la integración de Nvidia AI Enterprise en su plataforma de datos multinube Gaia. Cohesity Gaia permite el uso de datos de respaldo y archivo para formar una fuente de datos de capacitación y luego una fuente de inteligencia empresarial. Cohesity también anunció que Nvidia se había convertido en inversor. DataDirect Networks DataDirect Networks (DDN), especialista en almacenamiento de computación de alto rendimiento (HPC) desde hace mucho tiempo, anunció AI400X2 Turbo, que está dirigido a cargas de trabajo de IA y proporciona una mejora del ancho de banda del 33 % con respecto a su AI400X2 en el mismo factor de forma debido a un aumento en la memoria. y mejores redes. DDN es un actor importante entre los proveedores de servicios que ofrecen GPU como servicio. Su capacidad para saturar las GPU lo ha llevado a pasar de ser un proveedor de almacenamiento HPC a un actor clave de almacenamiento de IA. El AI400X2 Turbo tiene un ancho de banda máximo de 120 GBps en comparación con los 90 GBps del AI400X2. Dell Dell presentó su Dell AI Factory, que viene como una pila integrada que abarca computadoras de escritorio, portátiles y servidores PowerEdge XE9680, almacenamiento PowerScale F710, software y servicios validados con la infraestructura de inteligencia artificial de Nvidia y el tejido de red Ethernet Spectrum-X. Dell AI Factory se puede comprar mediante suscripciones Apex de pago por uso. HPE HPE anunció la disponibilidad de sistemas de supercomputación de IA generativa (GenAI) con componentes de Nvidia y computación Cray AMD, sistemas de computación empresarial GenAI con componentes de Nvidia, una arquitectura de referencia RAG que utiliza los microservicios NeMo de Nvidia, planea usar los microservicios NIM de Nvidia para cargas de trabajo de inferencia y productos futuros. Basado en la plataforma Blackwell de Nvidia. El sistema GenAI empresarial de HPE se centra en la inferencia y el ajuste del modelo de IA y está preconfigurado en torno a servidores ProLiant DL380a, GPU Nvidia L40S, DPU BlueField-3 y redes Ethernet Spectrum-X, además del software de análisis y aprendizaje automático de HPE. La arquitectura de referencia de RAG consta de los microservicios NeMo Retriever de Nvidia, el software de estructura de datos HPE Ezmeral y GreenLake para almacenamiento de archivos, que es hardware Alletra MP y software de almacenamiento de datos VAST. Hitachi Vantara Hitachi Vantara lanzó Hitachi iQ, que proporciona sistemas de inteligencia artificial específicos de la industria que utilizan GPU Nvidia DGX y HGX con el almacenamiento de la empresa. Hitachi iQ comenzará a estar disponible en el segundo trimestre de 2024 e incluirá la certificación Nvidia BasePOD con una gama de opciones de GPU Nvidia, soporte de software Nvidia AI Enterprise, además de la última versión de Hitachi Content Software for File (HCFS), el software de sistema de archivos WekaFS renombrado de WekaIO. – con nodos de almacenamiento acelerados para cargas de trabajo de IA. NetApp NetApp presentó el microservicio Nvidia NeMo Retriever, una oferta de software RAG que se conecta directamente al almacenamiento en la nube híbrida del cliente OnTap. Está disponible para los clientes de OnTap que se suscriben a la plataforma de software Nvidia AI Enterprise y permite que LLM acceda a los datos no estructurados de una empresa sin tener que crear un repositorio separado. Pure Storage Pure Storage anunció que ha creado un canal RAG que utiliza microservicios basados en Nvidia NeMo junto con las GPU de Nvidia y su almacenamiento. También en territorio RAG, Pure Storage anunció RAG para sectores verticales específicos de la industria, dirigidos solo a servicios financieros por ahora, pero a los que seguirán el sector público y de atención médica. Pure también anunció que había obtenido la validación para su almacenamiento con la infraestructura de servidor Nvidia OVX, lo que se suma a la compatibilidad informática existente de Nvidia DGX BasePod anunciada el año pasado. Weka El fabricante de NAS de nube híbrida paralela Weka anunció el lanzamiento de un dispositivo de hardware certificado para funcionar con la infraestructura del centro de datos DGX SuperPod AI de Nvidia. El WEKApod utiliza el último PCIe 5 y viene con cifras de rendimiento de 18,3 millones de operaciones de entrada/salida por segundo (IOPS) y 765 GBps en un único clúster de ocho nodos de 1 PB (petabyte). Weka es socio certificado de Nvidia DGX BasePod y anunció en la feria que será parte de la validación de Nvidia OVX.
Source link
Deja una respuesta