Las unidades de procesamiento de datos (DPU) se han convertido en una opción de implementación importante para los centros de datos que ejecutan cargas de trabajo pesadas centradas en datos, como inteligencia artificial (IA) y procesamiento de análisis, y para acelerar la entrada/salida (E/S) del almacenamiento. Las DPU se implementan en servidores y son lo último en una evolución de hardware de descarga que elimina la carga de trabajo de las unidades centrales de procesamiento (CPU), liberándolas para concentrarse en los ciclos de aplicaciones principales y aumentar el rendimiento allí. Mientras tanto, las DPU pueden manejar la transferencia de datos, la reducción de datos, la seguridad y el análisis. Quizás también sea esencial para el surgimiento de las DPU el grado en que pueden adaptarse a arquitecturas de infraestructura componibles que unen recursos de infraestructura a partir de componentes de hardware. Y, si bien las DPU son un componente central de hardware en crecimiento, la capacidad de DPU se está incorporando a los servicios en la nube, como los de Amazon Web Services (AWS) y Microsoft Azure. Además, los entornos centrales como VMware se han refactorizado para aprovechar la implementación de DPU por parte de los clientes. En este artículo, analizamos de dónde provienen las DPU, qué hacen y sus beneficios, las especificaciones clave y quiénes son los proveedores clave de DPU. ¿De dónde vienen las DPU? Aunque la idea de una unidad de procesamiento de datos es relativamente nueva, su evolución proviene de una larga línea de tarjetas de descarga, especialmente en aceleración de redes. Estos comenzaron con tarjetas de interfaz de red (NIC) básicas, para «descargar NIC» que liberaban ciclos de CPU mientras procesaban el tráfico de red, hasta «NIC inteligentes» que profundizaban en lo que se podía descargar e introducían un elemento de programabilidad. Las DPU son una evolución de las NIC inteligentes y brindan una programabilidad flexible como parte de arquitecturas componibles, así como mayores capacidades de descarga e incluyen redes de almacenamiento. ¿Qué es una DPU y cuáles son sus beneficios? Una forma útil de concebir las DPU (y las unidades de procesamiento gráfico (GPU) para el caso) es la idea de descentralización. Es decir, descargar tareas que anteriormente la CPU habría realizado de forma centralizada a hardware suplementario destinado a tareas específicas. Al hacerlo, las DPU compensan las ineficiencias de la CPU del servidor en cargas de trabajo de transferencia de datos y computación centrada en datos. Para aclarar las cosas, tal vez sea útil concebir cuán paralelizadas están cada una de las variantes de xPU. Las CPU tienen relativamente pocos núcleos destinados a ejecutar algunas operaciones a la vez, las GPU tienen más núcleos y pueden manejar más operaciones, y las DPU están hechas con muchos más núcleos y están diseñadas para manejar increíbles conjuntos de cargas de trabajo en paralelo. Mientras que una GPU está diseñada principalmente para ejecutar cálculos pesados ​​en torno a la representación de gráficos (aunque se han utilizado para más), una DPU va un paso más allá para manejar tareas que requieren un gran uso de datos, como el movimiento de datos en torno al almacenamiento y las redes, pero también IA y análisis. Una DPU suele estar compuesta por una CPU de varios núcleos, memoria y controladores, zócalos PCIe e interfaces de estructura de red y almacenamiento. Las DPU están diseñadas con núcleos de procesador y bloques de aceleración de hardware. Las DPU vienen con su propio sistema operativo (SO) que les permite combinarse con el sistema operativo principal y realizar trabajos como cifrado, codificación de borrado y reducción de datos. Las DPU pueden conectarse de forma nativa al almacenamiento NVMe (y NVMe sobre tejido) para proporcionar un acceso rápido al almacenamiento de muy alta velocidad. También suelen venir con aceleración nativa para cargas de trabajo específicas como las criptomonedas. ¿Qué tipo de especificaciones ofrecen las DPU? El tipo de especificaciones que obtendría de una DPU se puede ver en BlueField 3 de Nvidia, que viene con hasta 400 Gbps de conectividad Ethernet o Infiniband, 32 carriles de PCIe Gen 5.0, hasta 16 núcleos de CPU ARM, 16 núcleos en un formato programable. acelerador de ruta de datos, 32 MB de DRAM DDR integrada, cifrado AES y conectividad NVMe sobre tejidos/sobre TCP. ¿Quién fabrica las DPU? El hardware de DPU está disponible a través de proveedores que incluyen: Intel, que anunció su DPU Mount Evans, desarrollada conjuntamente con Google, en agosto de 2021 y tiene una hoja de ruta que incluye iteraciones adicionales con una cadencia de dos años. Mount Evans se convirtió más tarde en la serie E2000, lanzada en 2022. Intel parece preferir las unidades de procesamiento de infraestructura (IPU) a las DPU. Nvidia, con sus DPU BlueField 3 y 2, así como los aceleradores convergentes híbridos GPU/DPU de la compañía. Marvell suministra sus DPU Octeon y Armada, que tienen una gran tendencia hacia su uso en aplicaciones de telecomunicaciones. AMD con sus aceleradores de infraestructura AMD Pensando. Fungible, adquirida por Microsoft este año, introdujo la DPU en el mercado cuando salió de forma oculta en 2020, con productos destinados a redes y almacenamiento. La compra de Microsoft se produjo después de que Fungible saltó a la fama como pionero de las DPU y luego tuvo problemas cuando la expansión en el mercado fracasó. Los comentarios del mercado en el momento de la adquisición señalaron que es probable que Microsoft incorpore Fungible IP en Azure y, al hacerlo, tenga en cuenta las capacidades de DPU de AWS. Las tarjetas Nitro de AWS incluyen los componentes básicos de hardware y software que proporcionan computación, almacenamiento, redes y memoria para sus servicios EC2, e incluyen opciones de DPU. Las DPU también figuran en AWS Glue, que es la plataforma informática sin servidor de la empresa destinada a extraer, transformar y cargar (ETL) y cargas de trabajo de almacenamiento de datos.

Source link