S. Schuchart Resumen de viñetas: El 10 de octubre de 2024, AMD anunció las últimas ediciones de su línea de DPU a partir de la adquisición de Pensando. El estándar UEC 1.0 será un gran problema en los círculos de HPC y AI. Uno de los impulsores de las redes de alta gama en el lado del servidor es la unidad de procesamiento de datos (DPU), a veces también denominada erróneamente aceleradores de NIC. Se trata de tarjetas de servicios y redes complementarias para servidores en entornos de alto rendimiento o de hiperescala. Estas tarjetas no solo manejan tareas tradicionales de aceleración de NIC y descarga de cifrado, sino que también tienen sus propias CPU y memoria. Pueden admitir procesamiento avanzado y a menudo se utilizan para seguridad y monitoreo, entre otras cosas especializadas: las tarjetas son programables. Estas tarjetas se ejecutan fuera del sistema operativo en el servidor y, en la mayoría de los casos, cuentan con procesadores basados ​​en ARM. Al ejecutarse por separado en su propio sistema operativo, son extremadamente útiles en términos de seguridad y aislamiento de la plataforma base. AMD, Nvidia e Intel tienen versiones de estas tarjetas. Las tarjetas DPU no solo pueden aumentar la observabilidad y la seguridad de un entorno determinado, sino que también pueden realizar tareas como cifrado complejo, equilibrio de carga, firewall con estado, NAT y descarga de almacenamiento, por nombrar solo algunas. También ahorran ciclos de CPU en los sistemas en los que están instalados. A escala, esto puede significar ahorros considerables: cuantos más ciclos de procesamiento estén disponibles en cada servidor, menos servidores en total. Por tanto, las ventajas de estas tarjetas en la informática de alto rendimiento y en los hiperescaladores son claras. Sin embargo, para los centros de datos empresariales generalizados estándar, los costos a menudo superan los beneficios; se requiere escala para obtener beneficios basándose únicamente en el ahorro del ciclo de CPU. Las DPU también vienen integradas en conmutadores, lo que brinda servicios avanzados a la red fuera del servidor. El 10 de octubre de 2024, AMD anunció las últimas ediciones de su línea DPU a partir de la adquisición de Pensando. Estos dos nuevos chips se conocen como AMD Pensando Pollara 400 y AMD Pensando Salina 400. Estos nuevos productos se están probando actualmente y su disponibilidad está programada para el primer semestre de 2025. La DPU AMD Pensando Salina 400 cuenta con 2 puertos de 400 GbE y puede presentar hasta hasta 16 núcleos ARM y hasta 128 Gb de memoria. Está diseñado para entornos HPC y aplicaciones integradas, donde el objetivo son los servicios ampliados. AMD afirma que este nuevo silicio proporciona hasta el doble de rendimiento que sus DPU Pensando de última generación. El AMD Pensando Pollara 400 está diseñado como una NIC de IA para clústeres de IA avanzados. Puede proporcionar 400 Gbps de ancho de banda con un máximo de cuatro puertos, es decir, un único puerto de 400 GbE, 2 puertos de 200 GbE, etc. Utiliza transporte RDMA totalmente programable, así como control de congestión basado en hardware. Más interesante aún, está catalogado como Ultra Ethernet Consortium Ready. El Ultra Ethernet Consortium es un organismo de normalización cuya misión es «Ofrecer una arquitectura de pila de comunicaciones completa, abierta, interoperable y de alto rendimiento basada en Ethernet para satisfacer las crecientes demandas de red de IA y HPC a escala». Básicamente, se trata de crear estándares para que Ethernet sea el transporte en IA y HPC, en lugar de tecnologías más especializadas como InfiniBand. Los miembros de este consorcio incluyen, entre otros, pesos pesados ​​de la industria como Cisco, AMD, Broadcom, Intel, Meta, Microsoft, Arista, Huawei, IBM, Juniper, Marvell, Nvidia y HPE. El estándar UEC 1.0 se publicará en algún momento del primer trimestre de 2025. La designación UEC Ready significa que el hardware cumple con los requisitos para aparecer como «listo» para el estándar cuando se publique. El estándar UEC 1.0 será de gran importancia en los círculos de HPC y AI. Cuando se trata de redes, Ethernet siempre gana al final, y no se espera que sea diferente cuando se trata de los entornos HPC e IA del futuro. Así:Me gusta Cargando… Relacionado