AMD ha anunciado una amplia expansión de su cartera de redes de alto rendimiento en un intento por potenciar la eficiencia de los centros de datos en la era de la IA. Presentado oficialmente en su conferencia Advancing AI en San Francisco esta semana, el fabricante de chips elogió el lanzamiento de su nuevo Pensando. Unidad de procesamiento de datos (DPU) Salina, que está dirigida específicamente a optimizar el rendimiento del clúster de IA. AMD dijo que la nueva DPU ofrece el doble de rendimiento, ancho de banda y escala en comparación con las generaciones anteriores y puede admitir un rendimiento de 400G. En total, esto significa velocidades de transferencia de datos más rápidas y, en última instancia, una infraestructura más eficiente capaz de hacer frente a las crecientes demandas de cargas de trabajo de IA. La importancia de las redes ha crecido significativamente desde el inicio de la carrera generativa de la IA a finales de 2022 y se ha convertido en un cuello de botella clave para los datos. eficiencia del centro, dijeron los ejecutivos de AMD a los asistentes. Este es un problema doble al que se enfrentan muchas organizaciones, donde la eficiencia tanto en el front-end como en el back-end se convierte en un enfoque clave. En el front-end, la entrega eficiente de datos a un clúster de IA es fundamental. mientras que el rendimiento en el back-end, que gestiona las transferencias de datos entre clústeres, significa que la comunicación entre las unidades centrales de procesamiento (CPU) y las unidades de procesamiento de gráficos (GPU) dentro de estos clústeres es vital. Los bloqueos dentro de estas rutas de red pueden crear serios problemas para los operadores de centros de datos. lo que resulta en un menor rendimiento y mayores costos. Reciba nuestras últimas noticias, actualizaciones de la industria, recursos destacados y más. Regístrese hoy para recibir nuestro informe GRATUITO sobre seguridad y delitos cibernéticos de IA, recientemente actualizado para 2024. La DPU de Salina está diseñada para abordar estos posibles problemas de congestión en el front-end. El segundo anuncio de AMD se centró en el back-end con el lanzamiento de la tarjeta de interfaz de red (NIC) Pensando Pollara 400. En una conferencia de prensa previa al evento, los ejecutivos de AMD revelaron que esta es la primera tarjeta de interfaz de red (NIC) Ultra Ethernet de la industria lista. AI NIC que «reduce la complejidad del ajuste del rendimiento y ayuda a mejorar el tiempo de producción». El enfoque en redes de AMD muestra madurez Andrew Buss, director senior de investigación para EMEA en IDC, dijo a ITPro que si bien es posible que este anuncio no haya llegado a los titulares en la medida de su Instinct GPU o AI PC, marca un momento significativo para el fabricante de chips.“Para ser fuerte en infraestructura, ya tienes que ser fuerte en todos los ámbitos, porque quieres poder almacenar los bits, mover los bits, y cambiar los bits”, dijo. “Tienen una pila bastante buena y creo que están bien preparados para impulsarla, particularmente con Ultra Ethernet. Entonces, para mí, algunos de los anuncios más importantes, pero quizás menos visibles, que hicieron fueron esta nueva DPU y el front-end y back-end en la red y la estructura y ultra Ethernet. «Mejorar la comunicación en red será la clave para optimizar clústeres a gran escala, añadió Buss, y AMD parece muy centrada en intensificar los esfuerzos en este ámbito. En los últimos meses han surgido indicios de esta estrategia en AMD, especialmente cuando se examinan adquisiciones recientes, como el acuerdo de 4.900 millones de dólares para ZT Systems. en agosto. “Creo que eso demuestra madurez”, dijo a ITPro. “AMD recientemente adquirió también los sistemas ZT. Entonces, lo que veremos es que seguirán los pasos de Nvidia y podrán diseñar enfoques a nivel de sistemas”.