AMD anunció el jueves el próximo lanzamiento de sus chips de IA más potentes hasta la fecha, los aceleradores Instinct MI325X. «Nuestro objetivo es impulsar un ecosistema de IA estándar de la industria abierto para que todos puedan agregar su innovación», dijo Lisa Su, presidenta y directora ejecutiva de AMD, en la presentación Advancing AI 2024 de la compañía en San Francisco. El procesador Epyc de quinta generación posiciona a AMD como un contendiente desvalido frente al Blackwell de NVIDIA en el mercado de la IA. Durante la misma presentación, AMD también presentó varios productos novedosos, incluida una nueva CPU de servidor diseñada para aplicaciones empresariales, de inteligencia artificial y de nube. Los aceleradores AMD Instinct MI325X agregan capacidad a la infraestructura de IA. Los aceleradores AMD Instinct MI325X aceleran el entrenamiento, el ajuste y la inferencia del modelo básico (los procesos involucrados en la IA generativa de rápida proliferación actual) y cuentan con 256 GB de HBM3E que admiten 6,0 TB/s. La arquitectura CDNA 4 de AMD habilita la nueva línea. La capacidad y el ancho de banda de estos aceleradores superan a los de su principal competidor, el NVIDIA H200, afirma AMD. La compañía de tecnología también dice que los aceleradores Instinct MI325X pueden acelerar el rendimiento de inferencia en el Mistral 7B AI en 1,3 veces, en Llama 3.1 70B en 1,2 veces y en el Mixtral 8x7B de Mistra en 1,4 veces en comparación con el H200. AMD se dirige principalmente a los hiperescaladores con este producto. En particular, los hiperescaladores quieren expandir su hardware con capacidad de IA en los centros de datos y alimentar una infraestructura de nube de alta resistencia. Está previsto que el Instinct MI325X salga a la venta en el último trimestre de 2024. En el primer trimestre de 2025, aparecerán en dispositivos de Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo y Supermicro. Después de eso, AMD continuará expandiendo su serie MI350, con aceleradores de la serie Instinct MI350 de 288 GB esperados para la segunda mitad de 2025. La CPU del servidor AMD Epyc de quinta generación incluye hasta 192 núcleos Imagen: AMD La última generación de procesadores Epyc de AMD, código -llamado “Turín”, también debutó en San Francisco, presentando su arquitectura Zen 2 Core. Los procesadores AMD Epyc serie 9005 vienen en innumerables configuraciones (con recuentos de núcleos de ocho a 192) y aceleran el procesamiento de GPU para cargas de trabajo de IA. El principal competidor de AMD en esta área son los servidores basados ​​en CPU Intel Xeon 8592+. La densidad de rendimiento es una ventaja clave, dijo AMD. Las GPU de mayor capacidad permiten utilizar aproximadamente un 71% menos de energía y alrededor de un 87% menos de servidores en un centro de datos, dijo la compañía. AMD proporciona un descargo de responsabilidad que señala que los factores ambientales implican muchas suposiciones si no se aplican a un caso de uso y ubicación específicos. VER: Los investigadores de seguridad descubrieron que algunos estafadores obtienen ganancias con la ayuda de videos generados por IA que pueden engañar al software de reconocimiento facial. Todos los procesadores de la serie Epyc 9005 se lanzaron el jueves. Cisco, Dell, Hewlett Packard Enterprise, Lenovo, Supermicro y los principales ODM y proveedores de servicios en la nube respaldan la nueva línea de chips. “Con los nuevos aceleradores AMD Instinct, los procesadores EPYC y los motores de red AMD Pensando, el crecimiento continuo de nuestro ecosistema de software abierto y la capacidad de unir todo esto en una infraestructura de IA optimizada, AMD subraya la experiencia crítica para construir e implementar IA de clase mundial. soluciones”, dijo Forrest Norrod, vicepresidente ejecutivo y gerente general de Data Center Solutions Business Group, AMD, en un comunicado de prensa. Más sobre innovación Dos nuevos productos cubren tecnología de front-end y back-end para redes de IA Para redes de IA en entornos de hiperescala, AMD desarrolló la DPU Pensando Salina (front-end) y la NIC Pensando Pollara 400 (back-end). El primero maneja la transferencia de datos, entregándolos a un clúster de IA de forma segura y rápida. Esta última, una NIC o tarjeta de interfaz de red, gestiona la transferencia de datos entre aceleradores y clústeres utilizando un diseño aprobado por el Ultra Ethernet Consortium. Es la primera NIC AI de la industria que lo hace, dijo AMD. La DPU admite un rendimiento de 400G. El objetivo más amplio de esta tecnología es permitir que más organizaciones ejecuten IA generativa en dispositivos, centros de datos o en la nube. AMD espera que tanto AMD Pensando Salina DPU como AMD Pensando Pollara 400 NIC estén disponibles de forma general en la primera mitad de 2025. Próximamente: Las computadoras portátiles Ryzen Pro serie 300 para uso comercial Los OEM comenzarán a enviar computadoras portátiles con procesadores AMD Ryzen Pro serie 300 más adelante en 2024. Revelada por primera vez en junio, la serie Ryzen Pro 300 es un componente clave de las PC con IA. En particular, ayudan al esfuerzo de Microsoft por introducir las funciones de Copilot+ AI en sus dispositivos comerciales actuales y futuros. «La asociación de Microsoft con AMD y la integración de los procesadores Ryzen AI PRO en las PC Copilot+ demuestran nuestro enfoque conjunto en brindar experiencias impactantes impulsadas por IA para nuestros clientes», dijo Pavan Davuluri, vicepresidente corporativo de Dispositivos Windows+ de Microsoft, en un comunicado de prensa. Lenovo construyó su ThinkPad T14s Gen 6 AMD alrededor de los procesadores Ryzen AI PRO serie 300. Luca Rossi, presidente de Lenovo Intelligent Devices Group, habló sobre los chips en el comunicado de prensa y dijo: «Este dispositivo ofrece una potencia informática de IA excepcional, seguridad mejorada y una duración de batería excepcional, brindando a los profesionales las herramientas que necesitan para maximizar la productividad y la eficiencia». .” TechRepublic cubrió el evento Advancing AI de AMD de forma remota.