Compute Express Link (CXL), la tecnología para conectar memoria, fue uno de los temas de la cumbre Future of Memory and Storage de la semana pasada en Santa Clara. CXL es un estándar abierto para conexiones de alta velocidad de procesador a dispositivo y de procesador a memoria. Está diseñado para servidores de centros de datos de alto rendimiento y permite que los módulos de procesador compartan memoria. Proporciona una interfaz basada en el protocolo CXL.io que utiliza la capa física PCIe 5.0 e interfaces eléctricas para proporcionar rutas de interconexión de baja latencia para el acceso a la memoria, la comunicación entre procesadores host y dispositivos que necesitan compartir recursos de memoria. Esto significa que la memoria en los servidores de PC se puede aumentar, incluso cuando todas las ranuras de memoria (zócalos Dimm) están llenas, ya que CXL utiliza el bus de expansión PCI express (PCIe). Según Samsung, CXL permite compartir y expandir la memoria sin problemas sin la necesidad de utilizar infraestructura tecnológica adicional. Los módulos de memoria CXL (CMM) tienen como objetivo abordar la creciente demanda de alta capacidad de memoria en aplicaciones de IA. Entre sus usos está el de dar soporte a las arquitecturas de memoria requeridas por los modelos de IA de lenguaje grande. En una publicación en el blog de su comunidad publicada en marzo, Intel señaló que el entrenamiento de modelos de lenguaje grandes (LLM) como GPT-4, Llama 2 y PaLM 2 requiere una gran capacidad de memoria y capacidades de cómputo. El fabricante de chips analizó cómo CXL permite a los fabricantes de servidores reducir el costo del hardware al utilizar una memoria menos costosa. En el blog, Intel dijo que Micron proporciona módulos CXL de 128 GB que utilizan memoria DDR4, chips de memoria de acceso aleatorio dinámico sincrónico de doble velocidad de datos de generación anterior. CXL para aplicaciones de servidor Desde 2022, Samsung se ha asociado con Red Hat para centrarse en el desarrollo y la validación de software de código abierto para productos de memoria y almacenamiento existentes y emergentes. Estos incluyen SSD NVMe; memoria CXL; memoria computacional/almacenamiento y estructuras. En mayo, en la Cumbre de Red Hat celebrada en Denver, Samsung demostró su modelo de memoria CMM-D1 integrado en Red Hat Enterprise Linux 9.3, que dijo mejora el rendimiento de los modelos de recomendación de aprendizaje profundo (DLRM). Esto representa la primera demostración de la infraestructura CXL certificada por Red Hat, para Red Hat Enterprise Linux. La demostración utilizó la tecnología de software de intercalación de memoria Scalable Memory Development Kit (SMDK) de código abierto de Samsung para mejorar el rendimiento del acceso a la memoria. Samsung dijo que la memoria CMM-D equipada con SMDK, que admite CXL, permite a los desarrolladores crear modelos de IA de alto rendimiento sin tener que hacer inversiones significativas. Según Samsung, la tecnología acelera el procesamiento de datos, el aprendizaje de la IA y las velocidades de inferencia. Al hablar sobre la demostración, Kyeong Sang Kim, gerente general de Red Hat Korea, dijo: «La optimización del hardware de Samsung para el software de Red Hat subraya el valor de la tecnología de código abierto como un imperativo cuando se trata de expandir las soluciones de memoria de próxima generación como CMM-D». En la lista del catálogo del ecosistema de Red Hat, Samsung describe cómo la funcionalidad en RHEL llamada niveles de memoria respalda sus módulos de memoria CMM-D. Según Samsung, cuando los datos a los que se accede con poca frecuencia se almacenan en la memoria local, la clasificación de memoria en niveles reduce el rendimiento de la memoria utilizada con frecuencia o «caliente». La función de niveles de memoria de RHEL está diseñada para asignar memoria activa al nivel de memoria local y memoria de uso poco frecuente al nivel CXL, lo que permite la migración de datos entre niveles cuando sea necesario.