Captura de pantalla de MateneRed Hat ha lanzado oficialmente Red Hat Enterprise Linux (RHEL) AI para su disponibilidad general. No se trata de un lanzamiento de producto más; es un enfoque de IA verdaderamente útil que los administradores y programadores de RHEL encontrarán excepcionalmente útil. RHEL AI está diseñado para simplificar la adopción en toda la empresa al ofrecer una imagen RHEL de arranque totalmente optimizada para implementaciones de servidores en entornos de nube híbrida. Estas instancias de tiempo de ejecución de modelos de arranque optimizadas funcionan con modelos Granite y paquetes de herramientas InstructLab. Incluyen bibliotecas de tiempo de ejecución Pytorch optimizadas y aceleradores de GPU para AMD Instinct MI300X, GPU Intel y NVIDIA, y marcos NeMo. Además: Las empresas duplican sus esfuerzos de implementación de IA generativa, según una encuesta de BloombergEsta es la plataforma de IA fundamental de Red Hat. El programa está diseñado para agilizar el desarrollo, la prueba y la implementación de modelos de IA generativa (gen AI). Esta nueva plataforma fusiona la familia de modelos de lenguaje grande (LLM) Granite con licencia de código abierto de IBM Research, las herramientas de alineación InstructLab basadas en la metodología LAB y un enfoque colaborativo para el desarrollo de modelos a través del proyecto InstructLab. IBM Research fue pionero en la metodología LAB, que emplea la generación de datos sintéticos y el ajuste multifase para alinear los modelos de IA/ML sin un costoso esfuerzo manual. El enfoque LAB, refinado a través de la comunidad InstructLab, permite a los desarrolladores crear y contribuir a los LLM tal como lo harían con cualquier proyecto de código abierto. Con el lanzamiento de InstructLab, IBM también lanzó modelos de código e idioma inglés de Granite seleccionados bajo una licencia Apache, lo que proporciona conjuntos de datos transparentes para la capacitación y las contribuciones de la comunidad. El modelo de idioma inglés Granite 7B ahora está integrado en InstructLab, donde los usuarios pueden mejorar sus capacidades de manera colaborativa. Además: ¿Puede la IA ser de código abierto? Es complicadoRHEL AI también está integrado dentro de OpenShift AI, la plataforma de operaciones de aprendizaje automático (MLOps) de Red Hat. Esto permite la implementación de modelos a gran escala en clústeres distribuidos de Kubernetes. Seamos realistas: la IA no es barata. El entrenamiento de los modelos de lenguaje grande (LLM) líderes cuesta decenas de millones. Eso es antes de empezar a pensar en ajustarlos para casos de uso específicos. RHEL AI es el intento de Red Hat de reducir esos costos astronómicos a la realidad. Además: el gasto en IA alcanzará los 632 mil millones de dólares en los próximos 5 años, según una investigaciónRed Hat lo hace en parte mediante el uso de la generación aumentada por recuperación (RAG). RAG permite a los LLM acceder a conocimientos externos aprobados almacenados en bases de datos, documentos y otras fuentes de datos. Esto mejora la capacidad de RHEL AI de ofrecer la respuesta correcta en lugar de una respuesta que simplemente suena correcta. Esto también significa que puede entrenar sus instancias de RHEL AI con los expertos en la materia de su empresa sin necesidad de un doctorado en aprendizaje automático. Esto hará que RHEL AI sea mucho más útil que la IA de propósito general para realizar el trabajo que necesita hacer en lugar de escribir fanfictions de Star Wars. Además: el nuevo plan Claude Enterprise de Anthropic brinda superpoderes de IA a las empresas a gran escala En una declaración, Joe Fernandes, vicepresidente de Foundation Model Platform de Red Hat, dijo: «RHEL AI brinda la capacidad de que los expertos en el dominio, no solo los científicos de datos, contribuyan a un modelo de IA general diseñado para un propósito en la nube híbrida, al mismo tiempo que permite a las organizaciones de TI escalar estos modelos para producción a través de Red Hat OpenShift AI». RHEL AI no está vinculado a ningún entorno único. Está diseñado para ejecutarse donde sea que se encuentren sus datos, ya sea en las instalaciones, en el borde o en la nube pública. Esta flexibilidad es crucial al implementar estrategias de IA sin revisar por completo su infraestructura existente. El programa ahora está disponible en Amazon Web Services (AWS) e IBM Cloud como una oferta de suscripción «traiga su propia (BYO)». En los próximos meses, estará disponible como un servicio en AWS, Google Cloud Platform (GCP), IBM Cloud y Microsoft Azure. Además: Los modelos de texto a imagen de Stability AI llegan al ecosistema de AWS Dell Technologies ha anunciado una colaboración para llevar RHEL AI a los servidores Dell PowerEdge. Esta asociación tiene como objetivo simplificar la implementación de IA al proporcionar soluciones de hardware validadas, incluida la computación acelerada de NVIDIA, optimizada para RHEL AI. Como alguien que ha estado cubriendo software de código abierto durante décadas y que jugó con IA cuando Lisp se consideraba de vanguardia, creo que RHEL AI ofrece un cambio significativo en la forma en que las empresas abordan la IA. Al combinar el poder del código abierto con el soporte de nivel empresarial, Red Hat se está posicionando a la vanguardia de la revolución de la IA. La verdadera prueba, por supuesto, estará en la adopción y las aplicaciones del mundo real. Pero si el historial de Red Hat es un indicio, RHEL AI podría muy bien ser la plataforma que saque a la IA del ámbito de los gigantes tecnológicos y la ponga en manos de empresas de todos los tamaños.