Con el fin de proporcionar marcos abiertos para capacidades de IA generativa en todos los ecosistemas, como la generación de recuperación aumentada, la Fundación Linux, Intel y otras empresas y grupos han creado la Plataforma Abierta para la IA Empresarial. ¿Qué es la plataforma abierta para la IA empresarial? OPEA es un proyecto sandbox dentro de LF AI & Data Foundation, parte de la Fundación Linux. El plan es fomentar la adopción de tecnologías de IA generativa abiertas y crear “sistemas GenAI flexibles y escalables que aprovechen la mejor innovación de código abierto de todo el ecosistema”, según un comunicado de prensa de OPEA. A la iniciativa se han sumado las siguientes empresas y grupos: Anyscale. Nubera. DatosStax. Laboratorio de datos de Domino. Abrazando la cara. Intel. KX. Fundación MaríaDB. MinIO. Qdrant. Sombrero rojo. SAS. VMware (adquirida por Broadcom). Datos de ladrillo amarillo. Zilliz. Idealmente, la iniciativa podría resultar en una mayor interoperabilidad entre productos y servicios de esos proveedores. «A medida que GenAI madura, la integración en la TI existente es un paso natural y necesario», dijo Kaj Arnö, director ejecutivo de la Fundación MariaDB, en un comunicado de prensa de OPEA. ¿Qué creó la OPEA? La idea es encontrar nuevos casos de uso para la IA, particularmente verticalmente en la pila de tecnología, a través de un modelo de gobernanza abierto y colaborativo. Para ello, OPEA creó un marco de bloques de construcción componibles para sistemas generativos de IA, desde la capacitación hasta el almacenamiento de datos y las indicaciones. OPEA también creó una evaluación para calificar el rendimiento, las características, la confiabilidad y la preparación a nivel empresarial de los sistemas de IA generativa y los planos para la estructura de la pila de componentes y los flujos de trabajo de RAG. Intel, en particular, proporcionará lo siguiente: Un marco conceptual técnico. Implementaciones de referencia para implementar IA generativa en procesadores Intel Xeon y aceleradores Intel Gaudi AI. Más capacidad de infraestructura en Intel Tiber Developer Cloud para el desarrollo del ecosistema, la aceleración de la IA y la validación de RAG y futuras canalizaciones. «Abogar por una base de código abierto y estándares, desde conjuntos de datos hasta formatos, API y modelos, permite a las organizaciones y empresas construir de forma transparente», dijo AB Periasamy, director ejecutivo y cofundador de MinIO, en un comunicado de prensa de OMEA. «La infraestructura de datos de IA también debe construirse sobre estos principios abiertos». Más cobertura de IA de lectura obligada ¿Por qué es tan importante RAG? La generación de recuperación aumentada, en la que los modelos de IA generativa verifican con datos públicos o de la empresa del mundo real antes de proporcionar una respuesta, está demostrando ser valiosa en el uso empresarial de la IA generativa. RAG ayuda a las empresas a confiar en que la IA generativa no arrojará respuestas sin sentido que parezcan convincentes. OPEA espera que RAG (Figura A) pueda permitir que la IA generativa extraiga más valor de los depósitos de datos que las empresas ya tienen. Figura A Una tubería que muestra la arquitectura RAG. Imagen: OMEA “Estamos encantados de darle la bienvenida a OPEA a LF AI & Data con la promesa de ofrecer canales de generación de recuperación aumentada (RAG) de código abierto, estandarizados, modulares y heterogéneos para empresas con un enfoque en el desarrollo de modelos abiertos, reforzados y optimizados. soporte de varios compiladores y cadenas de herramientas”, dijo el director ejecutivo de LF AI & Data, Ibrahim Haddad, en un comunicado de prensa. No existen estándares de facto para implementar RAG, señaló Intel en su publicación de anuncio; La OPEA pretende llenar ese vacío. VER: Nombramos a RAG una de las principales tendencias de IA de 2024. «Estamos viendo un enorme entusiasmo entre nuestra base de clientes por RAG», dijo Chris Wolf, director global de IA y servicios avanzados de Broadcom, en un comunicado de prensa de OPEA. “Las estructuras detrás de RAG se pueden aplicar universalmente a una variedad de casos de uso, lo que hace que un enfoque impulsado por la comunidad que impulse la coherencia y la interoperabilidad de las aplicaciones RAG sea un importante paso adelante para ayudar a todas las organizaciones a aprovechar de forma segura los numerosos beneficios que la IA tiene para ofrecer. “Añadió Lobo. ¿Cómo pueden participar las organizaciones en OPEA? Las organizaciones pueden participar contribuyendo en GitHub o comunicándose con OPEA.