OpenAI puede ser el nombre más conocido cuando se trata de IA generativa comercial, pero Meta ha conseguido hacerse un hueco a través de potentes modelos de lenguaje de gran tamaño de código abierto. Meta reveló su modelo de IA generativa más grande hasta el momento, Llama 3, el 18 de abril, que supera al GPT04 en algunas pruebas estándar de IA. ¿Qué es Llama 3? Llama 3 es un LLM creado por Meta. Se puede utilizar para crear IA generativa, incluidos chatbots que puedan responder en lenguaje natural a una amplia variedad de consultas. Los casos de uso en los que se ha evaluado Llama 3 incluyen lluvia de ideas, escritura creativa, codificación, resumen de documentos y respuesta a preguntas en la voz de una persona o personaje específico. El modelo Llama 3 completo viene en cuatro variantes: 8 mil millones de parámetros preentrenados. Instrucción de 8 mil millones de parámetros ajustada. 70 mil millones de parámetros previamente entrenados. Instrucción de 70 mil millones de parámetros ajustada. Las capacidades de IA generativa de Llama 3 se pueden utilizar en un navegador, a través de funciones de IA en Facebook, Instagram, WhatsApp y Messenger de Meta. El modelo en sí se puede descargar desde Meta o desde las principales plataformas empresariales en la nube. ¿Cuándo se lanzará Llama 3 y en qué plataformas? Llama 3 se lanzó el 18 de abril en Google Cloud Vertex AI, watsonx.ai de IBM y otras grandes plataformas de alojamiento LLM. AWS siguió y agregó Llama 3 a Amazon Bedrock el 23 de abril. A partir del 29 de abril, Llama 3 está disponible en las siguientes plataformas: Databricks. Abrazando la cara. Kaggle. Microsoft Azure. NIM de NVIDIA. Las plataformas de hardware de AMD, AWS, Dell, Intel, NVIDIA y Qualcomm son compatibles con Llama 3. ¿Llama 3 es de código abierto? Llama 3 es de código abierto, como lo han sido los otros LLM de Meta. La creación de modelos de código abierto ha sido un valioso diferenciador para Meta. VER: El informe del índice de IA de Stanford revela 8 tendencias de la IA en los negocios actuales. (TechRepublic) Existe cierto debate sobre qué parte del código o los pesos de un modelo de lenguaje grande deben estar disponibles públicamente para contar como código abierto. Pero en lo que respecta a los fines comerciales, Meta ofrece una mirada más abierta a Llama 3 que sus competidores para sus LLM. ¿Llama 3 es gratis? Llama 3 es gratuito siempre que se utilice según los términos de la licencia. El modelo se puede descargar directamente desde Meta o utilizar dentro de los diversos servicios de alojamiento en la nube enumerados anteriormente, aunque esos servicios pueden tener tarifas asociadas. La página de inicio de Meta AI en un navegador ofrece opciones sobre qué pedirle a Llama 3 que haga. Imagen: Meta / Captura de pantalla de Megan Crouse ¿Llama 3 es multimodal? Llama 3 no es multimodal, lo que significa que no es capaz de comprender datos de diferentes modalidades como vídeo, audio o texto. Meta planea hacer que Llama 3 sea multimodal en un futuro próximo. Mejoras de Llama 3 sobre Llama 2 Para hacer que Llama 3 sea más capaz que Llama 2, Meta agregó un nuevo tokenizador para codificar el lenguaje de manera mucho más eficiente. Meta mejoró Llama 3 con atención de consultas agrupadas, un método para mejorar la eficiencia de la inferencia del modelo. El conjunto de entrenamiento de Llama 3 es siete veces mayor que el conjunto de entrenamiento utilizado para Llama 2, dijo Meta, e incluye cuatro veces más código. Meta aplicó nuevas eficiencias al preentrenamiento y al ajuste de instrucciones de Llama 3. Dado que Llama 3 está diseñado como un modelo abierto, Meta agregó barreras de seguridad pensando en los desarrolladores. Una nueva barrera de seguridad es Code Shield, cuyo objetivo es detectar el código inseguro que el modelo pueda producir. ¿Qué sigue para Llama 3? Meta planea: Agregar varios idiomas a Llama 3. Expandir la ventana contextual. Generalmente aumenta las capacidades del modelo en el futuro. Meta está trabajando en un modelo de parámetros 400B, que puede ayudar a dar forma a la próxima generación de Llama 3. En las primeras pruebas, Llama 3 400B con ajuste de instrucciones obtuvo una puntuación de 86,1 en la evaluación de conocimientos MMLU (una prueba comparativa de IA), según Meta, lo que lo convierte en competitivo con GPT-4. Llama 400B sería el LLM más grande de Meta hasta el momento. El lugar de Llama 3 en el competitivo panorama de la IA generativa Llama 3 compite directamente con GPT-4 y GPT-3.5, Gemini y Gemma de Google, Mistral 7B de Mistral AI, Perplexity AI y otros LLM para uso individual o comercial para construir chatbots de IA generativa y otros. herramientas. Aproximadamente una semana después de que se revelara Llama 3, Snowflake presentó su propia IA empresarial abierta con capacidades comparables, llamada Snowflake Arctic. Los crecientes requisitos de rendimiento de LLM como Llama 3 están contribuyendo a una carrera armamentista de PC con IA que pueden ejecutar modelos al menos parcialmente en el dispositivo. Mientras tanto, las empresas de IA generativa pueden enfrentar un mayor escrutinio por sus grandes necesidades informáticas, lo que podría contribuir a empeorar el cambio climático. Llama 3 vs GPT-4 Llama 3 supera al GPT-4 de OpenAI en HumanEval, que es un punto de referencia estándar que compara la capacidad del modelo de IA para generar código con el código escrito por humanos. Llama 3 70B obtuvo una puntuación de 81,7, en comparación con la puntuación de 67 de GPT-4. Sin embargo, GPT-4 superó a Llama 3 en la evaluación de conocimientos MMLU con una puntuación de 86,4 frente a 79,5 de Llama 3 70B. El rendimiento de Llama 3 en más pruebas se puede encontrar en la publicación del blog de Meta.
Etiqueta: abrazando la cara
Con el fin de proporcionar marcos abiertos para capacidades de IA generativa en todos los ecosistemas, como la generación de recuperación aumentada, la Fundación Linux, Intel y otras empresas y grupos han creado la Plataforma Abierta para la IA Empresarial. ¿Qué es la plataforma abierta para la IA empresarial? OPEA es un proyecto sandbox dentro de LF AI & Data Foundation, parte de la Fundación Linux. El plan es fomentar la adopción de tecnologías de IA generativa abiertas y crear “sistemas GenAI flexibles y escalables que aprovechen la mejor innovación de código abierto de todo el ecosistema”, según un comunicado de prensa de OPEA. A la iniciativa se han sumado las siguientes empresas y grupos: Anyscale. Nubera. DatosStax. Laboratorio de datos de Domino. Abrazando la cara. Intel. KX. Fundación MaríaDB. MinIO. Qdrant. Sombrero rojo. SAS. VMware (adquirida por Broadcom). Datos de ladrillo amarillo. Zilliz. Idealmente, la iniciativa podría resultar en una mayor interoperabilidad entre productos y servicios de esos proveedores. «A medida que GenAI madura, la integración en la TI existente es un paso natural y necesario», dijo Kaj Arnö, director ejecutivo de la Fundación MariaDB, en un comunicado de prensa de OPEA. ¿Qué creó la OPEA? La idea es encontrar nuevos casos de uso para la IA, particularmente verticalmente en la pila de tecnología, a través de un modelo de gobernanza abierto y colaborativo. Para ello, OPEA creó un marco de bloques de construcción componibles para sistemas generativos de IA, desde la capacitación hasta el almacenamiento de datos y las indicaciones. OPEA también creó una evaluación para calificar el rendimiento, las características, la confiabilidad y la preparación a nivel empresarial de los sistemas de IA generativa y los planos para la estructura de la pila de componentes y los flujos de trabajo de RAG. Intel, en particular, proporcionará lo siguiente: Un marco conceptual técnico. Implementaciones de referencia para implementar IA generativa en procesadores Intel Xeon y aceleradores Intel Gaudi AI. Más capacidad de infraestructura en Intel Tiber Developer Cloud para el desarrollo del ecosistema, la aceleración de la IA y la validación de RAG y futuras canalizaciones. «Abogar por una base de código abierto y estándares, desde conjuntos de datos hasta formatos, API y modelos, permite a las organizaciones y empresas construir de forma transparente», dijo AB Periasamy, director ejecutivo y cofundador de MinIO, en un comunicado de prensa de OMEA. «La infraestructura de datos de IA también debe construirse sobre estos principios abiertos». Más cobertura de IA de lectura obligada ¿Por qué es tan importante RAG? La generación de recuperación aumentada, en la que los modelos de IA generativa verifican con datos públicos o de la empresa del mundo real antes de proporcionar una respuesta, está demostrando ser valiosa en el uso empresarial de la IA generativa. RAG ayuda a las empresas a confiar en que la IA generativa no arrojará respuestas sin sentido que parezcan convincentes. OPEA espera que RAG (Figura A) pueda permitir que la IA generativa extraiga más valor de los depósitos de datos que las empresas ya tienen. Figura A Una tubería que muestra la arquitectura RAG. Imagen: OMEA “Estamos encantados de darle la bienvenida a OPEA a LF AI & Data con la promesa de ofrecer canales de generación de recuperación aumentada (RAG) de código abierto, estandarizados, modulares y heterogéneos para empresas con un enfoque en el desarrollo de modelos abiertos, reforzados y optimizados. soporte de varios compiladores y cadenas de herramientas”, dijo el director ejecutivo de LF AI & Data, Ibrahim Haddad, en un comunicado de prensa. No existen estándares de facto para implementar RAG, señaló Intel en su publicación de anuncio; La OPEA pretende llenar ese vacío. VER: Nombramos a RAG una de las principales tendencias de IA de 2024. «Estamos viendo un enorme entusiasmo entre nuestra base de clientes por RAG», dijo Chris Wolf, director global de IA y servicios avanzados de Broadcom, en un comunicado de prensa de OPEA. “Las estructuras detrás de RAG se pueden aplicar universalmente a una variedad de casos de uso, lo que hace que un enfoque impulsado por la comunidad que impulse la coherencia y la interoperabilidad de las aplicaciones RAG sea un importante paso adelante para ayudar a todas las organizaciones a aprovechar de forma segura los numerosos beneficios que la IA tiene para ofrecer. “Añadió Lobo. ¿Cómo pueden participar las organizaciones en OPEA? Las organizaciones pueden participar contribuyendo en GitHub o comunicándose con OPEA.