Todo lo que necesitas saber sobre tecnología

Etiqueta: abrazando la cara

Una guía completa para 2024

OpenAI puede ser el nombre más conocido cuando se trata de IA generativa comercial, pero Meta ha conseguido hacerse un hueco a través de potentes modelos de lenguaje de gran tamaño de código abierto. Meta reveló su modelo de IA generativa más grande hasta el momento, Llama 3, el 18 de abril, que supera al GPT04 en algunas pruebas estándar de IA. ¿Qué es Llama 3? Llama 3 es un LLM creado por Meta. Se puede utilizar para crear IA generativa, incluidos chatbots que puedan responder en lenguaje natural a una amplia variedad de consultas. Los casos de uso en los que se ha evaluado Llama 3 incluyen lluvia de ideas, escritura creativa, codificación, resumen de documentos y respuesta a preguntas en la voz de una persona o personaje específico. El modelo Llama 3 completo viene en cuatro variantes: 8 mil millones de parámetros preentrenados. Instrucción de 8 mil millones de parámetros ajustada. 70 mil millones de parámetros previamente entrenados. Instrucción de 70 mil millones de parámetros ajustada. Las capacidades de IA generativa de Llama 3 se pueden utilizar en un navegador, a través de funciones de IA en Facebook, Instagram, WhatsApp y Messenger de Meta. El modelo en sí se puede descargar desde Meta o desde las principales plataformas empresariales en la nube. ¿Cuándo se lanzará Llama 3 y en qué plataformas? Llama 3 se lanzó el 18 de abril en Google Cloud Vertex AI, watsonx.ai de IBM y otras grandes plataformas de alojamiento LLM. AWS siguió y agregó Llama 3 a Amazon Bedrock el 23 de abril. A partir del 29 de abril, Llama 3 está disponible en las siguientes plataformas: Databricks. Abrazando la cara. Kaggle. Microsoft Azure. NIM de NVIDIA. Las plataformas de hardware de AMD, AWS, Dell, Intel, NVIDIA y Qualcomm son compatibles con Llama 3. ¿Llama 3 es de código abierto? Llama 3 es de código abierto, como lo han sido los otros LLM de Meta. La creación de modelos de código abierto ha sido un valioso diferenciador para Meta. VER: El informe del índice de IA de Stanford revela 8 tendencias de la IA en los negocios actuales. (TechRepublic) Existe cierto debate sobre qué parte del código o los pesos de un modelo de lenguaje grande deben estar disponibles públicamente para contar como código abierto. Pero en lo que respecta a los fines comerciales, Meta ofrece una mirada más abierta a Llama 3 que sus competidores para sus LLM. ¿Llama 3 es gratis? Llama 3 es gratuito siempre que se utilice según los términos de la licencia. El modelo se puede descargar directamente desde Meta o utilizar dentro de los diversos servicios de alojamiento en la nube enumerados anteriormente, aunque esos servicios pueden tener tarifas asociadas. La página de inicio de Meta AI en un navegador ofrece opciones sobre qué pedirle a Llama 3 que haga. Imagen: Meta / Captura de pantalla de Megan Crouse ¿Llama 3 es multimodal? Llama 3 no es multimodal, lo que significa que no es capaz de comprender datos de diferentes modalidades como vídeo, audio o texto. Meta planea hacer que Llama 3 sea multimodal en un futuro próximo. Mejoras de Llama 3 sobre Llama 2 Para hacer que Llama 3 sea más capaz que Llama 2, Meta agregó un nuevo tokenizador para codificar el lenguaje de manera mucho más eficiente. Meta mejoró Llama 3 con atención de consultas agrupadas, un método para mejorar la eficiencia de la inferencia del modelo. El conjunto de entrenamiento de Llama 3 es siete veces mayor que el conjunto de entrenamiento utilizado para Llama 2, dijo Meta, e incluye cuatro veces más código. Meta aplicó nuevas eficiencias al preentrenamiento y al ajuste de instrucciones de Llama 3. Dado que Llama 3 está diseñado como un modelo abierto, Meta agregó barreras de seguridad pensando en los desarrolladores. Una nueva barrera de seguridad es Code Shield, cuyo objetivo es detectar el código inseguro que el modelo pueda producir. ¿Qué sigue para Llama 3? Meta planea: Agregar varios idiomas a Llama 3. Expandir la ventana contextual. Generalmente aumenta las capacidades del modelo en el futuro. Meta está trabajando en un modelo de parámetros 400B, que puede ayudar a dar forma a la próxima generación de Llama 3. En las primeras pruebas, Llama 3 400B con ajuste de instrucciones obtuvo una puntuación de 86,1 en la evaluación de conocimientos MMLU (una prueba comparativa de IA), según Meta, lo que lo convierte en competitivo con GPT-4. Llama 400B sería el LLM más grande de Meta hasta el momento. El lugar de Llama 3 en el competitivo panorama de la IA generativa Llama 3 compite directamente con GPT-4 y GPT-3.5, Gemini y Gemma de Google, Mistral 7B de Mistral AI, Perplexity AI y otros LLM para uso individual o comercial para construir chatbots de IA generativa y otros. herramientas. Aproximadamente una semana después de que se revelara Llama 3, Snowflake presentó su propia IA empresarial abierta con capacidades comparables, llamada Snowflake Arctic. Los crecientes requisitos de rendimiento de LLM como Llama 3 están contribuyendo a una carrera armamentista de PC con IA que pueden ejecutar modelos al menos parcialmente en el dispositivo. Mientras tanto, las empresas de IA generativa pueden enfrentar un mayor escrutinio por sus grandes necesidades informáticas, lo que podría contribuir a empeorar el cambio climático. Llama 3 vs GPT-4 Llama 3 supera al GPT-4 de OpenAI en HumanEval, que es un punto de referencia estándar que compara la capacidad del modelo de IA para generar código con el código escrito por humanos. Llama 3 70B obtuvo una puntuación de 81,7, en comparación con la puntuación de 67 de GPT-4. Sin embargo, GPT-4 superó a Llama 3 en la evaluación de conocimientos MMLU con una puntuación de 86,4 frente a 79,5 de Llama 3 70B. El rendimiento de Llama 3 en más pruebas se puede encontrar en la publicación del blog de Meta.

Intel, VMware, Linux Foundation y otros forman una plataforma abierta para la IA empresarial

Con el fin de proporcionar marcos abiertos para capacidades de IA generativa en todos los ecosistemas, como la generación de recuperación aumentada, la Fundación Linux, Intel y otras empresas y grupos han creado la Plataforma Abierta para la IA Empresarial. ¿Qué es la plataforma abierta para la IA empresarial? OPEA es un proyecto sandbox dentro de LF AI & Data Foundation, parte de la Fundación Linux. El plan es fomentar la adopción de tecnologías de IA generativa abiertas y crear “sistemas GenAI flexibles y escalables que aprovechen la mejor innovación de código abierto de todo el ecosistema”, según un comunicado de prensa de OPEA. A la iniciativa se han sumado las siguientes empresas y grupos: Anyscale. Nubera. DatosStax. Laboratorio de datos de Domino. Abrazando la cara. Intel. KX. Fundación MaríaDB. MinIO. Qdrant. Sombrero rojo. SAS. VMware (adquirida por Broadcom). Datos de ladrillo amarillo. Zilliz. Idealmente, la iniciativa podría resultar en una mayor interoperabilidad entre productos y servicios de esos proveedores. «A medida que GenAI madura, la integración en la TI existente es un paso natural y necesario», dijo Kaj Arnö, director ejecutivo de la Fundación MariaDB, en un comunicado de prensa de OPEA. ¿Qué creó la OPEA? La idea es encontrar nuevos casos de uso para la IA, particularmente verticalmente en la pila de tecnología, a través de un modelo de gobernanza abierto y colaborativo. Para ello, OPEA creó un marco de bloques de construcción componibles para sistemas generativos de IA, desde la capacitación hasta el almacenamiento de datos y las indicaciones. OPEA también creó una evaluación para calificar el rendimiento, las características, la confiabilidad y la preparación a nivel empresarial de los sistemas de IA generativa y los planos para la estructura de la pila de componentes y los flujos de trabajo de RAG. Intel, en particular, proporcionará lo siguiente: Un marco conceptual técnico. Implementaciones de referencia para implementar IA generativa en procesadores Intel Xeon y aceleradores Intel Gaudi AI. Más capacidad de infraestructura en Intel Tiber Developer Cloud para el desarrollo del ecosistema, la aceleración de la IA y la validación de RAG y futuras canalizaciones. «Abogar por una base de código abierto y estándares, desde conjuntos de datos hasta formatos, API y modelos, permite a las organizaciones y empresas construir de forma transparente», dijo AB Periasamy, director ejecutivo y cofundador de MinIO, en un comunicado de prensa de OMEA. «La infraestructura de datos de IA también debe construirse sobre estos principios abiertos». Más cobertura de IA de lectura obligada ¿Por qué es tan importante RAG? La generación de recuperación aumentada, en la que los modelos de IA generativa verifican con datos públicos o de la empresa del mundo real antes de proporcionar una respuesta, está demostrando ser valiosa en el uso empresarial de la IA generativa. RAG ayuda a las empresas a confiar en que la IA generativa no arrojará respuestas sin sentido que parezcan convincentes. OPEA espera que RAG (Figura A) pueda permitir que la IA generativa extraiga más valor de los depósitos de datos que las empresas ya tienen. Figura A Una tubería que muestra la arquitectura RAG. Imagen: OMEA “Estamos encantados de darle la bienvenida a OPEA a LF AI & Data con la promesa de ofrecer canales de generación de recuperación aumentada (RAG) de código abierto, estandarizados, modulares y heterogéneos para empresas con un enfoque en el desarrollo de modelos abiertos, reforzados y optimizados. soporte de varios compiladores y cadenas de herramientas”, dijo el director ejecutivo de LF AI & Data, Ibrahim Haddad, en un comunicado de prensa. No existen estándares de facto para implementar RAG, señaló Intel en su publicación de anuncio; La OPEA pretende llenar ese vacío. VER: Nombramos a RAG una de las principales tendencias de IA de 2024. «Estamos viendo un enorme entusiasmo entre nuestra base de clientes por RAG», dijo Chris Wolf, director global de IA y servicios avanzados de Broadcom, en un comunicado de prensa de OPEA. “Las estructuras detrás de RAG se pueden aplicar universalmente a una variedad de casos de uso, lo que hace que un enfoque impulsado por la comunidad que impulse la coherencia y la interoperabilidad de las aplicaciones RAG sea un importante paso adelante para ayudar a todas las organizaciones a aprovechar de forma segura los numerosos beneficios que la IA tiene para ofrecer. “Añadió Lobo. ¿Cómo pueden participar las organizaciones en OPEA? Las organizaciones pueden participar contribuyendo en GitHub o comunicándose con OPEA.

NIST establece un consorcio de seguridad de IA

Imagen: Adobe/Grandbrothers El Instituto Nacional de Estándares y Tecnología estableció el Instituto de Seguridad de IA el 7 de febrero para determinar pautas y estándares para la medición y política de IA. Las empresas de IA de EE. UU. y las empresas que hacen negocios en EE. UU. se verán afectadas por esas directrices y estándares y pueden tener la oportunidad de hacer comentarios al respecto. ¿Qué es el consorcio del Instituto de Seguridad de IA de EE. UU.? El Instituto de Seguridad de la IA de EE. UU. es un grupo de investigación conjunto de los sectores público y privado y un espacio de intercambio de datos para “creadores y usuarios de IA, académicos, investigadores gubernamentales y de la industria, y organizaciones de la sociedad civil”, según el NIST. Las organizaciones podrían postularse para convertirse en miembros entre el 2 de noviembre de 2023 y el 15 de enero de 2024. De más de 600 organizaciones interesadas, el NIST eligió 200 empresas y organizaciones para convertirse en miembros. Las organizaciones participantes incluyen Apple, Anthropic, Cisco, Hewlett Packard Enterprise, Hugging Face, Microsoft, Meta, NVIDIA, OpenAI, Salesforce y otras empresas, instituciones académicas y organizaciones de investigación. Esos miembros trabajarán en proyectos que incluyen: Desarrollar nuevas pautas, herramientas, métodos, protocolos y mejores prácticas para contribuir a los estándares de la industria para desarrollar e implementar una IA segura y confiable. Desarrollar orientación y puntos de referencia para identificar y evaluar las capacidades de la IA, especialmente aquellas capacidades que podrían causar daño. Desarrollar enfoques para incorporar prácticas de desarrollo seguras para la IA generativa. Desarrollar métodos y prácticas para lograr con éxito el aprendizaje automático en equipos rojos. Desarrollar formas de autenticar el contenido digital generado por IA. Especificar y fomentar las habilidades de la fuerza laboral de IA. «La IA responsable ofrece un enorme potencial para la humanidad, las empresas y los servicios públicos, y Cisco cree firmemente que un enfoque holístico y simplificado ayudará a Estados Unidos a aprovechar de forma segura todos los beneficios de la IA», afirmó Nicole Isaac, vicepresidenta de políticas públicas globales de Cisco. en una declaración al NIST. VER: ¿Cuáles son las diferencias entre IA y aprendizaje automático? (TechRepublic Premium) «Trabajar juntos entre la industria, el gobierno y la sociedad civil es esencial si queremos desarrollar estándares comunes en torno a una IA segura y confiable», dijo Nick Clegg, presidente de asuntos globales de Meta, en una declaración al NIST. «Estamos entusiasmados de ser parte de este consorcio y trabajar en estrecha colaboración con el AI Safety Institute». Una omisión interesante en la lista de miembros del Instituto de Seguridad de la IA de EE. UU. es el Future of Life Institute, una organización mundial sin fines de lucro con inversores entre los que se incluye Elon Musk, creada para evitar que la IA contribuya a “riesgos extremos a gran escala”, como una guerra global. Más cobertura de IA de lectura obligada La creación del Instituto de Seguridad de la IA y su lugar en el gobierno federal El Instituto de Seguridad de la IA de EE. UU. se creó como parte de los esfuerzos establecidos por la Orden Ejecutiva del presidente Joe Biden sobre la proliferación y la seguridad de la IA en octubre de 2023. El Instituto de Seguridad de la IA de EE. UU. está bajo la jurisdicción del Departamento de Comercio. Elizabeth Kelly es la directora inaugural del instituto y Elham Tabassi es su director de tecnología. ¿Quién trabaja en la seguridad de la IA? En los EE. UU., la seguridad y la regulación de la IA a nivel gubernamental están a cargo del NIST y, ahora, del Instituto de Seguridad de la IA de los EE. UU. dependiente del NIST. Las principales empresas de IA de EE. UU. han trabajado con el gobierno para fomentar la seguridad y las habilidades de la IA para ayudar a la industria de la IA a construir la economía. Las instituciones académicas que trabajan en la seguridad de la IA incluyen la Universidad de Stanford y la Universidad de Maryland, entre otras. Un grupo de organizaciones internacionales de ciberseguridad estableció las Directrices para el desarrollo seguro de sistemas de IA en noviembre de 2023 para abordar la seguridad de la IA en las primeras etapas del ciclo de desarrollo.

Source link

Funciona con WordPress & Tema de Anders Norén