B. Resumen de Valle: • Google Cloud y la startup de código abierto Hugging Face firmaron un acuerdo para compartir hardware, infraestructura de nube, datos abiertos y modelos y bibliotecas de código abierto. • La asociación satisface la creciente demanda empresarial de software de IA generativa (GenAI) optimizado para tareas específicas y refleja la creciente popularidad de las aplicaciones de código abierto. Google Cloud y Hugging Face anunciaron un acuerdo que permitirá a los desarrolladores acceder a la infraestructura de Google Cloud para ajustar y operar los modelos de código abierto de Hugging Face sin la necesidad de una suscripción a Google Cloud. La asociación también permitirá a los clientes de Google Cloud entrenar e implementar modelos Hugging Face dentro de Google Kubernetes Engine (GKE) y Vertex AI, la plataforma ML de la compañía que ofrece Gemini, una plataforma multimodal de Google DeepMind. Vertex AI y GKE estarán disponibles en la plataforma Hugging Face durante el primer semestre de 2024. El acuerdo significa que la comunidad de desarrolladores puede entrenar y operar modelos Hugging Face en la infraestructura de Google Cloud que se ejecuta en la arquitectura de unidad de procesamiento tensorial (TPU) patentada de la compañía, lo que implica acceso. hasta hardware muy potente (para obtener más información, consulte Google aprovecha la inteligencia artificial y el análisis, se asocia con Nvidia para obtener ventajas en la guerra de la nube). Los desarrolladores también podrán utilizar máquinas virtuales que se ejecuten en GPU Nvidia H100 y en CPU Intel Sapphire, pudiendo elegir entre arquitecturas de silicio. Esto puede impulsar la innovación al brindar a los desarrolladores de código abierto acceso a almacenamiento y computación de alta calidad. Google dice que, a diferencia de las unidades de procesamiento de gráficos de uso general, que están diseñadas para computación paralela y son versátiles en diversas cargas de trabajo informáticas, las TPU están diseñadas específicamente para cargas de trabajo de IA y ML, centrándose en operaciones tensoriales para lograr mayores velocidades y eficiencias energéticas. Hugging Face es experto en establecer asociaciones y llegó a un acuerdo similar con Amazon hace casi un año para ayudar a los desarrolladores a acceder a la infraestructura de Amazon Web Services (AWS), así como a trabajar y ampliar la plataforma de inteligencia artificial de Amazon. En 2023, la startup, con sede en Nueva York (EE.UU.), también firmó acuerdos con Nvidia, Microsoft y Dell Technologies, que ofrece a los clientes la opción de entrenar e implementar los modelos de código abierto tanto en sus propias instalaciones como en entornos híbridos. . De manera similar al acuerdo con Amazon, este acuerdo permite a Google aumentar la capilaridad de su ecosistema de IA mientras se prepara para el próximo lanzamiento de Gemini Ultra, el modelo empresarial GenAI de Google, en algún momento de 2024. La medida de Google satisface la creciente demanda de personalización por parte de empresas ansiosas por encontrar usos prácticos para la tecnología. El ecosistema GenAI mira cada vez más hacia el mundo del código abierto porque estos modelos brindan a los clientes más transparencia que los modelos de caja negra como el de OpenAI. La oportunidad de personalización y colaboración comunitaria también es mayor. La asociación también abre una vía potencial para que Google impulse la penetración de su mercado de la nube a medida que una comunidad cada vez más grande de usuarios de IA de código abierto crece para depender de su potente hardware y servicios, al tiempo que clasifica la medida bajo el noble objetivo de «democratizar la IA». ‘ Este acuerdo significa que Google estará bien posicionado para ayudar a las empresas con la nueva ola de personalización de aplicaciones GenAI. A medida que el mercado madure lentamente, las empresas exigirán sacar más provecho de su inversión y adoptar aplicaciones cada vez más personalizadas para casos comerciales específicos. Este tipo de asociaciones puede ayudarlos a construir sus propios sistemas de inteligencia artificial aprovechando las innovaciones de la comunidad de código abierto y al mismo tiempo mantener la seguridad y el rendimiento de las implementaciones de hiperescala establecidas.

Source link