Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información Together AI ha causado sensación en el mundo de la IA al ofrecer a los desarrolladores acceso gratuito al nuevo y potente modelo Llama 3.2 Vision de Meta a través de Hugging Face. El modelo, conocido como Llama-3.2-11B-Vision-Instruct, permite a los usuarios cargar imágenes e interactuar con IA que puede analizar y describir contenido visual. Para los desarrolladores, esta es una oportunidad de experimentar con IA multimodal de vanguardia sin incurrir en los costos significativos que generalmente se asocian con modelos de esta escala. Todo lo que necesita es una clave API de Together AI y podrá comenzar hoy. Este lanzamiento subraya la ambiciosa visión de Meta para el futuro de la inteligencia artificial, que depende cada vez más de modelos que pueden procesar tanto texto como imágenes, una capacidad conocida como IA multimodal. Con Llama 3.2, Meta está ampliando los límites de lo que la IA puede hacer, mientras que Together AI está desempeñando un papel crucial al hacer que estas capacidades avanzadas sean accesibles a una comunidad de desarrolladores más amplia a través de una demostración gratuita y fácil de usar. Juntos, la interfaz de IA para acceder al modelo Llama 3.2 Vision de Meta, que muestra la simplicidad de usar tecnología de IA avanzada con solo una clave API y parámetros ajustables. (Crédito: Hugging Face) Los modelos Llama de Meta han estado a la vanguardia del desarrollo de IA de código abierto desde que se presentó la primera versión a principios de 2023, desafiando a líderes propietarios como los modelos GPT de OpenAI. Llama 3.2, lanzado en el evento Meta’s Connect 2024 esta semana, va aún más lejos al integrar capacidades de visión, lo que permite que el modelo procese y comprenda imágenes además de texto. Esto abre la puerta a una gama más amplia de aplicaciones, desde sofisticados motores de búsqueda basados ​​en imágenes hasta asistentes de diseño de UI con tecnología de inteligencia artificial. El lanzamiento de la demostración gratuita de Llama 3.2 Vision en Hugging Face hace que estas capacidades avanzadas sean más accesibles que nunca. Los desarrolladores, investigadores y nuevas empresas ahora pueden probar las capacidades multimodales del modelo simplemente cargando una imagen e interactuando con la IA en tiempo real. La demostración, disponible aquí, funciona con la infraestructura API de Together AI, que ha sido optimizada para brindar velocidad y rentabilidad. Del código a la realidad: una guía paso a paso para aprovechar Llama 3.2. Probar el modelo es tan sencillo como obtener una clave API gratuita de Together AI. Los desarrolladores pueden registrarse para obtener una cuenta en la plataforma de Together AI, que incluye $5 en créditos gratuitos para comenzar. Una vez configurada la clave, los usuarios pueden ingresarla en la interfaz de Hugging Face y comenzar a cargar imágenes para chatear con el modelo. El proceso de configuración lleva apenas unos minutos y la demostración proporciona una visión inmediata de hasta qué punto ha llegado la IA en la generación de respuestas similares a las humanas a las entradas visuales. Por ejemplo, los usuarios pueden cargar una captura de pantalla de un sitio web o una foto de un producto, y el modelo generará descripciones detalladas o responderá preguntas sobre el contenido de la imagen. Para las empresas, esto abre la puerta a una creación más rápida de prototipos y al desarrollo de aplicaciones multimodales. Los minoristas podrían usar Llama 3.2 para potenciar las funciones de búsqueda visual, mientras que las empresas de medios podrían aprovechar el modelo para automatizar los subtítulos de imágenes para artículos y archivos. Llama 3.2 es parte del impulso más amplio de Meta hacia la IA de borde, donde modelos más pequeños y eficientes pueden ejecutarse en dispositivos móviles y de borde sin depender de la infraestructura de la nube. Si bien el modelo 11B Vision ahora está disponible para pruebas gratuitas, Meta también ha introducido versiones livianas con tan solo mil millones de parámetros, diseñadas específicamente para uso en el dispositivo. Estos modelos, que pueden funcionar con procesadores móviles de Qualcomm y MediaTek, prometen llevar capacidades impulsadas por IA a una gama mucho más amplia de dispositivos. En una era en la que la privacidad de los datos es primordial, la IA de vanguardia tiene el potencial de ofrecer soluciones más seguras al procesar datos localmente en dispositivos en lugar de en la nube. Esto puede ser crucial para industrias como la atención médica y las finanzas, donde los datos confidenciales deben permanecer protegidos. El enfoque de Meta en hacer que estos modelos sean modificables y de código abierto también significa que las empresas pueden ajustarlos para tareas específicas sin sacrificar el rendimiento. El compromiso de Meta con la apertura con los modelos Llama ha sido un contrapunto audaz a la tendencia de sistemas de IA cerrados y propietarios. Con Llama 3.2, Meta está redoblando su creencia de que los modelos abiertos pueden impulsar la innovación más rápidamente al permitir que una comunidad mucho más grande de desarrolladores experimente y contribuya. En una declaración en el evento Connect 2024, el director ejecutivo de Meta, Mark Zuckerberg, señaló que Llama 3.2 representa un «crecimiento 10 veces mayor» en las capacidades del modelo desde su versión anterior, y está preparado para liderar la industria tanto en rendimiento como en accesibilidad. En conjunto, el papel de la IA en este ecosistema es igualmente digno de mención. Al ofrecer acceso gratuito al modelo Llama 3.2 Vision, la empresa se está posicionando como un socio fundamental para los desarrolladores y empresas que buscan integrar la IA en sus productos. El director ejecutivo de Together AI, Vipul Ved Prakash, enfatizó que su infraestructura está diseñada para facilitar que empresas de todos los tamaños implementen estos modelos en entornos de producción, ya sea en la nube o localmente. El futuro de la IA: el acceso abierto y sus implicaciones Si bien Llama 3.2 está disponible de forma gratuita en Hugging Face, Meta y Together AI claramente están considerando la adopción empresarial. El nivel gratuito es solo el comienzo: los desarrolladores que quieran escalar sus aplicaciones probablemente necesitarán pasar a planes pagos a medida que aumente su uso. Por ahora, sin embargo, la demostración gratuita ofrece una forma de bajo riesgo de explorar la vanguardia de la IA y, para muchos, eso cambia las reglas del juego. A medida que el panorama de la IA continúa evolucionando, la línea entre los modelos de código abierto y propietarios se vuelve cada vez más borrosa. Para las empresas, la conclusión clave es que los modelos abiertos como Llama 3.2 ya no son sólo proyectos de investigación: están listos para su uso en el mundo real. Y con socios como Together AI que hacen que el acceso sea más fácil que nunca, la barrera de entrada nunca ha sido tan baja. ¿Quieres probarlo tú mismo? Dirígete a la demostración de Hugging Face de Together AI para cargar tu primera imagen y ver lo que Llama 3.2 puede hacer. VB Daily ¡Manténgase informado! Reciba las últimas noticias en su bandeja de entrada diariamente. Al suscribirse, acepta los Términos de servicio de VentureBeat. Gracias por suscribirte. Consulte más boletines de VB aquí. Se produjo un error.