¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora Liquid AI ha lanzado LFM2-VL, una nueva generación de modelos de base en idioma de visión diseñados para una implementación eficiente en una amplia gama de hardware, desde teléfonos inteligentes y computadoras portátiles hasta wearables y sistemas integrados. Los modelos prometen un rendimiento de baja latencia, una fuerte precisión y flexibilidad para aplicaciones del mundo real. LFM2-VL se basa en la arquitectura LFM2 existente de la Compañía, extendiéndola al procesamiento multimodal que admite las entradas de texto e imágenes en resoluciones variables. Según Liquid AI, los modelos entregan hasta el doble de la velocidad de inferencia de GPU de modelos comparables en idioma de visión, al tiempo que mantienen un rendimiento competitivo en puntos de referencia comunes. AI Scaling alcanza sus límites de potencia de límites, el aumento de los costos de los tokens y los retrasos de inferencia están remodelando Enterprise AI. Join our exclusive salon to discover how top teams are: Turning energy into a strategic advantage Architecting efficient inference for real throughput gains Unlocking competitive ROI with sustainable AI systems Secure your spot to stay ahead: https://bit.ly/4mwGngO “Efficiency is our product,” wrote Liquid AI co-founder and CEO Ramin Hasani in a post on X announcing the new model family: meet LFM2-VL: an Modelo eficiente del idioma de visión líquida para la clase de dispositivo. Pesos abiertos, 440m y 1.6b, hasta 2 × más rápido en GPU con precisión competitiva, nativo de 512 × 512, parches inteligentes para imágenes grandes. La eficiencia es nuestro producto @liquidai_ Descargarlos en @huggingface: … pic.twitter.com/3lze6hc6ys: Ramin Hasani (@Ramin_M_H) 12 de agosto, 2025 dos variantes para diferentes necesidades, la versión incluye dos tamaños de modelo: LFM2-450m-Un modelo hiperefficiente con menos de la mitad de un billón de parámetros (tamaños internos) altamente recursos en el modelos). entornos. LFM2-VL-1.6B: un modelo más capaz que permanece lo suficientemente liviano para la implementación basada en GPU y de dispositivos. Ambas variantes procesan imágenes a resoluciones nativas de hasta 512 × 512 píxeles, evitando la distorsión o la elevación innecesaria. Para imágenes más grandes, el sistema aplica parches no superpuestos y agrega una miniatura para el contexto global, lo que permite al modelo capturar tanto detalles finos como la escena más amplia. Antecedentes sobre Liquid AI Liquid AI fue fundada por ex investigadores del Laboratorio de Informática e Inteligencia Artificial del MIT (CSAIL) con el objetivo de construir arquitecturas de IA que van más allá del modelo de transformador ampliamente utilizado. La innovación emblemática de la compañía, los modelos de Foundation Liquid (LFMS), se basan en principios de sistemas dinámicos, procesamiento de señales y álgebra lineal numérica, produciendo modelos de IA de uso general capaces de manejar texto, video, audio, series de tiempo y otros datos de secuencia. A diferencia de las arquitecturas tradicionales, el enfoque de Liquid tiene como objetivo ofrecer un rendimiento competitivo o superior utilizando significativamente menos recursos computacionales, lo que permite la adaptabilidad en tiempo real durante la inferencia mientras mantiene los bajos requisitos de memoria. Esto hace que LFMS sea muy adecuado tanto para casos de uso empresarial a gran escala como para implementaciones de bordes limitados por recursos. En julio de 2025, la compañía amplió su estrategia de plataforma con el lanzamiento de la plataforma Liquid Edge AI (LEAP), un SDK multiplataforma diseñado para facilitar a los desarrolladores ejecutar modelos de lenguaje pequeños directamente en dispositivos móviles e integrados. LEAP ofrece soporte agnóstico de OS para iOS y Android, integración con los propios modelos de Liquid y otros SLM de código abierto, y una biblioteca incorporada con modelos tan pequeños como 300 MB, lo suficientemente pocas veces para teléfonos modernos con RAM mínima. Su aplicación complementaria, Apollo, permite a los desarrolladores probar modelos completamente fuera de línea, alineándose con el énfasis de Liquid AI en la IA de baja latencia de preservación de la privacidad. Juntos, Leap y Apolo reflejan el compromiso de la compañía con descentralizar la ejecución de la IA, reducir la dependencia de la infraestructura en la nube y capacitar a los desarrolladores para construir modelos optimizados y específicos de tareas para entornos del mundo real. Las compensaciones de velocidad/calidad y el diseño técnico LFM2-VL utiliza una arquitectura modular que combina una columna vertebral del modelo de lenguaje, un codificador Siglip2 Naflex Vision y un proyector multimodal. El proyector incluye un conector MLP de dos capas con píxeles desacoplables, reduciendo el número de tokens de imagen y mejorando el rendimiento. Los usuarios pueden ajustar parámetros, como el número máximo de tokens o parches de imagen, lo que les permite equilibrar la velocidad y la calidad según el escenario de implementación. El proceso de capacitación involucró aproximadamente 100 mil millones de tokens multimodales, procedentes de conjuntos de datos abiertos y datos sintéticos internos. Rendimiento y puntos de referencia Los modelos logran resultados de referencia competitivos en una gama de evaluaciones en idioma de visión. LFM2-VL-1.6B obtiene un buen puntaje en RealWorldqa (65.23), InfoVQA (58.68) y Ocrbench (742), y mantiene resultados sólidos en tareas de razonamiento multimodal. En pruebas de inferencia, LFM2-VL logró los tiempos de procesamiento de GPU más rápidos en su clase cuando se probó en una carga de trabajo estándar de una imagen de 1024 × 1024 y un aviso corto. Licencias y disponibilidad Los modelos LFM2-VL están disponibles ahora en la cara de abrazo, junto con un ejemplo de código de ajuste fino en Colab. Son compatibles con abrazando transformadores faciales y TRL. Los modelos se lanzan bajo una «licencia LFM1.0» personalizada. Liquid AI ha descrito esta licencia basada en los principios de Apache 2.0, pero el texto completo aún no se ha publicado. La compañía ha indicado que el uso comercial se permitirá bajo ciertas condiciones, con diferentes términos para empresas superiores y inferiores a $ 10 millones en ingresos anuales. Con LFM2-VL, Liquid AI tiene como objetivo hacer que la IA multimodal de alto rendimiento sea más accesible para implementaciones en dispositivos y recursos limitados, sin sacrificar la capacidad. Insights diarias sobre casos de uso de negocios con VB diariamente Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo. Lea nuestra Política de privacidad Gracias por suscribirse. Mira más boletines de VB aquí. Ocurrió un error.