Ampliar / Ha habido muchas noticias sobre IA esta semana y cubrirlas a veces se siente como correr por una sala llena de CRT colgando, como esta ilustración de Getty Images. Ha sido una semana tremendamente ocupada en noticias sobre IA gracias a OpenAI, incluida una publicación de blog controvertida del CEO Sam Altman, el amplio lanzamiento del Modo de Voz Avanzado, rumores sobre centros de datos de 5GW, importantes cambios de personal y planes de reestructuración dramáticos. Pero el resto del mundo de la IA no marcha al mismo ritmo, haciendo lo suyo y produciendo nuevos modelos e investigaciones de IA minuto a minuto. Aquí hay un resumen de otras noticias notables sobre IA de la semana pasada. Actualizaciones de Google Gemini El martes, Google anunció actualizaciones de su línea de modelos Gemini, incluido el lanzamiento de dos nuevos modelos listos para producción que repiten lanzamientos anteriores: Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002. La empresa informó mejoras en la calidad general, con mejoras notables en matemáticas, manejo de contextos prolongados y tareas de visión. Google afirma un aumento del 7 por ciento en el rendimiento en el punto de referencia MMLU-Pro y una mejora del 20 por ciento en tareas relacionadas con las matemáticas. Pero como sabes, si has estado leyendo Ars Technica por un tiempo, los puntos de referencia de IA generalmente no son tan útiles como nos gustaría que fueran. Junto con las actualizaciones del modelo, Google introdujo reducciones sustanciales de precios para Gemini 1.5 Pro, reduciendo los costos de los tokens de entrada en un 64 por ciento y los costos de los tokens de salida en un 52 por ciento para solicitudes de menos de 128.000 tokens. Como señaló el investigador de IA Simon Willison en su blog: «A modo de comparación, GPT-4o cuesta actualmente 5 dólares/[million tokens] de entrada y $15/m de salida y Claude 3.5 Sonnet es de $3/m de entrada y $15/m de salida. Gemini 1.5 Pro ya era el más barato de los modelos fronterizos y ahora es aún más barato». Google también aumentó los límites de velocidad, con Gemini 1.5 Flash ahora admite 2.000 solicitudes por minuto y Gemini 1.5 Pro maneja 1.000 solicitudes por minuto. Google informa que los últimos modelos ofrecen el doble de velocidad de salida y una latencia tres veces menor en comparación con las versiones anteriores. Estos cambios pueden hacer que sea más fácil y rentable para los desarrolladores crear aplicaciones con Gemini que antes. Meta lanza Llama 3.2 El miércoles, Meta anunció el lanzamiento de Llama 3.2. , una actualización significativa de su línea de modelos de IA de peso abierto que hemos cubierto ampliamente en el pasado. La nueva versión incluye modelos de lenguaje grande (LLM) con capacidad de visión en tamaños de parámetros de 11 mil millones y 90 mil millones, así como modelos livianos de solo texto. de parámetros 1B y 3B diseñados para dispositivos móviles y de borde, Meta afirma que los modelos de visión son competitivos con los principales modelos de código cerrado en tareas de reconocimiento de imágenes y comprensión visual, mientras que, según se informa, los modelos más pequeños superan a competidores de tamaño similar en diversas tareas basadas en texto. Willison hizo algunos experimentos con algunos de los modelos 3.2 más pequeños y reportó resultados impresionantes para el tamaño de los modelos. El investigador de inteligencia artificial Ethan Mollick mostró cómo ejecuta Llama 3.2 en su iPhone usando una aplicación llamada PocketPal. Meta también presentó las primeras distribuciones oficiales «Llama Stack», creadas para simplificar el desarrollo y la implementación en diferentes entornos. Al igual que en versiones anteriores, Meta ofrece los modelos para su descarga gratuita, con restricciones de licencia. Los nuevos modelos admiten ventanas de contexto largas de hasta 128.000 tokens. AlphaChip AI de Google acelera el diseño de chips El jueves, Google DeepMind anunció lo que parece ser un avance significativo en el diseño de chips electrónicos impulsados por IA, AlphaChip. Comenzó como un proyecto de investigación en 2020 y ahora es un método de aprendizaje por refuerzo para diseñar diseños de chips. Según se informa, Google ha utilizado AlphaChip para crear «diseños de chips sobrehumanos» en las últimas tres generaciones de sus Unidades de Procesamiento Tensor (TPU), que son chips similares a las GPU diseñados para acelerar las operaciones de IA. Google afirma que AlphaChip puede generar diseños de chips de alta calidad en horas, en comparación con semanas o meses de esfuerzo humano. (Según se informa, Nvidia también ha estado utilizando IA para ayudar a diseñar sus chips). En particular, Google también lanzó un punto de control previamente entrenado de AlphaChip en GitHub, compartiendo los pesos del modelo con el público. La compañía informó que el impacto de AlphaChip ya se ha extendido más allá de Google, con compañías de diseño de chips como MediaTek adoptando y desarrollando la tecnología para sus chips. Según Google, AlphaChip ha desencadenado una nueva línea de investigación en IA para el diseño de chips, optimizando potencialmente cada etapa del ciclo de diseño de chips, desde la arquitectura de la computadora hasta la fabricación. Eso no fue todo lo que sucedió, pero esos son algunos aspectos destacados importantes. Dado que la industria de la IA no muestra signos de desaceleración en este momento, veremos cómo va la próxima semana.
Deja una respuesta