Google ha abierto el acceso a la ventana de contexto de 2 millones de tokens del modelo de IA de Gemini 1.5 Pro. La empresa también está dando a los desarrolladores acceso a las capacidades de ejecución de código en la API de Gemini y poniendo a disposición el modelo Gemma 2 en Google AI Studio. Estos anuncios se realizaron el 27 de junio. La ventana de contexto de 2 millones de tokens de Gemini 1.5 Pro, anteriormente disponible a través de una lista de espera, ahora está disponible para todos los desarrolladores. Google señaló que a medida que crece la ventana de contexto, también lo hace el potencial de costo de entrada. Para ayudar a los desarrolladores a reducir los costos de las tareas que utilizan los mismos tokens en múltiples indicaciones, Google ha introducido el almacenamiento en caché de contexto en la API de Gemini para Gemini 1.5 Pro y Gemini 1.5 Flash. Para desbloquear capacidades de razonamiento matemático y de datos para los desarrolladores, Google también ha habilitado la ejecución de código en Gemini 1.5 Pro y Gemini 1.5 Flash. La función de ejecución de código permite que el modelo ejecute código Python y aprenda iterativamente de los resultados hasta que se alcanza una entrada final deseada. Este se considera un primer paso adelante con la ejecución de código como una capacidad del modelo. Está disponible a través de la API de Gemini y en Google AI Studio en «configuración avanzada». Google también dijo que ha puesto el modelo Gemma 2 a disposición en Google AI Studio para experimentación, y está trabajando para ofrecer ajustes para Gemini 1.5 Flash a todos los desarrolladores. El ajuste de texto en Gemini 1.5 Flash ahora está listo para el trabajo en equipo y se implementará gradualmente para todos los desarrolladores. Todos los desarrolladores tendrán acceso al ajuste de Gemini 1.5 Flash a través de la API de Gemini y en Google AI Studio a mediados de julio, dijo la compañía. Copyright © 2024 IDG Communications, Inc.