El mes pasado, dimos inicio a la era de los agentes al lanzar una versión experimental de Gemini 2.0 Flash — nuestro modelo de trabajo de alta eficiencia para desarrolladores con baja latencia y rendimiento mejorado. A principios de este año, actualizamos 2.0 Flash Thinking Experimental en Google AI Studio, lo que mejoró su rendimiento al combinar la velocidad de Flash con la capacidad de razonar a través de problemas más complejos.
Y la semana pasada, pusimos una versión actualizada de 2.0 Flash a disposición de todos los usuarios en la aplicación Gemini para escritorio y dispositivos móviles, ayudando a todos a descubrir nuevas formas de crear, interactuar y colaborar con Gemini.
Hoy, estamos haciendo que la versión actualizada de Gemini 2.0 Flash esté disponible de forma general a través de la API de Gemini en Google AI Studio y Vertex AI. Los desarrolladores ahora pueden crear aplicaciones de producción con 2.0 Flash.
También estamos lanzando una versión experimental de Gemini 2.0 Pro, nuestro mejor modelo hasta ahora para rendimiento de codificación y prompts complejos. Estará disponible en Google AI Studio y Vertex AI, y en la aplicación Gemini para usuarios de Gemini Advanced.
Estamos lanzando un nuevo modelo, Gemini 2.0 Flash-Lite, nuestro modelo más eficiente hasta la fecha, está en versión preliminar pública en Google AI Studio y Vertex AI.
Finalmente, 2.0 Flash Thinking Experimental estará disponible para los usuarios de la aplicación Gemini en el menú desplegable de modelos para escritorio y dispositivos móviles.
Todos estos modelos contarán con entrada multimodal y salida de texto en su lanzamiento, con más modalidades generales en los próximos meses. Más información y detalles sobre precios, en el blog post oficial de Google para Desarrolladores. De cara al futuro, estamos trabajando en más actualizaciones y capacidades mejoradas para la familia de modelos Gemini 2.0.