Google lanza Gemini 2.0 para avanzar hacia un asistente universal de IA

Google lanzó Gemini 2.0, su LLM más capaz hasta la fecha, que incorpora nuevas funciones de multimodalidad como resultados de audios y videos nativos para avanzar en su visión de crear un asistente universal de Inteligencia Artificial.

Google anunció el lanzamiento de Gemini 2.0, la segunda iteración de su modelo de lenguaje grande (LLM, por sus siglas en inglés) a un año de su lanzamiento inicial, en diciembre de 2023.

Gemini 2.0 es el modelo de Inteligencia Artificial (IA) de Google “más capaz hasta el momento”, de acuerdo con el CEO Sundar Pichai, quien lo atribuye a los avances en multimodalidad, como resultados de imágenes y audio nativos, que le permitirán a la compañía tecnológica desarrollar nuevos agentes de IA que la acerquen a su visión de crear un “verdadero asistente universal”.

A partir del miércoles 11 de diciembre, Google puso a disposición de desarrolladores y verificadores Gemini 2.0 y ya trabaja para implementarlo en sus productos, como Gemini y el Buscador. Pichai aseguró que ninguno de los productos de la compañía ha sido transformado más por la Inteligencia Artificial que este último, ya que sus Visiones Generales creadas por IA ya llegan a mil millones de usuarios, los cuales pueden hacer nuevas preguntas.

Desde esta semana, el modelo Gemini 2.0 Flash Experimental ya está disponible para todos los usuarios de Gemini. Adicionalmente, Google lanzó una nueva función llamada Deep Research, que aplica razonamiento avanzado y funciones de contexto ampliado para actuar como asistente de investigación y explorar temas complejos y compilar informes por los usuarios, que ya está disponible en Gemini Advanced.

También lee: Google unifica equipos de Gemini y DeepMind para mejorar desarrollo y despliegue de IA

La compañía detalló que los avances de Gemini 2.0 son fruto de una década de inversiones en su enfoque diferenciado de full-stack para la innovación en IA. Además, está integrado en hardware personalizado, como Trillium, sus unidades de procesamiento de tensor (TPUs) de sexta generación, las cuales potenciaron la totalidad del entrenamiento y la inferencia de Gemini 2.0. Próximamente estará disponible de manera general para que los clientes también puedan usarlo para desarrollar.

Finalmente, la Big Tech anunció que el siguiente paso será llevar las funciones de razonamiento avanzado de Gemini 2.0 a las Visiones Generales creadas por IA para resolver temas más complejos y conjuntos de preguntas, incluidas ecuaciones matemáticas avanzadas, preguntas multimodales y código.

Google empezó esta misma semana pruebas limitadas con miras a hacer un lanzamiento más amplio por etapas en 2025; al tiempo que seguirá ofreciendo la Visión General creada por IA a más países e idiomas durante el próximo año.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies