<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Gemini 2.0 &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/gemini-2-0/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Thu, 06 Mar 2025 18:29:18 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>Gemini 2.0 &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Esto es lo que debes saber sobre el nuevo “Modo IA” del buscador de Google</title>
		<link>https://dplnews.com/lo-que-debes-saber-sobre-modo-ia-google/</link>
		
		<dc:creator><![CDATA[Alejandro González]]></dc:creator>
		<pubDate>Thu, 06 Mar 2025 18:29:15 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Gemini 2.0]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Google Modo IA]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=267605</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="967" height="525" src="https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google modo ia vc 060325" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325.png 967w, https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325-300x163.png 300w, https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325-768x417.png 768w" sizes="(max-width: 967px) 100vw, 967px" title="Esto es lo que debes saber sobre el nuevo “Modo IA” del buscador de Google 1"></div>El nuevo Modo IA de Google realiza un análisis en varias etapas para ofrecer información comparativa y detallada. Por ahora, sólo está disponible en una fase de experimentación.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="967" height="525" src="https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google modo ia vc 060325" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325.png 967w, https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325-300x163.png 300w, https://dplnews.com/wp-content/uploads/2025/03/dplnews_google_modo_ia_vc_060325-768x417.png 768w" sizes="(max-width: 967px) 100vw, 967px" title="Esto es lo que debes saber sobre el nuevo “Modo IA” del buscador de Google 2"></div>
<p><strong>Google</strong> continúa con el desarrollo de soluciones con Inteligencia Artificial (IA) y anunció el lanzamiento de un<strong> “Modo IA” en su buscador.&nbsp;</strong></p>



<p>Se trata de un modo experimental que forma parte del laboratorio de innovaciones de Google, en el que ofrece razonamientos más avanzados y respuestas detalladas a preguntas complejas.&nbsp;</p>



<p><a href="https://dplnews.com/google-levanta-prohibicion-usar-su-ia-armas-vigilancia/">La compañía</a> dijo que el Modo IA utiliza una versión personalizada de <strong>Gemini 2.0</strong>, combinando habilidades multimodales con sistemas de información líderes en la industria, como el <strong>Knowledge Graph</strong> y datos en tiempo real.</p>



<p>Esta integración permite a los usuarios acceder no sólo a<strong> contenido<em> web</em> de alta calidad</strong>, sino también a datos actualizados sobre productos, conceptos y el mundo real.</p>



<p>Google explicó que su nueva herramienta cuenta con una innovadora técnica de “difusión de consultas”, que <a href="https://dplnews.com/openai-lanza-buscador-web-con-inteligencia-artificial/">realiza múltiples búsquedas</a> relacionadas simultáneamente, analiza subtemas y consolida los resultados en respuestas claras y completas. </p>



<p class="has-background" style="background-color:#fff6f9"><strong>Lee también: <a href="https://dplnews.com/google-lanza-gemini-2-0-asistente-universal-de-ia/">Google lanza Gemini 2.0 para avanzar hacia un asistente universal de IA</a></strong></p>



<p>Por ejemplo, si un usuario pregunta sobre las diferencias entre los dispositivos de rastreo del sueño, como un anillo inteligente, un<em> smartwatch</em> y una alfombrilla de monitoreo, <strong>el Modo IA realiza un análisis en varias etapas </strong>para ofrecer información comparativa y detallada. </p>



<p>Además, Google explicó que esta nueva herramienta <strong>permite hacer preguntas de seguimiento</strong>, como “¿qué sucede con tu frecuencia cardiaca durante el sueño profundo?”, proporcionando contenido digerible y enlaces relevantes para ampliar la exploración.</p>



<p><a href="https://dplnews.com/google-le-pone-inteligencia-artificial-generativa-a-su-buscador/">Google ha destacado</a> que, a pesar de los avances en IA, ayudar a los usuarios a descubrir contenido en la <em>web</em> sigue siendo un pilar fundamental en su enfoque. Gracias al Modo IA, las personas pueden expresar mejor sus necesidades con mayor precisión, lo que facilita el acceso a contenido relevante en formatos diversos.</p>



<p>Actualmente, el Modo IA está en una etapa de prueba limitada <strong>disponible a través de Labs</strong>, donde Google recopila retroalimentación de usuarios confiables y suscriptores<em> premium</em> de Google One AI. </p>



<p class="has-background" style="background-color:#fff6f9"><strong>No te pierdas: <a href="https://dplnews.com/consumidores-dispuestos-pagar-mas-por-5g-ia-generativa/">Consumidores están dispuestos a pagar más por 5G para usar la IA Generativa</a></strong></p>



<p>Los evaluadores destacan la velocidad, calidad y frescura de las respuestas como aspectos clave. En esta etapa, Google aseguró que se compromete a abordar desafíos, como garantizar la objetividad de las respuestas y evitar interpretaciones o sesgos involuntarios para optimizar la experiencia.</p>



<p>El lanzamiento experimental de Google se da en un momento de <a href="https://dplnews.com/openai-lanza-buscador-web-con-inteligencia-artificial/">intensa competencia</a> entre las empresas tecnológicas por integrar modelos de IA. En junio del año pasado, <strong>OpenAI</strong> presentó su propio buscador <em>web</em> con Inteligencia Artificial.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Google AI Studio: Advanced features" width="1170" height="658" src="https://www.youtube.com/embed/GX9wrTxs2ow?wmode=transparent&amp;rel=0&amp;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p></p>



<p></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">267605</post-id>	</item>
		<item>
		<title>Gemini 2.0 ya está disponible para todas las personas</title>
		<link>https://dplnews.com/gemini-2-0-ya-esta-disponible-para-todas-las-personas/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Thu, 06 Feb 2025 17:15:00 +0000</pubDate>
				<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Gemini 2.0]]></category>
		<category><![CDATA[Google]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=264675</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="676" src="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google gemini 2 mc121224" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp 1200w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-1024x577.webp 1024w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-768x433.webp 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Gemini 2.0 ya está disponible para todas las personas 3"></div>Blog Google El mes pasado,&#160;dimos inicio&#160;a la era de los agentes al lanzar una versión experimental de Gemini 2.0 Flash — nuestro modelo de trabajo de alta eficiencia para desarrolladores con baja latencia y rendimiento mejorado. A principios de este año, actualizamos&#160;2.0 Flash Thinking Experimental&#160;en Google AI Studio, lo que mejoró su rendimiento al combinar [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="676" src="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google gemini 2 mc121224" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp 1200w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-1024x577.webp 1024w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-768x433.webp 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Gemini 2.0 ya está disponible para todas las personas 4"></div>
<p><a href="https://blog.google/intl/es-419/actualizaciones-de-producto/informacion/gemini-20-ya-esta-disponible-para-todas-las-personas/" data-type="link" data-id="https://blog.google/intl/es-419/actualizaciones-de-producto/informacion/gemini-20-ya-esta-disponible-para-todas-las-personas/" rel="nofollow noopener" target="_blank">Blog Google</a></p>



<p>El mes pasado,&nbsp;<a href="https://blog.google/intl/es-419/actualizaciones-de-producto/informacion/gemini-20-nuestro-nuevo-modelo-de-ai-para-la-era-de-los-agentes-digitales/" rel="nofollow noopener" target="_blank">dimos inicio</a>&nbsp;a la era de los agentes al lanzar una versión experimental de Gemini 2.0 Flash — nuestro modelo de trabajo de alta eficiencia para desarrolladores con baja latencia y rendimiento mejorado. A principios de este año, actualizamos&nbsp;<a href="https://deepmind.google/technologies/gemini/flash-thinking/" rel="noreferrer noopener nofollow" target="_blank">2.0 Flash Thinking Experimental</a>&nbsp;en Google AI Studio, lo que mejoró su rendimiento al combinar la velocidad de Flash con la capacidad de razonar a través de problemas más complejos.</p>



<p>Y la semana pasada,&nbsp;<a href="https://blog.google/feed/gemini-app-model-update-january-2025" rel="nofollow noopener" target="_blank">pusimos una versión actualizada de 2.0 Flash a disposición de todos los usuarios en la aplicación Gemini</a>&nbsp;para escritorio y dispositivos móviles, ayudando a todos a descubrir nuevas formas de crear, interactuar y colaborar con Gemini.</p>



<p>Hoy, estamos haciendo que la versión actualizada de Gemini 2.0 Flash esté disponible de forma general a través de la API de Gemini en&nbsp;<a href="https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-exp" rel="noreferrer noopener nofollow" target="_blank">Google AI Studio</a>&nbsp;y&nbsp;<a href="https://console.cloud.google.com/freetrial?redirectPath=/vertex-ai/studio" rel="noreferrer noopener nofollow" target="_blank">Vertex AI</a>. Los desarrolladores ahora pueden crear aplicaciones de producción con 2.0 Flash.</p>



<p>También estamos lanzando una versión experimental de Gemini 2.0 Pro, nuestro mejor modelo hasta ahora para rendimiento de codificación y&nbsp;<em>prompts</em>&nbsp;complejos. Estará disponible en&nbsp;<a href="https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-exp" rel="noreferrer noopener nofollow" target="_blank">Google AI Studio</a>&nbsp;y&nbsp;<a href="https://console.cloud.google.com/freetrial?redirectPath=/vertex-ai/studio" rel="noreferrer noopener nofollow" target="_blank">Vertex AI</a>, y en la aplicación Gemini para usuarios de Gemini Advanced.</p>



<p>Estamos lanzando un nuevo modelo, Gemini 2.0 Flash-Lite, nuestro modelo más eficiente hasta la fecha, está en versión preliminar pública en&nbsp;<a href="https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-exp" rel="noreferrer noopener nofollow" target="_blank">Google AI Studio</a>&nbsp;y&nbsp;<a href="https://console.cloud.google.com/freetrial?redirectPath=/vertex-ai/studio" rel="noreferrer noopener nofollow" target="_blank">Vertex AI</a>.</p>



<p>Finalmente,&nbsp;<a href="http://blog.google/feed/gemini-app-experimental-models" rel="nofollow noopener" target="_blank">2.0 Flash Thinking Experimental estará disponible para los usuarios de la aplicación Gemini</a>&nbsp;en el menú desplegable de modelos para escritorio y dispositivos móviles.</p>



<p>Todos estos modelos contarán con entrada multimodal y salida de texto en su lanzamiento, con más modalidades generales en los próximos meses. Más información y detalles sobre precios, en el blog post oficial de&nbsp;<a href="https://developers.google.com/?hl=es-419" rel="noreferrer noopener nofollow" target="_blank">Google para Desarrolladores</a>. De cara al futuro, estamos trabajando en más actualizaciones y capacidades mejoradas para la familia de modelos Gemini 2.0.</p>



<p>Leer más: <a href="https://blog.google/intl/es-419/actualizaciones-de-producto/informacion/gemini-20-ya-esta-disponible-para-todas-las-personas/" rel="nofollow noopener" target="_blank">https://blog.google/intl/es-419/actualizaciones-de-producto/informacion/gemini-20-ya-esta-disponible-para-todas-las-personas/</a></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">264675</post-id>	</item>
		<item>
		<title>Google da un paso más y presenta un modelo de IA que muestra cómo razona</title>
		<link>https://dplnews.com/google-presenta-modelo-de-ia-que-muestra-como-razona/</link>
		
		<dc:creator><![CDATA[Paula Bertolini]]></dc:creator>
		<pubDate>Tue, 24 Dec 2024 16:49:31 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Gemini 2.0]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[razonamiento]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=260278</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="676" src="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google gemini 2 mc121224" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp 1200w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-1024x577.webp 1024w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-768x433.webp 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Google da un paso más y presenta un modelo de IA que muestra cómo razona 5"></div>Google lanzó Gemini 2.0 Flash Thinking, un modelo experimental de Inteligencia Artificial (IA) que genera el “proceso de pensamiento” que atraviesa el modelo como parte de su respuesta. Es decir, el sistema muestra sus “pensamientos” a la hora de resolver las preguntas complejas sobre matemáticas o programación que le hacen los usuarios. Como resultado, el [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="676" src="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google gemini 2 mc121224" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp 1200w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-1024x577.webp 1024w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-768x433.webp 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Google da un paso más y presenta un modelo de IA que muestra cómo razona 6"></div>
<p><a href="https://dplnews.com/?s=Google+">Google</a> lanzó <a href="https://dplnews.com/google-lanza-gemini-2-0-asistente-universal-de-ia/">Gemini</a> 2.0 Flash Thinking, un modelo experimental de Inteligencia Artificial (IA) que genera el “<strong>proceso de pensamiento</strong>” que atraviesa el modelo como parte de su respuesta. Es decir, el sistema muestra sus “pensamientos” a la hora de resolver las preguntas complejas sobre matemáticas o programación que le hacen los usuarios.</p>



<p>Como resultado, el modo de pensar tiene capacidades de razonamiento más sólidas en sus respuestas que el modelo experimental de Gemini 2.0 Flash.</p>



<p>Según informó la compañía, el sistema está disponible en Google AI Studio y a través de la API de <a href="https://dplnews.com/google-unifica-equipos-de-gemini-y-deepmind-ia/">Gemini</a>.</p>



<p>Jeff Dean, director de Gemini, dijo en su cuenta de X que el modelo está construido sobre la velocidad y el rendimiento de Flash 2.0 y está entrenado para usar los pensamientos para fortalecer su razonamiento.</p>



<p>Además, publicó una demostración de cómo el modelo resuelve un problema de física y explica su razonamiento.</p>



<blockquote class="twitter-tweet" data-media-max-width="560"><p lang="en" dir="ltr">Want to see Gemini 2.0 Flash Thinking in action? Check out this demo where the model solves a physics problem and explains its reasoning. <a href="https://t.co/Nl0hYj7ZFS" rel="nofollow">pic.twitter.com/Nl0hYj7ZFS</a></p>&mdash; Jeff Dean (@JeffDean) <a href="https://twitter.com/JeffDean/status/1869790032296579169?ref_src=twsrc%5Etfw" rel="nofollow noopener" target="_blank">December 19, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>



<p>Dean ha adelantado que, según las pruebas de la compañía, el nuevo modelo ofrecerá “resultados prometedores” cuando aumenten el tiempo de cálculo de inferencia, es decir, la cantidad de cálculo que se utiliza para ejecutar el modelo a la hora de responder una pregunta.</p>



<p>Semanas atrás, <a href="https://dplnews.com/google-lanza-gemini-2-0-asistente-universal-de-ia/">Google presentó <strong>Gemini 2.0</strong></a><strong>, </strong>la segunda iteración de su modelo de lenguaje grande (LLM, por sus siglas en inglés) a un año de su <a href="https://dplnews.com/google-cloud-introduce-gemini-para-desarrolladores-y-empresas/">lanzamiento inicial</a>, en diciembre de 2023.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">260278</post-id>	</item>
		<item>
		<title>Google lanza Gemini 2.0 para avanzar hacia un asistente universal de IA</title>
		<link>https://dplnews.com/google-lanza-gemini-2-0-asistente-universal-de-ia/</link>
		
		<dc:creator><![CDATA[Raúl Parra]]></dc:creator>
		<pubDate>Fri, 13 Dec 2024 04:51:07 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Gemini 2.0]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[modelos de lenguaje]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=259085</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="676" src="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google gemini 2 mc121224" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp 1200w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-1024x577.webp 1024w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-768x433.webp 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Google lanza Gemini 2.0 para avanzar hacia un asistente universal de IA 7"></div>Google lanzó Gemini 2.0, su LLM más capaz hasta la fecha, que incorpora nuevas funciones de multimodalidad como resultados de audios y videos nativos para avanzar en su visión de crear un asistente universal de Inteligencia Artificial.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="676" src="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews google gemini 2 mc121224" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224.webp 1200w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-1024x577.webp 1024w, https://dplnews.com/wp-content/uploads/2024/12/dplnews_google-gemini-2_mc121224-768x433.webp 768w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Google lanza Gemini 2.0 para avanzar hacia un asistente universal de IA 8"></div>
<p>Google anunció el lanzamiento de <strong>Gemini 2.0, </strong>la segunda iteración de su modelo de lenguaje grande (LLM, por sus siglas en inglés) a un año de su <a href="https://dplnews.com/google-cloud-introduce-gemini-para-desarrolladores-y-empresas/">lanzamiento inicial, en diciembre de 2023</a>.</p>



<p><strong>Gemini 2.0</strong> es el modelo de Inteligencia Artificial (IA) de Google “más capaz hasta el momento”, de acuerdo con el CEO Sundar Pichai, quien lo atribuye a los avances en multimodalidad, como resultados de imágenes y audio nativos, que le permitirán a la compañía tecnológica desarrollar nuevos agentes de IA que la acerquen a su visión de crear un “verdadero<a href="https://dplnews.com/meddi-la-plataforma-medica-que-quiere-superar-el-millon-de-pacientes-en-2024/"> asistente universal</a>”.</p>



<p>A partir del miércoles 11 de diciembre, Google puso a disposición de desarrolladores y verificadores Gemini 2.0 y ya trabaja para implementarlo en sus productos, como Gemini y el Buscador. Pichai aseguró que ninguno de los productos de la compañía ha sido transformado más por la Inteligencia Artificial que este último, ya que sus Visiones Generales creadas por IA ya llegan a mil millones de usuarios, los cuales pueden hacer nuevas preguntas.</p>



<p>Desde esta semana, el modelo Gemini 2.0 Flash Experimental ya está disponible para todos los usuarios de Gemini. Adicionalmente, Google lanzó una nueva función llamada Deep Research, que aplica <strong>razonamiento avanzado</strong> y funciones de contexto ampliado para actuar como asistente de investigación y explorar temas complejos y compilar informes por los usuarios, que ya está disponible en <strong>Gemini Advanced</strong>.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>También lee: </strong><a href="https://dplnews.com/google-unifica-equipos-de-gemini-y-deepmind-ia/"><strong>Google unifica equipos de Gemini y DeepMind para mejorar desarrollo y despliegue de IA</strong></a></p>



<p>La compañía detalló que los avances de Gemini 2.0 son fruto de una década de inversiones en su enfoque diferenciado de<em> full-stack</em> para la innovación en IA. Además, está integrado en <em>hardware </em>personalizado, como Trillium, sus unidades de procesamiento de tensor (TPUs) de sexta generación, las cuales potenciaron la totalidad del entrenamiento y la inferencia de Gemini 2.0. Próximamente estará disponible de manera general para que los clientes también puedan usarlo para desarrollar.</p>



<p>Finalmente, la Big Tech anunció que el siguiente paso será llevar las funciones de razonamiento avanzado de Gemini 2.0 a las <strong>Visiones Generales</strong> creadas por IA para resolver temas más complejos y conjuntos de preguntas, incluidas ecuaciones matemáticas avanzadas, preguntas multimodales y código.</p>



<p>Google empezó esta misma semana pruebas limitadas con miras a hacer un lanzamiento más amplio por etapas en 2025; al tiempo que seguirá ofreciendo la Visión General creada por IA a más países e idiomas durante el próximo año.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Introducing Gemini 2.0 | Our most capable AI model yet" width="1170" height="658" src="https://www.youtube.com/embed/Fs0t6SdODd8?wmode=transparent&amp;rel=0&amp;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">259085</post-id>	</item>
	</channel>
</rss>
