Google I/O 2025: presentan el futuro de las búsquedas y su cruce con la inteligencia artificial
Google dará inicio este martes a las 2 pm a su encuentro anual para desarrolladores, llamado Google I/O 2025, donde se espera que haga anuncios sobre sus plataformas de inteligencia artificial y el cruce con las búsquedas en la charla principal (el keynote), que suele durar un par de horas.
Demis Hassabis anuncia la llegada de Gemini 2.5 Flash (disponible en unas semanas) y Gemini 2.5 Pro (más adelante).
Here’s the latest on Gemini 2.5 Pro and Flash:
We’re releasing a new preview version of Gemini 2.5 Flash. ⚡
2.5 Pro, our most intelligent model, is now the leading model for learning
2.5 Flash will be available in early June, with 2.5 Pro coming soon after#GoogleIO— Google (@Google) May 20, 2025
Gemini 2.5 can now organize vast amounts of multimodal information, reason about everything it sees, and write code to simulate anything. ↓ #GoogleIO pic.twitter.com/rgliP2poj7
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Google también suma respuestas inteligentes personalizadas: hasta ahora ofrecía respuestas automáticas que la IA adaptaba al contexto de una conversación, pero que eran genéricas; ahora las crea aprendiendo de nuestro tono, la manera en que escribimos, cómo nos despedimos en una conversación, modismos, la información que tenemos en nuestro Gmail, incluso si no está en la cadena de mensajes principal para la que necesitamos una respuesta.
Sundar Pichai anuncia que todos los usuarios de Android y iOS podrán acceder a la nueva versión de Gemini Live a partir de hoy, capaz de interpretar todo lo que le muestra la cámara del teléfono y dialogar con nosotros en una conversación natural de audio.
También anunció Project Mariner para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (comprar cosas en otros sitios, intercambiar información)
Por ejemplo, le podemos pedir a Gemini que nos busque un departamento para alquilar, que requiere que la IA dialogue con varios servicios y plataformas para encontrar qué lugares están disponibles, dónde se ubican respecto de nuestros intereses, qué precios tienen, etcétera. Es un asistente en el sentido original del término: para poder delegarle tareas que dependen de herramientas externas.
Pichai menciona también una actualización para Google Meet: la traducción en tiempo real durante una videollamada, como tenía el difunto Skype, pero en vez de ofrecer subtítulos, lo hace con audio tomando la entonación de los hablantes originales, como un doblaje. El servicio estará disponible primero para traducir del inglés al español y vuelta, para usuarios pagos.
En mayo de 2024, Google procesaba 9,7 billones de tokens de IA por mes; hoy procesa 480 billones al mes (un token es la unidad de texto o información presente en una instrucción que le damos a una IA). La app Gemini tiene más de 400 millones de usuarios, dice Pichai.
Con un video generado por Veo, el motor de inteligencia artificial generativa para la creación de videos de Google, la compañía inicia el Google I/O 2025. Sube a escena Sundar Pichai, CEO de Google, que hace hincapié en el rápido desarrollo que está teniendo la IA dentro de la compañía (y fuera de ella también).
Según Pichai, Gemini 2.5 Pro es el mejor valorado entre los tests de IA generativa. Y logró terminar Pokémon, un logro para cualquier IA.
El año pasado, Google presentó un adelanto en el I/O 2024 de lo que luego se llamó AI Overview, la función hoy disponible en la Argentina y el mundo que ofrece respuestas a una búsqueda compilados en una sola página, con la posibilidad de ir a los links originales en un segundo paso.
Se espera que Google amplíe el alcance de esta herramienta, acechada por el crecimiento de ChatGPT y otras plataformas de inteligencia artificial como punto de partida para una experiencia online.
Google dará inicio este martes a las 2 pm a su encuentro anual para desarrolladores, llamado Google I/O 2025, donde se espera que haga anuncios sobre sus plataformas de inteligencia artificial y el cruce con las búsquedas en la charla principal (el keynote), que suele durar un par de horas.
Demis Hassabis anuncia la llegada de Gemini 2.5 Flash (disponible en unas semanas) y Gemini 2.5 Pro (más adelante).
Here’s the latest on Gemini 2.5 Pro and Flash:
We’re releasing a new preview version of Gemini 2.5 Flash. ⚡
2.5 Pro, our most intelligent model, is now the leading model for learning
2.5 Flash will be available in early June, with 2.5 Pro coming soon after#GoogleIO— Google (@Google) May 20, 2025
Gemini 2.5 can now organize vast amounts of multimodal information, reason about everything it sees, and write code to simulate anything. ↓ #GoogleIO pic.twitter.com/rgliP2poj7
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Google también suma respuestas inteligentes personalizadas: hasta ahora ofrecía respuestas automáticas que la IA adaptaba al contexto de una conversación, pero que eran genéricas; ahora las crea aprendiendo de nuestro tono, la manera en que escribimos, cómo nos despedimos en una conversación, modismos, la información que tenemos en nuestro Gmail, incluso si no está en la cadena de mensajes principal para la que necesitamos una respuesta.
Sundar Pichai anuncia que todos los usuarios de Android y iOS podrán acceder a la nueva versión de Gemini Live a partir de hoy, capaz de interpretar todo lo que le muestra la cámara del teléfono y dialogar con nosotros en una conversación natural de audio.
También anunció Project Mariner para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (comprar cosas en otros sitios, intercambiar información)
Por ejemplo, le podemos pedir a Gemini que nos busque un departamento para alquilar, que requiere que la IA dialogue con varios servicios y plataformas para encontrar qué lugares están disponibles, dónde se ubican respecto de nuestros intereses, qué precios tienen, etcétera. Es un asistente en el sentido original del término: para poder delegarle tareas que dependen de herramientas externas.
Pichai menciona también una actualización para Google Meet: la traducción en tiempo real durante una videollamada, como tenía el difunto Skype, pero en vez de ofrecer subtítulos, lo hace con audio tomando la entonación de los hablantes originales, como un doblaje. El servicio estará disponible primero para traducir del inglés al español y vuelta, para usuarios pagos.
En mayo de 2024, Google procesaba 9,7 billones de tokens de IA por mes; hoy procesa 480 billones al mes (un token es la unidad de texto o información presente en una instrucción que le damos a una IA). La app Gemini tiene más de 400 millones de usuarios, dice Pichai.
Con un video generado por Veo, el motor de inteligencia artificial generativa para la creación de videos de Google, la compañía inicia el Google I/O 2025. Sube a escena Sundar Pichai, CEO de Google, que hace hincapié en el rápido desarrollo que está teniendo la IA dentro de la compañía (y fuera de ella también).
Según Pichai, Gemini 2.5 Pro es el mejor valorado entre los tests de IA generativa. Y logró terminar Pokémon, un logro para cualquier IA.
El año pasado, Google presentó un adelanto en el I/O 2024 de lo que luego se llamó AI Overview, la función hoy disponible en la Argentina y el mundo que ofrece respuestas a una búsqueda compilados en una sola página, con la posibilidad de ir a los links originales en un segundo paso.
Se espera que Google amplíe el alcance de esta herramienta, acechada por el crecimiento de ChatGPT y otras plataformas de inteligencia artificial como punto de partida para una experiencia online.
Comienza hoy el encuentro anual para desarrolladores de Google, donde se esperan anuncios sobre las búsquedas, la IA Gemini y sobre Android, entre otras cosas LA NACION