-
Sus modelos de IA superan a la competencia en casi todas las métricas, y además son veloces y baratos
-
La integración en sus servicios está siendo cauta y gradual, pero va por buen camino

Su modelo más reciente, Gemini 2.5 Pro Experimental, es el que más puntuación saca tanto en el Artificial Analysis Intelligence Index como en LMArena. Ambos combinan los resultados de diversos benchmarks específicos (matemáticas, programación, cuestiones científicas) para mostrar como hoy por hoy el modelo de Gemini está por delante de sus competidores.
Pero ganar en los benchmarks no parece tan importante. Sobre todo cuando una cosa es lo que dicen los benchmarks y cuál es la percepción del usuario convencional. Para quienes usamos diversos modelos de forma habitual, la sensación es que todos son ya realmente buenos en muchos escenarios.
Y sin embargo, esa percepción también parece estar favoreciendo a Gemini 2.5 Pro, que en los últimos días ha recibido muchos elogios en redes sociales. El modelo no solo se comporta bien:
- Es más veloz que sus rivales en generación de tokens por segundo
- Es uno de los más baratos
- Y tiene una ventana de contexto de un millón de tokens solo superada por el reciente lanzamiento de Llama 4
Google además tiene otro cartucho en la recámara: Gemini 2.5 Flash no es tan potente en benchmarks, pero es todavía más veloz y mucho más barato que su hermano mayor.
Es incluso más barato que DeepSeek V3 y R1, que eran los tradicionales referentes en ese apartado. Esta versión tiene además un tamaño reducido, lo que la hace especialmente interesante para acabar en nuestros móviles.
Pero es que Google está inundando el mundo de herramientas de IA generativa. Tienen Lyria para música, Imagen 3 para imágenes, Veo 2 para vídeo y Chirp 3 para voz, todas ellas disponibles vía su plataforma Vertex AI. Es cierto que hay plataformas superiores en estos ámbitos, y tenemos un buen ejemplo en el modelo ImageGen de OpenAI, que ha conquistado el mundo con las imágenes con estilo Ghibli.
La cosa también promete en el ámbito de los agentes de IA. Tienen modo Deep Research, como OpenAI, y es posible usarlo gratuitamente en la web oficial de Gemini. Proyectos como Astra (asistente con realidad aumentada) y Mariner (control autónomo del navegador) también muestran un futuro prometedor. Demis Hassabis confirmaba estos días que MCP (Model Contex Protocol, impulsado por Anthropic) será adoptado por Google, que estos días anunciaba algo similar con Agent2Agent Protocol (A2A) para facilitar la comunicación entre agentes de IA.
Las revoluciones llevan tiempo
Este colosal despliegue de soluciones de IA se está viendo acompañado por una integración gradual pero absoluta de la tecnología en los servicios y plataformas con los que ha conquistado el mundo.
La presencia de Gemini en Android es un buen ejemplo que se extiende a nuevas funciones tanto en la web de Gemini como en Gmail o su suite ofimática, Google Workspace.
Y para programadores ese modelo no solo es uno de los más destacables: acaban de hacerlo parte integral de Firebase Studio, que quiere competir con Cursor y otras plataformas agénticas dedicadas a la programación. NotebookLM es otra de las herramientas mágicas de la firma —una de nuestras favoritas— pero hay una integración aún más especial.
Que es, cómo no, la de la IA en las búsquedas. Google sabe bien que su buscador tradicional está en peligro. Perplexity o ChatGPT Search han mostrado el camino, pero para Google adoptar esta tecnología es mucho más complejo y sus primeros pasos fueron erráticos.
Ahora las cosas parecen estar cambiando, y poco a poco esa transformación del buscador de Google se va consolidando, como demostró el reciente anuncio de su «modo IA». Es esa una señal de una metamorfosis esperada y obligada. Una que va despacio, pero que poco a poco va cristalizando.