Google hoy lanzó su modelo Gemini 3 Flash, rápido y económico, basado en el Gemini 3 lanzado el mes pasado, buscando robarle protagonismo a OpenAI. La compañía también lo está convirtiendo en el modelo predeterminado en la aplicación Gemini y en el modo IA en la búsqueda
El nuevo modelo Flash llega seis meses después de que Google anunciara el Gemini 2.5 Flash mode l, que ofrece mejoras significativas. En la prueba de referencia, el modelo Gemini 3 Flash supera con creces a su predecesor e iguala el rendimiento de otros modelos de vanguardia, como el Gemini 3 Pro y el GPT 5.2, en algunos aspectos.
Por ejemplo, obtuvo una puntuación del 33,7% sin usar herramientas en el último examen de la humanidad, diseñadas para evaluar la experiencia en diferentes dominios. En comparación, Gemini 3 Pro obtuvo una puntuación del 37,5%, Gemini 2.5 Flash del 11% y el recién lanzado GPT-5.2 del 34,5%.
En la prueba de referencia de razonamiento y multimodalidad MMMU-Pro, el nuevo modelo superó a todos los competidores con una puntuación del 81,2%.
Implementación para consumidores.
Google está convirtiendo Gemini 3 Flash en el modelo predeterminado en la aplicación Gemini a nivel mundial, reemplazando a Gemini 2.5 Flash. Los usuarios aún pueden elegir el modelo Pro en el selector de modelos para preguntas de matemáticas y codificación.
La compañía afirma que el nuevo modelo es eficaz para identificar contenido multimodal y ofrecer una respuesta basada en él. Por ejemplo, puedes subir tu video corto de pickleball y pedir consejos; puedes intentar dibujar un boceto y que el modelo adivine lo que estás dibujando; o puedes subir una grabación de audio para obtener un análisis o generar un cuestionario.
La compañía también dijo que el modelo entiende mejor la intención de las consultas de los usuarios y puede generar respuestas más visuales con elementos como imágenes y tablas.
También puedes usar el nuevo modelo para crear prototipos de aplicaciones en la aplicación Gemini mediante indicaciones.
El Gemini 3 Pro ya está disponible para todos en los EE.UU. para realizar búsquedas y más personas en los EE.UU. también pueden acceder al modelo de imagen Nano Banana Pro en las búsquedas.
Disponibilidad para empresas y desarrolladores.
Google señaló que empresas como JetBrains, Figma, Cursor, Harvey y Latitude ya están utilizando el modelo Gemini 3 Flash, que está disponible a través de Vertex AI y Gemini Enterprise.
Para los desarrolladores, la compañía está poniendo el modelo a disposición en una versión preliminar a través de la API y en Antigravity, la nueva herramienta de codificación de Google lanzada el mes pasado.
La compañía afirmó que Gemini 3 Pro obtuvo una puntuación del 78% en la prueba de codificación verificada de SWE-bench, solo superada por GPT-5.2. Añadió que el modelo es ideal para análisis de video, extracción de datos y preguntas y respuestas visuales, y que, gracias a su velocidad, es ideal para flujos de trabajo rápidos y repetibles.

El precio del modelo es de 0,50 dólares por millón de tokens de entrada y 3,00 dólares por millón de tokens de salida. Esto es ligeramente más caro que los 0.30 dólares por millón de tokens de entrada y 2.50 dólares por millón de tokens de salida de Gemini Flash 2.5. Sin embargo, Google afirma que el nuevo modelo supera al Gemini 2.5 Pro, siendo tres veces más rápido. Además, para tareas de pensamiento, utiliza un 30% menos de tokens en promedio que el 2.5 Pro. Esto significa que, en general, podría ahorrar en tokens para ciertas tareas.

«Realmente posicionamos Flash como un modelo de trabajo pesado. Por ejemplo, si observamos los precios de entrada y salida en la parte superior de esta tabla, Flash es una oferta mucho más económica. De hecho, permite, para muchas empresas, realizar tareas masivas», declaró Tulsee Doshi, director sénior y jefe de Producto de Gemini Models, en una sesión informativa.
Desde que lanzó Gemini 3, Google ha procesado más de 1 billón de tokens por día en su API, en medio de su feroz guerra de lanzamiento y rendimiento con OpenAI.
A principios de este mes, Sam Altman envió un memorando interno de «Código Rojo» al equipo de OpenAI tras la caída del tráfico de ChatGPT a medida que aumentaba la cuota de mercado de Google entre los consumidores. Posteriormente, OpenAI lanzó GPT-5.2 y un nuevo modelo de generación de imágenes. OpenAI también presumió de su creciente uso empresarial y afirmó que el volumen de mensajes de ChatGPT se ha multiplicado por ocho desde noviembre de 2024.
Si bien Google no abordó directamente la competencia con OpenAI, dijo que el lanzamiento de nuevos modelos desafiaba a todas las empresas a mantenerse activas.
«Lo que está sucediendo en la industria es que todos estos modelos siguen siendo increíbles, se desafían entre sí y amplían los horizontes. Y creo que lo que también es increíble es que las empresas están lanzando estos modelos», dijo Doshi.
También estamos introduciendo nuevos puntos de referencia y nuevas formas de evaluar estos modelos. Y eso también nos anima.

