IT House informó el 4 de marzo que Google publicó ayer (3 de marzo) una entrada en su blog, anunciando el lanzamiento del modelo ligero de IA Gemini 3.1 Flash-Lite, que afirma ser su modelo Gemini 3 más rápido y rentable.
Los desarrolladores ahora pueden obtener una vista previa de la API Gemini en Google AI Studio, y los usuarios empresariales también pueden sincronizar sus experiencias en la plataforma Vertex AI.
En cuanto al precio, para reducir significativamente el umbral de aplicaciones de IA, Google ha fijado un precio muy competitivo para este modelo: 0,25 dólares por millón de tokens de entrada y 1,50 dólares por millón de tokens de salida.
Al mismo tiempo que el bajo precio, el Gemini 3.1 Flash-Lite ha dado un gran salto en rendimiento. Según datos de Artificial Analysis, una plataforma autorizada de evaluación, la velocidad inicial de respuesta de palabras (TTFT) del nuevo modelo se ha disparado 2,5 veces respecto a la generación anterior del 2,5 Flash, y la velocidad de salida total ha aumentado un 45%. Esta latencia extremadamente baja lo hace ideal para crear experiencias responsivas en tiempo real.
En varias pruebas de competencia básica, 3.1 Flash-Lite demuestra la fortaleza para superar desafíos. El modelo no solo logró una puntuación Elo de 1432 puntos en el ranking Arena.ai, sino que también lideró a sus pares en las pruebas de comprensión multimodal y razonamiento lógico.
Concretamente, obtuvo un impresionante 86,9% en la prueba GPQA Diamond y un 76,8% en la prueba MMMU Pro, superando incluso al modelo Gemini 2.5 Flash de la generación anterior en varios indicadores. IT House adjunta los datos relevantes de la siguiente manera:
Además de métricas de rendimiento avanzadas, el 3.1 Flash-Lite también viene de serie con una innovadora función de “niveles de pensamiento” en AI Studio y Vertex AI.
Este mecanismo permite a los desarrolladores controlar de forma flexible la “profundidad de pensamiento” del modelo al realizar tareas:
Al tratar tareas básicas extremadamente sensibles a los costes, como la traducción masiva o la moderación de contenido, los desarrolladores pueden ajustar la profundidad de pensamiento para alcanzar la máxima eficiencia.
Cuando se enfrentan a tareas difíciles como generar interfaces de usuario, construir paneles de datos o simulaciones lógicas complejas, el nivel de pensamiento puede ajustarse para estimular las capacidades de razonamiento más profundas del modelo.
Empresas en beta temprana como Latitude, Cartwheel y Whering son ahora las primeras en desplegar Flash-Lite 3.1 en escenarios empresariales complejos. El equipo de pruebas informó que el modelo no solo tiene una excelente eficiencia de procesamiento y capacidades de razonamiento lógico, sino que también puede manejar instrucciones de entrada complejas con una precisión comparable a la de los grandes modelos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El modelo de IA más rápido y rentable de la serie Gemini 3: Google Gemini 3.1 Flash-Lite presentado, respuesta inicial 2.5 veces más rápida
IT House informó el 4 de marzo que Google publicó ayer (3 de marzo) una entrada en su blog, anunciando el lanzamiento del modelo ligero de IA Gemini 3.1 Flash-Lite, que afirma ser su modelo Gemini 3 más rápido y rentable.
Los desarrolladores ahora pueden obtener una vista previa de la API Gemini en Google AI Studio, y los usuarios empresariales también pueden sincronizar sus experiencias en la plataforma Vertex AI.
En cuanto al precio, para reducir significativamente el umbral de aplicaciones de IA, Google ha fijado un precio muy competitivo para este modelo: 0,25 dólares por millón de tokens de entrada y 1,50 dólares por millón de tokens de salida.
Al mismo tiempo que el bajo precio, el Gemini 3.1 Flash-Lite ha dado un gran salto en rendimiento. Según datos de Artificial Analysis, una plataforma autorizada de evaluación, la velocidad inicial de respuesta de palabras (TTFT) del nuevo modelo se ha disparado 2,5 veces respecto a la generación anterior del 2,5 Flash, y la velocidad de salida total ha aumentado un 45%. Esta latencia extremadamente baja lo hace ideal para crear experiencias responsivas en tiempo real.
En varias pruebas de competencia básica, 3.1 Flash-Lite demuestra la fortaleza para superar desafíos. El modelo no solo logró una puntuación Elo de 1432 puntos en el ranking Arena.ai, sino que también lideró a sus pares en las pruebas de comprensión multimodal y razonamiento lógico.
Concretamente, obtuvo un impresionante 86,9% en la prueba GPQA Diamond y un 76,8% en la prueba MMMU Pro, superando incluso al modelo Gemini 2.5 Flash de la generación anterior en varios indicadores. IT House adjunta los datos relevantes de la siguiente manera:
Además de métricas de rendimiento avanzadas, el 3.1 Flash-Lite también viene de serie con una innovadora función de “niveles de pensamiento” en AI Studio y Vertex AI.
Este mecanismo permite a los desarrolladores controlar de forma flexible la “profundidad de pensamiento” del modelo al realizar tareas:
Al tratar tareas básicas extremadamente sensibles a los costes, como la traducción masiva o la moderación de contenido, los desarrolladores pueden ajustar la profundidad de pensamiento para alcanzar la máxima eficiencia.
Cuando se enfrentan a tareas difíciles como generar interfaces de usuario, construir paneles de datos o simulaciones lógicas complejas, el nivel de pensamiento puede ajustarse para estimular las capacidades de razonamiento más profundas del modelo.
Empresas en beta temprana como Latitude, Cartwheel y Whering son ahora las primeras en desplegar Flash-Lite 3.1 en escenarios empresariales complejos. El equipo de pruebas informó que el modelo no solo tiene una excelente eficiencia de procesamiento y capacidades de razonamiento lógico, sino que también puede manejar instrucciones de entrada complejas con una precisión comparable a la de los grandes modelos.