Justo ahora Google lanzó otra bomba: el 19 de febrero lanzaron Gemini 3.1 Pro, y no es solo una actualización cosmética. Honestamente, incluso yo me sorprendí al ver que saltaron directamente de la versión 3.0 a la 3.1. Normalmente Google sigue la secuencia 1.0 - 1.5 - 2.0 - 2.5 - 3.0, pero aquí hay algo diferente.



La característica principal no es aumentar las capacidades, sino una verdadera mejora en la inteligencia de la modelo. Integraron tecnología de pensamiento profundo directamente en la base, de modo que ahora la modelo puede reflexionar sobre una tarea desde diferentes ángulos simultáneamente y escoger la mejor opción. Antes esto era una opción para suscriptores, ahora es estándar.

¿Qué me gustó realmente al probarla? La modelo detectó un error lógico no evidente en el código, que muchos programadores simplemente habrían pasado por alto. Escribió una consulta SQL óptima con los índices correctos, explicó el paradoja de Monty Hall de manera que hasta un humanista pueda entender. No es solo una entrega de hechos, es un razonamiento real.

En benchmarks, los números impresionan:
- ARC-AGI-2 (prueba de lógica): 77.1% frente a 31.1% de la versión anterior. Esto es dos veces y media más alto.
- Humanity's Last Exam: 44.4% - más alto que GPT-5.2 (34.5%)

Pero no solo son números. Los demos que publicaron son increíbles. La modelo entendió la atmósfera de la novela "Cumbres Borrascosas" y generó un sitio de portafolio que realmente transmite el tono sombrío del libro. Creó una simulación interactiva en 3D de una bandada de aves, donde se puede influir en la trayectoria con la mano. Se conectó a la API de la ISS y construyó un panel aeroespacial real. No es solo generación de código, es comprensión del contexto y creatividad.

La multimodalidad se mantiene en nivel de buque insignia: texto, imágenes, video, audio, PDF. La ventana contextual sigue siendo del mismo millón de tokens (como cargar "Guerra y Paz" completa), pero la salida máxima aumentó a 64-65 mil tokens. Es como tener un pequeño libro en una sola consulta.

Pero aquí donde la comunidad encontró puntos débiles: tareas de oficina. En la prueba GDPval-AA (presentaciones, tablas, documentos) Gemini obtuvo 1317, y Claude Sonnet 4.6 - 1633. En los rankings donde la gente vota por respuestas atractivas, Claude todavía lidera. Así que para código complejo, Gemini es la mejor; para presentaciones bonitas, mejor Claude.

Y ahora lo más interesante: el precio. Google no lo subió. Entrada por un millón de tokens: 2 dólares (si el contexto hasta 200K) o 4 dólares (si es mayor). Salida: 12 o 18 dólares. Para comparación: Claude Sonnet 4.6 pide 3 por entrada y 15 por salida, GPT-5.2 son 10 y 30, y Claude Opus 4.6 - 15 y 75.

En la práctica: si necesitas procesar 100K tokens de entrada y 10K de salida:
- Gemini: 32 centavos
- Claude Sonnet: 45 centavos
- GPT-5.2: 1.30 dólares
- Claude Opus: 2.25 dólares

Gemini resulta ser 7 veces más barato que Opus. Para cargas de producción, la diferencia es significativa.

Artificial Analysis realizó una prueba: corrieron todas las principales modelos a través de su Índice de Inteligencia. Gemini necesitó 56 millones de tokens y costó 892 dólares. GPT-5.2 consumió 130 millones (2304 dólares), Claude Opus - 58 millones (2486 dólares). Es decir, el mismo volumen de inteligencia en Gemini cuesta 2.6 veces menos.

Para usuarios comunes hay suscripciones. Google AI Plus por 8 dólares al mes - es modo Pro de Gemini 3.1 Pro, Deep Research, 1000 imágenes al día. Es suficiente para la mayoría. Google AI Pro por 20 - son 100 consultas al día y 20 Deep Research. Google AI Ultra por 250 - todo lo anterior más Deep Think y prioridad máxima.

¿Por qué Google no subió el precio? Varias razones. Primero, apuestan por accesibilidad: AI Studio gratuito, tokens gratuitos generosos, API de bajo costo. Segundo, la competencia. Anthropic lanzó Claude Sonnet 4.6 - buena relación calidad-precio. OpenAI no duerme. Para retener desarrolladores, necesitan un precio competitivo. Tercero, la modelo todavía está en vista previa, así que Google puede hacer dumping y recopilar feedback. Cuando salga oficialmente, los precios podrían cambiar.

¿En resumen? Es una actualización muy buena. La lógica realmente mejoró, el precio no subió, la calidad del código crece rápidamente. No perfecta, pero muy atractiva. Especialmente si eres desarrollador, que piensa en dinero y sabe leer especificaciones.

Por supuesto, hay matices. Si necesitas código de sistema complejo, GPT-5.3-Codex puede ser mejor. Si preparas presentaciones para la junta, Claude Sonnet 4.6 es más cuidadoso. Si trabajas con datos confidenciales, ninguna de estas modelos servirá, porque todos viven en servidores en EE.UU.

Pero lo que realmente importa: los modelos que salen hoy, mañana pueden quedar obsoletos. Mientras escribía esto, en laboratorios de Google, OpenAI y Anthropic, los ingenieros probablemente ya entrenaron algo nuevo. Así que mi consejo: prueba Gemini 3.1 Pro en tus tareas reales. Si funciona, disfruta y ahorra dinero. Si no, hay muchas opciones. Hay muchas buenas modelos ahora, y esa es la mejor noticia.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado