Acabou de acontecer uma bomba da Google - a 19 de fevereiro lançaram o Gemini 3.1 Pro, e não é apenas uma atualização cosmética. Honestamente, até eu fiquei surpreendido ao ver que pularam a versão 3.0 e foram direto para 3.1. Normalmente, o Google segue o esquema 1.0 - 1.5 - 2.0 - 2.5 - 3.0, mas aqui é algo diferente.



A principal novidade não é o aumento de capacidades, mas uma verdadeira atualização na inteligência do modelo. Incorporaram tecnologia de raciocínio profundo diretamente na base, de modo que agora o modelo consegue refletir sobre uma tarefa de diferentes ângulos ao mesmo tempo e escolher a melhor solução. Antes, isso era uma opção exclusiva para assinantes; agora é padrão.

O que realmente me impressionou ao testar? O modelo identificou um erro lógico não óbvio no código, que muitos programadores simplesmente passariam ao lado. Escreveu uma consulta SQL otimizada com os índices corretos, explicou o paradoxo de Monty Hall de uma forma que até um leigo consegue entender. Não é apenas uma questão de apresentar fatos — é um raciocínio verdadeiro.

Nos benchmarks, os números impressionam:
- ARC-AGI-2 (teste de lógica): 77,1% contra 31,1% da versão anterior. Isso é duas vezes e meia maior.
- Humanity's Last Exam: 44,4% — superior ao GPT-5.2 (34,5%)

Mas não são só números. As demonstrações que publicaram estão incríveis. O modelo entendeu a atmosfera do romance "Cemitérios de Animais" e gerou um site de portfólio que realmente transmite o clima sombrio do livro. Criou uma simulação interativa em 3D de uma revoada de pássaros, onde é possível influenciar a trajetória com a mão. Conectou-se à API da ISS e construiu um painel aeroespacial real. Não é só geração de código — é compreensão de contexto e criatividade.

A multimodalidade continua no nível do flagship: texto, imagens, vídeos, áudio, PDF. A janela de contexto mantém os mesmos milhões de tokens (mais ou menos como carregar "Guerra e Paz" inteira), mas a saída máxima aumentou para 64-65 mil tokens. É como uma pequena livro de uma só vez.

Porém, onde a comunidade encontrou pontos fracos foi em tarefas de escritório. No teste GDPval-AA (apresentações, tabelas, documentos), o Gemini marcou 1317, enquanto o Claude Sonnet 4.6 fez 1633. Nos rankings onde as pessoas votam nas respostas mais simpáticas, o Claude ainda lidera. Então, para código complexo, o Gemini é melhor; para apresentações bonitas, o Claude continua na frente.

E agora, o mais apetitoso: o preço. A Google não aumentou. Entrada por um milhão de tokens — 2 dólares (se o contexto for até 200K) ou 4 dólares (se for maior). Saída — 12 ou 18 dólares. Para comparação: o Claude Sonnet 4.6 cobra 3 dólares pela entrada e 15 pela saída, o GPT-5.2 é 10 e 30, e o Claude Opus 4.6 — 15 e 75.

Na prática: se precisar processar 100K tokens de entrada e 10K de saída:
- Gemini: 32 cêntimos
- Claude Sonnet: 45 cêntimos
- GPT-5.2: 1,30 dólares
- Claude Opus: 2,25 dólares

O Gemini sai 7 vezes mais barato que o Opus. Para cargas de produção, essa diferença é significativa.

A Artificial Analysis fez um teste: passou todas as principais modelos pelo seu Índice de Inteligência. O Gemini consumiu 56 milhões de tokens e custou 892 dólares. O GPT-5.2 usou 130 milhões (2304 dólares), o Claude Opus — 58 milhões (2486 dólares). Ou seja, o mesmo volume de inteligência no Gemini custa 2,6 vezes menos.

Para usuários comuns, há assinaturas. Google AI Plus por 8 dólares por mês — é o modo Pro do Gemini 3.1 Pro, Deep Research, 1000 imagens por dia. Para a maioria, basta. Google AI Pro por 20 — são 100 requisições por dia e 20 Deep Research. Google AI Ultra por 250 — tudo acima mais Deep Think e prioridade máxima.

Por que a Google não aumentou o preço? Algumas razões. Primeiro, eles apostam na acessibilidade — AI Studio gratuito, tokens gratuitos generosos, API de baixo custo. Segundo, a concorrência. A Anthropic lançou o Claude Sonnet 4.6 — excelente relação preço/desempenho. A OpenAI não está parada. Para reter desenvolvedores, é preciso um preço competitivo. Terceiro, o modelo ainda está em preview, então a Google pode fazer preços mais baixos enquanto coleta feedback. Quando for lançado oficialmente, os preços podem mudar.

No geral? É uma atualização muito boa. A lógica realmente melhorou, o preço não subiu, a qualidade do código cresce rápido. Não é perfeito, mas bastante atraente. Especialmente se você é um desenvolvedor que pensa no dinheiro e sabe ler especificações.

Claro que há nuances. Se precisar de código de sistema complexo, o GPT-5.3-Codex pode ser melhor. Se preparar apresentações para o conselho, o Claude Sonnet 4.6 é mais cuidadoso. Se trabalhar com dados confidenciais, nenhuma dessas modelos serve, pois todas vivem em servidores nos EUA.

Mas o que realmente importa: os modelos que saem hoje podem ficar obsoletos amanhã. Enquanto escrevia isto, nos laboratórios do Google, OpenAI e Anthropic, provavelmente, já treinaram algo novo. Então, meu conselho: pegue o Gemini 3.1 Pro, teste nas suas tarefas reais. Se funcionar, aproveite e economize dinheiro. Se não, há muitas opções. Hoje, há muitas boas modelos, e essa é a melhor notícia.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar