Google atualiza Gemini Deep Research Max: integra MCP que pode conectar-se a bancos de dados internos da empresa, gráficos nativos, permitindo que analistas realizem diligência devida

robot
Geração de resumo em curso

Google anuncia Gemini Deep Research com grande atualização, lançando duas novas Agents, Deep Research e Deep Research Max, que integram o mais recente modelo Gemini 3.1 Pro, e conectam-se através do protocolo MCP a plataformas de dados financeiros como FactSet, S&P Global, PitchBook, ou a dados internos de empresas.
(Contexto anterior: OpenAI desbloqueia Deep Research: utilizadores pagos podem consultar 10 vezes por mês, Microsoft lança agente multimodal de IA Magma)
(Informação adicional: OpenAI lança “ChatGPT Agent”! Combinando Operator e Deep Research: compra de bilhetes, pedidos de comida, elaboração de apresentações, tudo em um só lugar)

Índice deste artigo

Alternar

  • O que é Max: pensar por mais tempo para obter respostas mais profundas
  • Suporte MCP: de busca na internet a “busca em qualquer banco de dados”
  • Três avanços principais: gráficos, planejamento colaborativo, streaming em tempo real
  • IA Agent ultrapassa a barreira de “assistente de busca”

Google anunciou ontem (21) à noite uma grande atualização do Gemini Deep Research, ao mesmo tempo lançando duas versões de Agents: Deep Research (prioridade na velocidade) e Deep Research Max (prioridade na qualidade), integrando totalmente o Gemini 3.1 Pro, e pela primeira vez acessando uma versão de teste público via API Gemini paga.

O que é Max: pensar por mais tempo para obter respostas mais profundas

A principal diferença do Deep Research Max está no “extended test-time compute”. O Agent não apenas executa uma rodada de processamento e entrega, mas repensa, busca, corrige continuamente, como um assistente de pesquisa incansável, até que considere a qualidade do relatório adequada para então gerar a saída.

A Google afirma que o Max apresenta um avanço “disruptivo” na capacidade de extração e raciocínio padrão do setor, em comparação com a versão de pré-visualização de dezembro do ano passado. O número de fontes consultadas aumentou significativamente, permitindo captar diferenças críticas que versões anteriores ignoravam, e ao ponderar evidências conflitantes, cita proativamente fontes confiáveis como registros SEC, periódicos revisados por pares, entre outros.

Usuários podem agendar uma execução noturna, e na manhã seguinte a equipe de analistas já terá um relatório completo na caixa de entrada. Velocidade não é o foco, mas sim a profundidade.

Em contrapartida, a versão padrão do Deep Research foca na redução de latência e custos, substituindo a versão de pré-visualização de dezembro como a opção padrão para cenários interativos (quando o usuário precisa de respostas rápidas, sem a necessidade da profunda análise do Max).

Suporte MCP: de busca na internet a “busca em qualquer banco de dados”

A atualização do Deep Research também oferece suporte nativo ao MCP (Model Context Protocol). Antes, o Agent só acessava informações públicas na web; agora, via MCP, ele pode conectar-se de forma transparente a fontes de dados internas e fluxos de dados especializados de empresas.

Na prática, isso significa que departamentos financeiros podem integrar seus sistemas ERP internos, APIs privadas de fornecedores de dados de mercado, etc., através de um servidor MCP. Assim, o Deep Research pode consultar simultaneamente a web pública, dados do terminal Bloomberg, bancos de dados internos, tudo no mesmo fluxo de trabalho, sem troca manual de ferramentas.

A Google também anunciou parcerias com FactSet, S&P Global e PitchBook, que colaboraram na criação de servidores MCP, permitindo que os clientes integrem diretamente dados financeiros e de mercado dessas plataformas no fluxo de trabalho do Deep Research. Para bancos de investimento, private equity e equipes de pesquisa de mercado, essa ponte tem um valor inestimável.

No conjunto de ferramentas, os usuários podem ativar simultaneamente Google Search, MCP remoto, Contexto de URL, Execução de Código, Busca de Arquivos; ou podem desativar completamente a internet, fazendo o agente operar apenas com bancos de dados internos, o que é especialmente importante para empresas preocupadas com vazamento de dados.

Três avanços principais: gráficos, planejamento colaborativo, streaming em tempo real

Primeiro, gráficos nativos e infográficos. Pela primeira vez na API Gemini, o Deep Research não apenas gera textos, mas também produz gráficos HTML ou infográficos Nano Banana, elevando os relatórios de análises puramente textuais para uma apresentação visual.

Segundo, planejamento colaborativo. Antes de executar uma pesquisa, o Agent gera um plano de estudo, que o usuário pode revisar, orientar e modificar antes de dar continuidade. Assim, o controle do escopo da investigação fica mais refinado, deixando de ser uma “caixa preta” de “faça uma pergunta, entregue um relatório”, para uma definição conjunta do framework de pesquisa.

Terceiro, streaming em tempo real. O sistema acompanha as etapas intermediárias do raciocínio do Agent, com um resumo ao vivo do pensamento, permitindo que o usuário veja o que o agente está fazendo enquanto ainda está processando. Texto e imagens são gerados e transmitidos em tempo real, reduzindo bastante a incerteza de longos períodos de espera.

Na questão do grounding multimodal, o Deep Research agora aceita PDFs, CSVs, imagens, áudios e vídeos como entrada, eliminando a necessidade de pré-processamento manual na integração de dados de diferentes formatos.

IA Agent ultrapassa a barreira de “assistente de busca”

A chegada do Deep Research Max marca, em certa medida, a entrada de um estágio mais maduro para os IA Agents no fluxo de trabalho de pesquisa empresarial. No passado, falar de IA assistindo na pesquisa geralmente se limitava a “resumir um arquivo” ou “buscar alguns artigos”, uma automação de assistente de busca.

Mas, quando o Agent consegue raciocinar repetidamente, ponderar evidências conflitantes, citar registros SEC, e conectar-se a bancos de dados financeiros privados via MCP, ele passa a realizar tarefas mais próximas de um analista iniciante em diligência devida.

Claro que “próximo” não significa “substituir”. Como validar o raciocínio do Agent, gerenciar seu acesso a dados privados, usar suas conclusões sob regulamentação — essas são questões que as empresas ainda estão explorando. Mas a mensagem da Google é clara: do ponto de vista técnico, o caminho já está aberto.

O Deep Research e o Deep Research Max já estão disponíveis em pré-visualização pública via API Gemini paga, e a versão para Google Cloud está a caminho. Para o anúncio completo, consulte o blog oficial do Google.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar