Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Gigantes da IA, adentram na floresta sombria
nulo
Texto | Imagem Xianzhi
Da Liu escreveu em “Três Corpos” uma imagem posteriormente citada inúmeras vezes — a floresta escura. Cada civilização é um caçador armado, quem se expõe primeiro, morre primeiro. Na floresta não é que não haja ninguém, é que todos sabem que acender luzes atrairá balas, por isso todos apagam as luzes.
Na primavera de 2026, os principais laboratórios de IA entraram nessa floresta escura.
16 de abril, Anthropic lançou primeiro o Claude Opus 4.7. No mesmo dia, fizeram um movimento incomum — admitiram publicamente que o desempenho do Opus 4.7 não chegava a um modelo ainda não lançado, Mythos, por motivos de segurança.
23 de abril, a OpenAI colocou no site o GPT-5.5. No mesmo dia, a Anthropic publicou um relatório de revisão de incidentes chamado “Uma atualização sobre os recentes relatórios de qualidade do código Claude”, admitindo que o Claude Code realmente ficou mais lento — uma jogada de lançar uma nova versão e reconhecer o erro. Mas esse “novo rei” quase se vangloriava: reconhecemos que o Claude está temporariamente mais lento — mas não se esqueça, ainda temos um Mythos escondido.
24 de abril, o “poderoso” DeepSeek V4 Preview foi lançado, a equipe de Liang Wenfeng fez uma primeira divulgação oficial vinculando o modelo ao Huawei Ascend 950PR; mas todos entenderam — o verdadeiro “full blood” V4 Pro Max só será lançado após a produção em massa do Ascend 950 no segundo semestre.
Três empresas, três movimentos. Na superfície, cada uma com seu ritmo de produto, mas ao juntar tudo, uma coisa fica clara:
Cada uma tem pelo menos uma “arma” — um modelo mais forte que a versão pública, uma arquitetura de próxima geração ainda não revelada ao público, um chip de super nó ainda não amplamente lançado. Mas nenhuma delas se atreve a levantar essa arma primeiro.
Porque neste setor, “mostrar primeiro” nunca é só vazamento. Mostrar primeiro significa entregar seu limite de capacidade ao adversário; significa assumir sozinho toda a pressão de segurança, regulação, opinião pública; significa transformar-se no alvo de todos os concorrentes na próxima rodada. Na floresta, não há heroísmo — quem dispara primeiro, torna-se o próximo alvo.
Portanto, a escolha mais racional dos caçadores é apagar as luzes, prender a respiração, esconder a arma nas costas.
Essa é a solução ótima do jogo.
A confiança da Anthropic
No lado do Claude, no último mês, quase ocorreu a pior versão de lançamento.
Após atualizar rapidamente para Opus 4.7, a Anthropic continuou dominando várias listas, e ainda guardava Mythos, disponível apenas para clientes empresariais — uma postura de calma e segurança.
Porém, esse ciclo de Opus 4.7 foi quase a experiência mais ruim do Claude, com muitas críticas negativas.
No começo de março, a Anthropic mudou a profundidade padrão de raciocínio do Claude Code de high para medium. A decisão faz sentido: no modo high, a interface frequentemente parecia travada, respondendo lentamente e frustrando usuários pagantes. Mas o problema é que eles não divulgaram isso na hora.
No final de março, lançaram uma “otimização de eficiência” — se a sessão do Claude Code ficar inativa por mais de uma hora, o sistema apaga o bloco de raciocínio antigo. Por design, para economizar energia. Na prática, após cada diálogo, o Claude parecia esquecer tudo, apagando o contexto completamente. A comunidade de desenvolvedores começou a reclamar: “Claude começou a não lembrar o que fiz na última rodada.”
Até que recentemente, uma terceira coisa aconteceu — adicionaram uma instrução para comprimir a verbosidade no sistema de aviso. Segundo a própria Anthropic, essa instrução fez a qualidade do código do Claude cair 3%.
Essas três ações juntas levaram um diretor sênior da AMD a escrever no GitHub: “Claude regressou ao ponto em que não pode ser confiável para tarefas de engenharia complexa.” A matéria do Axios de 16 de abril, “A redução de IA da Anthropic machuca usuários avançados”, trouxe isso ao mainstream.
Depois, a Anthropic admitiu que havia problemas.
Em 7 de abril, eles silenciosamente reverteram a mudança no raciocínio; em 10 de abril, corrigiram um bug no cache; em 20 de abril, removeram a instrução de compressão de verbosidade. Mas o relatório de revisão de incidentes só saiu em 23 de abril — justamente no dia do lançamento do GPT-5.5.
Essa atitude de “ah, meu plano de engenharia tem um bug, basta consertar” parece desprezar a gravidade, quase um movimento de distração, entre o lançamento pesado da OpenAI. Difícil não pensar que foi uma coincidência.
Mais intrigante ainda, ao lançar o Opus 4.7, a Anthropic fez um movimento incomum: admitiu publicamente que o desempenho do Opus 4.7 não chegava ao de um modelo ainda não lançado — Mythos. Claramente uma estratégia de “retirada tática” — mantendo o Mythos na ponta empresarial, sem pressa de lançar ao público, porque a equipe ainda não está pronta.
Essa narrativa faz sentido. Mas do ponto de vista comercial, há outra verdade: a Anthropic demorou seis semanas para admitir a regressão do Claude Code, só revelou o problema quando a OpenAI começou a lançar novidades. Se não fosse a pressão do mercado, se o Opus 4.7 não tivesse mostrado que ainda há uma carta na manga, essa declaração talvez nunca tivesse vindo.
Na estratégia do Claude, “espremendo pasta de dente” não significa cortar capacidades deliberadamente, mas que o ritmo de liberação e de divulgação de problemas acompanha o ritmo dos concorrentes.
Mostrar suas capacidades mais avançadas, inevitavelmente, te torna um alvo. Ou seja, na visão da Anthropic, o 4.6 ainda não aliviou a pressão — logo, não há necessidade de jogar uma carta mais forte agora.
A velha tática da OpenAI
Se a Anthropic “esconde Mythos”, a estratégia da OpenAI é mais sutil — ela deixa o controle da liberação de capacidades na curva de carga dos seus servidores e em um mecanismo chamado auto-router.
No mesmo dia do lançamento do GPT-5.5, Simon Willison (cofundador do Django, avaliador independente conhecido na comunidade de IA) escreveu em seu blog: “Não é uma mudança dramática do que tínhamos antes.” Ele acrescentou uma informação importante: o GPT-5.5 é o primeiro modelo totalmente retreinado desde o GPT-4.5; ou seja, os modelos 5.1, 5.2, 5.3, 5.4 lançados nos últimos meses foram apenas atualizações incrementais. Em outras palavras, as quatro versões menores foram lançadas com cautela, porque a OpenAI não sabe o que os concorrentes podem lançar.
“Atualizações cautelosas” é uma forma de dizer: “espremendo pasta de dente”.
Mas o mais revelador veio algumas horas após o lançamento do GPT-5.5. Usuários do Codex abriram uma issue no GitHub (#19241), reclamando que o modo rápido (Fast mode) inicialmente era realmente rápido, mas, com mais usuários, ficou visivelmente mais lento, mesmo cobrando pelo modo rápido. A reclamação era: “Por favor, investiguem se o GPT-5.5 Fast mode está sendo degradado sob alta carga.”
Era quase uma repetição exata do que aconteceu em 7 de agosto de 2025, no lançamento do GPT-5 — quando o Reddit r/ChatGPT colocou “GPT-5 is horrible” com mais de 4600 votos positivos, e Sam Altman, no AMA do dia seguinte, admitiu: “o auto-switcher quebrou… o GPT-5 parecia muito mais burro” — confirmando que o roteador por trás do sistema estava ajustando a performance dos usuários.
O mesmo roteiro, oito meses depois, se repete.
Mais irônico ainda, na véspera do lançamento oficial do GPT-5.5, o Codex da OpenAI enviou por engano uma versão de staging interna para produção, sendo capturado por alguns usuários Pro. Em poucos minutos, foi corrigido, mas o vazamento já circulava. Além do GPT-5.5, havia uma série chamada Glacier (com tooltip “Inteligência que move continentes”), um modelo de ciências da vida chamado Heisenberg, um modelo desconhecido chamado Arcanine, e várias versões com código oai-2.1.
Ou seja, no mesmo momento em que a OpenAI lançou o GPT-5.5 como “próxima geração”, pelo menos cinco ou seis linhas de produto estavam rodando paralelamente, ainda não acessíveis ao público.
A própria OpenAI admitiu. No roteiro oficial de 2026, eles usaram um termo bastante discutido na academia — “capability overhang” — reconhecendo que há uma grande lacuna entre o potencial real dos grandes modelos e o que os usuários conseguem usar de fato.
Familiar? É quase a mesma narrativa da Anthropic sobre Mythos. Mesmo que o vazamento do Codex em 22 de abril tenha sido um erro, ao colocar o termo capability overhang no roteiro, a mensagem ficou clara: “Ainda temos muito na manga, façam o que quiserem.”
Você tem muito mais do que vende ao usuário, e só assim consegue se manter na corrida. O lançamento do GPT-5.5 em 24 horas reforçou essa premissa ao vivo.
A paciência do DeepSeek
No lado do DeepSeek, a estratégia de “espremendo” mudou completamente — não é esconder capacidades, é esperar por um momento mais adequado para entregar.
1.6T MoE, 1M de contexto, versões Pro/Flash, preço de 3.48 por milhão de tokens — é uma fração do GPT-5.5, uma diferença de escala em relação ao Opus 4.7. Avaliadores independentes internacionais resumiram: desempenho próximo, mas um pouco inferior ao GPT-5.4 / Gemini 3.1-Pro, preço “quebrou a economia dos laboratórios de ponta”.
Mas, dentro do próprio sistema do DeepSeek, o V4 Preview já é mais caro que o V3, que era “estranhamente barato”. Todos sabem — isso não é a versão completa.
A história completa do DeepSeek V4 não termina com o lançamento, nem começa nele.
Tudo começa na tentativa frustrada de lançar o R2 em maio de 2025, que foi adiado para o outono/inverno. Toda a infraestrutura da DeepSeek na China foi migrada para o ecossistema CANN da Huawei. Para qualquer laboratório, isso não é uma tarefa de um trimestre — compiladores, operadores, bibliotecas de comunicação, frameworks de raciocínio, MoE, tudo precisa ser refeito.
E o V4 é a primeira vez que a DeepSeek inclui oficialmente o Ascend no hardware de treinamento. É a primeira versão de treinamento híbrido — o Ascend entra oficialmente.
Mas o próximo chip otimizado para treinamento em larga escala, o Ascend 950DT, só deve ser produzido em massa no quarto trimestre de 2026, segundo o roteiro da Huawei. Ou seja, treinar o V4 é possível com o 950PR da geração anterior; para que o V4 Pro Max, com 1.6T MoE, seja treinado de forma completa e escalável, só com a nova geração chegando.
O verdadeiro desafio técnico não é “se o V4 consegue treinar” — já consegue — mas “como fazer o V4 rodar ao máximo, de forma estável e econômica na Ascend”.
O Ascend 950PR será produzido em Q1 de 2026, com 1.56 PFLOPS de FP4, 112GB de memória on-chip, especificações que superam a Nvidia H20 no papel. Mas passar de um chip para uma grande rede de super nós capazes de atender milhões de tokens por segundo é outra história. A versão full do V4 Pro Max é justamente essa — uma grande rede de super nós, com a série Ascend 950, chegando no segundo semestre de 2026.
Essa estratégia é completamente diferente das duas anteriores. A Anthropic e a OpenAI acumulam capacidades mais fortes, mas não as liberam de imediato; a DeepSeek, com sua versão completa, espera por um momento de redução de custos para liberar tudo de uma vez.
Essa diferença é crucial.
O verdadeiro trunfo do DeepSeek nunca foi “o desempenho mais avançado”, mas “reduzir o custo por token ao máximo, sem comprometer a usabilidade”. O V4 Preview foi adaptado para Nvidia e Ascend 950PR, mas para uma inferência em escala de produção, só com o super nó completo. Quando essa hora chegar, duas coisas acontecerão simultaneamente: o V4 Pro Max terá sua capacidade máxima liberada, e o custo de inferência e o preço da API cairão — para uma empresa que usa preço como estratégia de mercado, isso é mais importante que o desempenho.
O “momento DeepSeek” que todos esperavam, aquele que aconteceu no começo de 2025, não se repetiu nesta versão. Mas o lançamento do V4 Preview é uma espécie de trailer, o verdadeiro grande evento será na segunda metade do ano, com “DeepSeek + Huawei Ascend”.
Por esse ângulo, a equipe de Liang Wenfeng não está fazendo uma “esconder” forçada, mas uma “escolha” comercial — optar por lançar a versão mais forte em um cenário onde ela terá maior influência: o primeiro dia de uma implantação em larga escala do chip nacional. Antes disso, reforçar a narrativa de custo-benefício com o V4 Preview.
O DeepSeek nunca carregou a narrativa de “colocar a China na liderança de grandes modelos” — mas sim uma narrativa de sistema completo: chips, treinamento, inferência, preço — que é muito mais importante.
Recentemente, Huang Renxun, na entrevista do podcast de Dwarkesh Patel, disse que, se o DeepSeek lançar primeiro na Huawei, “será um resultado terrível para os EUA” (“a horrible outcome for our nation”).
Hoje, a Nvidia ainda domina o poder computacional de ponta. Mas, segundo Huang, com a “fatia de bolo” de cinco camadas de IA — energia, chips, infraestrutura, modelos, aplicações — o setor chinês de grandes modelos já possui soluções nacionais capazes de rodar em cada camada, e a lacuna está se fechando rapidamente. Completar o último pedaço, o chip, faz do DeepSeek uma história maior que a dos grandes modelos americanos: um passo importante para democratizar a inteligência global, sem custos excessivos, promovendo uma sociedade inteligente mais equitativa.
Permitir que o mundo bypass alguns dos recursos avançados controlados pela hegemonia, e caminhar rumo a uma sociedade inteligente eficiente.
Epílogo
A “esconder” da Anthropic — é intencional. Eles têm Mythos, não lançaram, por segurança.
A “esconder” da OpenAI — é estrutural. Têm o nível Pro, que raramente entregam, por infraestrutura e segmentação de preços.
A “esconder” do DeepSeek — é necessária. Está relacionada a toda uma narrativa de avanço social na inteligência.
Mas, de outro lado, isso lembra muito a floresta escura de Liu — nesta floresta de inteligência, cada caçador de ponta não dispara primeiro sua arma.
Expor-se significa sem reservas, sem cartas na manga, tornar-se alvo de outro caçador.
Ninguém sabe quem disparará a bala mais mortal primeiro. Mas uma coisa é certa: cada modelo que você usa hoje, não é o que realmente é.