Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
《NVIDIA份额只剩 48%,推理大时代机会在哪?》
Este é o nono artigo da série de 100 artigos sobre pesquisa de investimento em IA, com 20 mil palavras, recomenda-se primeiro guardar para leitura posterior, pois poucos conseguirão terminar de ler.
Nos artigos anteriores, analisamos Intel, AMD, ARM. Nos últimos anos, os preços das ações dessas empresas aumentaram bastante — AMD dobrou, Intel triplicou, ARM também atingiu níveis históricos máximos. Após esse aumento, surge uma questão simples: ainda vale a pena manter ações dessas empresas que já subiram? Há oportunidades em ações que ainda não subiram?
Para responder a essa questão, não se pode evitar uma palavra-chave central — raciocínio. Nas análises anteriores, o aumento dessas empresas sempre voltou a essa palavra.
Então: quão grande é o mercado de raciocínio? Em que estágio estamos atualmente? Quais empresas se beneficiarão? Quais já estão precificadas pelo mercado, quais ainda não?
Essa é uma compreensão fundamental a ser adquirida primeiro.
1. Quão grande é o mercado
O treinamento de modelos é "escrever programas", o raciocínio é "o processo diário de chamada desse programa". Após o treinamento do GPT, milhões de pessoas o usam diariamente para fazer perguntas, e cada interação consome poder de cálculo de raciocínio. Claude Code executa uma tarefa, um agente roda cem rodadas, cada rodada é raciocínio.
Diversos estudos de setor e mídia apontam na mesma direção: após o modelo entrar em produção, o raciocínio se tornará a maior parte do custo de ciclo de vida, estimativas comuns variam entre 80-90%. Ou seja, na futura era de IA, na conta de poder de cálculo, 8 em cada 10 unidades de gasto serão consumidas pelo raciocínio.
Porém, nos últimos três anos, o mercado discutiu quase exclusivamente o treinamento, pois ele é considerado uma história mais "sedutora" — quem tem mais H100, quem tem mais parâmetros, quem treinou a próxima geração de modelos primeiro. O raciocínio era visto como uma tarefa secundária após o treinamento.
Essa percepção distorcida está sendo revertida, e essa mudança é a razão fundamental pela qual as empresas de semicondutores dessa última ano foram reprecificadas.
Mas quão grande é esse mercado de raciocínio? Pode-se estimar de cinco formas específicas.
Primeiro, número de usuários. ChatGPT tem 900 milhões de usuários semanais, 50 milhões de assinantes pagos. A comparação na China é ainda mais direta — o volume diário de chamadas de tokens passou de 100 bilhões no início de 2024 para 140 trilhões em 2026, um aumento de 1.400 vezes. Essa demanda ainda não atingiu saturação.
Segundo, intensidade de uso. O volume de tokens processados pela OpenAI era de 6 bilhões por minuto em outubro de 2025, atingiu 15 bilhões em abril de 2026 — um aumento de 2,5 vezes em seis meses. A receita de versões empresariais representa mais de 40%, e o uso por clientes corporativos é dezenas de vezes maior do que por consumidores.
Terceiro, comprimento das conversas. O comprimento do contexto passou de algumas centenas de tokens no início para o V4 Pro / Flash, listado na documentação da API DeepSeek, com um contexto de 1 milhão de tokens, e uma saída máxima de 384 mil. Quanto maior o texto, maior o consumo de memória e poder de cálculo por raciocínio.
Quarto, os próprios modelos estão cada vez mais caros em termos de cálculo. Modelos de raciocínio como OpenAI o1, DeepSeek R1, Claude Thinking, antes de responder, "pensam" internamente milhares ou dezenas de milhares de tokens. Jensen Huang, por exemplo, mencionou o DeepSeek R1, dizendo que modelos de raciocínio podem precisar de muito mais cálculo, até cem vezes mais.
Antes, ao fazer uma pergunta à IA, ela respondia imediatamente; agora, ao fazer uma pergunta difícil, ela pensa por meia minuto antes de responder. Esse "pensar por meia minuto" é um aumento no consumo de poder de cálculo.
Quinto, agentes. Uma tarefa de agente geralmente requer chamar o modelo de 10 a 100 vezes. O uso semanal do OpenAI Codex já ultrapassou 3 milhões — isso é apenas um produto de uma empresa. Uma pessoa do setor de IA estima que o consumo total de poder de cálculo de um agente inteligente pode ser mais de 10 vezes maior do que de um grande modelo de linguagem com parâmetros semelhantes.
Multiplicando esses cinco fatores, a demanda total por raciocínio pode experimentar uma expansão de várias ordens de magnitude em três a cinco anos, não é uma narrativa exagerada, mas uma avaliação cada vez mais próxima do mainstream.
Na economia, há um fenômeno antigo chamado Paradoxo de Jevons — quando a eficiência de uso de um recurso melhora, o consumo total pode aumentar, pois ele fica mais barato e mais cenários se tornam viáveis. Após a melhora na eficiência da máquina a vapor, o consumo de carvão na Inglaterra disparou; após a redução do preço do token de raciocínio, as chamadas de IA aumentaram exponencialmente. É o mesmo roteiro. Segundo a IEA, o consumo de energia dos data centers globais passará de 1,5% do total em 2024 para o dobro, atingindo 945 TWh até 2030 — aproximadamente o consumo anual de energia da Alemanha e França juntos.
Além disso, ações concretas na indústria reforçam ainda mais esse argumento:
A ARR da Anthropic passou de 1 bilhão de dólares no final de 2024 para 30 bilhões de dólares no início de 2026 — um crescimento de 30 vezes em 14 meses. Para sustentar essa curva, a empresa garantiu mais de 11 GW de poder de cálculo até o final de 2025 e início de 2026, incluindo uma encomenda de 21 bilhões de dólares em TPU da Broadcom. A OpenAI já comprometeu a implantação de 10 GW de chips personalizados. A Google aumentou sua meta de entrega de TPU para 6 milhões de unidades em 2026, um aumento de 50%.
Os investimentos de capital dos provedores de nuvem também são mais evidentes. A Google planeja gastar entre 175 e 185 bilhões de dólares em capital em 2026, quase o dobro de 2025; a Amazon investirá 200 bilhões de dólares; a Meta planeja aumentar em 65%, chegando a 118 bilhões de dólares. Os oito maiores provedores de nuvem terão um investimento total de mais de 600 bilhões de dólares em 2026, um crescimento anual de 40%.
Colocando tudo junto, a conclusão é simples — a curva de demanda por raciocínio em IA já ultrapassou a capacidade de fornecimento de qualquer fornecedor de hardware.
Essa é a essência do mercado de raciocínio: na era do treinamento, "criar um deus"; na era do raciocínio, "esse deus é chamado por bilhões de pessoas diariamente, cada agente faz cem chamadas, cada uma pensando dezenas de milhares de tokens". De um ao outro, o consumo de poder de cálculo não aumenta linearmente, mas de forma exponencial.
2. Quais ações se beneficiarão?
Um mercado grande não significa que todas as empresas se beneficiarão, e a posição de domínio da NVIDIA já está se enfraquecendo nos dados!
Em 2026, a participação da NVIDIA no mercado global de chips de raciocínio de IA será de aproximadamente 48,2%, a AMD cerca de 16,7%, o setor de ASICs aproximadamente 18,5% (sendo 7,8% para TPU do Google, 5,2% para Inferentia da AWS, e 5,5% para outros ASICs), e os chips de raciocínio nacionais somam 16,6%.
A NVIDIA ainda mantém mais de 80% de participação no mercado de treinamento, mas no mercado de raciocínio já possui menos de metade, com 48,2%.
Por que isso acontece?
Na era do treinamento, a NVIDIA competia com força total — GPU de alto desempenho + NVLink de alta velocidade + ecossistema CUDA. Essa combinação é uma vantagem competitiva na fase de treinamento.
Leia mais: 《NVIDIA份额只剩 48%,推理大时代机会在哪?》