Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Avaliação de Wall Street sobre GTC: Na definição da Nvidia, poder computacional é receita, Token é a nova mercadoria em massa
Pergunta: Como a redução significativa do custo do Token impulsiona a expansão da demanda por IA?
A conferência anual GTC da Nvidia transmitiu um sinal central: a lógica de negócios do poder de processamento de IA está passando por uma reconstrução fundamental — Token tornou-se uma nova commodity, e o poder de processamento é a receita.
A gestão da Nvidia na GTC elevou drasticamente a previsão de vendas de data centers de US$ 500 bilhões (até 2026) para mais de US$ 1 trilhão (acumulado de 2025 a 2027), incluindo vendas adicionais de CPUs Vera independentes e soluções de rack LPX. Wall Street vê este evento como uma forte confirmação da continuidade do ciclo de IA da Nvidia.
Segundo a Chase, o mais recente relatório do JPMorgan indica que esse número representa pelo menos US$ 50 a US$ 70 bilhões de espaço de alta em relação às expectativas atuais do mercado para receitas de data centers em 2026-2027.
O Bank of America cita diretamente a gestão da Nvidia — “Token é uma nova commodity, poder de processamento equivale a receita” — e aponta que o sistema Blackwell reduziu o custo por Token em até 35 vezes em relação à geração Hopper anterior, com a série Rubin que será lançada podendo reduzir esse custo ainda mais, entre 2 a 35 vezes, dependendo do tipo de carga de trabalho e configuração arquitetônica.
Na narrativa da Nvidia, essa contínua compressão do custo do Token é a força motriz fundamental para a expansão da demanda em escala.
Visibilidade da demanda dobrada, com clientes de grande escala e mercado empresarial impulsionando
A gestão da Nvidia revelou que pedidos de alta confiança para os sistemas Blackwell e Vera Rubin ultrapassaram US$ 1 trilhão, dobrando a previsão de US$ 500 bilhões divulgada na GTC de outubro de 2025. Além disso, espera-se que pedidos adicionais e pedidos pendentes de 2027 continuem a se acumular nos próximos 6 a 9 meses.
A estrutura de demanda está se diversificando: cerca de 60% vem de provedores de nuvem de grande escala (com consumo interno de IA migrando de cargas de trabalho de recomendação/pesquisa para grandes modelos de linguagem), enquanto os restantes 40% estão distribuídos entre empresas de IA nativas na nuvem com CUDA, parceiros de nuvem da Nvidia, IA soberana e clientes industriais/empresariais.
O Bank of America observa que essa nova perspectiva de US$ 1 trilhão está alinhada com a expectativa anterior de cerca de US$ 970 bilhões em receitas de data centers em três anos, validando a lógica de que, em outubro de 2025, a previsão anterior de US$ 500 bilhões foi validada por uma expectativa de aproximadamente US$ 450 bilhões.
Vale destacar que a gestão da Nvidia dedicou uma parte considerável do evento para explicar a necessidade de acelerar cargas de trabalho tradicionais de empresas.
A Nvidia anunciou parcerias com IBM (acelerando WatsonX), Google Cloud (acelerando BigQuery, com cerca de 76% de economia de custos com Snap), Dell (plataforma de dados de IA), além do lançamento das duas principais bibliotecas CUDA-X: cuDF e cuVS.
O JPMorgan acredita que essa direção “é fortemente subestimada pelo mercado” — a lógica é que, com a Lei de Moore cada vez mais desacelerada, a aceleração específica de domínio é o único caminho viável, expandindo o mercado endereçável da Nvidia além do ciclo de treinamento e inferência de IA.
Integração do Groq LPU: o lançamento mais importante no nível de arquitetura
O JPMorgan avalia a integração do Groq 3 LPU com Vera Rubin como o “lançamento mais importante de novos produtos na arquitetura” nesta GTC.
Essa arquitetura desacoplada combina o GPU Rubin (alto throughput, 288GB HBM4, 22TB/s de largura de banda, 50 PFLOPS NVFP4) com o LPU da Groq (baixa latência, 500MB de SRAM on-chip, 150TB/s de largura de banda, 1.2 PFLOPS FP8): o pré-carregamento é feito no Rubin, a atenção na decodificação também ocorre nele, enquanto a rede feedforward/geração de tokens é descarregada para o LPU da Groq.
O rack LPX integra 256 LPUs, oferecendo 128GB de SRAM agregado, 40PB/s de largura de banda de memória e 315 PFLOPS de capacidade de inferência, com previsão de lançamento no terceiro trimestre de 2026.
A gestão da Nvidia afirmou que cargas de trabalho que exigem alta velocidade de tokens (como geração de código, cálculos de engenharia e inferência de contexto longo) terão cerca de 25% do consumo de energia do data center dedicado ao LPX, enquanto os restantes 75% usarão configurações puras Vera Rubin NVL72.
Dados do Bank of America mostram que, após a integração do sistema Rubin com o rack SRAM LPX, a eficiência de cargas de trabalho de alta performance e baixa latência pode aumentar até 35 vezes em relação à geração anterior. O JPMorgan destaca que essa arquitetura responde diretamente ao conflito fundamental de otimizar simultaneamente throughput (limitado por FLOPS) e latência (limitada por largura de banda), permitindo à Nvidia competir efetivamente no mercado de inferência de alta ponta, tradicionalmente dominado por ASICs.
Cabos e CPOs em paralelo: múltiplas rotas de interconexão sem aposta única
A gestão da Nvidia confirmou na conferência que continuará a desenvolver ambas as rotas de interconexão: cabos de cobre e CPO (Common Pluggable Optics).
Na geração Vera Rubin, o rack Oberon usa cabos de cobre para expandir até NVL72, enquanto a extensão óptica vai até NVL576; o switch Ethernet óptico Spectrum-6 SPX, já em produção, foi desenvolvido em parceria com a TSMC, com eficiência de energia cinco vezes maior e resistência dez vezes maior que os transceptores tradicionais.
Para o Rubin Ultra (fim de 2027), o rack Kyber usará NVLink por cabos de cobre (até 144 GPUs), além de oferecer uma alternativa baseada em troca de NVLink com CPO. Para Feynman (2028), será suportada simultaneamente a expansão por cabos de cobre e CPO, com Spectrum-7 (204T, CPO) para expansão lateral.
O Bank of America reforça que a adoção de switches de expansão por CPO e troca lateral é totalmente opcional para os clientes, que podem continuar usando cabos de cobre até acharem conveniente. O JPMorgan concorda, prevendo que a expansão por cabos de cobre continuará a dominar as configurações NVL72/NVL144 até pelo menos 2027, enquanto o CPO ganhará participação na expansão lateral e configurações NVL576+.
CPU Vera: uma nova fonte de receita de bilhões de dólares voltada para IA de agentes inteligentes
A gestão da Nvidia afirmou claramente que o negócio independente de CPU Vera “já está definido como uma receita de dezenas de bilhões de dólares”, e o Bank of America destaca que essa receita ainda não está totalmente refletida nas expectativas atuais do mercado, sendo uma contribuição incremental.
A Vera CPU possui 88 núcleos ARM Olympus desenvolvidos internamente, memória LPDDR5X com 1.2TB/s de largura de banda (com metade do consumo de CPUs tradicionais de servidores), e conecta-se aos GPUs via NVLink-C2C a 1.8TB/s (7 vezes a PCIe Gen 6). O rack Vera inclui 256 CPUs líquidas, suportando mais de 22.500 ambientes CPU simultâneos.
A gestão enfatiza que a CPU está se tornando um gargalo na expansão de agentes inteligentes — o aprendizado por reforço e os fluxos de trabalho de agentes precisam de muitos ambientes CPU para testar e validar as saídas dos modelos de GPU. A Meta já implantou em escala a geração anterior da CPU Grace, e a Vera substituirá em 2027.
O JPMorgan qualifica essa receita de CPU como de alta margem, repetível (implantada junto com racks de GPU em fábricas de IA), formando uma ligação estrutural com a curva de adoção de IA de agentes inteligentes que a Nvidia está ativamente catalisando.
Roteiro de produtos até 2028, com ritmo anual de lançamentos
A Nvidia reafirmou seu ritmo anual de lançamentos de plataformas: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).
O Rubin Ultra usará uma configuração de 4 GPUs, com 1TB de HBM4e, incluindo o novo chip LPU LP35 (com introdução do poder de cálculo NVFP4), e o rack Kyber suportará até 144 GPUs por NVLink (7ª geração, 3.6Tb/s por GPU, largura de banda agregada NVL576 de 1.5Pb/s).
Detalhes do Feynman superam as expectativas do mercado:
Novo GPU com processo TSMC A16 (1.6nm), com empilhamento de chips e HBM personalizado; novo CPU chamado Rosa (em homenagem a Rosalind Franklin), projetado para orquestrar cargas de trabalho de agentes inteligentes entre GPU, LPU, armazenamento e rede; novo LPU chamado LP40, desenvolvido em parceria com a equipe Groq da Nvidia; além de BlueField-5 DPU, superplaca de rede ConnectX-10, NVLink 8 e Spectrum-7 (204T, CPO).
O JPMorgan acredita que a plataforma verticalmente integrada da Nvidia (que já abrange sete chips, cinco sistemas de rack e uma pilha de software) é difícil de ser copiada, e que a aceleração de inferência, junto com a expansão de cargas de trabalho tradicionais, impulsiona uma expansão estrutural do mercado endereçável, sustentada por uma base de clientes em contínua ampliação, apoiando um ciclo de investimento em IA mais duradouro do que o atualmente previsto pelo mercado.