Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
CEO da Nvidia Jensen Huang sobre o que vem a seguir no boom da IA
Antes mesmo de Jensen Huang chegar à sua entrada de jaqueta de couro na GTC deste ano, a Nvidia $NVDA -0,70% já tinha começado a vender o mito. A trilha sonora pré-show soava suspeitosamente feita sob medida para uma coroação — letras sobre coisas incríveis chegando no horário, lendas sendo criadas, o futuro surgindo exatamente na hora; músicas até Shazam não conseguiu identificar. (A primeira demonstração de IA do dia poderia muito bem ter sido a playlist.) Metade da sala tinha os telemóveis erguidos para a entrada de Huang, como se Silicon Valley tivesse reservado seu próprio espetáculo em arena. Por uma tarde, a casa dos San Jose Sharks pertencia a um tipo diferente de jogada de poder. Porque Huang entrou no palco e fez o que faz de melhor: transformou uma apresentação de produto numa audiência para o futuro.
O fundador da Nvidia abriu a GTC prometendo uma viagem por “cada camada” da IA, e passou as horas seguintes argumentando que a empresa não está apenas vendendo chips num mercado em alta. Não. A empresa quer definir toda a infraestrutura física da economia de IA: o processamento, a rede, o armazenamento, o software, os modelos, as fábricas e — porque sutileza claramente está fora de época — talvez até os (ainda teóricos) centros de dados no espaço.
O discurso apresentou anúncios em todas as direções, mas a mensagem principal era mais focada. Huang queria que investidores, clientes e rivais ouvissem claramente quatro pontos: a demanda por IA ainda está crescendo rápido o suficiente para justificar gastos exorbitantes; a inferência é agora o centro do campo de batalha; os agentes devem sair dos chatbots e entrar na rotina diária do trabalho de escritório; e a próxima corrida do ouro após a IA digital pode ser a IA física, onde robôs, sistemas autônomos e software industrial consomem ainda mais dados e infraestrutura. Não se pode soletrar Nvidia sem IA.
Huang começou onde costuma começar quando o mercado começa a questionar se a barreira da Nvidia pode algum dia ter uma brecha: software. Ele passou a lembrar a todos que CUDA tem 20 anos, que a base instalada da Nvidia está “em todas as nuvens” e “em todas as empresas de informática”. A maior proteção da Nvidia ainda é o ecossistema de software ao redor do silício, não os retângulos verdes sozinhos.
Essa lógica moldou o resto do discurso. Huang destacou os dados estruturados, chamou-os de a “verdade fundamental” da computação empresarial, e disse que a IA finalmente pode usar o oceano de informações não estruturadas — PDFs, vídeos, fala, todo o lixo do sótão corporativo acumulado por anos sem realmente saber como pesquisar ou monetizar. Cuidado, mundo; a Nvidia também quer uma fatia do banco de dados.
A GTC não é mais só sobre um chip mais rápido e melhor. O grande discurso deste ano foi sobre a tentativa da Nvidia de se tornar a empresa que possui a economia do trabalho de IA em si — os chips, o armazenamento, a rede, a camada de orquestração, o gêmeo digital, a política de modelos abertos, o tempo de execução do agente e o que vier depois do centro de dados, quando a Terra começar a ficar lotada. A GTC 2026 foi uma palestra sobre inferência, uma sobre agentes e uma sobre fábricas de IA, com o hardware servindo como prova, não como enredo.
Pois, esse é um número grande
A maior demonstração de força de Huang foi numérico. Ele comemorou o 20º aniversário do CUDA, chamou-o de a roda de inércia por trás do processamento acelerado, disse que a demanda por computação aumentou “1 milhão de vezes nos últimos anos” e elevou a aposta ao afirmar que agora vê pelo menos 1 trilhão de dólares em oportunidades de receita de 2025 a 2027, frente aos 500 bilhões de dólares que anteriormente atribuía à demanda de Blackwell e Rubin até 2026. As ações da Nvidia fecharam em alta de 1,6% na segunda-feira, o que parece uma aprovação sem conversão total.
Esse número — e a forma como Huang o apresentou — pode muito bem ter sido o princípio organizador do discurso. A Nvidia quis que investidores e clientes ouvissem, em público e em volume, que a expansão ainda está no começo, ainda se ampliando e ainda grande o suficiente para fazer o gasto atual parecer um sinal de entrada. Esse número também fez uma limpeza silenciosa. A Nvidia passou meses respondendo às perguntas habituais que surgem quando uma empresa se torna a principal caixa de uma frenética de gastos de capital: Quanto tempo isso vai durar? O que acontece quando os hyperscalers se tornam religiosos em relação aos custos? Quanto da próxima fase vaza para chips personalizados e alternativas mais baratas?
A resposta de Huang foi ampliar a visão — tornar o mercado maior e a carga de trabalho mais complexa. Ele afirmou que “a inflexão da inferência chegou” e construiu o centro do discurso em torno de um argumento simples: a IA agora consegue fazer trabalho produtivo. E, uma vez que isso aconteça, o quadro de demanda muda. Treinar modelos gigantes e admirar-los nunca foi o estágio final. Tudo isso passa a produção, onde o relógio nunca para de correr.
Isso — isso mesmo! — é sua receita, dizia ele, transformando um centro de dados numa mina de dinheiro e uma conta de energia num destino. A Nvidia estava ocupada vendendo uma realidade tão aprimorada que quase poderia ser faturada, e a sala ainda estava cheia de pessoas tentando decidir se a demonstração parecia transcendente ou apenas um pouco mais cara.
Tokens estavam por toda parte no discurso — no vídeo de abertura, nos gráficos de desempenho, no argumento econômico. O ponto, essencialmente, é que o valor futuro da IA está em gerar resultados úteis continuamente, o que faz com que a inferência se torne a parte da pilha onde custo, latência e throughput começam a realmente importar. Huang está promovendo dependência. Ele quer que os clientes pensem em campus de gigawatts, racks integrados, orçamentos de megawatt e curvas de throughput de tokens, não em servidores que podem ser combinados e trocados à vontade.
A inferência assume o centro do palco
Talvez uma das linhas mais afiadas do discurso também fosse a mais simples: “A inflexão da inferência chegou.” A Nvidia sabe que o mundo se interessou por hardware de inferência mais barato e enxuto. Tudo bem. Gostaria de vender isso também.
Huang dividiu a inferência em duas etapas — pré-preenchimento e decodificação — e apresentou um sistema em que os chips Vera Rubin da Nvidia lidam com o pré-preenchimento, enquanto o silício derivado da Groq trata da decodificação, a etapa que realmente fornece a resposta. Isso importa; a inferência é onde o próximo capítulo da Nvidia fica mais complicado. O treinamento tornou a empresa rica. Servir centenas de milhões de usuários em tempo real é onde os clientes começam a questionar custos, latência e se realmente precisam do mesmo silício para cada etapa.
A resposta de Huang foi clássica Nvidia. Não defenda o GPU isoladamente; abrace toda a pilha. Ele descreveu o Vera Rubin como “um salto geracional” construído em torno de sete chips e cinco sistemas de rack, com a Nvidia afirmando que a plataforma pode treinar grandes modelos de mistura de especialistas com um quarto do número de GPUs em relação ao Blackwell e oferecer até 10 vezes mais throughput de inferência por watt a um décimo do custo por token. Ele também usou o discurso para olhar além do Rubin para a futura plataforma Feynman, porque na Nvidia, a próxima geração já está nos bastidores antes da atual terminar seu aplauso.
Huang não está promovendo uma peça mais rápida, mas sim uma dependência maior. A Nvidia anunciou um design de referência para fábrica de IA Vera Rubin DSX, ferramentas de simulação DSX para planejar fábricas de IA antes de serem construídas, e um menu mais amplo de componentes de armazenamento, rede e sistema, destinados a operar como uma máquina verticalmente integrada. A mensagem foi clara: pare de pensar em servidores, comece a pensar em campus. Ou, se for Nvidia, comece a enviar faturas como uma utilities.
Agentes deixam o palco da demonstração
Se a apresentação de hardware era sobre manter a Nvidia no centro da inferência, a de software era sobre garantir que a IA empresarial não se torne uma festa de terceiros. Huang disse que “100% da Nvidia” agora usa Claude Code, Codex e Cursor; as pessoas não perguntam mais quem, o quê, quando, onde e como na IA. Elas pedem para criar. Para fazer. Desculpem, empresas de chatbots — a IA agora é tratada menos como uma novidade de conversa e mais como um sistema de trabalho.
Huang passou o dia tentando garantir que esse sistema de trabalho percorra toda a pilha da Nvidia. A empresa lançou o OpenClaw e o NemoClaw para a comunidade OpenClaw — em parceria com a empresa muito na moda — promoveu seu Agent Toolkit e o runtime OpenShell, e investiu na IA-Q, que visa roteirizar consultas e reduzir custos em mais de 50% por meio de uma combinação híbrida de modelos de fronteira e modelos abertos da Nvidia.
Há uma proteção estratégica embutida em toda essa abertura.
A Nvidia revelou a Coalizão Nemotron com Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam e Thinking Machines Lab, com o primeiro projeto destinado a sustentar a futura família de modelos Nemotron 4. Leia o subtexto, e fica claro que a Nvidia não quer que o futuro do software de IA seja dividido de forma simples entre alguns gigantes de modelos fechados e uma pilha de hardware comum por baixo. Ela quer uma participação na camada de modelos abertos também — a peça que molda quem pode construir, ajustar e possuir a IA fora das paredes dos maiores laboratórios.
A expansão do império fica maior
E então, porque Huang nunca conheceu uma metáfora que não pudesse ampliar, o discurso se espalhou do centro de dados para quase todas as indústrias adjacentes que conseguiu encontrar.
Huang tem ampliado a narrativa da Nvidia além dos assistentes digitais há algum tempo, e o GTC deste ano reforçou ainda mais esse tema. A Nvidia anunciou um Plano de Fábrica de Dados de IA Física com a Microsoft $MSFT -0,14% Azure e a Nebius, destinado a automatizar a geração, o aumento e a avaliação de dados de treinamento para robótica, agentes de visão de IA e veículos autônomos. A proposta é simples: dados do mundo real são escassos, casos extremos são irritantes, e dados sintéticos mais simulação podem transformar o processamento na matéria-prima que esses sistemas precisam.
Huang também apresentou o GR00T N2, um modelo de base de robô de próxima geração baseado na pesquisa DreamZero, que a empresa afirma mais que dobra o sucesso em relação aos principais modelos VLA em novas tarefas e ambientes. Os chatbots animaram Wall Street. A IA física é a parte que pode manter a maratona de infraestrutura por anos, porque robôs, sistemas industriais e máquinas autônomas não precisam apenas de modelos — precisam de treinamento infinito, simulação, rede, sensores e processamento de borda.
Huang até trouxe Olaf, da Disney $DIS +1,66%, ao palco, uma pequena peça de teatro de IA física que deixou mais claro o ponto do que outro slide de arquitetura poderia fazer. A Nvidia diz que a Disney treinou Olaf e seus droids BDX +0,85% com um simulador de física acelerado por GPU, construído na estrutura Warp da Nvidia e integrado ao Newton, com Olaf previsto para estrear na Disneyland Paris em 29 de março.
A Nvidia também garantiu que veículos autônomos continuem na lista de desejos de todos. A empresa afirmou que BYD, Geely, Isuzu e Nissan estão construindo veículos prontos para o nível 4 com sua plataforma DRIVE Hyperion, enquanto a Uber $UBER +4,19% planeja lançar táxis autônomos alimentados pela Nvidia em Los Angeles e São Francisco no primeiro semestre de 2027, expandindo para 28 mercados até 2028. A autonomia encaixa-se quase perfeitamente na visão mais ampla de Huang: a próxima fase da IA passará pelo mundo físico, o que significa mais sensores, mais simulação, mais rede, mais processamento de borda e, convenientemente para a Nvidia, hardware mais caro em todos os lugares.
Huang até levou a narrativa maior e melhor um passo adiante, dizendo que a Nvidia vai ao espaço, com futuros sistemas baseados em Vera Rubin voltados para centros de dados orbitais e operações espaciais autônomas. Claro, isso soa um pouco como alguém que descobriu que ainda há setores intocados. Mas também soa como uma empresa determinada a fazer do “infraestrutura de IA” quase toda máquina cara à vista. A Nvidia ainda é a rainha dos chips, com certeza. Mas Huang não parece especialmente interessado nesse título sozinho. Sua empresa tenta passar de fornecedora de chips a arquiteta de fábricas, fornecedora de sistemas operacionais e cobradora de pedágio para um mundo onde a IA faz mais do trabalho e os centros de dados com restrição de energia se tornam motores de receita medidos em tokens por watt.
Quando Huang terminou, o discurso parecia maior que um calendário de lançamentos. Parecia um mapa de império. Sim, havia DLSS 5 para gráficos, novas integrações de software industrial, parcerias em telecomunicações e uma avalanche de infraestrutura para desenvolvedores. Mas a mensagem duradoura era mais simples e muito maior: a Nvidia quer que a IA deixe de ser vista apenas como uma categoria de software e passe a ser tratada como um projeto de infraestrutura de escala utilitária, com hardware e software da Nvidia embutidos em cada camada.
Essa é uma mensagem muito Jensen Huang. A parte assustadora para os rivais é que, pelo menos por enquanto, ele ainda tem muitos clientes dispostos a construir em torno dela.