CEO da Nvidia Jensen Huang sobre o que vem a seguir no boom da IA

Antes mesmo de Jensen Huang chegar à sua entrada de jaqueta de couro na GTC deste ano, a Nvidia $NVDA -0,70% já tinha começado a vender o mito. A trilha sonora pré-show soava suspeitosamente feita sob medida para uma coroação — letras sobre coisas incríveis chegando no horário, lendas sendo criadas, o futuro surgindo exatamente na hora; músicas até Shazam não conseguiu identificar. (A primeira demonstração de IA do dia poderia muito bem ter sido a playlist.) Metade da sala tinha os telemóveis erguidos para a entrada de Huang, como se Silicon Valley tivesse reservado seu próprio espetáculo em arena. Por uma tarde, a casa dos San Jose Sharks pertencia a um tipo diferente de jogada de poder. Porque Huang entrou no palco e fez o que faz de melhor: transformou uma apresentação de produto numa audiência para o futuro.

O fundador da Nvidia abriu a GTC prometendo uma viagem por “cada camada” da IA, e passou as horas seguintes argumentando que a empresa não está apenas vendendo chips num mercado em alta. Não. A empresa quer definir toda a infraestrutura física da economia de IA: o processamento, a rede, o armazenamento, o software, os modelos, as fábricas e — porque sutileza claramente está fora de época — talvez até os (ainda teóricos) centros de dados no espaço.

O discurso apresentou anúncios em todas as direções, mas a mensagem principal era mais focada. Huang queria que investidores, clientes e rivais ouvissem claramente quatro pontos: a demanda por IA ainda está crescendo rápido o suficiente para justificar gastos exorbitantes; a inferência é agora o centro do campo de batalha; os agentes devem sair dos chatbots e entrar na rotina diária do trabalho de escritório; e a próxima corrida do ouro após a IA digital pode ser a IA física, onde robôs, sistemas autônomos e software industrial consomem ainda mais dados e infraestrutura. Não se pode soletrar Nvidia sem IA.

Huang começou onde costuma começar quando o mercado começa a questionar se a barreira da Nvidia pode algum dia ter uma brecha: software. Ele passou a lembrar a todos que CUDA tem 20 anos, que a base instalada da Nvidia está “em todas as nuvens” e “em todas as empresas de informática”. A maior proteção da Nvidia ainda é o ecossistema de software ao redor do silício, não os retângulos verdes sozinhos.

Essa lógica moldou o resto do discurso. Huang destacou os dados estruturados, chamou-os de a “verdade fundamental” da computação empresarial, e disse que a IA finalmente pode usar o oceano de informações não estruturadas — PDFs, vídeos, fala, todo o lixo do sótão corporativo acumulado por anos sem realmente saber como pesquisar ou monetizar. Cuidado, mundo; a Nvidia também quer uma fatia do banco de dados.

A GTC não é mais só sobre um chip mais rápido e melhor. O grande discurso deste ano foi sobre a tentativa da Nvidia de se tornar a empresa que possui a economia do trabalho de IA em si — os chips, o armazenamento, a rede, a camada de orquestração, o gêmeo digital, a política de modelos abertos, o tempo de execução do agente e o que vier depois do centro de dados, quando a Terra começar a ficar lotada. A GTC 2026 foi uma palestra sobre inferência, uma sobre agentes e uma sobre fábricas de IA, com o hardware servindo como prova, não como enredo.

Pois, esse é um número grande

A maior demonstração de força de Huang foi numérico. Ele comemorou o 20º aniversário do CUDA, chamou-o de a roda de inércia por trás do processamento acelerado, disse que a demanda por computação aumentou “1 milhão de vezes nos últimos anos” e elevou a aposta ao afirmar que agora vê pelo menos 1 trilhão de dólares em oportunidades de receita de 2025 a 2027, frente aos 500 bilhões de dólares que anteriormente atribuía à demanda de Blackwell e Rubin até 2026. As ações da Nvidia fecharam em alta de 1,6% na segunda-feira, o que parece uma aprovação sem conversão total.

Esse número — e a forma como Huang o apresentou — pode muito bem ter sido o princípio organizador do discurso. A Nvidia quis que investidores e clientes ouvissem, em público e em volume, que a expansão ainda está no começo, ainda se ampliando e ainda grande o suficiente para fazer o gasto atual parecer um sinal de entrada. Esse número também fez uma limpeza silenciosa. A Nvidia passou meses respondendo às perguntas habituais que surgem quando uma empresa se torna a principal caixa de uma frenética de gastos de capital: Quanto tempo isso vai durar? O que acontece quando os hyperscalers se tornam religiosos em relação aos custos? Quanto da próxima fase vaza para chips personalizados e alternativas mais baratas?

A resposta de Huang foi ampliar a visão — tornar o mercado maior e a carga de trabalho mais complexa. Ele afirmou que “a inflexão da inferência chegou” e construiu o centro do discurso em torno de um argumento simples: a IA agora consegue fazer trabalho produtivo. E, uma vez que isso aconteça, o quadro de demanda muda. Treinar modelos gigantes e admirar-los nunca foi o estágio final. Tudo isso passa a produção, onde o relógio nunca para de correr.

Isso — isso mesmo! — é sua receita, dizia ele, transformando um centro de dados numa mina de dinheiro e uma conta de energia num destino. A Nvidia estava ocupada vendendo uma realidade tão aprimorada que quase poderia ser faturada, e a sala ainda estava cheia de pessoas tentando decidir se a demonstração parecia transcendente ou apenas um pouco mais cara.

Tokens estavam por toda parte no discurso — no vídeo de abertura, nos gráficos de desempenho, no argumento econômico. O ponto, essencialmente, é que o valor futuro da IA está em gerar resultados úteis continuamente, o que faz com que a inferência se torne a parte da pilha onde custo, latência e throughput começam a realmente importar. Huang está promovendo dependência. Ele quer que os clientes pensem em campus de gigawatts, racks integrados, orçamentos de megawatt e curvas de throughput de tokens, não em servidores que podem ser combinados e trocados à vontade.

A inferência assume o centro do palco

Talvez uma das linhas mais afiadas do discurso também fosse a mais simples: “A inflexão da inferência chegou.” A Nvidia sabe que o mundo se interessou por hardware de inferência mais barato e enxuto. Tudo bem. Gostaria de vender isso também.

Huang dividiu a inferência em duas etapas — pré-preenchimento e decodificação — e apresentou um sistema em que os chips Vera Rubin da Nvidia lidam com o pré-preenchimento, enquanto o silício derivado da Groq trata da decodificação, a etapa que realmente fornece a resposta. Isso importa; a inferência é onde o próximo capítulo da Nvidia fica mais complicado. O treinamento tornou a empresa rica. Servir centenas de milhões de usuários em tempo real é onde os clientes começam a questionar custos, latência e se realmente precisam do mesmo silício para cada etapa.

A resposta de Huang foi clássica Nvidia. Não defenda o GPU isoladamente; abrace toda a pilha. Ele descreveu o Vera Rubin como “um salto geracional” construído em torno de sete chips e cinco sistemas de rack, com a Nvidia afirmando que a plataforma pode treinar grandes modelos de mistura de especialistas com um quarto do número de GPUs em relação ao Blackwell e oferecer até 10 vezes mais throughput de inferência por watt a um décimo do custo por token. Ele também usou o discurso para olhar além do Rubin para a futura plataforma Feynman, porque na Nvidia, a próxima geração já está nos bastidores antes da atual terminar seu aplauso.

Huang não está promovendo uma peça mais rápida, mas sim uma dependência maior. A Nvidia anunciou um design de referência para fábrica de IA Vera Rubin DSX, ferramentas de simulação DSX para planejar fábricas de IA antes de serem construídas, e um menu mais amplo de componentes de armazenamento, rede e sistema, destinados a operar como uma máquina verticalmente integrada. A mensagem foi clara: pare de pensar em servidores, comece a pensar em campus. Ou, se for Nvidia, comece a enviar faturas como uma utilities.

Agentes deixam o palco da demonstração

Se a apresentação de hardware era sobre manter a Nvidia no centro da inferência, a de software era sobre garantir que a IA empresarial não se torne uma festa de terceiros. Huang disse que “100% da Nvidia” agora usa Claude Code, Codex e Cursor; as pessoas não perguntam mais quem, o quê, quando, onde e como na IA. Elas pedem para criar. Para fazer. Desculpem, empresas de chatbots — a IA agora é tratada menos como uma novidade de conversa e mais como um sistema de trabalho.

Huang passou o dia tentando garantir que esse sistema de trabalho percorra toda a pilha da Nvidia. A empresa lançou o OpenClaw e o NemoClaw para a comunidade OpenClaw — em parceria com a empresa muito na moda — promoveu seu Agent Toolkit e o runtime OpenShell, e investiu na IA-Q, que visa roteirizar consultas e reduzir custos em mais de 50% por meio de uma combinação híbrida de modelos de fronteira e modelos abertos da Nvidia.

Há uma proteção estratégica embutida em toda essa abertura.

A Nvidia revelou a Coalizão Nemotron com Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam e Thinking Machines Lab, com o primeiro projeto destinado a sustentar a futura família de modelos Nemotron 4. Leia o subtexto, e fica claro que a Nvidia não quer que o futuro do software de IA seja dividido de forma simples entre alguns gigantes de modelos fechados e uma pilha de hardware comum por baixo. Ela quer uma participação na camada de modelos abertos também — a peça que molda quem pode construir, ajustar e possuir a IA fora das paredes dos maiores laboratórios.

A expansão do império fica maior

E então, porque Huang nunca conheceu uma metáfora que não pudesse ampliar, o discurso se espalhou do centro de dados para quase todas as indústrias adjacentes que conseguiu encontrar.

Huang tem ampliado a narrativa da Nvidia além dos assistentes digitais há algum tempo, e o GTC deste ano reforçou ainda mais esse tema. A Nvidia anunciou um Plano de Fábrica de Dados de IA Física com a Microsoft $MSFT -0,14% Azure e a Nebius, destinado a automatizar a geração, o aumento e a avaliação de dados de treinamento para robótica, agentes de visão de IA e veículos autônomos. A proposta é simples: dados do mundo real são escassos, casos extremos são irritantes, e dados sintéticos mais simulação podem transformar o processamento na matéria-prima que esses sistemas precisam.

Huang também apresentou o GR00T N2, um modelo de base de robô de próxima geração baseado na pesquisa DreamZero, que a empresa afirma mais que dobra o sucesso em relação aos principais modelos VLA em novas tarefas e ambientes. Os chatbots animaram Wall Street. A IA física é a parte que pode manter a maratona de infraestrutura por anos, porque robôs, sistemas industriais e máquinas autônomas não precisam apenas de modelos — precisam de treinamento infinito, simulação, rede, sensores e processamento de borda.

Huang até trouxe Olaf, da Disney $DIS +1,66%, ao palco, uma pequena peça de teatro de IA física que deixou mais claro o ponto do que outro slide de arquitetura poderia fazer. A Nvidia diz que a Disney treinou Olaf e seus droids BDX +0,85% com um simulador de física acelerado por GPU, construído na estrutura Warp da Nvidia e integrado ao Newton, com Olaf previsto para estrear na Disneyland Paris em 29 de março.

A Nvidia também garantiu que veículos autônomos continuem na lista de desejos de todos. A empresa afirmou que BYD, Geely, Isuzu e Nissan estão construindo veículos prontos para o nível 4 com sua plataforma DRIVE Hyperion, enquanto a Uber $UBER +4,19% planeja lançar táxis autônomos alimentados pela Nvidia em Los Angeles e São Francisco no primeiro semestre de 2027, expandindo para 28 mercados até 2028. A autonomia encaixa-se quase perfeitamente na visão mais ampla de Huang: a próxima fase da IA passará pelo mundo físico, o que significa mais sensores, mais simulação, mais rede, mais processamento de borda e, convenientemente para a Nvidia, hardware mais caro em todos os lugares.

Huang até levou a narrativa maior e melhor um passo adiante, dizendo que a Nvidia vai ao espaço, com futuros sistemas baseados em Vera Rubin voltados para centros de dados orbitais e operações espaciais autônomas. Claro, isso soa um pouco como alguém que descobriu que ainda há setores intocados. Mas também soa como uma empresa determinada a fazer do “infraestrutura de IA” quase toda máquina cara à vista. A Nvidia ainda é a rainha dos chips, com certeza. Mas Huang não parece especialmente interessado nesse título sozinho. Sua empresa tenta passar de fornecedora de chips a arquiteta de fábricas, fornecedora de sistemas operacionais e cobradora de pedágio para um mundo onde a IA faz mais do trabalho e os centros de dados com restrição de energia se tornam motores de receita medidos em tokens por watt.

Quando Huang terminou, o discurso parecia maior que um calendário de lançamentos. Parecia um mapa de império. Sim, havia DLSS 5 para gráficos, novas integrações de software industrial, parcerias em telecomunicações e uma avalanche de infraestrutura para desenvolvedores. Mas a mensagem duradoura era mais simples e muito maior: a Nvidia quer que a IA deixe de ser vista apenas como uma categoria de software e passe a ser tratada como um projeto de infraestrutura de escala utilitária, com hardware e software da Nvidia embutidos em cada camada.

Essa é uma mensagem muito Jensen Huang. A parte assustadora para os rivais é que, pelo menos por enquanto, ele ainda tem muitos clientes dispostos a construir em torno dela.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar