“Narrativa de alta do mercado de IA” volta a gerar ondas gigantes! Jensen Huang lança plano de IA de trilhões de dólares Nvidia(NVDA.US) inicia jornada rumo a uma capitalização de mercado de 6 trilhões de dólares

NVIDIA CEO Jensen Huang apresentou, na madrugada do dia 17 de março, durante a conferência GTC, o “super plano de receita de IA sem precedentes” da NVIDIA no campo da infraestrutura de computação em IA. Ele informou os investidores globais que, impulsionado pela forte demanda por GPUs da arquitetura Blackwell e pela demanda explosiva do sistema de computação em IA da arquitetura Vera Rubin, a receita futura da empresa no campo dos chips de inteligência artificial pode alcançar pelo menos 1 trilhão de dólares até 2027, muito acima da projeção de 500 bilhões de dólares para 2026 apresentada na última conferência GTC.

Para analistas como os da Goldman Sachs, Wedbush e Morgan Stanley, que são otimistas em relação às perspectivas de preço das ações da NVIDIA, a empresa está prestes a superar a marca de 5 trilhões de dólares em valor de mercado novamente, após o feito realizado em outubro do ano passado, e há uma grande esperança de que alcance um novo recorde histórico muito acima dos níveis atuais.

Para o preço das ações da NVIDIA, é provável que não demore muito para que crie um novo recorde histórico e impulsione a cadeia de produção de computação em IA global em uma nova trajetória ascendente, e o super plano de 1 trilhão de dólares da NVIDIA está se esforçando ao máximo para sustentar a narrativa do “mercado em alta de IA”, que é a linha principal do mercado de capitais. Em termos do preço-alvo médio dos analistas de Wall Street, isso significa que o valor de mercado da NVIDIA deve ultrapassar 6 trilhões de dólares nos próximos 12 meses, com as previsões mais otimistas de Wall Street alcançando até 8,8 trilhões de dólares.

À medida que a escala do modelo, a cadeia de inferência e as cargas de trabalho de IA agente multimodal impulsionam o consumo de computação de forma exponencial, os gastos de capital das empresas de tecnologia estão se concentrando mais na infraestrutura de computação em IA. Os investidores globais estão ancorando a narrativa do “mercado em alta de IA”, que gira em torno da NVIDIA, dos clusters TPU da Google e das novas iterações da AMD, como uma das narrativas de investimento mais certas no mercado de ações global. Isso também significa que temas de investimento relacionados, como eletricidade, sistemas de resfriamento a líquido e a cadeia de suprimentos de interconexão óptica, que estão intimamente relacionados ao treinamento/inferência de IA, continuarão a figurar entre os investimentos mais quentes do mercado de ações, mesmo diante da incerteza da situação geopolítica no Oriente Médio, acompanhando líderes de computação em IA como NVIDIA, AMD, Broadcom, TSMC e Micron.

Na conferência anual GTC realizada em San José, Califórnia, o CEO Jensen Huang lançou um novo processador central (ou seja, um CPU de nível de servidor de data center) e um sistema de infraestrutura de computação em IA LPU baseado na tecnologia de arquitetura exclusiva de inferência de IA da Groq. A Groq é uma startup de chips de IA, da qual a NVIDIA obteve uma licença tecnológica por 17 bilhões de dólares em dezembro do ano passado.

Essas iniciativas fazem parte dos esforços de Jensen Huang para consolidar a posição da empresa no que é conhecido como “computação de inferência”. A computação de inferência refere-se ao processo de computação em larga escala que responde às solicitações de consulta dos usuários B2B e B2C em todo o mundo. Neste campo, a infraestrutura de computação em IA da NVIDIA está enfrentando uma concorrência mais acirrada de processadores de IA ASIC personalizados desenvolvidos por empresas como Google (ou seja, a linha de tecnologia de IA ASIC liderada pelo TPU da Google). Nos últimos anos, os chips da NVIDIA têm dominado o treinamento de grandes modelos de IA, que sempre foi um foco de atenção do mercado.

O lado de treinamento da IA, quase monopolizado pela NVIDIA, precisa de um cluster de computação em IA mais poderoso e uma capacidade de iteração rápida de todo o sistema de computação, enquanto o lado de inferência da IA, após a implementação em grande escala da tecnologia de IA de ponta, valoriza mais o custo por token, a latência e a eficiência energética.

“A era da inferência em inteligência artificial já chegou”, afirmou Jensen Huang na conferência GTC. “E a demanda por inferência continua a crescer”, acrescentou.

Vestindo sua icônica jaqueta de couro preta, Jensen Huang fez seu discurso em um estádio de hóquei que pode acomodar mais de 18.000 pessoas. Este evento tecnológico de quatro dias se tornou uma das maiores plataformas de demonstração de tecnologia de IA do mundo. “Só quero lembrar a todos que esta é uma conferência tecnológica que atrai a atenção de todos”, disse ele ao público.

A onda de inferência em IA está chegando, e o “plano de computação em IA” da NVIDIA salta para trilhões de dólares

Se condensássemos o discurso de Jensen Huang na GTC em uma frase, o cerne seria: a NVIDIA está se reestruturando de uma “empresa que vende GPUs de IA” para um “gigante dos chips que vende fábricas de IA”. A keynote oficial começou com a noção de que o token é a unidade básica da IA moderna, e Jensen Huang avançou a linha principal do setor de “treinamento” para “inferência + IA agente”, e revisou as oportunidades de receita da infraestrutura de IA de 2025-2027 de 500 bilhões de dólares para pelo menos 1 trilhão de dólares. Isso não é apenas um ajuste simples na demanda, mas uma mensagem ao mercado de capitais: a competição em computação não olhará mais apenas para o pico de FLOPS de treinamento, mas sim para quem consegue produzir tokens com o menor custo, a maior taxa de transferência de dados e a melhor latência.

Em torno dessa narrativa de expansão da demanda por computação em IA, a lógica comercial subjacente que Jensen Huang apresentou é bastante clara: os data centers não são mais “centros de armazenamento”, mas sim “fábricas de IA”. Com um orçamento fixo de eletricidade, o indicador mais crítico não é o desempenho de pico de um único chip, mas sim “tokens por watt, custo por token, tempo até a primeira produção”. Essa é também a razão pela qual ele enfatiza repetidamente o “extreme codesign” (co-design extremo) — ou seja, otimizar a computação, rede, armazenamento, software, fornecimento de energia e resfriamento como um todo. A informação oficial indica que a Vera Rubin NVL72 pode alcançar até 10 vezes a taxa de transferência de inferência por watt em comparação com a plataforma Blackwell, com um custo de token de apenas um décimo, e a quantidade de GPUs necessária para treinar grandes modelos MoE também pode ser reduzida para um quarto do original. Isso já não é apenas “iteração de chip”, mas uma reescrita da economia da infraestrutura de IA.

No nível mais recente de hardware, a mudança mais importante desta GTC é que a NVIDIA integrou oficialmente CPU, GPU, LPU, DPU, SuperNIC, chips de troca extrema e arquitetura de armazenamento em um sistema de nível de plataforma. A plataforma Vera Rubin definida oficialmente inclui Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 switch Ethernet, e o mais recente NVIDIA Groq 3 LPU integrado; onde o rack da Vera Rubin NVL72 consiste em 72 GPUs Rubin + 36 CPUs Vera, enquanto o rack Groq 3 LPX é especificamente projetado para complementar a inferência de baixa latência. Jensen Huang inovou ao dividir a inferência de IA em duas partes: o prefill é responsabilidade da Vera Rubin, e a decodificação é responsabilidade do chip GroqAI. Isso significa que a resposta da NVIDIA para a era da inferência não é mais “deixar a GPU fazer tudo”, mas sim usar computação heterogênea para separar o alto desempenho da baixa latência.

No âmbito de software e ecossistema, a posição de Jensen Huang em seu discurso também é bastante agressiva. O Dynamo 1.0 foi definido pela NVIDIA como o sistema operacional de inferência da fábrica de IA, e a empresa afirmou que pode trazer até 7 vezes o aumento de desempenho de inferência para a Blackwell; enquanto na direção de agentes, a NVIDIA lançou o Agent Toolkit, OpenShell e NemoClaw, elevando o OpenClaw a uma plataforma “sistema operacional de IA pessoal” e complementando a implementação empresarial com controle de estratégia, roteamento de privacidade e limites de segurança. Ao mesmo tempo, a NVIDIA também expandiu a família de grandes modelos abertos, incluindo Nemotron, Cosmos, Isaac GR00T, Alpaymayo, BioNeMo, Earth-2, e antecipou a folha de rota da arquitetura Feynman: a próxima geração de plataformas introduzirá Rosa CPU, LP40 LPU, BlueField-5, CX10 e Kyber, continuando a avançar a interconexão de cobre e a óptica de pacote conjunto para a próxima geração de fábricas de IA.

Além disso, a GTC 2026 não se limita apenas a falar sobre data centers. A NVIDIA também trouxe “IA física” e “computação espacial” para o palco principal: o IGX Thor já está na fase de uso geral, voltado para indústrias, saúde, robótica e computação de borda; o Open Physical AI Data Factory Blueprint é utilizado para acelerar a geração, aumento e avaliação de dados para robôs, agentes de IA visual e veículos autônomos; enquanto o módulo Space-1 Vera Rubin estende a arquitetura Vera Rubin para data centers orbitais, afirmando que, em comparação com o H100, pode trazer até 25 vezes a computação em IA para inferência no espaço. Isso indica que a NVIDIA já expandiu a “fábrica de IA” de data centers em nuvem para um paradigma de infraestrutura unificada que abrange nuvem, borda, dispositivos finais, veículos, robôs e até o espaço.

O verdadeiro tema desta GTC 2026, na realidade, não é o lançamento de um único produto, como em anos anteriores, mas sim a NVIDIA unindo GeForce, infraestrutura de computação em data center, rede, sistemas de computação em inferência, plataformas de agentes, robótica e computação espacial em uma narrativa unificada — “evoluindo de fornecedor único de GPU para um empreiteiro total de infraestrutura de IA”. É também por isso que o que mais merece atenção nesta conferência não são os parâmetros de um chip de IA específico, mas sim que a NVIDIA está usando produtos de nível de sistema para garantir com antecedência a economia de tokens, o processo de monetização da inferência e o poder de negociação de infraestrutura nos próximos anos.

A posição monopolista na infraestrutura de computação em IA é consolidada, e o preço das ações da NVIDIA está a caminho de novos recordes históricos?

“Os investidores anteriormente tinham preocupações generalizadas de que os enormes gastos de infraestrutura de IA das grandes empresas de tecnologia não poderiam ser sustentados, mas à medida que Jensen Huang delineou a oportunidade de receita de 1 trilhão de dólares até 2027, os investidores começaram a acreditar que a demanda pela infraestrutura de IA da NVIDIA ainda possui uma durabilidade a longo prazo”, afirmou o analista da Emarketer, Jacob Bourne. “À medida que toda a indústria de IA passa de uma fase de experimentação inicial para uma implantação em larga escala, a NVIDIA ainda mantém sua posição de liderança no mercado de computação em IA.”

Quando Jensen Huang elevou a escala das oportunidades de chips e infraestrutura de IA da NVIDIA até 2027 para pelo menos 1 trilhão de dólares na GTC, o que o mercado viu não foi mais uma empresa que continua a vender GPUs mais poderosas, mas sim um império de infraestrutura que tenta definir a função de produção da próxima geração de “fábricas de IA”: passando da era de treinamento para a era de inferência, da competição de chip único para o domínio de nível de sistema, abrangendo todo o gabinete, toda a rede e toda a pilha de software, desde Blackwell, Vera Rubin até a colaboração técnica da Groq voltada para decodificação de baixa latência, a NVIDIA está reescrevendo a nova linguagem de avaliação em termos de taxa de transferência de tokens, receita por watt e capacidade de monetização da inferência.

Na conferência GTC, Jensen Huang demonstrou que a demanda ainda está em expansão ativa ao apresentar a oportunidade de 1 trilhão de dólares, ao mesmo tempo em que explicou que a unidade de competição da NVIDIA já não é mais um único chip AU, mas sim toda a fábrica de IA.

O que Jensen Huang descreveu como “o ponto de inflexão da inferência já chegou” é, essencialmente, um aviso ao mercado de capitais: os gastos de capital em IA ainda estão longe do pico, e a verdadeira implantação em larga escala está apenas começando; e quando a NVIDIA incorpora CPU, GPU, LPU, rede, software de agente e a economia de data centers em uma única narrativa, o que eles levantam não é apenas um novo ciclo de produtos, mas sim um super navio que navega novamente em direção ao espaço imaginário de 5 trilhões de dólares em valor de mercado. A média de preços das ações compilada pela TIPRANKS de analistas de Wall Street mostra que os analistas são otimistas em relação ao preço das ações da NVIDIA, que pode atingir 273 dólares, o que significa que, em sua perspectiva, o potencial de alta da NVIDIA nos próximos 12 meses pode chegar a impressionantes 51%, com o preço-alvo mais otimista alcançando até 360 dólares. O preço-alvo de 273 dólares corresponde a aproximadamente 6,6 trilhões de dólares em valor de mercado para a NVIDIA. Na segunda-feira, o fechamento das ações da NVIDIA foi de 183,220 dólares, com um valor de mercado de cerca de 4,45 trilhões de dólares.

Jensen Huang, na conferência, elevou a oportunidade de receita da infraestrutura de chips/IA da NVIDIA para pelo menos 1 trilhão de dólares até 2027, claramente acima da projeção anterior de 500 bilhões de dólares para 2026 em torno das arquiteturas Blackwell e Rubin. Após a conferência GTC, a Goldman Sachs afirmou que a perspectiva de receita de trilhões de dólares apresentada na GTC oferece ao mercado um respaldo para uma demanda de ciclo mais longo, suficiente para aliviar as ansiedades dos investidores sobre o “pico dos gastos de capital em IA possivelmente ocorrer em 2026”. Em outras palavras, a equipe de analistas da Goldman Sachs acredita que este discurso não foi apenas um show de novos produtos, mas sim uma reafirmação dos limites máximos de pedidos e da continuidade de desempenho da NVIDIA nos próximos dois ou três anos.

A Goldman Sachs enfatizou que a NVIDIA não lançou apenas mais uma GPU de IA com desempenho incomparável, mas que ela formalmente comercializou a inferência de uma maneira exclusiva da NVIDIA e atualizou completamente a infraestrutura de computação em IA da NVIDIA como o equipamento central da próxima fase da corrida armamentista global em IA. Como mencionado anteriormente, Jensen Huang dividiu a inferência em duas partes: o prefill é responsabilidade da Vera Rubin, enquanto a decodificação é assumida pela Groq 3 LPX/LPU. Isso significa que a NVIDIA está se expandindo de “dominante no treinamento” para “contratante total de infraestrutura de inferência em IA”. A Goldman Sachs destacou que as informações oficiais superaram as expectativas do mercado: Vera Rubin + LPX pode alcançar até 35 vezes a taxa de transferência de inferência por megawatt e trazer a mais de 10 vezes as oportunidades de receita para modelos de um trilhão de parâmetros.

A Goldman Sachs observou que a NVIDIA não está apenas mantendo sua posição no mercado de treinamento, mas está apresentando um quadro de monetização mais forte e uma resposta de computação heterogênea mais completa na era da inferência, que é sensível à latência e limitada por eletricidade. A razão pela qual a Goldman Sachs é mais otimista é que esta GTC atendeu simultaneamente às duas principais preocupações dos investidores: primeiro, se a demanda atingiu o pico, e segundo, se a NVIDIA na era da inferência será diluída por CPUs, ASICs próprios ou outros chips personalizados.

A Goldman Sachs afirmou que a orientação de 1 trilhão de dólares é muito superior às expectativas do mercado e confirma que a demanda dos gigantes da computação em nuvem (Hyperscalers) continua forte e duradoura. Com base na avaliação otimista dos potenciais catalisadores nos próximos meses, a Goldman Sachs reafirmou sua classificação de “compra” para a NVIDIA e manteve um preço-alvo de 250 dólares para os próximos 12 meses, enfatizando que os planos de gastos de capital dos superprovedores de nuvem e os novos modelos baseados nas arquiteturas Blackwell e Rubin continuarão a consolidar a posição de liderança em desempenho da empresa.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar