“Mil trilhões” de receita, a confiança e os desafios da Nvidia

Esta semana, nenhum número surpreendeu tanto o mercado quanto “1 bilião de dólares”.

Na apresentação principal no GTC, a conferência anual de programadores da NVIDIA, Huang Renxun afirmou que, até ao final de 2027, a nova geração de aceleradores de IA da NVIDIA baseada na arquitectura Blackwell e o produto da próxima geração Rubin, em conjunto, deverão criar pelo menos 1 bilião de dólares em receitas, deixando claro que esse valor não inclui as vendas das soluções independentes de Vera CPU e das de rack LPX.

Dos 500 mil milhões aos 1 bilião, as previsões de receitas de chips da NVIDIA deverão duplicar no espaço de meio ano.

Num mercado em que se joga a “bolha de IA”, por que motivo Huang Renxun consegue avançar um juízo muito acima das expectativas do mercado? E este objectivo conseguirá, afinal, ser atingido?

Abra o Netease News para ver imagens impressionantes

De onde vem a confiança

Por trás da previsão de “receitas de um bilião” de Huang Renxun há três grandes sustentos.

1、Visibilidade das encomendas extremamente alta. Durante uma entrevista à comunicação social no GTC2026, Huang Renxun sublinhou que a previsão de receitas acima de 1 bilião de dólares divulgada esta segunda-feira tem uma “visibilidade” muito forte. A NVIDIA espera concretizar, reconhecer e entregar negócios no valor de mais de 1 bilião de dólares, mostrando “confiança firme” em atingir o objectivo de “mais de 1 bilião”.

Este julgamento de “alta visibilidade” não surgiu do nada. Huang Renxun referiu que, neste momento, a procura mais central dos clientes é “garantir que têm abastecimento suficiente”, e não o preço. Isto reflecte que o mercado de capacidade informática de IA ainda se encontra numa fase típica de estrangulamento da oferta — a procura supera em muito a oferta; o que os clientes mais receiam é não conseguir obter stock, e não se o preço é mais alto ou mais baixo.

A Omdia apontou que o sector de empacotamento avançado enfrenta uma crise. A capacidade de CoWoS da TSMC está a aumentar de 75k wafers por mês em 2025 para 120.000 a 130k até ao final de 2026, mas ainda assim não consegue satisfazer a procura em aceleração, o que acaba por prolongar os prazos de entrega, aumentar os preços e fazer com que a alocação de capacidade seja ainda mais favorecida para os maiores clientes.

Huang Renxun acrescentou ainda que as grandes compras provenientes de operadores de cloud e de empresas de IA tornam as encomendas, as pré-encomendas e os envios altamente previsíveis — e é este também um motivo-chave que o leva a ter coragem para avançar este juízo de “alta visibilidade”. Do ponto de vista da indústria, gigantes tecnológicos como OpenAI, Meta, Microsoft, Google, Amazon, entre outros, estão continuamente a reforçar a construção de data centres de IA, impulsionando um crescimento exponencial da procura de capacidade informática.

O JPMorgan referiu que “1 bilião de dólares” significa que, face à previsão consensual actual de receitas de data centres em Wall Street para 2026 a 2027, existe pelo menos um potencial de subida de 50 a 70 mil milhões de dólares.

2、A IA entra na “era da inferência”. Ao contrário dos últimos dois anos, em que o foco era “treino de modelos”, Huang Renxun tem insistido repetidamente que a indústria de IA entrou num “ponto de viragem da inferência” (inference).

O que se chama inferência (Inference) é a necessidade de computação em tempo real de modelos de IA em aplicações práticas. Quando os utilizadores fazem perguntas ao ChatGPT, usam o Midjourney para gerar imagens ou pedem a carros autónomos que tomem decisões, o que está por trás disso é computação de inferência. Diferente de um grande volume único de computação na fase de treino, a inferência é contínua e a necessidade computacional cresce de forma linear, ou até exponencial, à medida que a escala de utilizadores se expande.

Na apresentação principal, Huang Renxun afirmou: “O treino torna o modelo inteligente, mas a inferência é o que faz a IA chegar de verdade a lares em todo o lado. Cada interacção do utilizador exige capacidade informática, e com a popularização de agentes de IA (IA Agent), a procura por inferência irá ultrapassar em muito a procura do treino.”

Estimativas de dimensão do mercado:

- Mercado de treino: relativamente concentrado, dominado por poucos gigantes tecnológicos; a procura segue um modelo por projecto, com explosões por fases

- Mercado de inferência: extremamente disperso; vai da API na cloud até aos dispositivos de ponta/edge; de aplicações de consumo a soluções para empresas; a procura é contínua e cresce de forma escalável

3、Iteração do produto + estratégia de plataforma. A previsão de 1 bilião de dólares divulgada por Huang Renxun no GTC2026 cobre apenas as receitas dos chips baseados na arquitectura Blackwell e na próxima geração Rubin, não incluindo os novos produtos que serão lançados, nem incluindo regiões e mercados adicionais. Isto sugere que a dimensão potencial do negócio total de IA da NVIDIA pode ultrapassar ainda mais o âmbito do cálculo actual.

Mapa da rota do produto:

- Arquitectura Blackwell (2024-2025): já produzida em larga escala; o chip B200 tem desempenho de treino 4 vezes superior ao H100, com melhorias no desempenho de inferência até 30 vezes

- Arquitectura Rubin (2026-2027): espera-se que comece a ser implantada em larga escala em 2026, com um salto adicional de desempenho

- Arquitectura Feynman (2028 e seguintes): a próxima arquitectura de mais longo prazo já está em desenvolvimento

Mais importante ainda, a NVIDIA está a passar de “vender chips” para “vender fábricas de IA”. No evento, Huang Renxun apresentou o sistema operativo de inferência open source NVIDIA Dynamo, um blueprint de fábrica de dados físicos de IA e parcerias com gigantes globais do software industrial, procurando construir um ecossistema completo de infra-estruturas de IA.

Analistas afirmam que esta estratégia de plataforma significa que as receitas futuras da NVIDIA deixam de se limitar a um único GPU e passam a abranger sistemas completos de data centre. O analista sénior da Wedbush (000021) Dan Ives disse ainda que a NVIDIA não só está a avançar na enorme vaga impulsionada pela inteligência artificial, como também está agora a expandir o controlo sobre a infra-estrutura que suporta a inteligência artificial.

Isto irá ampliar significativamente o tecto de receitas. Huang Renxun afirmou de forma clara: “O objectivo de 1 bilião de dólares continuará a expandir-se.”

O caminho do bilião enfrenta múltiplos desafios

Apesar da confiança das declarações de Huang Renxun, atingir a receita acumulada de 1 bilião de dólares (até ao final de 2027) ainda enfrenta vários desafios.

Em primeiro lugar, a urgência da janela temporal. De Março de 2026 ao final de 2027, não há mais de dois anos para a NVIDIA realizar a receita acumulada de 1 bilião de dólares. Tendo em conta o ciclo desde a encomenda até à entrega do chip (tipicamente 6-12 meses) e o tempo para implantações em larga escala, a janela real de receitas reconhecíveis torna-se ainda mais apertada.

- Receitas do ano fiscal de 2025 da NVIDIA (até Janeiro de 2025): 130,5 mil milhões de dólares

- Receitas do ano fiscal de 2026 da NVIDIA (correspondente a Fevereiro de 2025 a Janeiro de 2026): 215,9 mil milhões de dólares; no ano fiscal de 2027, as receitas atingem cerca de 3000-10k de dólares

- Receitas acumuladas de 2025-2027: cerca de 6000-10k de dólares

- Para atingir 1 bilião de dólares, isso implica que a receita de um único ano em 2027 pode precisar de ultrapassar 10k de dólares

Isto significa que a NVIDIA terá de atingir em 2027 um crescimento homólogo próximo de duplicar, o que constitui um desafio sem precedentes para qualquer empresa de hardware.

Em segundo lugar, a concorrência no mercado está a intensificar-se.

A série MI400 lançada pela AMD em 2025 é vista na indústria como um desafio directo à Blackwell da NVIDIA. O CEO da AMD, Lisa Su, disse numa entrevista recente: “A nossa quota no mercado de IA está a melhorar de forma constante. A MI400 oferece melhor custo-benefício em cargas de trabalho específicas do que a Blackwell, o que é muito atractivo para clientes sensíveis ao preço.”

A maior ameaça vem do facto de os grandes clientes da NVIDIA estarem a acelerar a implantação de chips de IA desenvolvidos internamente:

- Google TPU v6: já usada no treino e na inferência do Gemini2.0; desempenho próximo da Blackwell

- Amazon Trainium3/Inferentia3: implantada em larga escala na AWS; custos 30-40% mais baixos do que as soluções da NVIDIA

- Microsoft Maia200: início da implantação em Azure no final de 2025, de forma abrangente

- Meta MTIA: planeia lançar quatro gerações de chips de IA desenvolvidos internamente até ao final de 2027

Um antigo engenheiro de chips da Google disse: “A eficiência das TPU no treino de modelos Transformer já ultrapassou a dos GPU. Embora a generalidade não seja tão boa quanto a do CUDA, para empresas com cargas de trabalho claramente definidas, a economia de chips desenvolvidos internamente é muito atractiva. O objectivo dos operadores de cloud é que, até 2027, os chips desenvolvidos internamente representem 30-40% das suas compras de capacidade informática de IA.”

O analista da Seaport Research assinalou que, “neste momento, a NVIDIA precisa mais do que nunca de se esforçar para conquistar receitas.”

Além disso, a cadeia de fornecimento pode também enfrentar estrangulamentos. Actualmente, o principal gargalo é a capacidade de empacotamento avançado CoWoS da TSMC. Apesar de a TSMC estar a acelerar a expansão de capacidade, a lacuna entre oferta e procura de chips avançados de IA deverá persistir até ao final de 2026. Se o ritmo de expansão ficar aquém do esperado, a NVIDIA pode deparar-se com uma situação embaraçosa de “há encomendas, mas não há como entregar”.

A instabilidade na região do Médio Oriente está a atingir a Coreia, que tem capacidade de fabrico de armazenamento. De acordo com as estatísticas de 2025 da Associação Internacional de Comércio da Coreia, a dependência da Coreia de importações de hélio para o Catar é de 64,7%. O processo de fabrico de semicondutores depende altamente do hélio para arrefecer os wafers de silício e, actualmente, considera-se que não existe uma alternativa viável. O governo sul-coreano também afirmou que, se a interrupção do fornecimento durar mais tempo, poderá levar a escassez de hélio e a um aumento de preços.

Importa notar que o bloqueio do Estreito de Ormuz mantém o preço do petróleo mundial em níveis elevados, de 100 dólares/barril, o que é um duro golpe para centros de dados de capacidade informática com elevado consumo de energia. Se os custos de energia anularem as melhorias de eficiência proporcionadas pelos chips, os planos globais de investimento em IA poderão ser forçados a reduzir-se.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar