Análise do desempenho da Nvidia no ano fiscal de 2026: três grandes mudanças estão a acontecer!

robot
Geração de resumo em curso

Como gigante global de chips de inteligência artificial (IA), a Nvidia mais uma vez divulgou resultados “superior às expectativas”. Os relatórios do quarto trimestre fiscal de 2026 e do ano fiscal completo de 2026, especialmente o crescimento recorde do negócio de centros de dados, além de uma orientação para o próximo trimestre que superou as previsões do mercado, evidenciam três grandes mudanças em andamento.

Atualização do Modelo de Negócios

Apesar de Jensen Huang, fundador e CEO da Nvidia, ter reiterado várias vezes que a empresa não vende apenas chips, mas sim fábricas de IA, a impressão popular permanece enraizada. No entanto, os últimos resultados confirmam o sucesso da evolução do modelo de negócios da Nvidia.

No ano fiscal de 2026, a Nvidia atingiu uma receita anual de 215,9 bilhões de dólares, um aumento de 65% em relação ao ano anterior. Sob os princípios GAAP, o lucro líquido foi de 120,07 bilhões de dólares, também um aumento de 65%. O lucro por ação foi de 4,9 dólares, crescendo 67% em relação ao ano anterior.

O núcleo do negócio da Nvidia, os centros de dados, apresentou crescimento forte, com receita de 62,3 bilhões de dólares no quarto trimestre, um recorde, representando um aumento de 75% em relação ao mesmo período do ano anterior. A receita anual de 193,7 bilhões de dólares responde por quase 90% do total da empresa.

O analista-chefe da DeepCore Alliance, Gu Zhengshu, destacou que o negócio de centros de dados da Nvidia está em transição de componentes isolados para sistemas integrados de pilha completa. Ao orientar os clientes a migrarem da compra de uma GPU B200 única para a implantação de sistemas em rack GB200 NVL72, o preço médio do produto subiu de cerca de 40 mil dólares para entre 2 a 3 milhões de dólares, elevando a dimensão do modelo de negócios.

“Essa integração em rack não só aumenta o limite de receita, mas também, por meio da tecnologia NVLink, do CPU Grace e do software de pilha completa, vincula profundamente os quatro maiores provedores de nuvem — Amazon, Google, Meta e Microsoft — ao ecossistema da Nvidia, neutralizando potencialmente ameaças de longo prazo de chips ASIC desenvolvidos internamente por grandes empresas,” afirmou Gu Zhengshu.

Além disso, como base do centro de dados da Nvidia, o negócio de redes experimentou uma explosão sem precedentes.

Impulsionado pelo forte uso de NVLink, Spectrum X Ethernet e InfiniBand, o crescimento do negócio de redes da Nvidia foi destacado, com demanda histórica por expansão horizontal e vertical, ambos apresentando crescimento de dois dígitos em relação ao trimestre anterior. A receita de redes da Nvidia em 2026 ultrapassou 31 bilhões de dólares, mais de 10 vezes o crescimento desde a aquisição da Mellanox, que reforçou sua presença nesse setor.

Analistas do setor eletrônico afirmaram que o negócio de redes é uma “arma secreta” além do ecossistema CUDA, que está se infiltrando de forma mais flexível na concorrência. Com o aumento na quantidade de novos racks entregues, a proporção de receita proveniente de redes também deve crescer.

Segundo Huang, a rede é uma extensão natural da plataforma: “Nós oferecemos todos os componentes abertamente, permitindo que os clientes combinem, gerenciem diferentes escalas e integrem em centros de dados personalizados.” No quarto trimestre, a Nvidia anunciou que fornecerá suporte NVLink para a AWS, permitindo integração com seus chips próprios.

Foco Total na Era da Inferência

A plataforma de arquitetura Blackwell, produto principal da Nvidia, avança bem, e a próxima geração, Rubin, está prevista para produção em massa na segunda metade de 2026. Em comparação com a plataforma Blackwell, o modelo de treinamento híbrido MoE (Expertos Mistos) do Rubin reduz em 75% a quantidade de GPUs necessárias, enquanto o custo por token de inferência cai até 10 vezes, atendendo à demanda por inferência de baixo custo na nova era.

Huang enfatizou repetidamente que o ponto de inflexão na IA de agentes inteligentes ocorreu nos últimos dois a três meses. Embora o setor já tenha observado essa mudança por cerca de seis meses, o mundo só agora despertou, com a demanda por poder de computação crescendo exponencialmente — “poder de computação é receita.”

A Nvidia, como líder na era de treinamento de IA, está investindo pesadamente na inferência de IA. Em dezembro passado, a empresa adquiriu a Groq por 20 bilhões de dólares em dinheiro, especializada em tecnologia de inferência de baixa latência e equipes de engenharia relacionadas. Essa aquisição não tradicional, que envolve licença de tecnologia não exclusiva e transferência de talentos, é a maior na história da Nvidia.

“Essa aquisição tem um valor estratégico extremamente alto,” afirmou Yu Yiran, gerente geral da CIC Zhaoshi Consulting. A LPU (Unidade de Processamento de Linguagem) da Groq oferece baixa latência e alta eficiência em cenários específicos de inferência, como geração de texto com grandes modelos de linguagem, ajudando a Nvidia a consolidar diferentes rotas tecnológicas e oferecer soluções de inferência mais completas, reforçando sua posição como uma “loja única de poder de computação de IA.”

Yu também destacou que essa estratégia é essencial para enfrentar a concorrência diferenciada, pois no mercado de inferência, clientes são mais sensíveis a custos, eficiência energética e otimizações específicas de cenário. Com tecnologias como Groq, a Nvidia pode oferecer uma combinação de produtos mais flexível para competir com TPU do Google, chips próprios da Amazon e diversos ASICs.

Segundo Huang, as tecnologias da Groq serão integradas na nova arquitetura da Nvidia, elevando ainda mais o desempenho e a relação custo-benefício da infraestrutura de IA. Mais detalhes serão divulgados na GTC de março.

Por muito tempo, o setor acreditou que o verdadeiro desafio da Nvidia não era a demanda, mas a capacidade de fornecimento de fornecedores-chave como a TSMC. Gu Zhengshu analisou que a capacidade de empacotamento avançado CoWoS-L da TSMC estará extremamente escassa até meados de 2026. Além disso, o fornecimento de memória HBM4 tornou-se uma questão estratégica, com a SK Hynix (com 70% de participação) e Samsung determinando a velocidade de lançamento da plataforma Rubin. Recentemente, também foi divulgado que a escassez de vidro de fibra prejudica a produção de PCBs para servidores de IA.

Na conferência de resultados, a vice-presidente executiva e CFO da Nvidia, Colette Kress, afirmou que a empresa já preparou estoques e compromissos de fornecimento que cobrem as entregas até 2027. A receita total de 2026 deve continuar crescendo trimestre a trimestre, superando a previsão de 500 bilhões de dólares para as plataformas Blackwell e Rubin.

A TSMC elevou seu investimento de capital para um máximo histórico, prevendo gastos entre 52 a 56 bilhões de dólares em 2026, com 70-80% destinados à expansão de processos avançados e 10-20% ao empacotamento avançado, garantindo a capacidade de produção de chips de IA.

A Confiança no Investimento em IA Ainda Não “Colapsou”

Apesar das preocupações do mercado financeiro com uma possível bolha de IA, os principais provedores de serviços em nuvem continuam investindo pesadamente em infraestrutura de IA, sustentando o desempenho da Nvidia. Segundo a TrendForce, os oito maiores provedores de nuvem devem gastar mais de 710 bilhões de dólares em 2026, com crescimento anual de cerca de 61%, incluindo compras contínuas de GPUs Nvidia e AMD, além de expansão de infraestrutura ASIC, para garantir a eficiência e o custo-benefício de suas aplicações de IA.

A Nvidia também aprofundou suas parcerias ecológicas, chegando a um acordo próximo com a OpenAI e fortalecendo colaborações com Anthropic, Meta e outros.

Além de clientes de supernuvem e empresas de ponta em IA, a Nvidia também atende a governos soberanos. Colette Kress revelou que a receita de negócios de IA soberana da empresa mais que dobrou em 2026, ultrapassando 30 bilhões de dólares, com principais clientes no Canadá, França, Holanda, Cingapura e Reino Unido. Espera-se que a IA soberana cresça junto com o mercado de infraestrutura de IA, proporcional ao PIB de cada país.

Para o primeiro trimestre de 2027, a Nvidia projeta receita de aproximadamente 78 bilhões de dólares, um aumento de 2% em relação ao mesmo período do ano anterior, superando amplamente a previsão de 72,78 bilhões de dólares, considerada pelos analistas como uma orientação de desempenho “avassaladora”.

“Embora os resultados da empresa sejam fortes, a reação do mercado de ações é moderada, refletindo uma precificação já ajustada às expectativas e uma mudança de ponto de inflexão nos fluxos de capital,” afirmou Yu. No mercado de inferência, o cenário competitivo está mais aberto. O crescimento rápido do TPU do Google, estratégias de compras diversificadas de provedores de nuvem e avanços de fabricantes nacionais de GPUs em cenários específicos podem erodir a participação de mercado e o poder de precificação da Nvidia a longo prazo.

Os clientes da Nvidia também estão adotando estratégias de fornecimento mais diversificadas. Em 17 de fevereiro, uma semana após fazer um pedido à Nvidia, a Meta anunciou uma compra de até 6 gigawatts de capacidade de computação da AMD.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar