H200 contagem decrescente para aumento de volume no mercado chinês! CUDA impulsiona forte demanda Nvidia(NVDA.US)Império AI recebe “notícias positivas de incremento”

“O campeão supremo dos chips de IA” — o CEO da NVIDIA (NVDA.US), Huang Renxun, afirmou que a gigante de semicondutores está a iniciar a produção em massa do acelerador de treino/ inferência de IA H200 baseado na arquitectura Hopper, apresentada em março de 2022, para clientes do mercado chinês, o que também mostra que os esforços da empresa norte-americana para regressar a este essencial mercado de infraestruturas críticas de capacidade informática para IA estão a avançar de forma positiva.

Não há dúvida de que, se o H200 conseguir, de facto, escoar-se em grande escala para o mercado chinês apesar do custo adicional de 25%/ das tarifas do Governo dos EUA, então, no contexto de a trajectória das acções da NVIDIA se manter em consolidação lateral, isso constitui um impulso positivo material para as perspectivas de expansão dos fundamentos da NVIDIA; afinal, quer nas orientações oficiais de resultados trimestrais, quer no “super plano-mestre de IA” de pelo menos 1 bilião de dólares (super AI blueprints) que a empresa acabou de apresentar no GTC de segunda-feira, não foi considerada a perspectiva de geração de receitas no mercado chinês.

Depois de Huang Renxun ter feito um discurso marcante na conferência GTC da NVIDIA e ter anunciado com grande impacto aos investidores globais a próxima geração de infraestruturas de capacidade informática para IA — o sistema de capacidade informática para IA da arquitectura Vera Rubin — numa conferência de imprensa na terça-feira, no horário local, Huang Renxun afirmou que a NVIDIA já obteve uma autorização do Governo dos EUA para vender chips de IA H200 “para muitos dos grandes clientes do mercado chinês” e que, neste momento, está no processo de “reiniciar a nossa produção em larga escala”. Sublinhou que este cenário é totalmente diferente do que já acontecera há algumas semanas.

“A nossa cadeia de abastecimento do H200 está a ser reiniciada”, afirmou Huang Renxun num evento durante a conferência anual GTC da NVIDIA, realizada em San Jose, Califórnia. O CEO da empresa de chips, Huang Renxun, tinha, no dia anterior, durante a sessão de abertura do GTC, divulgado com grande impacto uma série de novos produtos e fornecido aos investidores uma actualização de orientações ao nível dos fundamentos financeiros.

Nos últimos anos, a NVIDIA tem estado a esforçar-se por recuperar as suas vendas de chips de IA no mercado chinês. Devido às restrições do Governo dos EUA às exportações de chips para a China, impostas há muito tempo, o grande mercado em que a NVIDIA outrora se apoiava encontra-se, na prática, quase encerrado a longo prazo para este tipo de produtos de infraestruturas de capacidade informática de IA.

O H200 sob o peso das tarifas de 25% impostas pelo Governo dos EUA

No entanto, desde o início deste ano, o governo de Trump começou a permitir que a NVIDIA e o seu concorrente mais forte, a AMD (AMD.US), vendam ao mercado chinês versões com desempenho mais fraco dos seus chips de IA, mas isto ainda exige obter uma autorização formal do Governo dos EUA e enfrenta as tarifas adicionais de 25% impostas pelo Governo dos EUA.

O Governo dos EUA permite a exportação do H200 da NVIDIA para a China sob condições específicas e, em troca, cobra 25% de encargos/tarifas. Na prática, trata-se de uma cedência a nível de políticas: permite-se a exportação e, ao mesmo tempo, colhe-se receita com isso. Em contraste, produtos de chips de IA mais avançados, como a série Blackwell e a AMD Instinct MI450, continuam a ser vistos, no plano das políticas dos EUA, como tecnologia mais sensível e, por isso, ainda não foram ou não estão no âmbito das autorizações de exportação actuais. Isto significa que não lhes é permitido exportar de todo, pelo que estas políticas tarifárias também não se aplicam.

Há que notar que esta política de tarifas de semicondutores, dirigida à NVIDIA e à AMD, exclui chips destinados a centros de dados no território dos EUA, a equipamentos do consumidor e a fins industriais — isto é, as tarifas não se aplicam aos H200/MI325X que são utilizados directamente nos EUA.

Neste momento, a NVIDIA não incorporou em qualquer cenário de previsão financeira perspectivas de receitas dos tipos de centros de dados do mercado chinês. O negócio de centros de dados, actualmente o mais central da NVIDIA, é o que fornece, a nível global, infraestruturas de capacidade informática de IA extremamente poderosas para centros de dados com GPUs de IA das arquitecturas H100/H200 e Blackwell/Blackwell Ultra.

Numa chamada de resultados do mês passado, a empresa disse que, nessa altura, tinha apenas uma autorização preliminar do Governo dos EUA, permitindo o envio de uma pequena quantidade de chips de IA H200 para o mercado chinês. Embora o desempenho global integrado do H200 fique muito aquém dos chips de IA das arquitecturas Blackwell/Blackwell Ultra que a NVIDIA utiliza actualmente para treino e execução de grandes modelos de IA, ele continua a ser bastante popular no mercado chinês sujeito a sanções, graças ao seu forte desempenho em inferência de IA e ao ecossistema CUDA que abrange desenvolvedores de IA em escala global, bem como à capacidade de implementação conveniente.

Durante algum tempo, a China representou cerca de um quarto das receitas totais da NVIDIA; hoje, representa apenas uma parte muito pequena. Embora a procura por chips de IA da NVIDIA continue extremamente forte em todo o mundo, este país asiático continua, sem dúvida, a ser o maior mercado único de semicondutores à escala global, o que o torna crucial para a prosperidade dos fundamentos de longo prazo da NVIDIA.

Ainda em dezembro do ano passado, a NVIDIA obteve uma autorização oral do Presidente dos EUA, Donald Trump, para vender H200 a parte dos clientes chineses, mas até agora a empresa de chips não confirmou quaisquer receitas de H200 do mercado chinês com base nessa autorização. Os responsáveis pela definição de regras de fabrico e tarifas em Washington também criaram vários obstáculos adicionais, abrandando o processo de aprovação formal e tornando improvável a possibilidade de uma recuperação total de vendas sem constrangimentos de sanções.

À medida que Huang Renxun declarou mais recentemente que os chips de IA H200 estão presentemente no processo de “reiniciar a nossa produção em larga escala”, é possível que num futuro próximo a NVIDIA venha a confirmar dados de receitas de H200 provenientes do mercado chinês.

Segundo foi avançado pela imprensa anteriormente, os chips de IA H200 enviados para o mercado chinês precisam de ser submetidos a verificações adicionais rotineiras dos EUA e são alvo de tarifas no valor total de 25%. Os funcionários do Governo dos EUA estão ainda a ponderar limitar a quantidade de chips de IA H200 que cada cliente chinês pode comprar a 75,000 unidades, com um total de remessas máximo até 1 milhão de processadores.

A procura do mercado chinês por chips de IA H200 é, em grande medida, muito provavelmente extremamente forte. O que realmente limita as transacções não é a procura, mas sim as políticas e o processo de aprovação do Governo dos EUA. A imprensa relatou recentemente que a procura efectiva para encomendas de chips de IA H200, de que as empresas de tecnologia chinesas passaram a depender a partir de 2026, já ultrapassou 2 milhões de unidades, enquanto o stock da NVIDIA na altura era de apenas cerca de 700,000 chips H200.

O mercado chinês — um grande impulso positivo incremental para a NVIDIA

Na terça-feira, as acções da NVIDIA fecharam o dia com uma queda de 0,7% no horário de fecho das bolsas dos EUA, para 181,93 dólares, o que fez com que a acção acumulasse uma queda de 2,5% desde o início do ano e ficasse aquém do índice S&P 500.

Do ponto de vista das expectativas dos fundamentos, se o chip de IA H200 conseguir, de facto, escoar-se para o mercado chinês numa escala relativamente grande, então isso constitui um impulso positivo incremental material para a NVIDIA, afinal a China já representou cerca de um quarto das receitas da NVIDIA no passado, mas hoje resta apenas uma parte muito pequena. Além disso, nas orientações fortes de resultados para esta época que a NVIDIA forneceu em fevereiro, não foi incluída qualquer perspectiva de receitas de centros de dados na China, e a empresa mantém recentemente a sua orientação para receitas de centros de dados na China em zero. Isto significa que, desde que as remessas do H200 comecem a normalizar, mesmo que não seja uma liberalização total, isso constituirá um espaço adicional de actualização em termos do modelo de avaliação actual da NVIDIA e das expectativas do mercado para o crescimento.

Em termos de desempenho global “de base”, o H200 em comparação com os actuais Blackwell, especialmente a Vera Rubin que Huang Renxun acabou de anunciar que será produzida em massa até ao fim do ano, está obviamente a ficar uma geração — ou mesmo duas — para trás. O H200 pertence à clássica arquitectura Hopper; a especificação por cartão é de 141GB de HBM3e, 4,8TB/s de largura de banda e cerca de 4 PFLOPS em FP8. Já a NVIDIA demonstrou publicamente que, em certos cenários de inferência, o GB200 NVL72 consegue atingir uma vantagem de desempenho/ oportunidade de receita até 15 vezes face ao Hopper H200. Além disso, na designação oficial, a Vera Rubin representa uma melhoria de 10 vezes por watt em relação ao Blackwell e 10 vezes de menor custo por token. Mas isto parece não impedir que o H200 se alinhe com as necessidades reais do mercado chinês, que é um mercado afectado por sanções, embora com condições limitadas.

O desempenho do H200 é cerca de 6 vezes superior ao do anterior produto de chips de IA da NVIDIA lançado para o mercado chinês — o H20. No meio da grande vaga global de inferência de IA, o que as empresas realmente precisam é de um lote de chips maduros que possa ser implementado imediatamente, que consiga executar inferência de grandes modelos, com maior capacidade de memória e maior largura de banda.

O lado do treino de IA, em que as GPUs de IA da NVIDIA praticamente dominam, necessita de maior generalidade de clusters de capacidade informática de IA e de uma capacidade de iteração rápida de todo o ecossistema de capacidade informática. Já o lado da inferência de IA dá mais valor ao custo por token, à latência e à eficiência energética, depois de a tecnologia avançada de IA ser aplicada à escala. “A era da inferência de inteligência artificial já chegou”, afirmou Huang Renxun na segunda-feira na conferência GTC. “E a procura por inferência continua a aumentar”, acrescentou.

Assim, os 141GB de HBM3e do H200 continuam a ser muito atractivos para inferência de IA em clusters com contexto longo, batches de maior escala, reforço por recuperação e implantação em lote grande e altamente eficiente a nível empresarial. Além disso, a forte dinâmica de procura trazida pelo ecossistema CUDA ainda torna isto, para o mercado chinês, uma “capacidade informática de alta qualidade disponível sob condições limitadas”; entretanto, enquanto isso, a CUDA, CUDA-X, a adaptação a modelos prontos, as ferramentas de desenvolvimento e a experiência de operação e manutenção reduzem de forma significativa os custos de migração e implementação para os clientes chineses.

Para o capital de instituições em Wall Street, isto não é uma narrativa grandiosa de “a NVIDIA virar o jogo graças ao mercado chinês”; é, fora da linha principal de infraestruturas globais de capacidade informática para IA que já era forte, uma parcela adicional de espaço de subida na procura do mercado chinês que poderá estar a ser seriamente subestimada.

No GTC realizado na madrugada de 17 de março, no horário de Pequim, o CEO da NVIDIA, Huang Renxun, mostrou a “super visão mestra” sem precedentes para gerar receita com capacidade informática de IA no domínio das infraestruturas de capacidade informática para IA. Ele informou os investidores globais que, impulsionados pela procura muito forte de capacidade informática de GPUs da arquitectura Blackwell e pela procura ainda mais explosivamente forte da arquitectura de capacidade informática para IA Vera Rubin que está prestes a ser produzida em massa, a sua dimensão futura de receitas na área de chips de inteligência artificial poderá pelo menos chegar a 1 trilião de dólares até 2027, muito acima dos 500 mil milhões de dólares de blueprint de infraestruturas de capacidade informática para IA até 2026 apresentados na última conferência GTC.

Quando a escala dos modelos, as cadeias de inferência e as cargas de trabalho de Agentic AI multimodais/agentes impulsionam o consumo de capacidade informática para se expandir exponencialmente, a linha principal dos gastos de capital das gigantes tecnológicas tende ainda mais a concentrar-se em infraestruturas de capacidade informática para IA. Os investidores globais continuam também a ancorar a “narrativa de mercado altista de IA”, centrada nas expectativas de iteração de produtos novos e na entrega de clusters de capacidade informática de IA da NVIDIA, dos clusters TPU da Google e das novidades da AMD, como uma das histórias de investimento de prosperidade mais determinantes entre os mercados accionistas globais. Ao mesmo tempo, isto também significa que os temas de investimento intimamente ligados ao treino/inferência de IA — como sistemas de energia, arrefecimento a líquido e cadeias de abastecimento de interligação óptica — continuarão a figurar entre as frentes mais quentes de investimento do mercado de acções, enquanto a NVIDIA, a AMD e os líderes de capacidade informática de IA como Broadcom, TSMC e Micron enfrentam incerteza nas circunstâncias geopolíticas do Médio Oriente.

Na perspectiva de gigantes de Wall Street como Morgan Stanley, Citigroup, Loop Capital e Wedbush, a vaga global de investimento em infraestruturas de inteligência artificial, com os equipamentos de capacidade informática de IA como núcleo, está longe de ter terminado. Neste momento, está apenas no início. Impulsionada pela “tempestade de procura de capacidade informática no lado da inferência de IA”, sem precedentes, a escala desta ronda de investimento global em infraestruturas de IA, que se prolongará até 2030, tem potencial para ascender a 3 triliões a 4 triliões de dólares.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar