Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
H200 Mercado chinês em contagem regressiva para aumento de volume! CUDA sustenta forte procura Nvidia (NVDA.US) Império de IA recebe "boas notícias de crescimento incremental"
A APP de notícias financeiras de Zhitong informa que o CEO da Nvidia (NVDA.US), Jensen Huang, afirmou que o gigante dos chips está iniciando a produção em massa do H200, um acelerador de treino/inferência de IA baseado na arquitetura Hopper lançada em março de 2022, para clientes no mercado chinês. Isso indica que os esforços da empresa americana para retornar ao mercado de infraestrutura de computação de IA na China estão avançando positivamente.
Sem dúvida, se o H200, que enfrenta um custo adicional de 25% de tarifas/impostos do governo dos EUA, puder ser amplamente direcionado ao mercado chinês, isso representará uma vantagem substancial para as perspectivas de expansão dos fundamentos da Nvidia, especialmente considerando que suas orientações trimestrais e o “Super AI Blueprint” de pelo menos um trilhão de dólares até 2027, apresentados na GTC de segunda-feira, não consideraram o potencial de receita na China.
Após um discurso importante na GTC, onde Huang anunciou a próxima geração de infraestrutura de computação de IA — a arquitetura Vera Rubin —, ele afirmou na terça-feira, durante uma coletiva de imprensa, que a Nvidia obteve permissão do governo dos EUA para vender o H200 a “muitos grandes clientes no mercado chinês”, e que a empresa está atualmente “reiniciando nossa produção em grande escala”. Ele destacou que essa perspectiva é completamente diferente de semanas atrás.
“Nossa cadeia de suprimentos do H200 está sendo reiniciada”, disse Huang durante um evento na GTC em San Jose, Califórnia. O CEO também anunciou uma série de novos produtos na abertura da conferência e forneceu atualizações financeiras aos investidores.
Nos últimos anos, a Nvidia tem se esforçado para recuperar as vendas de seus chips de IA no mercado chinês. Devido às restrições de exportação de chips impostas pelo governo dos EUA há muito tempo, esse grande mercado, antes dependente da Nvidia, praticamente fechou suas portas para esses produtos de infraestrutura de IA a longo prazo.
H200 sob a pressão de tarifas de 25% do governo dos EUA
Desde o início deste ano, o governo Trump começou a permitir que a Nvidia e seu principal concorrente AMD (AMD.US) vendessem versões de desempenho mais fraco de seus chips de IA na China, mas isso ainda requer permissão oficial do governo dos EUA e enfrenta tarifas adicionais de 25%.
O governo dos EUA permite a exportação do H200 para a China sob certas condições, cobrando uma tarifa de 25% como “troca”. Essa medida é uma espécie de compromisso político, permitindo a exportação enquanto gera receita. Produtos mais avançados, como a série Blackwell e a AMD Instinct MI450, ainda são considerados tecnologias mais sensíveis e, portanto, não estão atualmente incluídos na licença de exportação, não podendo ser exportados ou sujeitos a essas tarifas.
É importante notar que essa política de tarifas de semicondutores para Nvidia e AMD exclui chips usados em data centers domésticos, dispositivos de consumo e aplicações industriais nos EUA, ou seja, essas tarifas não se aplicam aos H200/MI325X utilizados localmente nos EUA.
Até o momento, a Nvidia não incluiu nenhuma previsão de receita de data centers na China em suas projeções financeiras. O setor de data centers, atualmente seu núcleo de negócios, fornece os GPUs de IA H100/H200 e Blackwell/Blackwell Ultra, que oferecem uma infraestrutura de computação de IA extremamente poderosa globalmente.
Na teleconferência de resultados do mês passado, a empresa afirmou que obteve uma permissão preliminar do governo dos EUA para enviar uma quantidade limitada de H200 para a China. Apesar de o desempenho geral do H200 estar longe do dos chips Blackwell/Blackwell Ultra usados atualmente para treinar e executar grandes modelos de IA, ele ainda é popular na China devido ao seu forte desempenho em inferência de IA, seu ecossistema CUDA que domina o desenvolvimento de IA globalmente e sua facilidade de implantação.
A China, que anteriormente representava cerca de um quarto da receita total da Nvidia, agora representa uma pequena fração. Apesar da forte demanda global por chips de IA da Nvidia, esse país asiático continua sendo o maior mercado de semicondutores do mundo, sendo crucial para a prosperidade de longo prazo da Nvidia.
Desde dezembro do ano passado, a Nvidia obteve permissão verbal do presidente Trump para vender H200 a alguns clientes chineses, mas até agora não confirmou nenhuma receita de vendas na China. Reguladores de Washington criaram obstáculos adicionais, atrasando o processo de aprovação formal e dificultando a recuperação total das vendas sem restrições.
Com a recente declaração de Huang de que o H200 está “reiniciando sua produção em grande escala”, é provável que em breve a Nvidia confirme dados de receita do mercado chinês para o H200.
Relatos anteriores indicaram que os chips H200 enviados à China precisam passar por inspeções adicionais dos EUA e estão sujeitos a uma tarifa de 25%. Oficiais americanos também consideram limitar a quantidade de H200 que cada cliente chinês pode comprar, a até 75.000 unidades, com um volume máximo de até 1 milhão de processadores.
A demanda do mercado chinês por H200 é provavelmente muito forte, e o que realmente limita as vendas não é a demanda, mas as políticas e aprovações do governo dos EUA. Recentemente, fontes indicaram que a demanda real de pedidos de H200 por empresas chinesas já ultrapassou 2 milhões de unidades desde 2026, enquanto o estoque da Nvidia era de apenas cerca de 700 mil unidades.
Mercado chinês — uma grande oportunidade de crescimento para a Nvidia
Na terça-feira, as ações da Nvidia fecharam em queda de 0,7%, a US$ 181,93, uma baixa de 2,5% no ano, ficando atrás do índice S&P 500.
Do ponto de vista das expectativas de fundamentos, se o H200 realmente puder ser amplamente direcionado ao mercado chinês, isso representará um aumento substancial para a Nvidia, considerando que a China antes respondia por cerca de um quarto de sua receita, mas agora representa uma pequena fração. Além disso, as projeções de receita para o trimestre atual, feitas pela Nvidia em fevereiro, não consideraram qualquer receita de data centers na China, e a perspectiva recente da empresa para esse setor é de zero. Assim, à medida que as vendas do H200 se normalizarem, mesmo que parcialmente, haverá potencial para uma revisão positiva significativa na avaliação da Nvidia e nas expectativas de crescimento do mercado.
Em termos de desempenho, o H200, com sua arquitetura Hopper, já está claramente atrás de uma geração ou duas, especialmente do Vera Rubin, que Huang anunciou que começará a produção até o final do ano. O H200 possui 141GB de HBM3e, largura de banda de 4,8TB/s e cerca de 4 PFLOPS de FP8, enquanto a Nvidia já demonstrou que o NVL72 do GB200 pode alcançar até 15 vezes mais desempenho em certos cenários de inferência. Além disso, o Vera Rubin promete um aumento de 10 vezes na eficiência por watt e uma redução de 10 vezes no custo por token em relação ao Blackwell. No entanto, essas diferenças não impedem que o H200 atenda às necessidades do mercado chinês sob restrições atuais.
O H200 oferece quase seis vezes o desempenho do chip H20, lançado anteriormente para o mercado chinês, e, na atual onda global de inferência de IA, as empresas precisam de chips maduros, capazes de rodar grandes modelos de inferência, com maior memória e maior largura de banda.
Os GPUs de IA da Nvidia dominam quase totalmente o treinamento de IA, que exige clusters de computação mais poderosos e capacidade de rápida evolução, enquanto a inferência, após a implementação de tecnologias avançadas, valoriza custos por token, latência e eficiência energética. Huang afirmou na segunda-feira na GTC que “a era da inferência de IA chegou” e que “a demanda por inferência continua crescendo”.
Assim, o H200 com 141GB de HBM3e é altamente atraente para implantações de larga escala, com contextos longos, grandes lotes, busca aprimorada e implantação eficiente de clusters de inferência. A forte demanda impulsionada pelo ecossistema CUDA, juntamente com a redução de custos de migração e implementação para clientes chineses, torna-o uma “potência de computação de alta ponta sob restrições”.
Para investidores de Wall Street, essa não é uma narrativa de “a Nvidia dominando o mercado chinês”, mas uma oportunidade de crescimento potencialmente subestimada na demanda chinesa, além do forte mercado global de infraestrutura de IA.
Na GTC de 17 de março, o CEO Huang revelou uma visão “sem precedentes” de geração de receita de infraestrutura de IA, projetando que, até 2027, a receita de chips de IA poderá atingir pelo menos 1 trilhão de dólares, muito acima dos 500 bilhões de dólares previstos na última GTC para 2026.
À medida que o tamanho dos modelos, as cadeias de inferência e as cargas de trabalho multimodais/agentic impulsionarem o consumo de computação exponencialmente, os principais players de tecnologia tendem a concentrar seus investimentos em infraestrutura de IA. Investidores globais continuam a apoiar a narrativa de “bull market de IA” centrada na Nvidia, Google TPU e AMD, consolidando essa como uma das histórias de maior certeza no mercado de ações mundial, além de manter temas de investimento relacionados a energia, resfriamento líquido, interconexões ópticas e cadeias de suprimentos de IA em alta, mesmo diante de incertezas geopolíticas no Oriente Médio.
De acordo com Morgan Stanley, Citigroup, Loop Capital e Wedbush, a onda de investimentos globais em infraestrutura de IA, centrada em hardware de IA, ainda está no começo, e, impulsionada por uma demanda sem precedentes por capacidade de inferência, essa rodada de investimentos até 2030 pode alcançar entre 3 e 4 trilhões de dólares.