Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
A Nvidia lançou 7 chips "trunfo", com objetivo de passar de fornecedor de chips para fábrica de IA! A estratégia de Jensen Huang mudou? Especialistas do setor: resumindo numa frase é "vender padrões"
Jornalista******|Yang Hui******
Editores******|Cheng Peng, Dong Xing Sheng, Du Bo, Revisão******|Chen Kemin***************
No dia 16 de março, horário local, o fundador e CEO da Nvidia, Huang Renxun, voltou a subir ao palco do SAP Center em San José após um ano, vestindo a sua icónica jaqueta de couro, para iniciar a palestra principal do “GTC 2026”.
Apesar de Huang Renxun ter alertado antes do início que “esta é uma conferência de tecnologia”, ao longo de toda a apresentação, desde robôs humanoides até condução inteligente, passando pelo recente sucesso do “Lagosta” e pelos sete chips “rei”, Huang deu à sua palestra um sabor de lançamento de novos produtos.
No dia 17 de março, Gao Fei, presidente do Zhitop Network, disse ao repórter do “Diário Econômico” que, na sua opinião, toda a estratégia de Huang Renxun segue o padrão de “queimar mais tokens (unidade mínima de processamento de texto de entrada na IA)”. Além disso, especialistas resumiram três “grandes truques” de Huang: construir um ecossistema de sistemas, estabelecer barreiras elevadas para impedir que concorrentes “levem a carne”, oferecer ferramentas para “queimar tokens”, introduzir simulação de gêmeos digitais + agentes inteligentes, facilitando o uso múltiplo; e otimizar sistemas para reduzir o custo de tokens, atraindo mais utilizadores.
Com uma série de novos produtos, Huang Renxun afirmou que a Nvidia está a passar de uma fabricante de chips para uma fábrica de IA e uma infraestrutura de IA. No entanto, a analista independente de estratégias internacionais, Chen Jia, acredita que, embora a Nvidia pareça estar a vender capacidade de processamento, na realidade tem vindo a vender um ecossistema de capacidade de processamento. Recentemente, tem utilizado modelos generativos de grande escala e a fusão com o motor gráfico 3D da Nvidia para promover a ideia de necessidade de capacidade de processamento, que constitui a sua vantagem competitiva mais insubstituível. Combinando com as estratégias e produtos em robôs humanoides, condução inteligente, etc., fica claro que a Nvidia atual está mais inclinada a “vender pás” do que a explorar minas de dados de IA.
Seguindo a “Criação de Lagostas”
Gao Fei contou ao repórter que, nesta GTC, duas áreas ou produtos lhe impressionaram mais: OpenClaw e o LPU (Unidade de Processamento de Linguagem) da Groq.
Depois do “fenómeno de criar lagostas” que começou após o Ano Novo Chinês, Huang Renxun também olhou para isso. Como líder do maior fornecedor mundial de capacidade de processamento, como vê a “criação de lagostas”? No evento, Huang passou bastante tempo a explicar o que é o OpenClaw, elogiando-o por abrir uma nova fronteira na IA. “OpenClaw é o projeto de código aberto mais popular da história, e foi criado em apenas algumas semanas, superando o que o Linux (sistema operativo) conseguiu em 30 anos.”
A analogia ao Linux deve-se ao facto de Huang considerar que o OpenClaw também é um sistema, com recursos geridos, capaz de fazer agendamento, derivar e invocar outros sub-agentes inteligentes, com entrada e saída. “OpenClaw, na essência, é o sistema operativo para computadores de agentes inteligentes, e este é um momento aguardado pela indústria — o início de uma nova era de renascimento do software.”
Após elogios, Huang sugeriu uma possibilidade ainda mais empolgante: a evolução do SaaS (Software as a Service) para “Agentes como Serviço (AaaS)”. No futuro, equipar cada engenheiro com um “orçamento anual de tokens” será uma nova norma para impulsionar um crescimento de produtividade de dez vezes.
Assim, não é difícil entender por que a “criação de lagostas” tocou a Nvidia, que é uma “vendedora de pás”. Como disse um especialista do setor, atualmente, se os tokens não forem “queimados”, toda a cadeia de IA fica parada. A “lagosta” é um excelente “queimador”.
Fonte da imagem: captura do site da Nvidia
Segundo informações do “Diário Econômico”, a Nvidia já lançou a pilha de software NVIDIA NemoClaw?, compatível com a plataforma de agentes OpenClaw. O NemoClaw oferece modelos abertos e um ambiente sandbox isolado, reforçando a privacidade e segurança dos dados dos agentes autônomos, além de fornecer infraestrutura básica. Além disso, o NemoClaw pode usar qualquer linguagem de programação de agentes inteligentes.
Receita de chips aponta para trilhões de dólares
A “revelação de novos chips” também é uma “assinatura” de Huang Renxun.
Antes do lançamento, Huang revelou detalhes do sistema Vera Rubin. Segundo ele, Vera Rubin é um supercomputador composto por 7 chips, 5 tipos de racks. Com o lançamento do Vera Rubin, o ponto de inflexão da IA de agentes (Agentic AI) chegou, desencadeando a maior onda de construção de infraestrutura da história.
Especificamente, os sete chips são: NVIDIA Vera CPU, NVIDIA Rubin GPU, switch NVLink 6, NVIDIA ConnectX-9 SuperNIC, NVIDIA BlueField-4 DPU, switch Ethernet NVIDIA Spectrum-6 e o LPU Groq 3 da Nvidia.
Entre eles, Vera CPU e Groq 3 LPU receberam maior atenção. Segundo a Nvidia, Vera CPU é o primeiro processador do mundo feito para IA de agentes e aprendizagem reforçada, com eficiência duas vezes maior que CPUs tradicionais de rack, velocidade 50% superior, já em produção em massa e disponível para parceiros na segunda metade do ano. Empresas líderes como Alibaba, Lenovo, e também a ByteDance, estão na lista de implantação do Vera.
Quanto ao Groq 3 LPU, é um processador dedicado à inferência de grandes modelos de linguagem. No sistema Vera Rubin, o Groq 3 LPU trabalha em conjunto com a GPU. Na opinião do setor, a fase de treino exige mais força bruta de processamento, enquanto a inferência requer controle de custos e resposta rápida. Com a adoção massiva de IA, a demanda por capacidade de inferência vai explodir exponencialmente, levando fabricantes de nuvem e hardware a replanejar a alocação de recursos, com uma possível chegada de chips de inferência personalizados.
A Groq, fundada em 2016, é uma nova parceira da Nvidia nesta área, focada em infraestrutura de inferência de IA. Em dezembro de 2025, a Nvidia assinou um acordo de licença não exclusiva com a Groq, incorporando alguns membros-chave da equipe da Groq na Nvidia para ampliar essa tecnologia.
Fonte da imagem: captura do site da Nvidia
Além de aumentar a eficiência de processamento, o preço é uma variável crítica neste momento.
Segundo Huang, a receita da Nvidia com chips de processamento de IA atingirá 1 trilhão de dólares até 2027. No ano passado, sua previsão para a demanda de chips em 2026 era de 500 bilhões de dólares. Para dobrar esse valor, a capacidade de processamento da Nvidia precisa ser mais “custo-efetiva”.
Por isso, Huang propôs o indicador central de “tokens por watt”. Durante a palestra, ele reforçou a importância do custo por token, citando cálculos que mostram que a Nvidia lidera mundialmente nesse aspecto.
Gao Fei afirmou que, na sua opinião, toda a estratégia de Huang é seguir o padrão de “queimar mais tokens”. Outros especialistas dizem que, de forma simples, a Nvidia tem três “grandes truques”: construir um ecossistema de sistemas, estabelecer barreiras para impedir que concorrentes “levem a fatia”, oferecer ferramentas para “queimar tokens”, além de introduzir simulação de gêmeos digitais e agentes inteligentes, facilitando o uso múltiplo; e otimizar sistemas para reduzir custos de tokens e atrair mais utilizadores.
Continuar a “vender pás”
Outro destaque da conferência foi Huang afirmar que a Nvidia está a passar de uma fabricante de chips para uma fábrica de IA e uma infraestrutura de IA. Com a divulgação de novos produtos e parcerias em condução inteligente, robótica, etc., o setor discute se a estratégia da Nvidia mudou, passando de fornecedora de capacidade de processamento para fornecedora de soluções completas.
Segundo Gao Fei, com base nas ações da Nvidia, o foco ainda é na eficiência de processamento. “Antes, melhorar os chips já aumentava a capacidade, mas agora, só com uma GPU não basta; é preciso rede, armazenamento, e agora também LPU, formando um sistema completo.”
Ele reforçou que a Nvidia não fornece apenas capacidade de processamento, mas acompanha a tendência do mercado, atendendo às necessidades de aplicação. “Onde há uma grande demanda de IA, a Nvidia faz otimizações específicas para esse cenário. Nos últimos anos, ela também se posiciona como uma empresa de software e algoritmos, e esse é o motivo.”
A analista independente Chen Jia acrescenta que, no geral, o objetivo principal do “GTC 2026” é mostrar o músculo da Nvidia. Segundo Huang, a Nvidia possui três plataformas tecnológicas principais: CUDA-X (conjunto de ferramentas de desenvolvimento, bibliotecas aceleradas por GPU e APIs), o ecossistema amplo, e o sistema de fábricas de IA.
“Por esse ângulo, a Nvidia, sob a liderança de Huang, parece estar vendendo capacidade de processamento, mas na verdade está vendendo um ecossistema de capacidade de processamento. Recentemente, ela tem utilizado modelos generativos e a fusão com o motor gráfico 3D para promover a ideia de necessidade de capacidade de processamento, que é o ponto forte e a vantagem competitiva insubstituível da Nvidia. Em comparação, fabricantes de produtos de hardware e software de IA mais novos, como a ‘Lagosta’, estão mais focados em vender capacidade de processamento.”, afirmou Chen.
Ele ainda destacou que, ao analisar as estratégias em robôs humanoides, condução inteligente e o sistema NVLink Gro de sexta geração, fica claro que, diante do avanço global na cadeia de chips semicondutores e IA, e da competição entre grandes potências por capacidade de processamento, a Nvidia prefere “vender pás” do que explorar minas de dados de IA. “O que a Nvidia faz agora, resumidamente, é vender padrões.”, concluiu Chen.
(Disclaimer: O conteúdo e os dados deste artigo são apenas para fins informativos, não constituindo aconselhamento de investimento. Verifique antes de usar. Operações sob seu risco.)