Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
«Nova geração de IA» do GPU ao LPU: Nvidia lança ofensiva massiva em chips de inferência, Jensen Huang dá mais um passo decisivo
「Nova Geração de IA» : da GPU à LPU — a Nvidia avança em grande escala para o mercado de chips de inferência, Huang Renxun joga mais uma peça decisiva
Na madrugada de 17 de março, na GTC 2026, o CEO da Nvidia, Huang Renxun, apresentou a sua nova arma — a Groq 3 LPU — lançando um ataque decidido ao mercado de chips de inferência.
A orientação do setor de IA mudou. Nos últimos anos, toda a gente andou a competir desesperadamente por “treinar modelos” — alimentando dados em GPUs, esperando que elas evoluíssem para uma inteligência — e, naquela altura, as GPUs da Nvidia eram o único rei, ninguém conseguia abalar. Mas, nestes dois anos, agentes inteligentes começaram a afluir em massa ao mercado: Manus ganhou destaque, OpenClaw dominou os feeds, e os fornecedores de modelos e de serviços em nuvem começaram a ganhar dinheiro com a venda de tokens. Enquanto isso, a Cerebras, com a bandeira “mais rápido, mais barato”, começou a abrir uma brecha no território que a Nvidia dominava há anos.
A indústria finalmente percebeu: o treino continua, mas a “inferência” já se tornou a corrente principal. A Nvidia, naturalmente, não vai perder esta oportunidade de mercado; no bolo da inferência, também quer cortar uma fatia. Na madrugada de 17 de março, na GTC 2026, o CEO da Nvidia, Huang Renxun, apresentou a sua nova arma — a Groq 3 LPU — num ataque decidido ao mercado de chips de inferência. Ao mesmo tempo, ele lançou um conjunto de números: até ao final de 2027, as duas linhas de produtos Blackwell e Rubin alcançarão 1 bilião de dólares em receitas anuais, o dobro da previsão feita há meio ano.
Treino e inferência em duas frentes
Desta vez, a Nvidia lançou oficialmente a plataforma Vera Rubin, que inclui sete chips, nomeadamente Rubin GPU, Vera CPU, ConnectX-9 SuperNIC, BlueField-4 DPU, NVLink 6 Switch, Spectrum-X 102.4T CPO, e a nova Groq 3 LPU integrada.
A sigla “LPU” significa “Language Processing Unit”, ou seja, Unidade de Processamento de Linguagem. É um chip de aceleração de inferência de IA dedicado. Combinando a Rubin GPU com a Groq LPU, o sistema vai levar o throughput atual de 100 tokens por segundo para 1500 tokens por segundo ou até mais, suportando perfeitamente cenários de interação de agentes de IA.
A Nvidia também lançou uma estrutura de rack completa, dedicada para acomodar os novos aceleradores Groq — a Groq LPX. De acordo com Ian Buck, vice-presidente sénior de superescala e computação de alto desempenho da Nvidia, a Groq LPX irá melhorar o desempenho de descodificação de “cada camada do modelo de IA por token” e permitirá que a Rubin sirva a próxima fronteira da inteligência artificial: sistemas de múltiplos agentes. Estes sistemas precisam de entregar desempenho interativo, ao mesmo tempo que executam modelos com dezenas de milhares de milhões de parâmetros, em janelas de contexto com milhões de tokens.
A Nvidia não tem apenas curiosidade sobre o mercado de chips de inferência desde hoje; já estava preparada com antecedência. Em dezembro de 2025, a empresa adquiriu por cerca de 20 mil milhões de dólares os principais ativos de tecnologia da Groq. O seu fundador juntou-se à Nvidia, e a Groq 3 LPU é o primeiro resultado público após a aquisição.
Com base em previsões do modelo do Research de Investimento Global da Goldman Sachs, a quota de expedições de chips não-GPGPU nos chips de IA para servidores deverá apresentar uma tendência clara de subida. Estima-se que aumente gradualmente de 36% em 2024 para 45% em 2027, enquanto a quota de expedições de chips GPGPU deverá descer gradualmente de 64% em 2024 para 55% em 2027.
Qin Fengwei, analista sénior da InSemi Research, explicou ao nosso repórter que as GPUs serão mais competitivas em cenários com treino de grandes modelos na base e em requisitos de maior generalidade (como em cloud pública), bem como em cenários de computação paralela. Já ASICs (incluindo TPU, DPU, NPU, LPU, etc.) tendem a ter vantagens relativas na fase de implementação de modelos e em cenários de inferência, porque esses cenários exigem mais em termos de eficiência energética, latência de resposta e outros aspetos.
“Por isso, quando a Nvidia lança uma LPU, está a responder a uma mudança estratégica na procura de poder de computação de IA, que passa de ‘treino’ para ‘inferência’. É um passo-chave para colmatar falhas. Ao utilizar um desenho de produto mais refinado, responde às mudanças do mercado e aos desafios dos concorrentes.” disse Zhang Xiaorong, diretor do Instituto de Pesquisa de Tecnologia Profunda, ao nosso repórter.
Segundo relatos da comunicação social, o plano da Nvidia para responder ao aumento contínuo da procura de inferência já lhe trouxe retornos. No mês passado, a OpenAI afirmou que chegou a um acordo com a Nvidia para comprar chips com “capacidade de inferência dedicada”.
Da gama de chips à atualização da ecologia até às fábricas
Nos últimos anos, a IA generativa despoletou o mercado, e o treino de grandes modelos tornou-se um poço de cómputo de valor absoluto. Graças à posição dominante absoluta das GPUs, a Nvidia ficou com grande parte dos benefícios dessa vaga. O desempenho e a capitalização de mercado dispararam em simultâneo, e a empresa ganhou muito, sem medida.
No entanto, à medida que a competição por parâmetros dos modelos entrou na fase de quebra de efeitos marginais, o treino de grandes modelos acabou por abrandar depois de dois anos a correr a todo o gás. A partir de 2025, o eixo da concorrência começou a deslocar-se — agentes inteligentes e engenharia de contexto assumiram o lugar central. O sinal mais direto foi: OpenClaw conquistou as plataformas sociais. Ao longo de todo o percurso, atravessou da bolha da área tecnológica para entrar no feed de informação das pessoas comuns.
Os agentes inteligentes são um dos fatores-chave que impulsionam o crescimento da procura no mercado de inferência. O seu cenário central dá mais ênfase à inferência do que ao treino. Esta visão é apoiada de forma clara em várias pesquisas de autoridade e análises do setor. Assim, quando as capacidades de IA evoluem do estágio de treino de grandes modelos base para agentes que se concentram na construção de fluxos de trabalho, o foco da procura de poder de computação passa do treino para a inferência.
E como o principal player em infraestruturas de IA, a Nvidia também tem de se adaptar às tendências do mercado — e não apenas numa perspetiva de produto, mas numa atualização ao nível de todo o ecossistema.
No encontro GTC desta vez, além de lançar a LPU, a Nvidia também juntou forças com uma equipa representada por Peter Steinberger, fundador do OpenClaw, convocando um grupo de especialistas de topo em segurança e computação. O objetivo é lançar a arquitetura de referência NeMoClaw, que incorpora a tecnologia OpenShell, mecanismos de defesa de rede e capacidade de roteamento de privacidade. Assim, as empresas podem executar com segurança sistemas de agentes no seu próprio ambiente privado.
A Nvidia chegou mesmo a lançar um design de referência para a fábrica de IA Vera Rubin DSX, ensinando como projetar, construir e operar toda a pilha de infraestruturas de uma fábrica de IA. O âmbito abrange computação, rede NVIDIA Spectrum-XEthernet e armazenamento, para alcançar desempenho de clusters repetível, escalável e ótimo.
Huang Renxun afirmou: “Na era da IA, os tokens inteligentes são a nova moeda, e as fábricas de IA são a infraestrutura que gera esses tokens. Através do design de referência Vera Rubin DSX AI Factory e do Omniverse DSX Blueprint (blueprint de gémeo digital), estamos a fornecer a base para construir as fábricas de IA com maior produtividade do mundo, a acelerar o tempo até à primeira receita e a maximizar a escala e a eficiência energética.”
Quanto à forma como, após o lançamento da LPU, irá mudar a quota das GPUs topo de gama da Nvidia, o repórter do China Times entrevistou a empresa. Até ao momento em que esta notícia foi redigida, não tinha sido recebida resposta. “Entrar no mercado de chips de inferência não significa que o negócio de GPUs seja necessariamente prejudicado. Pelo contrário, ao operar em sinergia com a LPU, surgirá um espaço de mercado ainda mais vasto.” disse Zhang Xiaorong.
Yuan Bo, perito especialmente contratado pelo Think Tank da Zhican, apontou que, no curto prazo, as GPUs, com a sua forte adaptabilidade a cenários e barreiras de ecossistema, dominam o mercado, especialmente em cenários de treino de IA. No longo prazo, porém, duas vias não são totalmente opostas; caminharão para uma fusão e para uma divisão do mercado em camadas. “Em termos de hardware, as GPUs vão integrar núcleos dedicados mais fortes, e os chips dedicados também vão aumentar a programabilidade. No mercado, prevê-se que se forme um padrão em camadas: de um lado, a inovação dominante e as plataformas generalistas; do outro, os chips dedicados que se especializam em inferência em escala.”
No mercado de ASIC, na verdade, já se juntaram vários adversários da Nvidia, incluindo no exterior a Cerebras, e na China a Cambricon, Huawei, Biren Technology (燧原科技), entre outras. Zhang Xiaorong considera que, ao entrar no domínio dos chips de inferência, a Nvidia é simultaneamente um desafio e um catalisador para as empresas nacionais, formando um cenário complexo em que existe tanto “pressão” como “empurrão forçado” em simultâneo. Isso irá acelerar a reestruturação do setor e a atualização tecnológica.