Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Não apenas GPU! Nvidia(NVDA.US)GTC 2026 lança novos produtos LPU, CPU e muito mais, abrangendo toda a cadeia de centros de dados de IA
Na segunda-feira, horário da Costa Leste dos EUA, a Nvidia (NVDA.US) inaugurou oficialmente a conferência GTC em San José, Califórnia, lançando várias novas chips e plataformas de uma só vez, desde a nova geração de unidades de processamento de linguagem Nvidia Groq3 (LPU) até ao servidor completo Vera, especialmente projetado para competir com a Intel (INTC.US) e AMD (AMD.US).
Segundo informações, a Nvidia lançou um total de cinco grandes servidores completos, destinados a diferentes cenários dentro de centros de dados de IA.
O destaque principal foi o lançamento do chip Nvidia Groq3. Em dezembro do ano passado, a Nvidia adquiriu por 20 bilhões de dólares os direitos tecnológicos relacionados ao Groq, integrando seus fundadores Jonathan Ross, o presidente Sunny Madra e a equipe central.
O processador Groq é especializado em inferência de IA — ou seja, na etapa central de execução de modelos de IA. Quando os usuários inserem comandos no ChatGPT, Claude ou Gemini e recebem respostas, é a tecnologia de inferência que está em ação.
Ao contrário das GPUs genéricas da Nvidia, que podem treinar e executar modelos, o lançamento do Groq3 marca a entrada da empresa no mercado de chips dedicados à inferência, atendendo à necessidade urgente de transição do mercado de IA de treinamento de modelos para aplicação de modelos.
Ian Buck, vice-presidente de computação de alta escala e alto desempenho da Nvidia, explicou que, embora as GPUs suportem maior capacidade de memória, a memória do LPU do Groq3 possui velocidades de acesso mais rápidas. Combinando as vantagens de desempenho de ambos, surge a nova plataforma Groq3LPX — um servidor completo que integra 128 LPUs Groq3 independentes. Quando operando em conjunto com o chassi Vera Rubin NVL72, a taxa de throughput por megawatt pode aumentar 35 vezes, criando um potencial de retorno dez vezes maior.
“A arquitetura LPX, otimizada para modelos de trilhões de parâmetros e contextos de milhões de tokens, complementa perfeitamente a Vera Rubin, maximizando eficiência em consumo de energia, memória e poder de processamento. Essa inovação na taxa de throughput por watt e desempenho por token impulsionará serviços de inferência de ponta com trilhões de parâmetros, abrindo novas oportunidades de crescimento para todos os provedores de IA”, destacou a Nvidia em comunicado oficial.
A introdução do servidor LPX responde firmemente às preocupações do mercado de que a Nvidia poderia perder vantagem diante de startups emergentes de chips de inferência. Ao mesmo tempo, o cluster de CPU Vera, composto por 256 chips Vera com refrigeração líquida, também chamou atenção — marcando a primeira vez que a Nvidia desmembra a Vera CPU do “Vera Rubin superchip” (que inclui 1 Vera CPU + 2 GPUs Rubin).
Com o crescimento da IA de agentes inteligentes, o valor estratégico das CPUs torna-se cada vez mais evidente. Quando um agente de IA precisa realizar tarefas como navegar na web ou extrair informações de tabelas, o desempenho da CPU é decisivo. Em cenários de mineração de dados, recomendações personalizadas e análise de contexto para GPUs, a CPU também desempenha papel insubstituível.
“Vera é a CPU definitiva, feita sob medida para cargas de trabalho de IA de agentes inteligentes”, explicou Buck. “Redefinimos a arquitetura de CPU — com o núcleo Olympus, projetado pela Nvidia especificamente para IA, capaz de responder mais rapidamente sob condições extremas, adaptando-se perfeitamente a todos os cenários de aprendizagem reforçada.”
Esta não é a primeira incursão da Nvidia no setor de CPUs. No mês passado, firmou um acordo para implantar a maior escala de clusters de CPUs Grace da geração anterior. A recente apresentação da Vera, como produto independente, marca a consolidação da estratégia de “GPU + CPU” da Nvidia, visando competir com a dominação do mercado de data centers pela Intel e AMD.
Além desses produtos, a Nvidia também exibiu o sistema de servidor de armazenamento Bluefield-4STX (com desempenho significativamente superior às soluções tradicionais) e o sistema de rede Spectrum-6SPX.
Com a demanda por plataformas de IA em contínuo crescimento, espera-se que a nova linha de produtos da Nvidia impulsione ainda mais a receita de seus negócios de data center. Para o ano fiscal de 2026, a receita de data centers já atingiu 193,5 bilhões de dólares, um aumento expressivo em relação aos 116,2 bilhões de dólares de 2025. Entre os gigantes como Amazon (AMZN.US), Google (GOOGL.US), Meta e Microsoft (MSFT.US), que planejam investir um total de 650 bilhões de dólares em capital de IA neste ano, a Nvidia certamente conquistará uma fatia significativa desse mercado.