Não apenas GPU! Nvidia(NVDA.US)GTC 2026 lança novos produtos LPU, CPU e muito mais, abrangendo toda a cadeia de centros de dados de IA

robot
Geração de resumo em curso

Na segunda-feira, horário da Costa Leste dos EUA, a Nvidia (NVDA.US) inaugurou oficialmente a conferência GTC em San José, Califórnia, lançando várias novas chips e plataformas de uma só vez, desde a nova geração de unidades de processamento de linguagem Nvidia Groq3 (LPU) até ao servidor completo Vera, especialmente projetado para competir com a Intel (INTC.US) e AMD (AMD.US).

Segundo informações, a Nvidia lançou um total de cinco grandes servidores completos, destinados a diferentes cenários dentro de centros de dados de IA.

O destaque principal foi o lançamento do chip Nvidia Groq3. Em dezembro do ano passado, a Nvidia adquiriu por 20 bilhões de dólares os direitos tecnológicos relacionados ao Groq, integrando seus fundadores Jonathan Ross, o presidente Sunny Madra e a equipe central.

O processador Groq é especializado em inferência de IA — ou seja, na etapa central de execução de modelos de IA. Quando os usuários inserem comandos no ChatGPT, Claude ou Gemini e recebem respostas, é a tecnologia de inferência que está em ação.

Ao contrário das GPUs genéricas da Nvidia, que podem treinar e executar modelos, o lançamento do Groq3 marca a entrada da empresa no mercado de chips dedicados à inferência, atendendo à necessidade urgente de transição do mercado de IA de treinamento de modelos para aplicação de modelos.

Ian Buck, vice-presidente de computação de alta escala e alto desempenho da Nvidia, explicou que, embora as GPUs suportem maior capacidade de memória, a memória do LPU do Groq3 possui velocidades de acesso mais rápidas. Combinando as vantagens de desempenho de ambos, surge a nova plataforma Groq3LPX — um servidor completo que integra 128 LPUs Groq3 independentes. Quando operando em conjunto com o chassi Vera Rubin NVL72, a taxa de throughput por megawatt pode aumentar 35 vezes, criando um potencial de retorno dez vezes maior.

“A arquitetura LPX, otimizada para modelos de trilhões de parâmetros e contextos de milhões de tokens, complementa perfeitamente a Vera Rubin, maximizando eficiência em consumo de energia, memória e poder de processamento. Essa inovação na taxa de throughput por watt e desempenho por token impulsionará serviços de inferência de ponta com trilhões de parâmetros, abrindo novas oportunidades de crescimento para todos os provedores de IA”, destacou a Nvidia em comunicado oficial.

A introdução do servidor LPX responde firmemente às preocupações do mercado de que a Nvidia poderia perder vantagem diante de startups emergentes de chips de inferência. Ao mesmo tempo, o cluster de CPU Vera, composto por 256 chips Vera com refrigeração líquida, também chamou atenção — marcando a primeira vez que a Nvidia desmembra a Vera CPU do “Vera Rubin superchip” (que inclui 1 Vera CPU + 2 GPUs Rubin).

Com o crescimento da IA de agentes inteligentes, o valor estratégico das CPUs torna-se cada vez mais evidente. Quando um agente de IA precisa realizar tarefas como navegar na web ou extrair informações de tabelas, o desempenho da CPU é decisivo. Em cenários de mineração de dados, recomendações personalizadas e análise de contexto para GPUs, a CPU também desempenha papel insubstituível.

“Vera é a CPU definitiva, feita sob medida para cargas de trabalho de IA de agentes inteligentes”, explicou Buck. “Redefinimos a arquitetura de CPU — com o núcleo Olympus, projetado pela Nvidia especificamente para IA, capaz de responder mais rapidamente sob condições extremas, adaptando-se perfeitamente a todos os cenários de aprendizagem reforçada.”

Esta não é a primeira incursão da Nvidia no setor de CPUs. No mês passado, firmou um acordo para implantar a maior escala de clusters de CPUs Grace da geração anterior. A recente apresentação da Vera, como produto independente, marca a consolidação da estratégia de “GPU + CPU” da Nvidia, visando competir com a dominação do mercado de data centers pela Intel e AMD.

Além desses produtos, a Nvidia também exibiu o sistema de servidor de armazenamento Bluefield-4STX (com desempenho significativamente superior às soluções tradicionais) e o sistema de rede Spectrum-6SPX.

Com a demanda por plataformas de IA em contínuo crescimento, espera-se que a nova linha de produtos da Nvidia impulsione ainda mais a receita de seus negócios de data center. Para o ano fiscal de 2026, a receita de data centers já atingiu 193,5 bilhões de dólares, um aumento expressivo em relação aos 116,2 bilhões de dólares de 2025. Entre os gigantes como Amazon (AMZN.US), Google (GOOGL.US), Meta e Microsoft (MSFT.US), que planejam investir um total de 650 bilhões de dólares em capital de IA neste ano, a Nvidia certamente conquistará uma fatia significativa desse mercado.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar