Análise - O CEO da Nvidia prepara os investidores para uma batalha renovada com a Intel, AMD

Análise - O CEO da Nvidia prepara os investidores para uma nova batalha com a Intel, AMD

Stephen Nellis

Qui, 26 de fevereiro de 2026 às 13:47 GMT+9 4 min de leitura

Neste artigo:

NVDA

INTC

AMD

META

Por Stephen Nellis

SÃO FRANCISCO, 25 de fevereiro (Reuters) - A Nvidia pode ter feito uma fortuna imensa graças a unidades especializadas de processamento gráfico (GPUs) usadas para alimentar servidores de inteligência artificial, mas o CEO Jensen Huang tem vindo cada vez mais a afirmar o seu amor pelo CPU, o processador central, mais orientado para fins gerais.

O CPU, ou unidade central de processamento, era durante ‌décadas tradicionalmente visto como o principal cérebro de um computador - um produto associado na maior parte das vezes à Intel ou, por vezes, à Advanced Micro Devices.

Huang gosta de dizer ‌que onde antes 90% da computação acontecia nos CPUs e 10% em chips como o dele, a proporção se inverteu nos últimos anos.

Mas o CPU está agora a regressar - cada vez mais visto como uma opção equivalente, se não melhor, à medida que as empresas de IA mudam do treino dos seus modelos para a sua implementação - uma mudança da qual a Nvidia pretende fazer uma grande parte.

“Gostamos tanto de CPUs como de GPUs”, disse Huang numa chamada com analistas na quarta-feira para os resultados do quarto trimestre da empresa.

Ele garantiu-lhes que a Nvidia não só estava pronta para o regresso do CPU ao centro das atenções, como também que as próprias ofertas de CPU da Nvidia para centros de dados, lançadas pela primeira vez em 2023, iriam ultrapassar os rivais.

No mês passado, no Consumer Electronics Show em Las Vegas em janeiro, Huang também disse que o número de CPUs Nvidia de alto desempenho a serem usados em centros de dados ⁠explodiria e que não ficaria surpreendido “se a Nvidia se tornasse um dos maiores fabricantes de CPUs do mundo.”

O CPU EM VEZ DA GPU

CPUs e GPUs têm servido diferentes tarefas de computação há décadas. CPUs são chips de propósito geral concebidos para lidar com qualquer tarefa matemática que um programador de software possa ⁠encarregar ao chip a uma velocidade razoável, dada a variedade de trabalho.

GPUs, pelo contrário, especializam-se em executar um conjunto mais simples de tarefas matemáticas, mas realizando esses cálculos simples em paralelo milhares de vezes ao mesmo tempo.

Em videojogos, isso significava calcular muitas vezes por segundo o valor de milhares de píxeis num ecrã, e no trabalho de IA significa multiplicar e somar grandes matrizes ‌de ‌números que os programadores usam para representar dados do mundo real, como palavras e imagens.

As empresas de IA estão cada vez mais ​a implementar “agentes” que podem executar de forma independente tarefas como escrever código, ‌filtrar documentos e redigir relatórios de investigação - e esse tipo de computação “está a acontecer cada vez mais, e por vezes principalmente, no CPU”, disse Ben Bajarin, analista da Creative Strategies.

O servidor de IA atualmente carro-chefe da Nvidia - chamado NVL72 - contém 36 dos seus CPUs e 72 das suas GPUs. Bajarin acredita que isso poderá mudar para uma proporção de 1 para 1 para trabalho dito “agentic” ou mesmo que a GPU possa ser completamente dispensada.

A história continua  

A NVIDIA QUER PROVAR UM PONTO

Realçando as suas ambições para o CPU, a Nvidia anunciou recentemente um acordo com a Meta Platforms que fará com que o proprietário do Facebook use grandes volumes dos seus chips de CPU Grace e Vera numa base autónoma. Trata-se de um desenvolvimento relativamente recente em comparação com os atuais servidores de IA da Nvidia, onde ‌cada CPU é acompanhado por múltiplas GPUs.

Embora não seja que a Meta tenha trocado de fornecedor de CPUs - ​é apenas que está a garantir mais fornecedores. Dias depois, a AMD também anunciou um grande acordo com a Meta que também ​incluía os seus CPUs, que a Meta tem vindo a comprar há anos.

Na chamada com ​analistas, Huang argumentou que a Nvidia seguiu uma abordagem fundamentalmente diferente aos CPUs.

Ele explicou por que a Nvidia minimizou a abordagem de dividir ‌chips em partes menores que a Intel e a AMD têm usado, dizendo que o CPU da Nvidia era capaz de executar ​muitas tarefas simples em sequência, com bom acesso a uma grande quantidade de memória de computador.

“Foi concebido para ser focado em capacidades de processamento de dados muito elevadas”, disse Huang na chamada. “E a razão para isso é porque a maior parte dos problemas de computação que nos interessam são orientados por dados - a inteligência artificial sendo uma.”

Dave Altavilla, ​analista principal na HotTech Vision and Analysis, disse que a Nvidia está a tentar provar que o tipo de CPU que antes era fornecido principalmente pela Intel “já não é a base assumida por defeito da infraestrutura moderna de computação. Em vez disso, torna-se ​apenas uma opção arquitetural entre várias.”

Huang disse que a Nvidia terá mais para divulgar sobre os seus CPUs na conferência anual de programadores da empresa, no próximo mês, em Silicon Valley.

(Reportagem de Stephen Nellis em São Francisco; Edição de Peter Henderson e Edwina Gibbs)

Termos e Política de Privacidade

Painel de Privacidade

Mais Informações

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar