“Pai de HBM” prevê que a arquitetura de IA vai revolucionar: a memória substituirá a GPU como componente central

robot
Geração de resumo em curso

Quando a IA passa de “gerar” para “agir de forma autónoma”, o estrangulamento da capacidade de computação poderá deslocar-se das GPUs para a memória.

Segundo meios de comunicação locais sul-coreanos, como o jornal “Asia Economic”, citados como fonte local, o professor Joungho Kim, da Korea Advanced Institute of Science and Technology (KAIST), recentemente lançou uma previsão: a arquitetura de IA atualmente centralizada em GPUs, dominada pela NVIDIA, acabará por ser substituída por uma nova arquitetura cujo núcleo será a memória.

Por detrás desta avaliação está uma mudança fundamental na forma como as aplicações de IA são utilizadas. À medida que a IA generativa evolui para IA de agentes (Agentic AI), os sistemas precisam de processar simultaneamente enormes quantidades de documentação, vídeo e dados multimodais — Kim descreve esta tendência como a “ascensão da engenharia de contexto” (context engineering). Ele afirma que, para garantir velocidade e precisão, a largura de banda e a capacidade da memória devem aumentar até 1000 vezes no máximo.

Ainda mais surpreendentes são os números do lado da procura: citando anteriormente declarações de Kim, a Money Today Broadcasting refere que, se a escala de entrada aumentar 100 a 1000 vezes, a necessidade de memória poderá saltar de forma exponencial, com uma expansão total que poderá chegar a 1000 000 vezes.

O HBM vai atingir o teto, o HBF assume o testemunho

Kim afirmou de forma clara que a tecnologia atual de HBM — que permite transmissões ultrarrápidas através da pilha vertical de DRAM — que, atualmente, domina o mercado de memória de aceleradores de IA, já não conseguirá manter-se na era da IA de agentes.

A sua proposta para a próxima solução é o HBF (High Bandwidth Flash, flash de elevada largura de banda): ao substituir DRAM por NAND empilhada, construir um “gigantesco sistema de estantes” de memória de longo prazo, com uma capacidade muito superior aos limites atuais.

Por analogia, o HBM é mais como post-its num ambiente de secretária — rápido, mas com capacidade limitada; já o HBF é como uma parede inteira de livros, capaz de guardar, em termos de quantidade de informação, algo completamente diferente.

No nível da arquitetura, a SK Hynix já apresentou, num artigo publicado na IEEE, a arquitetura “H3” — de acordo com um relatório do “Korea Economic” de fevereiro, esta arquitetura coloca HBM e HBF lado a lado junto ao GPU, e não apenas HBM a ficar adjacente ao processador, como na conceção atual. Isto significa que o papel do GPU passará de “protagonista” para “coadjuvante”, sendo as unidades de computação incorporadas num sistema com a memória como elemento principal.

O calendário está a tornar-se cada vez mais claro.

De acordo com a previsão de Kim, amostras de engenharia de HBF deverão surgir por volta de 2027, e Google, NVIDIA ou AMD poderão adotar esta tecnologia mais cedo em 2028.

Este ritmo é altamente semelhante ao caminho que o HBM percorreu anos antes, saindo do laboratório para o uso comercial em grande escala, e também implica que a janela do setor já foi aberta.

SK Hynix e Samsung, novo confronto direto

Kim também apontou que o panorama competitivo na área do HBF irá reproduzir o guião da era do HBM — a SK Hynix e a Samsung voltarão a ser os protagonistas.

Atualmente, a SK Hynix já estabeleceu, em fevereiro deste ano, em conjunto com a SanDisk, uma aliança para padronização de HBF, com o objetivo de conquistar a liderança do ecossistema. A Samsung, por seu lado, continua a avançar com produtos de próxima geração de HBM como o HBM4E e, ao mesmo tempo, tem também investido em investigação e desenvolvimento de uma arquitetura de NAND alinhada com a ideia de HBF, segundo a Aju News.

Os dois gigantes seguem percursos de implementação diferentes, mas o objetivo aponta para o mesmo setor. Aquele que conseguir, primeiro, fechar o ciclo completo desde a definição do padrão até à entrega em produção em massa, irá, em grande medida, determinar o panorama do próximo mercado de memória para IA.

Aviso de riscos e cláusulas de isenção de responsabilidade

        Há riscos no mercado; o investimento exige cautela. Este artigo não constitui aconselhamento de investimento pessoal e não considera objetivos específicos de investimento, situação financeira ou necessidades de utilizadores individuais. Os utilizadores devem considerar se quaisquer opiniões, perspetivas ou conclusões neste artigo se adequam à sua situação específica. Ao investir com base nisto, a responsabilidade é por sua conta.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar