Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
“Pai de HBM” prevê que a arquitetura de IA vai revolucionar: a memória substituirá a GPU como componente central
Quando a IA passa de “gerar” para “agir de forma autónoma”, o estrangulamento da capacidade de computação poderá deslocar-se das GPUs para a memória.
Segundo meios de comunicação locais sul-coreanos, como o jornal “Asia Economic”, citados como fonte local, o professor Joungho Kim, da Korea Advanced Institute of Science and Technology (KAIST), recentemente lançou uma previsão: a arquitetura de IA atualmente centralizada em GPUs, dominada pela NVIDIA, acabará por ser substituída por uma nova arquitetura cujo núcleo será a memória.
Por detrás desta avaliação está uma mudança fundamental na forma como as aplicações de IA são utilizadas. À medida que a IA generativa evolui para IA de agentes (Agentic AI), os sistemas precisam de processar simultaneamente enormes quantidades de documentação, vídeo e dados multimodais — Kim descreve esta tendência como a “ascensão da engenharia de contexto” (context engineering). Ele afirma que, para garantir velocidade e precisão, a largura de banda e a capacidade da memória devem aumentar até 1000 vezes no máximo.
Ainda mais surpreendentes são os números do lado da procura: citando anteriormente declarações de Kim, a Money Today Broadcasting refere que, se a escala de entrada aumentar 100 a 1000 vezes, a necessidade de memória poderá saltar de forma exponencial, com uma expansão total que poderá chegar a 1000 000 vezes.
O HBM vai atingir o teto, o HBF assume o testemunho
Kim afirmou de forma clara que a tecnologia atual de HBM — que permite transmissões ultrarrápidas através da pilha vertical de DRAM — que, atualmente, domina o mercado de memória de aceleradores de IA, já não conseguirá manter-se na era da IA de agentes.
A sua proposta para a próxima solução é o HBF (High Bandwidth Flash, flash de elevada largura de banda): ao substituir DRAM por NAND empilhada, construir um “gigantesco sistema de estantes” de memória de longo prazo, com uma capacidade muito superior aos limites atuais.
Por analogia, o HBM é mais como post-its num ambiente de secretária — rápido, mas com capacidade limitada; já o HBF é como uma parede inteira de livros, capaz de guardar, em termos de quantidade de informação, algo completamente diferente.
No nível da arquitetura, a SK Hynix já apresentou, num artigo publicado na IEEE, a arquitetura “H3” — de acordo com um relatório do “Korea Economic” de fevereiro, esta arquitetura coloca HBM e HBF lado a lado junto ao GPU, e não apenas HBM a ficar adjacente ao processador, como na conceção atual. Isto significa que o papel do GPU passará de “protagonista” para “coadjuvante”, sendo as unidades de computação incorporadas num sistema com a memória como elemento principal.
O calendário está a tornar-se cada vez mais claro.
De acordo com a previsão de Kim, amostras de engenharia de HBF deverão surgir por volta de 2027, e Google, NVIDIA ou AMD poderão adotar esta tecnologia mais cedo em 2028.
Este ritmo é altamente semelhante ao caminho que o HBM percorreu anos antes, saindo do laboratório para o uso comercial em grande escala, e também implica que a janela do setor já foi aberta.
SK Hynix e Samsung, novo confronto direto
Kim também apontou que o panorama competitivo na área do HBF irá reproduzir o guião da era do HBM — a SK Hynix e a Samsung voltarão a ser os protagonistas.
Atualmente, a SK Hynix já estabeleceu, em fevereiro deste ano, em conjunto com a SanDisk, uma aliança para padronização de HBF, com o objetivo de conquistar a liderança do ecossistema. A Samsung, por seu lado, continua a avançar com produtos de próxima geração de HBM como o HBM4E e, ao mesmo tempo, tem também investido em investigação e desenvolvimento de uma arquitetura de NAND alinhada com a ideia de HBF, segundo a Aju News.
Os dois gigantes seguem percursos de implementação diferentes, mas o objetivo aponta para o mesmo setor. Aquele que conseguir, primeiro, fechar o ciclo completo desde a definição do padrão até à entrega em produção em massa, irá, em grande medida, determinar o panorama do próximo mercado de memória para IA.
Aviso de riscos e cláusulas de isenção de responsabilidade