Recentemente, tive a oportunidade de pesquisar profundamente sobre a Micron Technology. Honestamente, estou surpreso com a pouca presença dessa empresa. Escondida atrás da Nvidia e da TSMC, ela quase não recebe atenção, mas sustenta a infraestrutura de IA.



Lembre-se de que, em 2012, quando a Elpida do Japão quebrou, foi a Micron quem adquiriu seus ativos. Naquela época, a indústria de memória DRAM quase desapareceu do Japão, dominada pela Samsung e SK Hynix na Coreia do Sul. Nesse cenário, a Micron foi a única nos EUA a sobreviver como uma empresa capaz de produzir chips de memória avançados em grande escala.

Por que isso acontece? Com o rápido desenvolvimento da IA, todos falam apenas sobre velocidade de cálculo. Desempenho de GPU, TFLOPS, capacidade de processamento. Mas o verdadeiro gargalo está em outro lugar completamente diferente. É a largura de banda da memória.

O tempo que a GPU leva para terminar o cálculo e esperar pelos dados, torna-se maior que o tempo de processamento real. Isso é chamado de parede da memória. Para rodar um modelo de 700 bilhões de parâmetros, são necessários cerca de 140GB de memória no formato FP16. A memória de vídeo de GPUs avançadas como A100 ou H100 varia entre 80GB e 192GB. Ou seja, é preciso dividir os dados entre várias placas para processar.

Para resolver esse problema, a Nvidia colocou uma memória de alta largura de banda, ou seja, HBM, ao lado da GPU. O que é HBM? É um empilhamento vertical de múltiplos díodos de DRAM, embalados em um pacote sobre um interposer de silício. A Micron fabrica essa HBM.

HBM não é apenas uma memória, mas pode ser considerada o coração do processamento de IA. Na fase de inferência, a carga de trabalho da GPU é extremamente baixa, e todo o sistema é totalmente limitado pela largura de banda da memória. A energia consumida na transferência de dados é de 100 a 200 vezes maior que o processamento em si. Ou seja, a maior parte do consumo de energia dos data centers é usada na transmissão pelo barramento.

A razão pela qual a Micron não recebe tanta atenção é porque ela não faz inovações arquitetônicas chamativas. Nvidia inova no design de GPUs. TSMC inova nos processos de fabricação de chips lógicos. Por outro lado, a Micron é discreta, mas realiza trabalhos essenciais: evolução da tecnologia de processo em um gnomon, empacotamento de múltiplas camadas complexas, otimização de eficiência energética.

A fabricação de HBM exige empilhar várias camadas de díodos de DRAM verticalmente, e se houver defeito em alguma camada, todo o módulo fica inutilizável. A taxa de rendimento total do HBM3E de 8 camadas é de cerca de 61%. Para o HBM4 de 12 camadas, cai para 48%. O impacto de cada camada não é somado, mas multiplicado de forma acumulativa.

A SK Hynix domina mais de 50% do mercado de HBM porque sua tecnologia de encapsulamento líquido MR-MUF melhora diretamente a taxa de rendimento das ligações entre camadas. Por outro lado, a Micron adota o processo TC-NCF, que é inferior em dissipação de calor. No entanto, a HBM da Micron consome 20 a 30% menos energia, diferenciando-se em eficiência energética.

O mercado global de DRAM é dominado por Samsung, SK Hynix e Micron, com 95%. Mas suas posições são completamente diferentes. A Micron tem a velocidade mais rápida de avanço tecnológico de processos. Aumenta a densidade de memória por wafer e reduz o custo de fabricação por bit.

A Samsung enfrenta gargalos de rendimento em processos abaixo de 14nm, com ritmo de fornecimento desacelerado. A velocidade de evolução de processos da SK Hynix é quase igual à da Micron.

O índice preço/lucro da Micron, de 21 vezes, é muito maior que as 8 a 10 vezes das empresas tradicionais de memória. A razão é o modelo de produção sob demanda de HBM. Firmam contratos de fornecimento de longo prazo com clientes como Nvidia, fixando preços e quantidades. A capacidade de produção de HBM em 2026 já estaria totalmente vendida, segundo relatos.

Isso reduziu significativamente a volatilidade cíclica do mercado de memória. Wall Street também passou a valorizar isso, reposicionando a Micron como uma provedora de infraestrutura. Além disso, o contexto geopolítico de os EUA precisarem de capacidade doméstica avançada de fabricação de memória acelera o fluxo de capital dos investidores institucionais.

A próxima batalha do HBM é o CXL. CXL, ou Compute Express Link, é um protocolo que permite compartilhar memória entre múltiplos servidores, gerenciando automaticamente a coerência de cache. Data centers de hiperescala têm uma taxa de uso ocioso de memória de 20 a 30%. O pooling de memória via CXL pode resolver isso.

A Micron anunciou módulos de expansão de memória CXL Tipo 3. O HBM oferece largura de banda extremamente alta, de centenas de gigabytes, com baixa latência, enquanto o módulo CXL permite alocar de forma flexível terabytes de capacidade de memória. Combinando ambos, é possível manter dados acessados com frequência na HBM local, enquanto os dados menos acessados podem ser offloadados para o pool de memória CXL.

Se a pergunta é o que é HBM, a resposta é que ela não é apenas uma memória, mas uma consequência inevitável na evolução da infraestrutura de IA. À medida que a capacidade de processamento cresce muito mais rápido que a largura de banda da memória, a única solução física para esse gargalo é o HBM.

A longo prazo, a indústria de semicondutores enfrentará limites na ciência dos materiais. A miniaturização planar se aproxima de limites físicos, e a redução do rendimento na empilhagem 3D aumenta exponencialmente. A computação dentro da memória também enfrenta contradições fundamentais no processo: transistores de DRAM precisam de baixa voltagem de dreno, enquanto chips lógicos requerem baixa tensão de limiar. Essas necessidades são completamente conflitantes.

No final, a competitividade da Micron dependerá não de uma única tecnologia, mas de uma capacidade abrangente de reduzir erros em múltiplos aspectos: aumento de rendimento, processos de empacotamento, integração de sistemas. Acumular essa capacidade exige décadas de experiência em fabricação. Essa é a verdadeira fortaleza.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Fixado