Recentemente, tive a oportunidade de aprofundar a pesquisa sobre a Micron Technology. Honestamente, estou surpreendido com a pouca presença desta empresa. Escondida atrás da Nvidia e da TSMC, quase não recebe atenção, mas sustenta a infraestrutura de IA.



Lembre-se de que, em 2012, quando a Elpida do Japão quebrou, foi a Micron quem adquiriu seus ativos. Naquela época, a indústria de memória DRAM quase desapareceu do Japão, dominada pela Samsung e SK Hynix na Coreia do Sul. Entre elas, a Micron foi a única a sobreviver nos EUA, produzindo chips de memória avançados em grande escala.

Por que isso acontece? Com o rápido desenvolvimento da IA, todos falam apenas de velocidade de cálculo. Desempenho de GPU, TFLOPS, capacidade de processamento. Mas o verdadeiro gargalo está em outro lugar completamente diferente. É a largura de banda da memória.

O tempo que a GPU leva para esperar pelos dados após terminar o cálculo é maior do que o tempo de processamento real. Isso é chamado de muro da memória. Para rodar um modelo de 700 bilhões de parâmetros, são necessários cerca de 140GB de memória no formato FP16. As memórias de vídeo de GPUs de alta gama como A100 ou H100 variam entre 80GB e 192GB. Ou seja, é preciso dividir os dados entre várias placas para processar.

Para resolver esse problema, a Nvidia colocou uma memória de alta largura de banda, ou seja, HBM, ao lado da GPU. O que é HBM? É uma empilhagem vertical de múltiplos chips de memória DRAM, encapsulados em um pacote sobre um interposer de silício. A Micron fabrica essa HBM.

A HBM não é apenas uma memória comum, mas pode ser considerada o coração do processamento de IA. Na fase de inferência, a carga de trabalho da GPU é extremamente baixa, e todo o sistema é totalmente limitado pela largura de banda da memória. A energia consumida na transferência de dados é de 100 a 200 vezes maior do que na própria operação de cálculo. Ou seja, a maior parte do consumo de energia dos data centers é usada na transmissão pelo barramento.

A razão pela qual a Micron não recebe tanta atenção é porque ela não faz inovações arquiteturais chamativas. Nvidia inova no design de GPUs. TSMC inova nos processos de fabricação de chips lógicos. Por outro lado, a Micron é discreta, mas realiza trabalhos essenciais: avanços na tecnologia de processo de um gnomon, empacotamento de múltiplas camadas complexas, otimização de eficiência energética.

Para fabricar HBM, é necessário empilhar várias camadas de chips de memória DRAM verticalmente. Se houver defeito em alguma camada, todo o módulo fica inutilizável. A taxa de rendimento total do HBM3E de 8 camadas é de cerca de 61%. Para o HBM4 de 12 camadas, cai para 48%. O impacto de cada camada não é somado, mas multiplicado de forma acumulativa.

A SK Hynix domina mais de 50% do mercado de HBM porque sua tecnologia de encapsulamento líquido MR-MUF melhora diretamente a taxa de rendimento das ligações entre camadas. Por outro lado, a Micron usa o processo TC-NCF, que é inferior em dissipação de calor. No entanto, a HBM da Micron consome 20 a 30% menos energia, diferenciando-se pela eficiência energética.

O mercado global de DRAM é dominado por Samsung, SK Hynix e Micron, com 95%. Mas suas posições são completamente diferentes. A Micron é a mais rápida em avanços tecnológicos de processos. Aumenta a densidade de memória por wafer e reduz o custo de fabricação por bit.

A Samsung enfrenta gargalos de rendimento em processos abaixo de 14nm, com ritmo de fornecimento mais lento. O ritmo de evolução de processos da SK Hynix é quase igual ao da Micron.

O índice preço/lucro da Micron de 21 vezes é muito maior do que as 8 a 10 vezes das empresas tradicionais de memória. A razão é o modo de produção sob encomenda de HBM. A empresa firma contratos de fornecimento de longo prazo com clientes como Nvidia, fixando preços e quantidades. A capacidade de produção de HBM em 2026 já estaria totalmente vendida, segundo relatos.

Isso reduziu significativamente a volatilidade cíclica do setor de memória. Wall Street também passou a valorizar isso, reposicionando a Micron como provedora de infraestrutura. Além disso, o contexto geopolítico de os EUA precisarem de capacidade doméstica avançada de fabricação de memória também acelera o fluxo de capital dos investidores institucionais.

A próxima batalha do HBM é o CXL. CXL, ou Compute Express Link, é um protocolo que permite compartilhar memória entre múltiplos servidores e gerenciar automaticamente a coerência de cache. Nos data centers de hiperescala, a taxa de uso ocioso da memória chega a 20-30%. O pooling de memória via CXL pode resolver isso.

A Micron anunciou o módulo de expansão de memória CXL Type 3. A HBM oferece uma largura de banda extremamente alta, de centenas de gigabytes, com baixa latência, enquanto o módulo CXL permite alocar de forma flexível memória de vários terabytes. Com a combinação de ambos, é possível mover dados acessados frequentemente para a HBM local, enquanto os dados menos acessados podem ser offload para o pool de memória CXL.

Se responder à pergunta "o que é HBM", ela não é apenas uma memória, mas uma consequência inevitável na evolução da infraestrutura de IA. À medida que o crescimento do poder de processamento supera em muito o aumento da largura de banda da memória, a única solução física para esse gargalo é a HBM.

A longo prazo, a indústria de semicondutores enfrentará limites na ciência dos materiais. A miniaturização planar se aproxima de limites físicos, e a redução do rendimento na empilhagem 3D aumenta exponencialmente. A computação dentro da memória também enfrenta contradições fundamentais no processo: transistores de DRAM requerem baixa voltagem de dreno, enquanto chips lógicos precisam de baixa tensão de limiar. Essas necessidades são completamente conflitantes.

No final, a competitividade da Micron dependerá não de uma única tecnologia, mas de uma capacidade abrangente de reduzir erros em múltiplos aspectos: aumento de rendimento, processos de empacotamento, integração de sistemas. Acumular essa capacidade exige décadas de experiência em fabricação. Essa é a verdadeira fortaleza.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado