Entenda de uma só vez o pool de lucros e o panorama industrial da camada de armazenamento de IA

nulo

Autor: Godot Godot

O armazenamento de IA pode ser dividido em seis camadas,

  1. SRAM em chip

  2. HBM

  3. DRAM na placa-mãe

  4. Camada de pooling CXL

  5. SSD de nível empresarial

  6. NAS e armazenamento de objetos na nuvem

Esta hierarquia é baseada na localização do armazenamento; quanto mais abaixo, mais longe da unidade de cálculo, maior é a capacidade de armazenamento.

Em 2025, essas seis camadas (SRAM no chip de processamento, excluindo o valor embutido) terão um total de aproximadamente 229 bilhões de dólares, sendo que o DRAM representa metade, o HBM 15% e o SSD 11%.

Quanto à lucratividade, cada camada é altamente concentrada em oligopólios, com as três primeiras geralmente com participação de mercado superior a 90%.

Podemos dividir esses pools de lucro em três categorias,

  1. Pool de alta margem e oligopólio na camada de chips de silício (HBM, SRAM embutido, SSD QLC)

  2. Pool emergente de alta margem na camada de interconexão (CXL)

  3. Pool de juros compostos de escala na camada de serviço (NAS, armazenamento de objetos na nuvem)

As três categorias têm naturezas diferentes, taxas de crescimento distintas e diferentes barreiras de entrada.

Por que o armazenamento é dividido em camadas?

Porque os chips de CPU responsáveis pelo controle e os chips de GPU responsáveis pelo cálculo possuem apenas cache temporário, ou seja, SRAM em chip. Esse espaço de cache é muito pequeno, podendo armazenar apenas parâmetros temporários, não suportando modelos grandes.

Fora desses dois chips, é necessário um armazenamento externo maior para modelos grandes e para o contexto de inferência.

Isso acontece muito rápido, e o transporte de dados entre diferentes níveis de armazenamento gera atrasos e consumo de energia, que é o maior problema.

Portanto, atualmente, há três direções principais,

  1. Empilhar HBM, colocando a memória ao lado da GPU, para reduzir a distância de transporte

  2. CXL, pooling de memória em nível de rack, compartilhando capacidade

  3. Integrar cálculo e armazenamento na mesma pastilha de silício, armazenamento e processamento integrados

Essas três direções determinarão a forma de cada pool de lucro nos próximos cinco anos.

A seguir, uma divisão detalhada por camadas,

L0 SRAM em chip: pool de lucro exclusivo da TSMC

SRAM (Memória de Acesso Aleatório Estática) é o cache interno de CPU/GPU, embutido em cada chip, sem negociação separada.

O mercado de chips SRAM independentes tem apenas cerca de 1 a 1,7 bilhões de dólares, com líderes como Infineon (cerca de 15%), Renesas (cerca de 13%) e ISSI (cerca de 10%), sendo um mercado pequeno.

Essa parte do pool de lucro está na TSMC, pois, a cada geração de chips de IA, para acomodar mais SRAM, é necessário comprar mais wafers.

E mais de 70% das wafers de processos avançados globais estão nas mãos da TSMC. Cada H100, B200, TPU v5, etc., acaba gerando receita para a TSMC devido à área de SRAM.

L1 HBM: o maior pool de lucro na era da IA

HBM (High Bandwidth Memory) é uma memória de alta largura de banda que empilha DRAM usando tecnologia TSV (Through-Silicon Via) e a encapsula em CoWoS, sendo colocada ao lado da GPU.

O HBM praticamente decide o tamanho do modelo que um acelerador de IA pode rodar. SK Hynix, Micron e Samsung têm quase 100% de participação de mercado.

Até o primeiro trimestre de 2026, a participação de mercado mais recente mostra: SK Hynix entre 57% e 62%, Samsung 22%, Micron 21%. A SK Hynix conquistou uma grande fatia de compras de empresas como NVIDIA, sendo o fornecedor dominante atual.

Na teleconferência de resultados do primeiro trimestre de 2026, a Micron mencionou que o TAM (mercado total potencial) do HBM crescerá a uma taxa composta de aproximadamente 40%, passando de cerca de 35 bilhões de dólares em 2025 para 100 bilhões de dólares em 2028, com o marco de 100 bilhões chegando dois anos antes do previsto.

A vantagem central do HBM está na margem de lucro extremamente alta. No primeiro trimestre de 2026, a SK Hynix atingiu uma margem operacional recorde de 72%.

Razões para a alta lucratividade,

  1. A fabricação TSV sacrifica parte da capacidade tradicional de DRAM, mantendo o HBM em oferta escassa;

  2. A dificuldade de melhorar a taxa de sucesso na embalagem avançada, levando a uma redução de participação da Samsung de 40% para 22%, também influencia;

  3. Os principais fornecedores estão expandindo com cautela, e no primeiro trimestre de 2026, conseguiram um aumento de mais de 60% no preço médio de venda (ASP) de DRAM, demonstrando uma clara posição de vendedor.

Entre os três gigantes, a SK Hynix é impulsionada fortemente pelo HBM, com lucro operacional anual de 47,21 trilhões de won coreanos em 2025, superando pela primeira vez a Samsung Electronics, e no primeiro trimestre de 2026, com uma margem de 72%, até mesmo superando a TSMC (58,1%) e a NVIDIA (65%) em lucratividade.

A Micron tem expectativas de crescimento muito altas, e o Bank of America (BofA) elevou sua previsão de preço-alvo para 950 dólares em maio de 2026. Com a produção em massa do HBM4, a Samsung tem maior espaço para recuperar participação de mercado.

L2 DRAM na placa-mãe

Esta camada é o que normalmente chamamos de memória RAM.

DRAM de placa-mãe inclui produtos como DDR5, LPDDR, GDDR, MR-DIMM, sendo atualmente a parte de maior receita no sistema de armazenamento de IA, com o mercado global de DRAM atingindo cerca de 121,83 bilhões de dólares em 2025.

Samsung, SK Hynix e Micron continuam dominando a maior parte do mercado. Segundo dados do quarto trimestre de 2025, a Samsung lidera com 36,6% de participação, seguida pela SK Hynix com 32,9% e Micron com 22,9%.

Atualmente, a capacidade está sendo direcionada para o HBM, que oferece maior margem de lucro e poder de precificação. Embora a margem de lucro de produtos convencionais de DRAM seja menor que a do HBM, seu mercado total é maior.

L3 Pool de pooling CXL

CXL (Compute Express Link) permite que a DRAM seja “poolada” de uma única placa de servidor para toda a estrutura do rack.

Após o CXL 3.x, toda a memória de um rack pode ser compartilhada e gerenciada por múltiplos GPUs, com alocação sob demanda. Resolve problemas de armazenamento de cache KV, bancos de dados vetoriais e índices RAG durante inferência de IA, que não cabem ou não podem ser movidos.

O mercado de módulos de memória CXL em 2024 é de apenas 1,6 bilhões de dólares, prevendo-se que atinja 23,7 bilhões de dólares em 2033. Ainda parece que o oligopólio será dominado por Samsung, SK Hynix e Micron.

Nesta camada, a Astera Labs fabrica retimers entre CXL e PCIe e controladores de memória inteligentes, respondendo por cerca de 55% do mercado. No último trimestre, obteve receita de 308 milhões de dólares, crescimento de 93% ano a ano, margem bruta não GAAP de 76,4% e lucro líquido 85% maior que no mesmo período do ano anterior. Altamente lucrativo, de fato.

L4 SSD empresarial: maior beneficiário na era da inferência

Os SSDs NVMe de nível empresarial são o campo principal para checkpoints de treinamento de IA, índices RAG, offload de cache KV e armazenamento de pesos de modelos. Os SSDs QLC de alta capacidade já eliminaram os HDDs do lago de dados de IA.

Em 2025, o mercado de SSDs empresariais deve atingir cerca de 26,1 bilhões de dólares, com CAGR de 24%, prevendo-se que chegue a 76 bilhões de dólares em 2030.

A estrutura de mercado, claro, continua dominada pelos três gigantes.

Com base na receita do quarto trimestre de 2025, a participação de mercado é: Samsung 36,9%, SK Hynix (incluindo Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Os cinco principais representam cerca de 90%.

A maior mudança nesta camada é a explosão de SSD QLC em cenários de inferência de IA. A subsidiária da Hynix, Solidigm, e a Kioxia já produzem produtos com capacidade de 122 TB por unidade, com cache KV e índices RAG migrando do HBM para SSD.

Do ponto de vista do pool de lucro, os SSDs empresariais não atingem as margens extremas do HBM, mas se beneficiam de volume e expansão de inferência.

Hynix e Kioxia são alvos relativamente puros. Samsung e SK Hynix aproveitam as três camadas de HBM, DRAM e NAND, formando plataformas de armazenamento de IA mais completas.

L5 NAS e armazenamento de objetos na nuvem: pool de juros compostos de atração de dados

NAS e armazenamento de objetos na nuvem representam a camada mais externa para lago de dados de IA, dados de treinamento, backups, arquivamento e colaboração entre equipes. Em 2025, o NAS deve atingir cerca de 39,6 bilhões de dólares (CAGR de 17%), e o armazenamento de objetos na nuvem cerca de 9,1 bilhões de dólares (CAGR de 16%).

Principais fornecedores de armazenamento de arquivos empresariais são NetApp, Dell, HPE e Huawei; para pequenas e médias empresas, Synology e QNAP. Com base na participação de mercado de IaaS, AWS responde por cerca de 31-32%, Azure 23-24% e Google Cloud 11-12%, totalizando aproximadamente 65-70%.

O lucro nesta camada vem principalmente de hospedagem de longo prazo, saída de dados e fidelização ecológica.

Resumindo,

  1. O mercado de DRAM é o maior, mas com margem de lucro mais baixa, entre 30-40%; o de HBM é um terço do de DRAM, mas com margem de lucro mais que o dobro, acima de 60%; o de reprogramadores CXL é o menor, mas com margem de lucro superior a 76%. Quanto mais próximo do poder de cálculo, mais escasso e lucrativo.

  2. Os incrementos de lucro vêm principalmente de três áreas: HBM (CAGR de 28%), SSD empresarial (CAGR de 24%) e pooling CXL (CAGR de 37%).

  3. Cada camada possui diferentes barreiras de entrada: HBM depende de barreiras tecnológicas como TSV, CoWoS e melhorias na taxa de sucesso; CXL depende de propriedade intelectual e certificações, com um único fornecedor de retimers; a camada de serviço depende de custos de mudança.

4-9,02%
TSM1,7%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado