Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Entenda de uma só vez o pool de lucros e o panorama industrial da camada de armazenamento de IA
nulo
Autor: Godot Godot
O armazenamento de IA pode ser dividido em seis camadas,
SRAM em chip
HBM
DRAM na placa-mãe
Camada de pooling CXL
SSD de nível empresarial
NAS e armazenamento de objetos na nuvem
Esta hierarquia é baseada na localização do armazenamento; quanto mais abaixo, mais longe da unidade de cálculo, maior é a capacidade de armazenamento.
Em 2025, essas seis camadas (SRAM no chip de processamento, excluindo o valor embutido) terão um total de aproximadamente 229 bilhões de dólares, sendo que o DRAM representa metade, o HBM 15% e o SSD 11%.
Quanto à lucratividade, cada camada é altamente concentrada em oligopólios, com as três primeiras geralmente com participação de mercado superior a 90%.
Podemos dividir esses pools de lucro em três categorias,
Pool de alta margem e oligopólio na camada de chips de silício (HBM, SRAM embutido, SSD QLC)
Pool emergente de alta margem na camada de interconexão (CXL)
Pool de juros compostos de escala na camada de serviço (NAS, armazenamento de objetos na nuvem)
As três categorias têm naturezas diferentes, taxas de crescimento distintas e diferentes barreiras de entrada.
Por que o armazenamento é dividido em camadas?
Porque os chips de CPU responsáveis pelo controle e os chips de GPU responsáveis pelo cálculo possuem apenas cache temporário, ou seja, SRAM em chip. Esse espaço de cache é muito pequeno, podendo armazenar apenas parâmetros temporários, não suportando modelos grandes.
Fora desses dois chips, é necessário um armazenamento externo maior para modelos grandes e para o contexto de inferência.
Isso acontece muito rápido, e o transporte de dados entre diferentes níveis de armazenamento gera atrasos e consumo de energia, que é o maior problema.
Portanto, atualmente, há três direções principais,
Empilhar HBM, colocando a memória ao lado da GPU, para reduzir a distância de transporte
CXL, pooling de memória em nível de rack, compartilhando capacidade
Integrar cálculo e armazenamento na mesma pastilha de silício, armazenamento e processamento integrados
Essas três direções determinarão a forma de cada pool de lucro nos próximos cinco anos.
A seguir, uma divisão detalhada por camadas,
L0 SRAM em chip: pool de lucro exclusivo da TSMC
SRAM (Memória de Acesso Aleatório Estática) é o cache interno de CPU/GPU, embutido em cada chip, sem negociação separada.
O mercado de chips SRAM independentes tem apenas cerca de 1 a 1,7 bilhões de dólares, com líderes como Infineon (cerca de 15%), Renesas (cerca de 13%) e ISSI (cerca de 10%), sendo um mercado pequeno.
Essa parte do pool de lucro está na TSMC, pois, a cada geração de chips de IA, para acomodar mais SRAM, é necessário comprar mais wafers.
E mais de 70% das wafers de processos avançados globais estão nas mãos da TSMC. Cada H100, B200, TPU v5, etc., acaba gerando receita para a TSMC devido à área de SRAM.
L1 HBM: o maior pool de lucro na era da IA
HBM (High Bandwidth Memory) é uma memória de alta largura de banda que empilha DRAM usando tecnologia TSV (Through-Silicon Via) e a encapsula em CoWoS, sendo colocada ao lado da GPU.
O HBM praticamente decide o tamanho do modelo que um acelerador de IA pode rodar. SK Hynix, Micron e Samsung têm quase 100% de participação de mercado.
Até o primeiro trimestre de 2026, a participação de mercado mais recente mostra: SK Hynix entre 57% e 62%, Samsung 22%, Micron 21%. A SK Hynix conquistou uma grande fatia de compras de empresas como NVIDIA, sendo o fornecedor dominante atual.
Na teleconferência de resultados do primeiro trimestre de 2026, a Micron mencionou que o TAM (mercado total potencial) do HBM crescerá a uma taxa composta de aproximadamente 40%, passando de cerca de 35 bilhões de dólares em 2025 para 100 bilhões de dólares em 2028, com o marco de 100 bilhões chegando dois anos antes do previsto.
A vantagem central do HBM está na margem de lucro extremamente alta. No primeiro trimestre de 2026, a SK Hynix atingiu uma margem operacional recorde de 72%.
Razões para a alta lucratividade,
A fabricação TSV sacrifica parte da capacidade tradicional de DRAM, mantendo o HBM em oferta escassa;
A dificuldade de melhorar a taxa de sucesso na embalagem avançada, levando a uma redução de participação da Samsung de 40% para 22%, também influencia;
Os principais fornecedores estão expandindo com cautela, e no primeiro trimestre de 2026, conseguiram um aumento de mais de 60% no preço médio de venda (ASP) de DRAM, demonstrando uma clara posição de vendedor.
Entre os três gigantes, a SK Hynix é impulsionada fortemente pelo HBM, com lucro operacional anual de 47,21 trilhões de won coreanos em 2025, superando pela primeira vez a Samsung Electronics, e no primeiro trimestre de 2026, com uma margem de 72%, até mesmo superando a TSMC (58,1%) e a NVIDIA (65%) em lucratividade.
A Micron tem expectativas de crescimento muito altas, e o Bank of America (BofA) elevou sua previsão de preço-alvo para 950 dólares em maio de 2026. Com a produção em massa do HBM4, a Samsung tem maior espaço para recuperar participação de mercado.
L2 DRAM na placa-mãe
Esta camada é o que normalmente chamamos de memória RAM.
DRAM de placa-mãe inclui produtos como DDR5, LPDDR, GDDR, MR-DIMM, sendo atualmente a parte de maior receita no sistema de armazenamento de IA, com o mercado global de DRAM atingindo cerca de 121,83 bilhões de dólares em 2025.
Samsung, SK Hynix e Micron continuam dominando a maior parte do mercado. Segundo dados do quarto trimestre de 2025, a Samsung lidera com 36,6% de participação, seguida pela SK Hynix com 32,9% e Micron com 22,9%.
Atualmente, a capacidade está sendo direcionada para o HBM, que oferece maior margem de lucro e poder de precificação. Embora a margem de lucro de produtos convencionais de DRAM seja menor que a do HBM, seu mercado total é maior.
L3 Pool de pooling CXL
CXL (Compute Express Link) permite que a DRAM seja “poolada” de uma única placa de servidor para toda a estrutura do rack.
Após o CXL 3.x, toda a memória de um rack pode ser compartilhada e gerenciada por múltiplos GPUs, com alocação sob demanda. Resolve problemas de armazenamento de cache KV, bancos de dados vetoriais e índices RAG durante inferência de IA, que não cabem ou não podem ser movidos.
O mercado de módulos de memória CXL em 2024 é de apenas 1,6 bilhões de dólares, prevendo-se que atinja 23,7 bilhões de dólares em 2033. Ainda parece que o oligopólio será dominado por Samsung, SK Hynix e Micron.
Nesta camada, a Astera Labs fabrica retimers entre CXL e PCIe e controladores de memória inteligentes, respondendo por cerca de 55% do mercado. No último trimestre, obteve receita de 308 milhões de dólares, crescimento de 93% ano a ano, margem bruta não GAAP de 76,4% e lucro líquido 85% maior que no mesmo período do ano anterior. Altamente lucrativo, de fato.
L4 SSD empresarial: maior beneficiário na era da inferência
Os SSDs NVMe de nível empresarial são o campo principal para checkpoints de treinamento de IA, índices RAG, offload de cache KV e armazenamento de pesos de modelos. Os SSDs QLC de alta capacidade já eliminaram os HDDs do lago de dados de IA.
Em 2025, o mercado de SSDs empresariais deve atingir cerca de 26,1 bilhões de dólares, com CAGR de 24%, prevendo-se que chegue a 76 bilhões de dólares em 2030.
A estrutura de mercado, claro, continua dominada pelos três gigantes.
Com base na receita do quarto trimestre de 2025, a participação de mercado é: Samsung 36,9%, SK Hynix (incluindo Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Os cinco principais representam cerca de 90%.
A maior mudança nesta camada é a explosão de SSD QLC em cenários de inferência de IA. A subsidiária da Hynix, Solidigm, e a Kioxia já produzem produtos com capacidade de 122 TB por unidade, com cache KV e índices RAG migrando do HBM para SSD.
Do ponto de vista do pool de lucro, os SSDs empresariais não atingem as margens extremas do HBM, mas se beneficiam de volume e expansão de inferência.
Hynix e Kioxia são alvos relativamente puros. Samsung e SK Hynix aproveitam as três camadas de HBM, DRAM e NAND, formando plataformas de armazenamento de IA mais completas.
L5 NAS e armazenamento de objetos na nuvem: pool de juros compostos de atração de dados
NAS e armazenamento de objetos na nuvem representam a camada mais externa para lago de dados de IA, dados de treinamento, backups, arquivamento e colaboração entre equipes. Em 2025, o NAS deve atingir cerca de 39,6 bilhões de dólares (CAGR de 17%), e o armazenamento de objetos na nuvem cerca de 9,1 bilhões de dólares (CAGR de 16%).
Principais fornecedores de armazenamento de arquivos empresariais são NetApp, Dell, HPE e Huawei; para pequenas e médias empresas, Synology e QNAP. Com base na participação de mercado de IaaS, AWS responde por cerca de 31-32%, Azure 23-24% e Google Cloud 11-12%, totalizando aproximadamente 65-70%.
O lucro nesta camada vem principalmente de hospedagem de longo prazo, saída de dados e fidelização ecológica.
Resumindo,
O mercado de DRAM é o maior, mas com margem de lucro mais baixa, entre 30-40%; o de HBM é um terço do de DRAM, mas com margem de lucro mais que o dobro, acima de 60%; o de reprogramadores CXL é o menor, mas com margem de lucro superior a 76%. Quanto mais próximo do poder de cálculo, mais escasso e lucrativo.
Os incrementos de lucro vêm principalmente de três áreas: HBM (CAGR de 28%), SSD empresarial (CAGR de 24%) e pooling CXL (CAGR de 37%).
Cada camada possui diferentes barreiras de entrada: HBM depende de barreiras tecnológicas como TSV, CoWoS e melhorias na taxa de sucesso; CXL depende de propriedade intelectual e certificações, com um único fornecedor de retimers; a camada de serviço depende de custos de mudança.