Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
Serviços VIP
Enormes descontos nas taxas
Gestão de ativos
Solução integral para a gestão de ativos
Institucional
Soluções de ativos digitais para empresas
Desenvolvedores (API)
Conecta-se ao ecossistema de aplicações Gate
Transferência Bancária OTC
Deposite e levante moeda fiduciária
Programa de corretora
Mecanismo generoso de reembolso de API
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Compreenda em um artigo a piscina de lucros e o panorama industrial das camadas de armazenamento de IA
O armazenamento de IA pode ser dividido em seis camadas,
SRAM no chip
HBM
DRAM na placa-mãe
Camada de pooling CXL
SSD de nível empresarial
NAS e armazenamento de objetos na nuvem
Esta hierarquia é baseada na localização do armazenamento; quanto mais abaixo, mais distante da unidade de cálculo, maior é a capacidade de armazenamento.
Em 2025, essas seis camadas (SRAM no chip de potência de cálculo, excluindo o valor embutido) terão um total de aproximadamente 229 mil milhões de dólares, sendo que o DRAM representa metade, o HBM 15% e o SSD 11%.
Situação de lucros, cada camada é altamente concentrada em oligopólios, com as três primeiras geralmente com mais de 90% de quota de mercado.
Podemos dividir esses lucros em três categorias,
Pool de alta margem no nível de chips de silício (HBM, SRAM embutido, SSD QLC)
Novo pool de alta margem na camada de interconexão (CXL)
Pool de juros compostos de escala na camada de serviços (NAS, armazenamento de objetos na nuvem)
As três categorias têm naturezas diferentes, taxas de crescimento distintas e diferentes barreiras de proteção.
Por que o armazenamento é hierarquizado?
Porque os CPUs responsáveis pelo controle e os chips de GPU responsáveis pelo cálculo possuem apenas cache temporário, ou seja, SRAM no chip. Este espaço de cache é muito pequeno, podendo apenas armazenar parâmetros temporários, não suportando modelos grandes.
Fora desses chips, é necessário um armazenamento externo maior para modelos de grande escala e para o contexto de inferência.
A transferência entre esses níveis de armazenamento é muito rápida, mas há atrasos e consumo de energia, que representam o maior problema.
Portanto, atualmente, há três direções principais,
Empilhar HBM, colocando a memória ao lado da GPU, para reduzir a distância de transporte
CXL, pooling de memória em nível de rack, compartilhando capacidade
Soldar cálculo e armazenamento na mesma pastilha de silício, integrando processamento e armazenamento
Essas três direções determinarão a forma dos lucros de cada camada nos próximos cinco anos.
A seguir, a divisão específica por camadas,
L0 SRAM no chip: lucro exclusivo da TSMC
SRAM (Memória de Acesso Aleatório Estática) é o cache interno de CPUs/GPU, embutido em cada chip, sem negociação separada.
O mercado de SRAM independente é de apenas 1 a 1,7 mil milhões de dólares, com líderes como Infineon (cerca de 15%), Renesas (cerca de 13%) e ISSI (cerca de 10%), sendo um mercado pequeno.
Essa parte do pool de lucros está na TSMC, pois a cada geração de chips de IA, para incluir mais SRAM, é necessário comprar mais wafers.
Globalmente, mais de 70% das wafers de processos avançados estão na TSMC. Cada H100, B200, TPU v5, etc., cuja área de SRAM, acaba gerando receita para a TSMC.
L1 HBM: o maior pool de lucros na era da IA
HBM (High Bandwidth Memory, memória de alta largura de banda) empilha DRAM (Memória de Acesso Aleatório Dinâmico) usando tecnologia TSV (Through-Silicon Via) e é encapsulada via CoWoS, colocada ao lado da GPU.
O HBM praticamente decide o tamanho do modelo que um acelerador de IA pode rodar. SK Hynix, Micron e Samsung têm quase 100% de quota de mercado.
Até o primeiro trimestre de 2026, a participação de mercado mais recente é: SK Hynix 57-62%, Samsung 22%, Micron 21%. SK Hynix conquistou uma grande fatia de compras de empresas como NVIDIA, sendo o fornecedor dominante atual.
Na teleconferência de resultados do primeiro trimestre de 2026, a Micron mencionou que o TAM (mercado total potencial) de HBM crescerá a uma taxa composta de aproximadamente 40%, passando de cerca de 35 bilhões de dólares em 2025 para 100 bilhões em 2028, com o marco de 100 bilhões chegando dois anos antes do previsto.
A vantagem central do HBM é sua margem de lucro extremamente alta. No primeiro trimestre de 2026, a SK Hynix atingiu uma margem operacional recorde de 72%.
Razões para os altos lucros,
A fabricação TSV sacrifica parte da capacidade tradicional de DRAM, mantendo o HBM em oferta escassa;
A dificuldade de melhorar a taxa de rendimento na embalagem avançada, como a queda de participação da Samsung de 40% para 22%, também influencia;
Os principais fornecedores estão expandindo com cautela, e no primeiro trimestre de 2026, conseguiram um aumento de mais de 60% no ASP (preço médio de venda) de DRAM, demonstrando uma clara posição de vendedor.
Entre os três gigantes, a SK Hynix é impulsionada fortemente pelo HBM, atingindo um lucro operacional anual de 47,21 trilhões de won coreano, superando a Samsung Electronics pela primeira vez na história, e no primeiro trimestre de 2026, com uma margem de 72%, até mesmo superando a TSMC (58,1%) e a NVIDIA (65%) em lucratividade.
A Micron tem expectativas de crescimento muito altas, e o Bank of America (BofA) elevou sua previsão de preço-alvo para 950 dólares em maio de 2026. Com a produção em massa do HBM4, a Samsung tem maior espaço para recuperar participação de mercado.
L2 DRAM na placa-mãe
Esta camada corresponde ao que normalmente chamamos de memória RAM de placa-mãe.
DRAM de placa-mãe inclui DDR5, LPDDR, GDDR, MR-DIMM, entre outros produtos de memória convencionais, sendo atualmente a parte de maior receita no sistema de armazenamento de IA, com um mercado global estimado em cerca de 121,83 bilhões de dólares em 2025.
Samsung, SK Hynix e Micron continuam dominando a maior parte do mercado. Segundo dados do quarto trimestre de 2025, a Samsung lidera com 36,6% de quota, seguida por SK Hynix com 32,9% e Micron com 22,9%.
Atualmente, a capacidade está sendo direcionada para o HBM, que oferece maior margem de lucro e poder de precificação. Embora a margem de lucro de produtos convencionais de DRAM seja menor que a do HBM, seu mercado total é o maior.
L3 Pool de CXL
CXL (Compute Express Link) permite que a DRAM seja “poolada” de uma única placa de servidor para todo o rack.
Após a versão 3.x, no futuro, toda a memória de um rack poderá ser compartilhada e gerenciada por múltiplas GPUs, alocando recursos sob demanda. Resolve problemas de armazenamento de cache KV, bancos de dados vetoriais e índices RAG durante inferência de IA, que atualmente não cabem ou não podem ser movidos facilmente.
O mercado de módulos de memória CXL em 2024 é de apenas 1,6 bilhões de dólares, prevendo-se que atinja 23,7 bilhões de dólares em 2033. Ainda assim, parece que o oligopólio de Samsung, SK Hynix e Micron continuará predominando.
Nesta camada, a Astera Labs fabrica retimers (retemporizadores) entre CXL e PCIe, além de controladores inteligentes de memória, com aproximadamente 55% de participação de mercado. No último trimestre, obteve receita de 308 milhões de dólares, crescimento de 93% ano a ano, margem bruta não GAAP de 76,4% e lucro líquido 85% maior que no mesmo período do ano anterior. Altamente lucrativo, de fato.
L4 SSD empresarial: maior beneficiário na era da inferência
Os SSDs NVMe de nível empresarial são o principal campo de batalha para checkpoints de treinamento de IA, índices RAG, offload de cache KV e armazenamento de pesos de modelos. Os SSDs QLC de alta capacidade já expulsaram completamente os HDDs dos lagos de dados de IA.
Em 2025, o mercado de SSDs empresariais deve atingir cerca de 26,1 bilhões de dólares, com CAGR de 24%, chegando a 76 bilhões de dólares em 2030.
A estrutura de mercado, claro, continua dominada pelos três grandes.
Com base na receita do quarto trimestre de 2025, a participação de mercado é: Samsung 36,9%, SK Hynix (incluindo Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Os cinco principais representam cerca de 90%.
A maior mudança nesta camada é a explosão de SSD QLC em cenários de inferência de IA. A subsidiária da Hynix, Solidigm, e a Kioxia já lançaram produtos com capacidade de 122 TB por unidade, com cache KV e índices RAG migrando de HBM para SSD.
Do ponto de vista do pool de lucros, os SSDs empresariais não atingem as margens extremas do HBM, mas se beneficiam de volume e expansão de inferência, com dupla vantagem de capacidade e crescimento.
A Hynix e a Kioxia são opções mais puras. Samsung e SK Hynix, por outro lado, aproveitam os benefícios do HBM, DRAM e NAND, formando plataformas de armazenamento de IA mais completas.
L5 NAS e armazenamento de objetos na nuvem: o pool de juros compostos de atração de dados
NAS e armazenamento de objetos na nuvem representam a camada mais externa para lagos de dados de IA, corpus de treinamento, backups, arquivamento e colaboração entre equipes. Em 2025, o NAS deve atingir cerca de 39,6 bilhões de dólares (CAGR de 17%), enquanto o armazenamento de objetos na nuvem cerca de 9,1 bilhões de dólares (CAGR de 16%).
Principais fornecedores de armazenamento de arquivos empresariais incluem NetApp, Dell, HPE e Huawei; para pequenas e médias empresas, Synology e QNAP. Estimando a participação de mercado de IaaS, AWS responde por cerca de 31-32%, Azure 23-24% e Google Cloud 11-12%, totalizando aproximadamente 65-70%.
O lucro nesta camada vem principalmente de hospedagem de longo prazo, saída de dados e fidelização ecológica.
Resumindo,
O mercado de DRAM é o maior, mas com margem de lucro mais baixa, entre 30-40%; o de HBM é um terço do de DRAM, mas com margem de lucro mais que o dobro, acima de 60%; o de CXL, com menor volume, tem a margem mais alta, acima de 76%. Quanto mais próximo do poder de cálculo, mais escasso e lucrativo é.
Os incrementos de lucro vêm principalmente de três áreas: HBM (CAGR de 28%), SSD empresarial (CAGR de 24%) e pooling CXL (CAGR de 37%).
Cada camada possui diferentes barreiras de entrada: HBM depende de barreiras tecnológicas como TSV, CoWoS e melhorias de rendimento; CXL depende de propriedade intelectual e certificações, além de uma cadeia de fornecimento única para os temporizadores; os serviços dependem de custos de mudança.