Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O armazenamento foi atingido por um golpe inesperado, mas a IA ainda não largou a mão de competir por produtos
(Fonte: China Fund News)
“Na fase atual, é mais importante bloquear capacidade do que falar de preços.”
Autor: Niu Si Ruo
Uma notícia técnica do Google sobre “a redução da utilização de memória para 1/6 do valor original” fez com que o setor global de armazenamento levasse um grande “susto”.
Recentemente, o Google lançou o algoritmo de compressão TurboQuant, que, sem sacrificar a precisão do modelo, reduz a necessidade de espaço da “cache de valores-chave” (KV Cache) — a que mais consome recursos na fase de inferência de IA — para 1/6 do valor original, e ainda aumenta 8 vezes a velocidade dos cálculos de atenção.
Assim que a notícia saiu, o mercado rapidamente a interpretou como “capaz de impactar a procura global de chips de armazenamento para a inteligência artificial” e transmitiu-se rapidamente aos mercados de capitais; as ações relacionadas com chips de armazenamento enfraqueceram em conjunto.
Ao mesmo tempo, o tema “queda acentuada do preço das memórias RAM (memória em barras)” subiu ao topo das tendências. À mistura, com preços a abrandar na cadeia de distribuição, perturbações técnicas e recuos do setor, o mercado não pôde deixar de se voltar a questionar: esta ronda do mercado de armazenamento já chegou a um ponto de viragem?
Movimento pontual “a afrouxar” a partir da cadeia de distribuição
A queda dos preços das memórias RAM amplamente discutida nesta ronda ocorre mais no mercado à vista (spot), principalmente para jogadores pessoais que têm necessidades próprias de montagem do equipamento.
Como o tamanho intrínseco deste mercado é limitado, ele é mais sensível às oscilações de preço e ao sentimento de consumo. Os distribuidores precisam de acompanhar as cotações a montante, mas também têm de ter em conta se o utilizador final efetivamente compra ou não.
Um responsável por uma loja que vende módulos de memória em Huaqiangbei disse ao repórter que, desde a última quarta-feira da semana passada, vários produtos de memória começaram a baixar de preço. Atualmente, o preço da memória de 16G caiu de cerca de 900 yuan da semana passada para cerca de 700 yuan; o preço da memória de 32G também desceu, basicamente, cerca de 300 yuan.
Quedas bruscas de preços e de cotações de ações realmente criam a sensação de “pico do mercado”. Na opinião de profissionais do setor, isto parece mais uma correção temporária por parte do mercado da cadeia de distribuição face a aumentos anteriores demasiado rápidos, e não uma inversão da tendência da indústria.
“Devido a aumentos demasiado grandes de preço na fase anterior, a resistência dos clientes da cadeia de distribuição a produtos de armazenamento a preços elevados tem vindo a aumentar. Na prática, as transações do mercado ficam difíceis. Mais importante ainda, no lado do comércio à vista (spot) há a necessidade de recuperar caixa e realizar lucros; e, no lado do comércio, há uma venda em maior quantidade de módulos DDR4 de gama mais baixa, o que volta a pressionar e a derrubar o mercado da cadeia de distribuição.” disse um analista de mercado.
Já no mercado de contratos, é outra história. Segundo o mesmo analista, no primeiro trimestre deste ano, os preços de contratos de servidores e PC da fábrica (NAND e DRAM) duplicaram.
O analista afirmou que, atualmente, os produtos de armazenamento não conseguem satisfazer plenamente a procura do mercado; o problema de escassez de fornecimento de armazenamento será difícil de aliviar no curto prazo, pelo que os recuos de preço no mercado da cadeia de distribuição não vão reescrever toda a lógica de alta do setor de armazenamento.
“Sem memória não há IA”
Quase ao mesmo tempo, no local da cimeira do setor de memória flash na China MemoryS 2026, realizada em Shenzhen, pairava, no entanto, um outro tipo de sentimento no ar.
“Todos me perguntam se temos stock; e mesmo que seja só stock, não perguntam sequer o preço.” Um vendedor de uma empresa expositora de armazenamento disse ao repórter com um sorriso amargo: “Mas, neste momento, também só conseguimos satisfazer cerca de 30% a 40% da procura; quando surgem encomendas com volumes demasiado grandes, só podemos rejeitar.”
O mercado está preocupado com o arrefecimento da procura, mas no local das cimeiras do setor sente-se ainda um aperto na oferta. Num pavilhão cheio até à exaustão, “quanto tempo vai faltar o armazenamento na indústria” é uma das questões mais quentes.
O diretor-geral da Memory Flash Market, Tai Wei, disse: “A IA não é apenas uma moda; é uma revolução de base. Ela está a transformar o armazenamento de um item de custo numa lista de BOM para um recurso estratégico de uma competição de IA; está a transformar um produto cíclico numa capacidade central de competitividade do mundo da economia digital.”
Não é exagero.
Quer seja treino, inferência ou afinação (fine-tuning) de grandes modelos, quer sejam aplicações multimodais, cada etapa leva as necessidades de largura de banda e capacidade do armazenamento ao limite. A HBM, de um produto premium de nicho, tornou-se de uma só vez “petróleo” na era da IA; a memória DDR5 de grande capacidade, de configuração opcional, tornou-se configuração padrão para servidores de IA; e os SSDs empresariais não são apenas um suporte para capacidade, mas sim a peça-chave para ultrapassar gargalos de desempenho na arquitetura de computação.
Tai Wei explicou que, na inferência de grandes modelos, é necessário guardar os resultados Key Value de cada camada e de cada Token para evitar cálculos repetidos e reduzir o tempo de resposta. Quando o contexto aumenta de 4K Tokens para 128K Tokens, a necessidade de espaço da cache KV multiplica-se; e, somando ainda pedidos de alta concorrência, a quantidade necessária sobe rapidamente, tornando-se difícil suportar apenas com HBM. Cada vez mais pressão começa a ser transferida para SSDs NVMe.
“É exatamente por isso que a procura por SSDs otimizados para cargas de inferência de IA cresce a um ritmo extremamente rápido; o eSSD tornou-se o maior mercado de aplicação em NAND em 2026.” concluiu Tai Wei.
“Sem memória não há IA.” A avaliação do CEO da Phison, Pan Jian Cheng, é ainda mais direta. Na perspetiva dele, o algoritmo de compressão lançado pelo Google não significa que a procura de armazenamento vai colapsar de forma linear; pelo contrário, a tecnologia de compressão significa custos do anfitrião mais baixos, mais unidades expedidas e, além disso, permite que os utilizadores gerem mais Tokens, gerando mais procura de armazenamento e de chamadas.
O Morgan Stanley também entende que, ao reduzir bastante o custo de serviços por consulta, o TurboQuant permite que modelos que antes só podiam ser executados em clusters caros na cloud sejam migrados para o local, reduzindo efetivamente o limiar para implementar IA em escala; isto pode, paradoxalmente, impulsionar ainda mais a procura global.
Expansão da produção tem de esperar; resolver falta de stock é difícil
“Embora os fabricantes originais de armazenamento já tenham começado a aumentar novas despesas de capital e a ampliar capacidade, o ciclo de expansão de capacidade da indústria de armazenamento é de 18 a 24 meses; e a libertação de nova capacidade só acontecerá, no mínimo, a partir de 2027.” disse Tai Wei ao repórter, acrescentando que o problema da escassez de fornecimento de armazenamento dificilmente será aliviado no curto prazo.
Na opinião dele, em 2026 não existe nenhum produto mainstream de armazenamento para IA capaz de atingir um equilíbrio total entre oferta e procura. O foco do setor de armazenamento já passou de “ver quem é mais barato” para “ver quem consegue obter stock”.
“Na fase atual, é mais importante bloquear capacidade do que falar de preços.” disse Tai Wei sem rodeios.
Executivos da unidade de controlo principal de armazenamento, a InnoBead (EAE), também afirmaram que 2026 ainda não é o momento mais sombrio; em 2027, a lacuna entre oferta e procura vai aumentar, porque a falta de stock gerada por esta ronda de aumentos de preço não é apenas uma oscilação cíclica simples, mas sim uma mudança estrutural impulsionada pela IA. Afinal, os enormes volumes de dados gerados por treino e inferência de IA colocam uma procura nunca antes vista sobre o armazenamento.
Um lado sofre pressão, e o outro avança para cima
Assim, começa a surgir uma divisão mais realista.
Para mercados de consumo tradicionais como telemóveis e PCs, os aumentos de preço do armazenamento, antes de mais, se manifestam como pressão de custos. Alguns fabricantes de armazenamento começaram a seguir uma rota de “boa relação qualidade-preço”, tentando obter experiências equivalentes mais elevadas com menos capacidade de memória de trabalho (running memory).
Por exemplo, a Jieshenglong (Gale-Dragon) está a tentar promover a implementação de cenários completos de IA no lado do PC e no lado embutido, através da tecnologia avançada de cache HLC com integração profunda com SPU e UFS. Ao mesmo tempo que otimiza a experiência de IA, reduz a exigência de capacidade de DRAM dos terminais e os respetivos custos; a Phison lançou o Phison Hybrid AI SSD e a tecnologia aiDAPTIV+, prevendo reduzir mais de 50% do uso de DRAM, permitindo controlo de custos e inferência local segura.
E, por outro lado, todos também estão a “subir” em conjunto — os recursos e a capacidade de produção estão a ser priorizados para produtos com tecnologia mais avançada, maior valor e barreiras mais altas.
No passado, os holofotes da indústria de IA incidiam sobre “treino”; os clusters de computação impressionavam no throughput, mas a procura tendia a ser por fases. Agora, o centro de gravidade da indústria está a mudar por completo para “inferência”, um “poço sem fundo” de frequência mais alta, mais fino e mais próximo da lógica de negócio real.
De acordo com os mais recentes dados da Administração Estatal de Dados, em março deste ano, o número médio diário de chamadas de Tokens na China ultrapassou 140 biliões (140万亿). Nos últimos ~2 anos, o crescimento foi superior a mil vezes. Na opinião de Huang Renxun (Jen-Hsun Huang), a AI do tipo agentes tem potencial para aumentar o consumo de Tokens em 1000 vezes, formando o que ele chama de “vácuo de computação”.
Tai Wei afirmou diretamente: “Podemos confirmar uma frase: quem conseguir resolver o consumo de energia e a latência da ‘transferência de dados na era da IA’, é quem vai definir a próxima década. O armazenamento vai entrar num superciclo impulsionado pela IA.”
Zhang Shi Wan, vice-presidente executivo da Samsung Electronics e responsável pelo desenvolvimento de plataformas de soluções, afirmou que o armazenamento de alto desempenho deixou de ser uma opção dispensável e passou a ser a base central que determina a eficiência das decisões do sistema e a escala. Com base nessa avaliação, a Samsung está a avançar com os SSDs PCIe Gen6 PM1763 e planeia lançar drives EDSFF de densidade ainda maior entre 2026 e 2027, para aumentar a capacidade e a largura de banda por dispositivo.
Tan Hong, responsável pela unidade de SSD da Yangtze Memory, mencionou que a competição de IA saiu da fase de treino, focada em “acumular em volume” (thick accumulation), e entrou numa fase de inferência, focada em “emitir em pequena quantidade” (thin release). O gargalo da largura de banda do armazenamento está a restringir seriamente a libertação de capacidade de computação; no momento, a disponibilidade dos clusters de GPU é apenas cerca de 50%.
Na perspetiva dele, a forma de romper o impasse está na coordenação entre computação e armazenamento: no lado do treino, apoiar-se em Checkpoints armazenados em grandes volumes de QLC eSSD para melhorar a eficiência da GPU; no lado da inferência, usar cache hierárquica de eSSD para KV Cache, assumindo o controlo do estado do contexto. Para este tipo de cenários, a Yangtze Memory lançou vários novos produtos Gen5 de eSSD empresarial.
Para os fornecedores de armazenamento, a questão verdadeira não é apenas se podem ou não aumentar preços; é se conseguem estar na camada de valor mais alto.
Da guerra de preços à guerra de valor, de produto singular para solução full-stack, de ser um mero acessório de capacidade de computação para ser o “ponto decisivo” da vitória em IA… Nesta corrida em que a IA reescreve as regras, os preços de retalho às vezes afrouxam — apenas como ondas na superfície; e mais a fundo, as fichas continuam escassas, e extremamente caras.
Editor: Huang Mei Revisão: Wang Yue Aprovação: Chen Siyang