A IA criou simultaneamente escassez e excesso de memória

robot
Geração de resumo em curso

Em 29 de março, os preços de módulos de memória despenharam-se em queda abrupta, ao mesmo tempo, tanto na zona de Huaqiangbei como no mercado retalhista dos EUA. O kit de 32GB DDR5-6400 da Corsair caiu de 490 dólares para 380 dólares, com uma queda de 22% num único dia. Os kits DDR5 de alta frequência de 32GB no mercado interno dispararam 800 iuanes numa semana. Os distribuidores entraram em pânico e venderam em massa. Há revendedores que disseram: «Em um dia, caiu mais de cem dólares.»

Mas, ao colocar estes números numa linha temporal mais longa, a imagem é completamente diferente: mesmo após a queda estar concluída, o preço atual da DDR5 ainda é quatro vezes o valor de julho de 2025. É um desfasamento preciso entre oferta e procura na cadeia da indústria de IA, em que a mesma força primeiro criou escassez e depois gerou pânico de excesso.

Montanha-russa: +540% em oito meses, -22% num mês

Em julho de 2025, um kit de 32GB DDR5-6000 de gama comum no mercado retalhista dos EUA custava apenas 77 dólares. Em janeiro de 2026, o preço do mesmo kit disparou para 490 dólares. Em oito meses, houve um aumento de 540%.

A subida de preços não se deveu a uma escalada repentina e louca por parte dos consumidores para atualizar os computadores. Segundo dados da TrendForce, o preço dos contratos de DRAM no 1.º trimestre de 2026 subiu 90%-95% em termos sequenciais (em relação ao trimestre anterior). Nesse cenário, a subida da DRAM para PC excedeu 100%, estabelecendo o maior aumento trimestral de sempre. O que impulsionou tudo isto foi a necessidade voraz de uma memória específica por parte da construção de infraestruturas de IA.

Depois, a 25 de março, a Google lançou um algoritmo de compressão chamado TurboQuant. Quatro dias depois, os preços da memória colapsaram.

Para onde foi a capacidade produtiva? A HBM consumiu os teus módulos de memória

Para compreender esta ronda de aumentos de preços, é preciso primeiro perceber um parâmetro técnico-chave. A área de wafer consumida por cada GB de HBM (memória de elevada largura de banda, uma memória dedicada para os chips de IA da NVIDIA) é três vezes a do DDR5 normal. Segundo a Tom’s Hardware, isto significa que, com o mesmo wafer, a HBM só consegue produzir um terço da capacidade de DDR5.

A Samsung, a SK hynix e a Micron, as três principais fabricantes de memória, fizeram uma escolha racional face às margens elevadas da HBM: direcionaram até 40% da capacidade de wafers dos processos de fabrico avançados para a produção de HBM. De acordo com dados da TrendForce, no 1.º trimestre de 2026, a margem de lucro da DDR5 deverá, pela primeira vez, ultrapassar a da HBM3e, reflectindo até que ponto a oferta de memória para consumo foi comprimida.

A escolha da Micron foi a mais agressiva. Em dezembro de 2025, esta empresa anunciou o encerramento da marca de consumo Crucial, com 29 anos de operação, saindo completamente do mercado de memória e armazenamento para consumo e mudando totalmente para clientes empresariais e de IA. Segundo o comunicado de relações com investidores da Micron, as receitas totais do ano fiscal de 2025 foram de 37,38 mil milhões de dólares, e as aplicações de data center e IA já representaram 56% do total de receitas. O mercado de consumo não vale a pena.

A capacidade de HBM da SK hynix já está totalmente esgotada até ao final de 2026. A Samsung planeia aumentar a capacidade mensal de HBM de 170.000 wafers para 250.000 wafers até ao final de 2026. As novas fábricas de wafers (Samsung P4L e SK hynix M15X) só deverão conseguir atingir produção em volume, no mínimo, em 2027-2028. Ou seja, o défice na oferta de DRAM para consumo é estrutural, e não algo que se consiga aliviar em um ou dois trimestres.

Inversão do panorama: a SK hynix quebra o domínio da Samsung de 40 anos

Esta transferência de capacidade também reescreveu o mapa do poder na indústria de memória. De acordo com dados da TrendForce, no 2.º trimestre de 2025, a SK hynix, graças ao seu vínculo profundo com a NVIDIA, conquistou 62% de quota no mercado de HBM; a Samsung ficou com 17% e a Micron com 21%.

Ainda mais marcante é a inversão ao nível das receitas. Segundo o relatório Q3 2025 da TrendForce, a SK hynix liderou pela primeira vez em receitas trimestrais de DRAM com 13,75 mil milhões de dólares, enquanto a Samsung ficou logo a seguir com 13,50 mil milhões de dólares. A diferença entre as duas é apenas de 250 milhões de dólares, mas trata-se da primeira vez, nos últimos quase 40 anos, que a Samsung perde o primeiro lugar nas receitas de memória. Segundo a CNBC, o lucro operacional anual de 2025 da SK hynix também ultrapassou, pela primeira vez, o da Samsung.

A vantagem de avanço da HBM deu à SK hynix munições suficientes, mas esta corrida está longe de terminar. A Samsung está a todo o ritmo a perseguir o cronograma de produção em massa da HBM4; a Micron, embora tenha abandonado o mercado de consumo, no domínio das receitas em empresas e IA (crescimento sequencial no 3.º trimestre +53,2%) é a mais rápida entre as três.

Como é que um algoritmo pode abalar a lógica por trás dos aumentos de preços?

A 25 de março, a Google apresentou o algoritmo TurboQuant no ICLR 2026. Este algoritmo faz uma coisa: comprime a cache KV (cache de valores-chave; a parte que ocupa mais memória durante a inferência) usada para a inferência de grandes modelos de linguagem de precisão FP16 para 3-bit. A utilização de memória diminui pelo menos 6 vezes e, ao mesmo tempo, atinge o máximo de 8 vezes de aceleração no cálculo de atenção em GPUs H100. Segundo o blogue de investigação da Google, em cinco testes de benchmarks de contexto longo, incluindo Needle-in-a-Haystack, a perda de precisão foi zero.

O mercado fez rapidamente as contas. Se a TurboQuant ou algoritmos semelhantes forem adoptados de forma generalizada pelas principais empresas de IA, então a procura incremental de DRAM para a inferência de IA irá reduzir-se drasticamente. E a narrativa central que suportou os aumentos de preços da memória durante os últimos seis meses e tal foi precisamente: «A infraestrutura de IA consome demasiado da capacidade de produção de memória».

Quatro dias depois, a confiança dos canais colapsou.

É importante apontar que o TurboQuant se destina à cache KV no lado de inferência da IA, e não às necessidades de HBM no lado do treino. As relações de oferta e procura de HBM não vão mudar a curto prazo devido a um algoritmo de optimização de inferência. Mas o mercado nem sempre distingue estas duas coisas. Segundo a Sina Finance, no período inicial da queda acentuada, muitos intervenientes nos canais domésticos que foram entrando por causa dos aumentos de preços acumularam grandes quantidades de stock fora do círculo; preços elevados levaram a que as vendas a retalho caíssem mais de 60%. A cadeia de vendas em cascata, amplificada pela tensão da cadeia de financiamento, agravou ainda mais a queda.

Uma cadeia de indústria de IA, e ao mesmo tempo fabrica tanto a escassez de memória como o pânico de excesso. A compressão da capacidade física da HBM leva a que a memória para consumo fique sem oferta suficiente; a eficiência do algoritmo TurboQuant, que é uma ruptura, faz cair de súbito as expectativas de procura de memória da IA. Quem fabrica os aumentos de preços e quem fabrica o colapso são a mesma força.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar