A Google “chamou de errado” ? A cadeia de fornecimento de armazenamento fala em uníssono: a procura por IA não diminuiu e a escassez estrutural continua

robot
Geração de resumo em curso

Pergunta ao AI · Porque é que o algoritmo de compressão da Google não conseguiu conter o aumento explosivo das necessidades de armazenamento?

A Google lançou recentemente o algoritmo de compressão TurboQuant, afirmando que reduzirá, pelo menos, 6 vezes a ocupação de cache crítica dos grandes modelos. Esta notícia chegou a causar pânico na indústria de armazenamento.

Mas, na cimeira MemoryS 2026, várias empresas de armazenamento, incluindo a Samsung Electronics, Yangtze Memory, Kioxia, SanDisk, entre outras, bem como empresas de computação em nuvem e de chips, falaram intensamente, afirmando que, à medida que a implementação acelerada da inteligência artificial avança, as necessidades de armazenamento continuam a ser empurradas para novos máximos, e que a escassez poderá prolongar-se.

Um participante na conferência disse ao repórter da First Financial que, embora algumas tecnologias estejam a aumentar a eficiência do processamento de dados, o tamanho global das aplicações de IA continua a crescer, pelo que a necessidade efetiva de armazenamento ainda está a aumentar. “Nestes dois dias encontrei-me com 20 grupos de pessoas. Cada pessoa perguntou-me se há stock, e a necessidade de armazenamento na fase de inferência está a crescer exponencialmente.”

“A IA está a devorar rapidamente a capacidade de produção de armazenamento.” O diretor-geral do mercado de flash da CFM, Tai Wei, afirmou na conferência. Os dados divulgados no local mostram que a quota dos servidores de IA em 2026, no volume total de expedição de servidores, ultrapassará 20%, aumentando ainda mais a configuração de armazenamento.

Ele afirmou que a inferência de IA está a impulsionar o eSSD para se tornar no maior mercado de aplicações em NAND em 2026. Em contraste, o mercado de telemóveis teve um desempenho morno, mas a IA no dispositivo tem potencial para se tornar um novo motor de crescimento. Os automóveis, enquanto uma direção de aplicação importante para o LPDDR, também estão a tornar-se um dos cenários-chave para a implementação de IA.

À medida que as aplicações de inteligência artificial passam de treino de modelos para um uso mais frequente na prática, as exigências das empresas em termos de velocidade de leitura de dados e capacidade de resposta aumentam claramente. “O armazenamento de alto desempenho deixou de ser uma opção ‘se der’, e passou a ser a base essencial que determina a eficiência de decisão e a escala dos sistemas.” O vice-presidente executivo da Samsung Electronics, Zhang Shiwan, afirmou, acrescentando que a Samsung planeia lançar, entre 2026 e 2027, unidades EDSFF com apenas 1T de espessura; esta solução pode aumentar várias vezes a capacidade total e a largura de banda por rack, maximizando a eficiência da operação de espaço.

O responsável da divisão de unidades de estado sólido da Yangtze Memory, Tan Hong, apontou que, atualmente, a disponibilidade de clusters de GPU é “apenas cerca de 50%” e que a eficiência de leitura de dados de armazenamento se tornou um fator importante que limita a plena capacidade de desempenho de cálculo. Ele disse que, ao melhorar a eficiência de leitura e de chamada de dados, é possível reduzir o desperdício de capacidade de cálculo.

O Chief Technology Officer (CTO) de SSD da Kioxia, Fuwada Koichi, também afirmou que, à medida que a inteligência artificial passa de treino para aplicações reais, “o armazenamento torna-se um gargalo crítico”, e que o crescimento de procura trazido pelos cenários de inferência é o mais evidente.

Com o aumento da procura, o ajuste do lado da oferta intensifica ainda mais a situação de tensão.

Tai Wei afirmou que, como o ciclo de expansão da capacidade de armazenamento é de 18 a 24 meses, “a escassez de oferta não será aliviada a curto prazo, e o desajuste estrutural tornou-se a norma”. As empresas estão a dar prioridade a direcionar a capacidade para produtos relacionados com IA com margens mais elevadas; a capacidade de produtos de consumo está a ser comprimida, e o inventário do setor baixou para níveis mais baixos.

O CEO da Phison Electronics, Pan Jiancheng, deu uma avaliação mais direta: “A Flash continuará em falta e ficará em falta durante muito tempo.”

O feedback do lado dos sistemas também mostra que os recursos estão a ficar mais escassos. Um especialista sénior em kernel de sistema operativo da Tencent Cloud, Zeng Jingxiang, disse que, com o crescimento da inteligência artificial a pressionar a capacidade de produção de DRAM, “os recursos de memória ficam cada vez mais apertados”.

“Isso não é uma simples retoma cíclica. É uma mudança de paradigma de longo ciclo. A tecnologia de armazenamento está a passar de micro-inovação para uma revolução de arquitetura; conceitos como CXL, computação e armazenamento unificados, computação próxima da memória, entre outros, estão a acelerar a sua entrada no mercado.” Tai Wei alertou ao mesmo tempo que, apesar da prosperidade, é necessário manter a lucidez; recomendou que o lado da oferta expanda a produção de forma racional, que o lado da procura planeie com antecedência e faça provisão diversificada, passando de comprar armazenamento de forma passiva para otimizar o armazenamento de forma ativa.

(Os estagiários Zhu Lingjie também contribuíram para este artigo)

(Este artigo vem da First Financial)

Leituras relacionadas

Um artigo científico fez as ações de chips de armazenamento despencarem. Chegou o “momento DeepSeek” do Google?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar