Google «помилково звинуватили»? Постачальники ланцюга зберігання масово висловлюють занепокоєння: попит на ШІ не зменшується, структурний дефіцит запасів усе ще триває

robot
Генерація анотацій у процесі

Питаєте ШІ · Чому алгоритм стиснення Google не зміг стримати сплеск попиту на зберігання?

Нещодавно Google представила алгоритм стиснення TurboQuant, стверджуючи, що ключове кеш-зайняття для великих моделей буде скорочено щонайменше у 6 разів; ця новина тимчасово спричинила паніку в індустрії зберігання.

Але на саміті MemoryS 2026, на якому виступили численні виробники накопичувачів, зокрема Samsung Electronics, Yangtze Memory, Kioxia, SanDisk тощо, а також компанії з хмарних обчислень і чипів, вони вважають, що зі швидким упровадженням штучного інтелекту попит на зберігання все ще підштовхується до нових максимумів, і дефіцит може тривати.

Один із учасників саміту заявив репортеру першої фінансової газети, що попри те, що частина технологій підвищує ефективність обробки даних, загальний масштаб застосувань ШІ розширюється, тож реальна потреба в зберіганні продовжує зростати. «Ці кілька днів я зустрівся з 20 хвилями людей: кожен питає, чи є у нас товар, і попит на зберігання на етапі інференсу зростає експоненційно».

«ШІ швидко “з’їдає” потужності зберігання». Генеральний менеджер CFM з ринку флеш-пам’яті Чай Вей сказав на заході. Дані, оприлюднені на місці, показують, що частка AI-серверів у загальних відвантаженнях серверів у 2026 році перевищить 20%, що ще більше підвищить налаштування систем з точки зору обсягу зберігання.

Він зазначив, що інференс ШІ штовхає eSSD ставати найбільшим ринком застосувань для NAND у 2026 році. Натомість ринок смартфонів демонструє відносно спокійну динаміку, але on-device AI має потенціал стати новим джерелом зростання. Автомобілі як один із важливих напрямів застосування LPDDR також перетворюються на один із ключових сценаріїв упровадження ШІ.

Після того як застосування штучного інтелекту з переходу від тренування моделей до дедалі частішого практичного використання, вимоги бізнесу до швидкості читання даних і здатності відповідати помітно зросли. «Високопродуктивне зберігання більше не є опцією “за бажанням”, а є фундаментальною основою, яка визначає ефективність ухвалення рішень і масштаб системи». Виконавчий віцепрезидент Samsung Electronics Чжан Шовань сказав. Samsung планує у 2026–2027 роках представити драйвер-пристрої EDSFF товщиною лише 1T. Цей варіант може багаторазово підвищити загальну місткість і пропускну здатність на одну стійку, максимізуючи ефективність експлуатації простору.

Керівник підрозділу твердотілих накопичувачів Yangtze Memory Тан Хун указав, що наразі доступність GPU-кластерів «лише близько 50%», а ефективність зчитування даних зберігання вже стала важливим фактором, який обмежує розкриття обчислювальної потужності. Він зазначив, що, підвищуючи ефективність зчитування та виклику даних, можна зменшити марнування обчислювальних ресурсів.

Голова з технологій Kioxia, Фукута Хоуїчі, також сказав, що зі зміщенням штучного інтелекту з тренування до практичних застосувань «зберігання стає ключовим вузьким місцем», і саме зростання попиту в інференсних сценаріях є найбільш помітним.

Паралельно зі зростанням попиту коригування з боку пропозиції ще більше загострює напруження.

Чай Вей зазначив, що через те, що цикл розширення потужностей зберігання триває від 18 до 24 місяців, «дефіцит постачання в короткостроковій перспективі навряд чи вдасться швидко врегулювати, структурні дисбаланси стали нормою». Виробники першочергово спрямовують потужності в продукти, що приносять вищу маржу в сегменті, пов’язаному з AI, тоді як потужності для споживчих продуктів стискаються, а індустріальні запаси вже знижені до відносно низького рівня.

Виконавчий директор Phison Пань Цзяньчэн висловив більш прямий висновок: «Flash і надалі залишатиметься в дефіциті, і дефіцит триватиме дуже довго».

Зворотний зв’язок з боку системної інфраструктури також показує, що ресурси стають дедалі обмеженішими. Старший технічний експерт з операційного ядра Tencent Cloud Цэн Цзянсян сказав, що зі зростанням штучного інтелекту, який тисне на потужності DRAM, «ресурс пам’яті стає ще більш дефіцитним».

«Це не одноразове просте відновлення циклу, а перехід у парадигмі на тривалому горизонті. Технології зберігання рухаються від мікроінновацій до архітектурної революції; такі концепції як CXL, обчислення “в пам’яті” та “near storage computation” прискорюють вихід у комерційне використання». Чай Вей також застеріг, що навіть за умов бурхливого розвитку слід зберігати ясність розуму: він радить з боку пропозиції розширювати потужності раціонально, а з боку попиту — планувати завчасно та забезпечувати різноманітність постачання, переходячи від пасивної покупки зберігання до активної оптимізації зберігання.

(Стажер Чжу Лінцзе також зробив внесок у цю статтю)

(Ця стаття походить із першої фінансової)

Суміжні матеріали

Одна стаття призвела до обвалу акцій компаній із чипами для зберігання; “DeepSeek-момент” від Google прийшов?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити