Збереження раптово зазнало «удару в голову», але AI ще не опустив руку з крадіжки товару

Покупка акцій — дивіться аналітичні огляди аналітиків «Цзінь Цилін», вони авторитетні, професійні, своєчасні й всебічні — допоможуть вам розкрити потенціал тем і можливостей!

(Джерело:China Fund News)

«На цьому етапі блокувати потужності важливіше, ніж говорити про ціни».

Автор:Ню Сі Жо

Одне технічне повідомлення Google про «зменшення використання пам’яті до 1/6» змусило весь світовий сектор зберігання «спітніти від холоду».

Нещодавно Google представила алгоритм TurboQuant для стиснення. Не жертвуючи точністю моделей, на етапі AI-висновку (inference) вона зменшила потребу в просторі для найресурсомісткішого «кешу ключ-значення» (KV Cache) до 1/6 і водночас підвищила швидкість обчислення attention у 8 разів.

Після появи новини ринок дуже швидко почав тлумачити її як «таку, що здатна вплинути на загальний попит на чіпи пам’яті для штучного інтелекту», і швидко поширив цей сигнал на ринки капіталу — акції з концептом пам’яті колективно пішли слабше.

Паралельно в топі гарячих тем опинився сюжет про «обвал цін на модулі пам’яті». Ослаблення цін у каналах, технічні збурення та відкати в межах сектора переплелися так, що ринок не міг не почати знову запитувати: чи вже ця хвиля зберігання дійшла до переломного моменту?

Локальне «послаблення» з боку каналів

Це падіння цін на модулі пам’яті, широко обговорюване в останній період, здебільшого відбувалося на спотових каналах — насамперед для індивідуальних гравців із власними потребами в складанні ПК.

Такий ринок за власним обсягом обмежений, а отже він більш чутливий до цінових коливань і споживчих настроїв. Продавці каналів мають дивитися і на котирування від постачальників угору по ланцюгу, і водночас зважати на те, чи «купують» кінцеві користувачі насправді.

Власник крамниці, що спеціалізується на модулях пам’яті в Хуачанбэе, розповів кореспонденту, що від минулого середи почали знижуватися ціни на низку продуктів пам’яті. Зараз ціна 16G пам’яті впала приблизно з 900 юанів з минулого тижня до близько 700 юанів; ціна 32G пам’яті також загалом знизилася приблизно на 300 юанів.

Стрибок вниз цін і обвал котирувань акцій справді створюють відчуття «верху ринку». На думку фахівців галузі, це більше схоже на короткочасну корекцію після надто швидкого зростання на рівні канального ринку, а не на розворот промислового тренду.

«Через те, що в минулому ціни зросли надто швидко, у клієнтів каналів зростає опір до купівлі високовартісних продуктів пам’яті — тому реально укладати угоди на ринку стає важко. Ще важливіше: з боку спотової торгівлі є потреба швидко повернути кошти та монетизувати прибуток, на каналі відвантажується більше модулів DDR4 нижчого сегмента — це додатково підриває й тисне на канальний ринок», — сказав один із аналітиків ринку.

А от на ф’ючерсному (контрактному) ринку картина інша. Як повідомив цей фахівець, у першому кварталі цього року контрактні ціни на сервери та PC NAND і DRAM від виробників зросли вдвічі.

Він також зазначив, що наразі продукти зберігання не можуть повністю задовольнити попит, а проблема нестачі пропозиції зберігання у короткостроковій перспективі навряд чи буде вирішена, тому канальні корекції цін не змінять логіку загального підйому всієї індустрії зберігання.

«Немає пам’яті — немає AI»

Майже в той самий час, на місці проведення China Flash Memory Market Summit MemoryS 2026 у Шеньчжені в повітрі відчувалася зовсім інша емоція.

«Кожен мене питає, чи є в нас товар, і навіть якщо й питає, то просто “дай товар”, а ціни не питають», — з гіркою посмішкою сказав журналісту продавець одного з експонентів зі зберігання. «Але зараз ми все одно можемо задовольнити лише 30–40% попиту; якщо трапляються заявки з дуже великим обсягом, то доводиться їх відхиляти».

Ринок турбується, що попит охолоне, але на самій промисловій конференції відчувається все ще туга натягнутість із пропозицією. У переповненому залі одна з найгарячіших тем — «як довго ще буде дефіцит у секторі зберігання?».

Генеральний менеджер флеш-ринку Су Туей заявив: «AI — це не тільки “вітерець з попутним напрямком” (модний тренд), це ще й революція на рівні базової інфраструктури. Вона перетворює зберігання з елемента витрат у BOM-таблиці на стратегічний ресурс для змагання в AI; з періодичного продукту — на ключову конкурентну перевагу цифрової економіки».

Це не перебільшення.

Незалежно від того, чи йдеться про тренування, висновок (inference), доопрацювання (fine-tuning) великомасштабних моделей, чи про мультимодальні застосування — кожен етап доводить пропускну здатність і ємність зберігання до межі. HBM із вузькоспеціалізованого преміального продукту за один крок стала «нафтою» в епоху AI; великі обсяги DDR5 пам’яті з варіативної конфігурації перетворилися на стандартну конфігурацію AI-серверів; корпоративні SSD — це не просто носій ємності, а ключовий елемент для прориву через «вузькі місця» в архітектурі обчислювальних потужностей.

Су Туей пояснив: коли великі моделі працюють у режимі висновку, вони мають зберігати результати Key Value для кожного шару й кожного Token, щоб уникати повторних обчислень і скорочувати час відповіді. Коли контекст з 4K Token розтягується до 128K Token, потреба в просторі KV-кешу зростає багаторазово; а якщо додати запити з високою паралельністю, обсяг попиту швидко збільшується — і HBM уже не може це повністю витримати, тож дедалі більше навантаження переходить на NVMe SSD.

«Саме тому попит на SSD для оптимізації AI-робочих навантажень росте дуже швидко, а eSSD стає найбільшим ринком застосування для NAND у 2026 році», — оцінив Су Туей.

«Немає пам’яті — немає AI». Голова ради директорів Phison Пан Цзяньчэн висловився ще пряміше. На його думку, стиснювальний алгоритм, який запустила Google, не означає, що попит на зберігання лінійно “руйнуватиметься”. Навпаки, технологія стиснення означає зниження вартості хоста, зростання кількості відвантажень, а також те, що користувачі можуть згенерувати більше Token — отже, це створює більше попиту і на зберігання, і на виклики.

Morgan Stanley також вважає, що, різко знизивши сервісні витрати на один запит, TurboQuant дає можливість перенести моделі, які раніше могли працювати лише на дорогих кластерних ресурсах у хмарі, на локальні середовища. Це ефективно знижує поріг для масштабованого розгортання AI, і, можливо, навіть ще більше підтримає загальний попит.

Збільшення випуску — треба чекати, дефіцит — складно розв’язати

«Хоча зараз виробники оригінальних компонентів для зберігання вже починають збільшувати нові капітальні витрати та нарощувати потужності, цикл розширення потужностей у секторі зберігання триває 18–24 місяці, і найраніше нові потужності можуть вивільнитися лише у 2027 році», — сказав Су Туей журналісту. «Проблема нестачі пропозиції зберігання у короткостроковій перспективі, ймовірно, не буде вирішена».

На його думку, у 2026 році не існуватиме жодного провідного продукту зберігання для AI у світі, який би міг забезпечити повний баланс попиту та пропозиції. Фокус індустрії зберігання вже з «дивитися, хто дешевший» зміщується на «дивитися, хто може отримати товар».

«На цьому етапі блокувати потужності важливіше, ніж говорити про ціни», — прямо заявив Су Туей.

Керівник компанії з контролерів зберігання — PhySilicon (慧荣科技) — також зазначив, що 2026 рік ще не є найтемнішою точкою. У 2027 році розрив між попитом і пропозицією буде збільшуватися, оскільки дефіцит через зростання цін у цьому циклі — це не просто періодичні коливання, а структурні зміни, спричинені AI. Адже величезні обсяги даних, що генеруються під час тренування й висновку AI, створюють безпрецедентний попит на зберігання.

Тиск з одного боку, рух угору з іншого

Отже, починається більш реалістичне розділення.

Для традиційних споживчих ринків, таких як телефони й ПК, здорожчання зберігання насамперед проявляється як тиск на витрати. Деякі виробники пам’яті почали рухатися шляхом «краще співвідношення ціни й якості», намагаючись отримати вищий еквівалентний досвід, використовуючи менше «оперативної» пам’яті.

Наприклад, Jiangbo (江波龙) намагається просувати впровадження технологій кешування HLC у глибокій інтеграції з SPU та UFS, щоб реалізувати всі сценарії на AI-PC і вбудованих кінцевих пристроях. Паралельно з покращенням AI-досвіду це має знизити потребу й вартість кінцевих пристроїв у ємності DRAM; Phison Electronics запустила Phison Hybrid AI SSD та технологію aiDAPTIV+. За оцінками, це може скоротити використання DRAM більш ніж на 50%, забезпечуючи контрольовану вартість і безпеку для локального висновку.

І з іншого боку всі колективно «рухаються вгору» — ресурси та потужності першочергово спрямовуються в продукти з вищими технологіями, більшою цінністю та вищими бар’єрами входу.

Раніше прожектор AI-індустрії світився на «тренування»: пропускна здатність обчислювальних кластерів вражала, але попит часто був етапним. Нині фокус індустрії повністю зміщується на «висновок» (inference) — це «безодня» з вищою частотою, більш деталізованими потребами й максимально наближеним до реального бізнесового грошового потоку характером.

Згідно з останніми даними Державного управління даними (National Data Bureau), цього року в березні середньодобовий обсяг викликів Token у Китаї перевищив 140 трильйонів. За майже 2 роки зростання становило понад тисячу разів. На думку Хуан Женьсяна, агентний (інтелект-агент) AI може збільшити споживання Token у 1000 разів, утворюючи так званий ним «акуум обчислювальних потужностей» (算力真空).

Су Туей прямо підсумував: «Ми можемо підтвердити одну річ: хто зможе розв’язати “енергоспоживання й затримку під час перенесення даних у епоху AI”, той визначить наступне десятиліття. Зберігання ввійде в суперцикл, який буде керуватися AI».

Виконавчий віцепрезидент Samsung Electronics і керівник команди розробки платформи рішень Чжан Шичань заявив: високопродуктивне зберігання вже не є опцією “за бажанням”, а є ключовим фундаментом, що визначає ефективність ухвалення рішень системою та її масштаб. Під цією оцінкою Samsung просуває PCIe Gen6 SSD PM1763 і планує у 2026–2027 роках випустити накопичувачі EDSFF вищої щільності, щоб підвищити ємність і пропускну здатність одного пристрою.

Керівник напряму SSD Changjiang Storage (长江存储) Тан Хун заявив, що AI-змагання перейшло від етапу тренування, де головне — «накопичення товстого шару», до етапу висновку, де головне — «перший тонкий викид» (thin release). Вузьке місце з пропускною здатністю зберігання нині сильно стримує вивільнення обчислювальної потужності: доступність GPU-кластерів нині становить лише близько 50%.

На його думку, шлях до прориву — у координації обчислень і зберігання: на стороні тренування можна спиратися на великоємні QLC eSSD для збереження checkpoint — це підвищує ефективність GPU; на стороні висновку — через eSSD-ієрархічний кеш KV Cache здійснювати керування станом контексту. Для таких сценаріїв Changjiang Storage представила кілька нових корпоративних eSSD Gen5.

Для виробників зберігання справжня перевірка не в тому, чи можуть вони підняти ціни, а в тому, чи здатні вони зайняти вищий щабель цінності.

Від цінової війни до війни цінності, від окремого продукту до рішень усього стеку, від підрядника обчислювальної потужності до «вирішального козиря AI»… У цій гонитві, де AI переписує правила, роздрібні ціни інколи послаблюються — це лише рябь на поверхні; а глибше, фішки все так само дефіцитні й надзвичайно дорогі.

Редактор:Хуан Мэй Перевірка тексту:Ван Юе Ревізія:Чень Си Ян

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.23KХолдери:1
    0.00%
  • Рин. кап.:$2.26KХолдери:2
    0.07%
  • Рин. кап.:$2.22KХолдери:1
    0.00%
  • Рин. кап.:$2.23KХолдери:1
    0.00%
  • Рин. кап.:$2.23KХолдери:0
    0.00%
  • Закріпити