«Лобстер» значно «подовжує життя» «оперативної пам’яті»?

robot
Генерація анотацій у процесі

Засоби штучного інтелекту (Agentic AI), представлені OpenClaw, спрямовують логіку попиту на ринку пам’яті у нову парадигму. За повідомленнями Trading台, у звіті Morgan Stanley від 18 березня зазначено: AI переходить від “мислення” до “виконання”, що призведе до заміни HBM на DRAM у базовій інфраструктурі AI, ставши найскладнішою перешкодою для чіпів, а цикл пам’яті — до значного подовження, що перевищує очікування.

Дослідження каналів показують, що у другому кварталі 2026 року ціни на серверний DDR5 DRAM зростуть більш ніж на 50% у порівнянні з попереднім кварталом, деякі великі китайські хмарні провайдери пропонують ще вищі ціни; ціни на DDR4 за контрактами зростуть на 40-50%, а ціни на корпоративні SSD NAND — не менше ніж на 40-50%. Morgan Stanley вважає, що зараз ми перебуваємо у середині циклу підйому пам’яті, і ступінь обмеження постачання перевищує попередні оцінки — “прогнози прибутків на Уолл-стріт доведеться коригувати відповідно до реальності”.

Ці висновки вже відобразилися у коригуванні цільових цін: прогноз EPS для SK Hynix на 2026-2027 рр. підвищено на 24% і 32% відповідно, цільова ціна зросла з 1,1 мільйона до 1,3 мільйона вон, що дає потенціал зростання на 43% від поточної ціни; цільова ціна на звичайні акції Samsung Electronics підвищена до 251 000 вон, обидві акції залишаються з рейтингом “збільшити позицію”.

Основний висновок Morgan Stanley: ринок звик до лінійного мислення, тоді як здатність штучного інтелекту розширюється експоненційно — коли AI переходить від “генерації відповідей” до “виконання завдань”, обсяг пам’яті різко зросте, і цей перехід лише починає прискорюватися.

“Виконання” потребує більше пам’яті ніж “мислення”

Логіка звіту Morgan Stanley починається з простого, але глибокого висновку: “Виконання завдань потребує більше DRAM, ніж просто мислення.”

Традиційна модель великих мовних моделей (LLM) — це лінійний процес, керований GPU: отримання запитання, пакетна обробка всіх вхідних токенів (передзаповнення), потім по токенах генерування відповіді (декодування), а CPU відповідає за перетворення результату у текстовий формат. У цьому процесі обчислювальна потужність GPU є ключовою перешкодою, а DRAM виконує лише роль кешу для читання/запису.

З’явлення агентів AI радикально змінює цю логіку. Візьмемо OpenClaw — цей відкритий проект автономного AI-помічника, який може одночасно підключатися до понад 50 месенджерів (WhatsApp, Telegram, Slack, Signal тощо) і має системні дозволи на автоматизацію браузера, роботу з файлами, виконання команд у командному рядку, виклики API. Це не просто “відповідь на питання”, а “виконання завдань” — пошук у мережі, читання документів, виклики зовнішніх інструментів, виконання коду, — і виведення результату у вигляді складної послідовності дій.

Ключова технічна особливість цієї парадигми: робочий процес розширюється з однократного GPU-інференсу до багатоступінчастої координації, викликів інструментів і оркестрації, де час обчислень CPU часто перевищує час GPU. Водночас, між агентами потрібно постійно обмінюватися контекстом, знімати KV-кеші (Key-Value Cache), зберігати і витягати результати кожного етапу — пам’ять стає не просто обмеженням обчислювальної потужності, а ключовим вузлом у системі.

OpenClaw: екстремальне розширення вимог до пам’яті

Morgan Stanley провів детальний аналіз потреб у пам’яті для OpenClaw і зробив висновок: у таких агентських інструментах DRAM домінує, інші апаратні обмеження — другорядні.

Цей інструмент має два принципово різні режими роботи:

Легкий шлюзовий режим (віддалений виклик API Claude або GPT-4): навіть у цьому випадку вузьким місцем є не GPU або CPU, а використання DRAM у середовищі Node.js. Мінімально потрібно 2 ГБ DRAM, для стабільної роботи рекомендується 4 ГБ.

Локальний режим моделі (завантаження моделі безпосередньо на пристрій): тут обмеження — і DRAM, і графічний HBM. Morgan Stanley рекомендує мати 32 ГБ системної DRAM; для запуску моделей з 7-8 млрд параметрів потрібно додатково 8 ГБ графічної DRAM; для моделей з 13-70 млрд параметрів — 16-24 ГБ; для надвеликих моделей, таких як Llama 3 70B або Qwen 72B, потрібно понад 80 ГБ.

Звіт особливо підкреслює: недостатність пам’яті не призводить до зниження продуктивності, а до “зависання” або краху — JavaScript видасть помилку “heap out of memory” (переповнення купи пам’яті), що спричинить збій установки або зупинку роботи. Це глибоко ілюструє, що в сценаріях агентів пам’ять — це не просто ресурс, а жорстке обмеження: її нестача — не повільність, а смерть.

Перенесення вузького місця: від HBM до системної пам’яті

Особливість потреб у пам’яті OpenClaw — це лише відображення більш широких структурних змін.

Morgan Stanley зазначає, що вузьке місце у обчислювальній системі AI поступово переміщується: з обчислювальної потужності безпосередньо — до переміщення даних, з HBM — до системної пам’яті (DRAM). Вся архітектура пам’яті змінюється з фокусу на HBM у багаторівневу структуру, що поєднує HBM, DRAM і NVMe SSD.

Одним із рушіїв цієї трансформації є швидке зростання потреб у довгому контексті (long context). KV-кеші зростають лінійно з кількістю токенів, а у сценаріях розподіленого інференсу (prefill-decode disaggregation) їх потрібно передавати по мережі, що значно ускладнює навантаження на I/O CPU. RAG-запити, управління контекстом — все це інтенсивне використання пам’яті і мережевих ресурсів.

Ринок також підтверджує цю тенденцію. За даними Morgan Stanley, Intel і AMD нещодавно підтвердили, що високоядерні серверні процесори вже мають суттєвий дефіцит; доходи AMD EPYC у сегменті серверних CPU вперше перевищили 40%, а розгортання серверів з EPYC у хмарних інстансах зросло понад 50% у річному вимірі. NVIDIA випустила окремий CPU Vera і уклала багаторічну угоду з Meta для розгортання окремих CPU у масштабних сценаріях для підтримки персональних агентів.

Цінові тенденції: цикл у середині, потенціал ще є

Ці структурні зміни вже мають відображення у цінах.

Щодо DRAM, у другому кварталі 2026 року ціни на серверний DDR5 вже досягли понад 50% зростання у порівнянні з попереднім кварталом, деякі великі китайські хмарні провайдери вже прийняли ці ціни. Наприкінці лютого ціна на 64 ГБ RDIMM сягнула 910-920 доларів, що на 20% вище за середню ціну першого кварталу — близько 800 доларів. Ціни на LPDDR і споживчі DRAM у другому кварталі зростуть щонайменше на 40-50%; ціни на DDR4 за контрактами — аналогічно. Попередні очікування зниження цін на HBM3E на 20-25% у періоді зросли і тепер у контрактах з ASIC-клієнтами зростають у межах однозначних відсотків.

Що стосується NAND, ціни на корпоративні SSD у другому кварталі зростуть на 40-50%, а ціни на споживчі продукти — не менше ніж на 60%, у деяких сценаріях ціна eSSD може подвоїтися.

Morgan Stanley вважає, що тенденція зростання цін зберігається, і ринок ще перебуває у середині циклу підйому. Як тільки прогнози прибутків будуть скориговані відповідно до поточного обмеження потужностей, цінні папери мають значний потенціал для відновлення; можливе підвищення капітальних витрат і доходів, що додатково підтримає перевищення очікувань.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити