【AI+Апаратура】«Омар» OpenClaw викликає зміну потреб у апаратурі, ціни на пам'ять будуть продовжувати зростати? Morgan Stanley: виконання потребує більше DRAM, ніж роздуми

robot
Генерація анотацій у процесі

近期OpenClaw викликав хвилю популярності «вирощування лангустів». JPMorgan зазначає, що AI-агенти, представлені OpenClaw, спричинили зміну у попиті на апаратне забезпечення: AI-обмеження тепер зосереджені не на обчислювальній потужності, а на обробці даних. Виконання завдань вимагає більше DRAM (динамічної оперативної пам’яті), що призводить до більш напруженого постачання DRAM.

Цей банк підвищив цільову ціну SK Hynix до 1,3 мільйонів корейських вон і цільову ціну акцій Samsung Electronics до 251 000 корейських вон, зберігаючи рейтинг «купувати».

Згідно з доповіддю, ціни на пам’ять прискорюють зростання в річному обчисленні і наразі перебувають у середній фазі підйому. Зокрема, у другому кварталі 2026 року ціни на високопродуктивний DDR5 DRAM для високих обчислень, ймовірно, зростуть більш ніж на 50% порівняно з попереднім кварталом. Для більш поширених DDR4 очікується зростання цін на 30-40%. Ціни на NAND eSSD для серверів можуть подвоїтися.

Модель AI «самостійного виконання» зосереджує увагу на зміні апаратних обмежень та напруженості попиту на DRAM

На відміну від генеративних AI, таких як ChatGPT, OpenClaw працює більше як ефективна команда помічників. Вона самостійно шукає інформацію в Інтернеті, викликає зовнішні програмні інструменти, читає та аналізує документи, а також виконує програмний код, щоб в кінцевому підсумку отримати складний результат.

Аналіз JPMorgan показує, що багатоступенева координація, виклик інструментів і управління процесами переводять апаратні обмеження AI з GPU (графічного процесора) на CPU (центральний процесор) і пам’ять. Обчислювальний час CPU уповільнює виконання завдань. Крім того, для підтримки контексту між кількома агентами потрібно постійно ділитися даними, знімати KV-кеш (ключ-значення), зберігати та отримувати результати кожного проміжного кроку, що дуже навантажує DRAM.

У період традиційних великих мовних моделей (LLM) обчислювальна потужність GPU вважалася головним обмеженням. CPU лише перетворює токени (Token, загальний термін для обчислювальних ресурсів або платіжних одиниць AI) у текст, а DRAM виконує кешування та читання-запис.

Фінансові Hot Talk

Чи завершилася «хвиля вирощування лангустів» і почалася «хвиля видалення»? Чи концепція AI-агентів вже вичерпала себе?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити