【AI+硬件】«Омар» OpenClaw вызывает изменение спроса на оборудование, продолжится ли рост цен на память? Morgan Stanley: выполнение требует больше DRAM, чем обработка

robot
Генерация тезисов в процессе

В последнее время OpenClaw вызвал волну популярности «выращивания лангустинов». Морган Стэнли отмечает, что искусственный интеллект, представленный OpenClaw, вызывает изменение спроса на оборудование: узкое место в искусственном интеллекте смещается с вычислительной мощности на обработку данных. Для выполнения задач требуется больше DRAM (динамической оперативной памяти), чем для простого мышления, что приводит к усиленной нехватке поставок DRAM.

Этот аналитический отчет повысил целевую цену для SK Hynix до 1,3 миллиона вон и для Samsung Electronics — до 251 000 вон, при этом оба рейтинга остались с рекомендацией «покупать».

Прогнозируется, что цены на память будут расти с ускорением по сравнению с прошлым годом, находясь в средней стадии подъема. В частности, во втором квартале 2026 года цены на DRAM DDR5, предназначенную для высокопроизводительных вычислений, могут значительно вырасти более чем на 50% по сравнению с предыдущим кварталом. Более широко используемый DDR4, по прогнозам, подорожает на 30–40%. Цены на NAND (флеш-память) eSSD для серверов могут удвоиться.

Переключение узких мест в оборудовании и рост спроса на DRAM при «самостоятельном выполнении» AI-моделей

В отличие от генеративных искусственных интеллектов типа OpenClaw и ChatGPT, которые отвечают на вопросы по одному, их работа больше напоминает эффективную команду помощников. Они самостоятельно ищут информацию в интернете, используют внешние программные инструменты, читают и анализируют документы, а также выполняют программный код, в итоге выводя сложные результаты.

Аналитики Морган Стэнли считают, что многоступенчатая координация, вызов инструментов и управление потоками выполнения приводят к тому, что узкое место в аппаратном обеспечении AI смещается с GPU (графического процессора) на CPU (центральный процессор) и память. Время вычислений на CPU замедляет выполнение всей задачи. Кроме того, для обмена контекстом между несколькими агентами, выгрузки кеша KV (ключ-значение), хранения и извлечения результатов каждого промежуточного шага постоянно требуется значительный объем DRAM.

В эпоху традиционных крупных языковых моделей (LLM) вычислительная мощность GPU считалась определяющим узким местом, тогда как CPU просто преобразовывал токены (термин, обозначающий единицу измерения ресурсов AI или плату за услуги) в текст, а задачи по чтению и записи кеша выполнялись с помощью DRAM.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить