OpenClawを代表とするエージェントAI(Agentic AI)ツールは、メモリ市場の需要ロジックを全く新しいパラダイムへと押し上げている。追風取引台の情報によると、モルガン・スタンレーが3月18日に発表した最新レポートは次のように指摘している:AIが「思考」から「実行」へと移行することで、DRAMがHBMに取って代わり、AIインフラの中で最も突破が難しいチップのボトルネックとなる。これにより、メモリの寿命は予想を超える長期化を迎える。
チャネル調査によると、2026年第2四半期のサーバー用DRAM DDR5の価格は前期比で50%以上上昇すると予測されており、中国の超大規模クラウド事業者の入札価格はさらに高い見込みだ。DDR4の契約価格の上昇率は40%から50%に達し、NAND企業向けエンタープライズSSDの価格も40%から50%以上の上昇が見込まれる。モルガン・スタンレーは次のように考えている:現在はメモリの上昇サイクルの中盤にあり、供給の引き締まり度合いは従来の予測を超えている――「ウォール街の利益予測は現実に追いつかざるを得なくなるだろう」。
これらの判断は、ターゲット価格の調整に直接反映されている。SKハイニックスの2026-2027年のEPS予測はそれぞれ24%、32%引き上げられ、目標株価は110万ウォンから130万ウォンに引き上げられ、現価格に対して43%の上昇余地を含む。サムスン電子の普通株の目標株価も25.1万ウォンに引き上げられ、両銘柄とも「買い増し」評価を維持している。
モルガン・スタンレーの核心的な見解は次の通りだ:市場は線形思考に慣れているが、AIの知能層の能力拡張は指数関数的に進展している――AIが「答えを生成する」から「タスクを完了する」へと転換する際、メモリの需要規模は飛躍的に拡大し始めており、この変革はまさに始まったばかりだ。
モルガン・スタンレーのレポートの出発点は、一見単純だが深い意味を含む判断、「作業は思考よりも多くのDRAMを必要とする。」という一文だ。
従来の大規模言語モデル(LLM)の動作パターンは、GPU主導の線形処理フローだ:質問を受け取り、すべての入力トークン(事前埋め込み段階)をバッチ処理し、その後トークンごとに応答を生成(デコード段階)する。CPUは結果をテキスト出力に変換する役割を担う。この過程では、GPUの計算能力が決定的なボトルネックとなり、DRAMはキャッシュの読み書きだけを補助すれば十分だ。
**しかし、エージェントAIの登場により、このロジックは根本的に変わった。**OpenClawを例にとると、このオープンソースのセルフホスト型AIアシスタントは、WhatsApp、Telegram、Slack、Signalなど50以上のメッセージプラットフォームに同時に接続でき、ブラウザ自動化、ファイル操作、コマンドライン実行、API呼び出しなどのシステムレベルの権限も持つ。これは単なる「質問に答える」だけではなく、「タスクを完了する」ことを目的としている――ネット検索、ドキュメント読取、外部ツール呼び出し、コード実行を行い、多段階の協調作業を経て生成された行動結果を最終的に出力する。
このパラダイムシフトの核心技術的意味は次の通りだ:**ワークフローは単一のGPU推論から、多段階の調整、ツール呼び出し、オーケストレーションへと拡大し、CPUの計算時間が全体の遅延に与える影響がGPUを上回ることが多くなる。**同時に、多数のエージェント間で継続的にコンテキストを共有し、KVキャッシュ(Key-Value Cache)をオフロードし、各中間ステップの結果を保存・検索する必要が出てくる――メモリは計算能力の後端から、ボトルネックの中心へと移行している。
モルガン・スタンレーは、OpenClawのメモリ需要を詳細に定量分析し、結論付けている:この種のエージェントツールにおいて、DRAMが圧倒的であり、他のハードウェア制約は二の次だ。
このツールには二つの全く異なる動作モードがある:
軽量ゲートウェイモード(ClaudeやGPT-4など外部APIをリモート呼び出し):それでも、ボトルネックはGPUやCPUではなく、Node.jsのランタイムによるDRAMの消費だ。実際の使用では最低2GBのDRAMが必要であり、本番運用には4GBの搭載を推奨する。
ローカルモデルモード(デバイス上にAIモデルを直接ロードして動作させる):DRAMとグラフィックスHBMが二重の制約となる。モルガン・スタンレーは、32GBのシステムDRAMを推奨している。70億から80億パラメータのモデルを動かすには追加で8GBのグラフィックDRAMが必要で、130億から700億パラメータのモデルには16〜24GBが必要だ。Llama 3 70BやQwen 72Bなどの超大規模モデルは80GB以上の容量を要する。
レポートは特に指摘している:メモリ不足の結果は性能低下ではなく、直接クラッシュだ――JavaScriptは「heap out of memory」(ヒープメモリ不足)エラーをスローし、インストール失敗や実行中断を引き起こす。この詳細は、エージェントシナリオにおけるメモリのハードな制約性質を深く示している:メモリ不足は遅延の問題ではなく、「死」を意味する。
OpenClawのメモリ需要の特徴は、より大きな構造的変化の縮図だ。
モルガン・スタンレーは指摘する:AIの計算能力のボトルネックは、システム的に移行しつつある。計算能力そのものからデータ移動へ、HBMからシステムメモリ(DRAM)へと、メモリ階層の構造がHBM中心から、HBM・DRAM・NVMe NAND SSDを組み合わせた多層構造へと進化している。
この変化を促進している一つの技術的推進力は、長いコンテキスト(long context)の需要の急速な拡大だ。KVキャッシュはトークン数に比例して線形に増加し、分散推論(pre-fillとdecodeの非連結化)シナリオではネットワーク経由の伝送が必要となり、CPUのI/O管理負担を大きく増加させる。RAG(Retrieval-Augmented Generation)やコンテキスト管理などのエージェントのコア操作は、集中的なメモリI/Oを伴う。
市場レベルの証拠も明白だ。モルガン・スタンレーによると、IntelとAMDは最近、コア数の多いサーバー用プロセッサの供給不足を実質的に認めている。AMDのEPYC CPUの売上高は、サーバー用CPU全体の収益の40%以上を占めるようになり、EPYC搭載のクラウドインスタンスの前年比成長率は50%以上に達している。NVIDIAは独自販売のVera CPUを発売し、Metaと長期契約を結び、大規模シナリオでの個人エージェント運用を支えるために、独立したCPUを導入した。
これらの構造的変化は、価格面にも実質的な反映を見せている。
DRAMについては、2026年第2四半期のサーバー用DDR5の価格は、限定的な現物取引で前期比50%以上の取引が成立し、超大規模クラウド事業者はこの価格を受け入れている。中国の一部クラウド事業者はさらに高値を提示している。2月末には、64GB RDIMMの契約価格は910〜920ドルに上昇し、第一四半期の平均価格800ドルより約20%高い。LPDDRや消費電子向けDRAMの第2四半期の見積もりは40%〜50%以上の上昇を予測し、DDR4の契約価格も40%〜50%の上昇が見込まれる。以前予測された20%〜25%の価格低下を見込んでいたHBM3Eは、ASIC顧客との契約更新において、わずか数%の上昇に転じている。
NANDについては、エンタープライズSSDの第2四半期価格は前期比で40%〜50%の上昇が予測されており、消費者向け製品も60%以上の上昇が見込まれる。場合によっては、eSSDの価格が第2四半期に再び倍増する可能性もある。
モルガン・スタンレーは、前年比の価格上昇ペースは引き続き加速しており、現在も上昇サイクルの中盤にあると考えている。市場が収益予測を、現在の前例のない生産能力制約を反映した水準に調整すれば、関連銘柄には大きな修復余地があり、資本還元の潜在的な引き上げが超過パフォーマンスをさらに後押しする可能性がある。
以上の内容は追風取引台からの素晴らしい情報だ。 より詳細な解説やリアルタイムの分析、一線の調査内容については【**追風取引台▪年度会員**】にご加入ください。 リスク提示および免責事項 市場にはリスクが伴い、投資は自己責任で行う必要があります。本記事は個別の投資助言を意図したものではなく、特定の投資目的や財務状況、ニーズを考慮したものではありません。読者は本記事の意見、見解、結論が自身の状況に適合するかどうかを判断し、投資の責任は自己にあります。
16.68M 人気度
538.34K 人気度
14.62K 人気度
2.53M 人気度
16.49K 人気度
「ロブスター」が「メモリ」を大幅に「延命」?
OpenClawを代表とするエージェントAI(Agentic AI)ツールは、メモリ市場の需要ロジックを全く新しいパラダイムへと押し上げている。追風取引台の情報によると、モルガン・スタンレーが3月18日に発表した最新レポートは次のように指摘している:AIが「思考」から「実行」へと移行することで、DRAMがHBMに取って代わり、AIインフラの中で最も突破が難しいチップのボトルネックとなる。これにより、メモリの寿命は予想を超える長期化を迎える。
チャネル調査によると、2026年第2四半期のサーバー用DRAM DDR5の価格は前期比で50%以上上昇すると予測されており、中国の超大規模クラウド事業者の入札価格はさらに高い見込みだ。DDR4の契約価格の上昇率は40%から50%に達し、NAND企業向けエンタープライズSSDの価格も40%から50%以上の上昇が見込まれる。モルガン・スタンレーは次のように考えている:現在はメモリの上昇サイクルの中盤にあり、供給の引き締まり度合いは従来の予測を超えている――「ウォール街の利益予測は現実に追いつかざるを得なくなるだろう」。
これらの判断は、ターゲット価格の調整に直接反映されている。SKハイニックスの2026-2027年のEPS予測はそれぞれ24%、32%引き上げられ、目標株価は110万ウォンから130万ウォンに引き上げられ、現価格に対して43%の上昇余地を含む。サムスン電子の普通株の目標株価も25.1万ウォンに引き上げられ、両銘柄とも「買い増し」評価を維持している。
モルガン・スタンレーの核心的な見解は次の通りだ:市場は線形思考に慣れているが、AIの知能層の能力拡張は指数関数的に進展している――AIが「答えを生成する」から「タスクを完了する」へと転換する際、メモリの需要規模は飛躍的に拡大し始めており、この変革はまさに始まったばかりだ。
「作業」よりも「思考」の方がメモリを多く消費する
モルガン・スタンレーのレポートの出発点は、一見単純だが深い意味を含む判断、「作業は思考よりも多くのDRAMを必要とする。」という一文だ。
従来の大規模言語モデル(LLM)の動作パターンは、GPU主導の線形処理フローだ:質問を受け取り、すべての入力トークン(事前埋め込み段階)をバッチ処理し、その後トークンごとに応答を生成(デコード段階)する。CPUは結果をテキスト出力に変換する役割を担う。この過程では、GPUの計算能力が決定的なボトルネックとなり、DRAMはキャッシュの読み書きだけを補助すれば十分だ。
**しかし、エージェントAIの登場により、このロジックは根本的に変わった。**OpenClawを例にとると、このオープンソースのセルフホスト型AIアシスタントは、WhatsApp、Telegram、Slack、Signalなど50以上のメッセージプラットフォームに同時に接続でき、ブラウザ自動化、ファイル操作、コマンドライン実行、API呼び出しなどのシステムレベルの権限も持つ。これは単なる「質問に答える」だけではなく、「タスクを完了する」ことを目的としている――ネット検索、ドキュメント読取、外部ツール呼び出し、コード実行を行い、多段階の協調作業を経て生成された行動結果を最終的に出力する。
このパラダイムシフトの核心技術的意味は次の通りだ:**ワークフローは単一のGPU推論から、多段階の調整、ツール呼び出し、オーケストレーションへと拡大し、CPUの計算時間が全体の遅延に与える影響がGPUを上回ることが多くなる。**同時に、多数のエージェント間で継続的にコンテキストを共有し、KVキャッシュ(Key-Value Cache)をオフロードし、各中間ステップの結果を保存・検索する必要が出てくる――メモリは計算能力の後端から、ボトルネックの中心へと移行している。
OpenClaw:メモリ需要の極端な拡大鏡
モルガン・スタンレーは、OpenClawのメモリ需要を詳細に定量分析し、結論付けている:この種のエージェントツールにおいて、DRAMが圧倒的であり、他のハードウェア制約は二の次だ。
このツールには二つの全く異なる動作モードがある:
軽量ゲートウェイモード(ClaudeやGPT-4など外部APIをリモート呼び出し):それでも、ボトルネックはGPUやCPUではなく、Node.jsのランタイムによるDRAMの消費だ。実際の使用では最低2GBのDRAMが必要であり、本番運用には4GBの搭載を推奨する。
ローカルモデルモード(デバイス上にAIモデルを直接ロードして動作させる):DRAMとグラフィックスHBMが二重の制約となる。モルガン・スタンレーは、32GBのシステムDRAMを推奨している。70億から80億パラメータのモデルを動かすには追加で8GBのグラフィックDRAMが必要で、130億から700億パラメータのモデルには16〜24GBが必要だ。Llama 3 70BやQwen 72Bなどの超大規模モデルは80GB以上の容量を要する。
レポートは特に指摘している:メモリ不足の結果は性能低下ではなく、直接クラッシュだ――JavaScriptは「heap out of memory」(ヒープメモリ不足)エラーをスローし、インストール失敗や実行中断を引き起こす。この詳細は、エージェントシナリオにおけるメモリのハードな制約性質を深く示している:メモリ不足は遅延の問題ではなく、「死」を意味する。
計算能力のボトルネック移行:HBMからシステムメモリへ
OpenClawのメモリ需要の特徴は、より大きな構造的変化の縮図だ。
モルガン・スタンレーは指摘する:AIの計算能力のボトルネックは、システム的に移行しつつある。計算能力そのものからデータ移動へ、HBMからシステムメモリ(DRAM)へと、メモリ階層の構造がHBM中心から、HBM・DRAM・NVMe NAND SSDを組み合わせた多層構造へと進化している。
この変化を促進している一つの技術的推進力は、長いコンテキスト(long context)の需要の急速な拡大だ。KVキャッシュはトークン数に比例して線形に増加し、分散推論(pre-fillとdecodeの非連結化)シナリオではネットワーク経由の伝送が必要となり、CPUのI/O管理負担を大きく増加させる。RAG(Retrieval-Augmented Generation)やコンテキスト管理などのエージェントのコア操作は、集中的なメモリI/Oを伴う。
市場レベルの証拠も明白だ。モルガン・スタンレーによると、IntelとAMDは最近、コア数の多いサーバー用プロセッサの供給不足を実質的に認めている。AMDのEPYC CPUの売上高は、サーバー用CPU全体の収益の40%以上を占めるようになり、EPYC搭載のクラウドインスタンスの前年比成長率は50%以上に達している。NVIDIAは独自販売のVera CPUを発売し、Metaと長期契約を結び、大規模シナリオでの個人エージェント運用を支えるために、独立したCPUを導入した。
価格の加速:サイクル中盤、余地は残る
これらの構造的変化は、価格面にも実質的な反映を見せている。
DRAMについては、2026年第2四半期のサーバー用DDR5の価格は、限定的な現物取引で前期比50%以上の取引が成立し、超大規模クラウド事業者はこの価格を受け入れている。中国の一部クラウド事業者はさらに高値を提示している。2月末には、64GB RDIMMの契約価格は910〜920ドルに上昇し、第一四半期の平均価格800ドルより約20%高い。LPDDRや消費電子向けDRAMの第2四半期の見積もりは40%〜50%以上の上昇を予測し、DDR4の契約価格も40%〜50%の上昇が見込まれる。以前予測された20%〜25%の価格低下を見込んでいたHBM3Eは、ASIC顧客との契約更新において、わずか数%の上昇に転じている。
NANDについては、エンタープライズSSDの第2四半期価格は前期比で40%〜50%の上昇が予測されており、消費者向け製品も60%以上の上昇が見込まれる。場合によっては、eSSDの価格が第2四半期に再び倍増する可能性もある。
モルガン・スタンレーは、前年比の価格上昇ペースは引き続き加速しており、現在も上昇サイクルの中盤にあると考えている。市場が収益予測を、現在の前例のない生産能力制約を反映した水準に調整すれば、関連銘柄には大きな修復余地があり、資本還元の潜在的な引き上げが超過パフォーマンスをさらに後押しする可能性がある。