オルビタの没落からマイクロンの台頭へ
ストレージチップの根本的な論理の再構築

2012 年全球トップの DRAM メモリメーカーである尔必达は正式に破産を宣言した。

かつて日本半導体産業の象徴企業であった尔必达は、NEC、日立、三菱の三大巨頭の技術を統合し、たとえ日本政府の出資による支援があっても、衰退の流れを止めることはできなかった。会社は4,300億円の巨額負債を抱え破産保護を申請し、最終的に米国の美光科技に2,000億円で買収され、統合・吸収された後、業界の舞台から完全に退いた。

業界の発展の歴史を振り返ると、インテル、テキサス・インスツルメンツ、モトローラは皆DRAM市場に参入したが、その後次々と撤退した。日本の半導体メモリ産業は、繁栄から崩壊へと向かうのにわずか20年もかからなかった。その後、韓国企業が台頭し、サムスン、SKハイニックスは政府の補助金を頼りに、積極的な価格戦争を展開し、世界市場を席巻し、すべての競合相手の生存空間を圧迫した。

そして、最終的に生き残ったのは美光科技であり、現在アメリカ本土唯一の先進的な記憶チップの大規模生産能力を持つ企業となっている。この本社はアイダホ州ボイシにあり、長らくNVIDIAやTSMCの産業の光の下に伏せてきた。GPU設計には関与せず、ロジックチップの製造も手掛けていない。しかし、AIの計算能力需要が爆発的に増加する中、数十年封印されてきた物理的なボトルネックが次第に顕在化してきた。それは、計算ユニットがデータ伝送を待つ時間が計算自体の時間を超えてしまうという問題だ。この業界の痛点はソフトウェアの最適化では解決できず、ハードウェアの技術革新に頼るしかない。これこそが、40年にわたり美光が深く取り組んできたコアな競争分野である。

AI計算の核心的な制約:メモリ壁が業界共通の課題

冯・ノイマンアーキテクチャの下では、GPUやTPUの計算ユニットとメインメモリは物理的に独立している。計算ユニットには小容量のSRAMが内蔵され、オンチップキャッシュとして機能し、大規模モデルの重みや入力データは主にチップ外のDRAMに格納されている。データは中間層を経由し、電気信号の形で伝送される。

例えば、700億パラメータの大規模言語モデルを例にとると、FP16精度ではモデルの重みだけで約140GBの物理メモリを必要とする。現在の高性能AI計算カードのGPUメモリ容量は80GBから192GBに集中しており、大規模モデルは複数のカードに分割して協調動作させる必要がある。過去10年でチップの計算能力は指数関数的に向上したが、メモリ帯域幅は物理的なピン数、信号の周波数、冷却の限界により制約され、性能の向上は計算能力の進化に比べて遅れている。計算性能がメモリ供給能力を超えると、計算ユニットは空転し、待機状態に入り、ハードウェアの利用率が大きく低下する。

AIは訓練と推論の二つの主要なシナリオに分かれるが、その根底にあるロジックは大きく異なる。訓練段階では大量の並列処理を行い、同じデータを計算コアのキャッシュに何度も呼び出すため、演算強度が高く、ボトルネックは計算速度に集中し、メモリではなく計算能力が主な制約となる。これは典型的な計算集約型のシナリオであり、NVIDIAの計算能力の優位性が最大限に発揮される。

一方、推論段階のロジックは全く異なる。大規模言語モデルは自己回帰的な仕組みで、トークンごとにテキストを生成する。過去の注意スコアを繰り返し計算しないように、システムはKVキャッシュをメモリ内に構築する必要がある。例えば、コンテキスト長が4096の場合、単一のユーザリクエストは約1.34GBのGPUメモリを占有する。2つのA100カードでは、モデルの重みを除いた残りの20GBだけがKVキャッシュに使えるため、最大14件の同時リクエストしか処理できない。推論段階では演算強度は非常に低く、性能は完全にメモリ帯域幅に依存し、アクセス密集型のタスクとなる。HBMの物理的な伝送速度がビジネスのスループットの上限を直接決定する。

エネルギー消費の観点から見ると、片側外のHBMからビットあたり約10〜20pJのエネルギーを消費してデータを読み出すのに対し、FP16の浮動小数点演算はわずか0.1pJである。データの搬送にかかるエネルギーは計算の100倍から200倍に達する。大規模推論のシナリオでは、メモリアクセスの最適化ができなければ、データセンターの電力の多くがバスのデータ伝送に費やされ、実際の演算にはほとんど使われなくなる。これが美光が長年にわたりHBM技術に注力してきた核心的な動機だ。

美光科技のファンダメンタルとAIサプライチェーンにおける位置付け

美光は典型的なIDM(インテグレーテッド・デバイス・メーカー)であり、チップ設計、ウエハー製造、パッケージング・テストまでの全工程を自社で行う。特にウエハー工場は記憶チップに特化し、CPUやGPUには関与しない。メモリとフラッシュメモリの製品開発・生産に集中している。

収益構造を見ると、DRAMが70%以上の売上を占め、NANDフラッシュが20〜30%、NORフラッシュは比較的小規模だ。DRAMは汎用メモリの主要な構成要素であり、NANDはSSDの主要媒体、NORは自動車電子や産業機器に多用され、起動コードの高速実行や小規模なニッチ市場において重要な役割を果たす。

事業の展開は、4つの主要セグメントに分かれる:データセンターやサーバ向けの計算ネットワーク事業、スマートフォン向けのモバイル端末事業、企業向けストレージのSSD事業、自動車や産業分野の組み込み型事業。

AIサプライチェーンにおいては、NVIDIAがGPU設計を担当し、TSMCがウエハーのファウンドリーを担う。美光はこれらの工程には関与しないが、AIアクセラレータカードに不可欠なコア部品の供給者だ。単にGPUのロジックチップだけでは大規模モデルの推論を支えきれず、性能のボトルネックはメモリ帯域幅に固定されているため、NVIDIAのGPUは高帯域のHBMと緊密に連携している。美光はSKハイニックスやサムスンとともに、HBMのコアサプライヤーであり、製品はTSMCのCoWoS先進封装を経てGPUと統合され、完全なAI計算モジュールとなる。GPUはAIの計算脳に相当し、HBMは高速データ伝送のチャネルだ。両者は不可欠な関係にある。

競争のロジックは、NVIDIAがアーキテクチャとエコシステムで競争優位を築く一方で、美光は製造プロセスや積層封止技術の継続的な革新により業界の壁を築いている。HBMの各世代の帯域幅アップグレードは、より精密なTSV(スルホール)技術と積層層数の増加に依存し、技術参入のハードルは非常に高い。

DRAM:AI計算の背後にある基盤インフラ

従来のコンピュータアーキテクチャでは、DRAMはメインメモリとして、ハードディスクの大容量低速とCPUの高速小キャッシュの速度差を埋める役割を果たす。プログラムの実行時、データはハードディスクからDRAMにロードされ、CPUはナノ秒レベルの遅延と超高速帯域でデータの読み書きを行う。OSやバックグラウンドのプロセスも常にDRAMに常駐している。DRAMは電源断時にデータが失われる特性を持ち、内部のコンデンサは自然に漏電し続けるため、継続的なリフレッシュが必要だ。基本的なセルは1つのトランジスタと1つのコンデンサから構成される。

AI時代に入り、DRAMの応用形態と要求ロジックは根本的に再構築されている。計算の中心はCPUからGPUに移り、DRAMはもはやマザーボードのDDRメモリスティックに限定されず、TSV技術を用いた垂直積層のHBM高帯域メモリとして、GPUと一体化された形態で使われる。

現在のDRAMのコア価値は二つの側面に集中している。一つは大規模モデルの重みのロードであり、700億パラメータのモデルをFP16で表現すると、約140GBのストレージが必要となり、推論前に全てをHBMにロードする必要がある。もう一つはKVキャッシュの動的占有だ。大規模モデルのテキスト生成には履歴のコンテキストをキャッシュし続ける必要があり、コンテキスト長が長くなるほどメモリの占有も増加する。高性能サーバーの同時処理能力は制限される。訓練シナリオでは、モデルパラメータ以外に中間計算結果や最適化器の追加データも保持しなければならず、メモリ需要は推論の3〜4倍に膨らむ。

メモリ壁の制約により、GPUの計算速度はメモリ帯域幅の進化を大きく上回り、推論段階ではGPUは頻繁に空転し、HBMの帯域幅アップグレードがAI推論サーバのスループットの上限を決定している。これが美光がHBMの研究開発に注力し続ける根底の理由だ。

ストレージの三強:サムスン、SKハイニックス、美光の差別化競争

世界のDRAM市場はサムスン、SKハイニックス、美光の三大寡占で、約95%の市場シェアを占める。三社のコア優位性はそれぞれ異なる。

製造プロセスの進化においては、美光がリードし、1-alpha、1-beta、1-gammaといったノードで常に新世代高密度DRAMの量産を先行し、ウエハーあたりのチップ出力を高め、ビットあたりのコストを低減し、毛利率の優位を築いている。サムスンは14nm以下の工程で歩留まりの壁に直面し、進化のペースは鈍化。SKハイニックスの工程進度は美光とほぼ同じ水準だ。

HBMの市場構図は全く異なり、SKハイニックスが業界のリーダーとして50%以上のシェアを持ち、NVIDIAのハイエンドGPUの独占供給者となっている。MR-MUF封止技術を駆使し、多層積層と冷却、歩留まりの制御において絶対的な優位を築いている。一方、美光は後発として、HBM3を飛ばして直接HBM3Eに取り組み、エネルギー効率の良さを武器にNVIDIAのサプライチェーンに参入している。TC-NCF封止技術を採用し、製造難度は高いが、産能と市場シェアはSKハイニックスに及ばない。サムスンはHBM3やHBM3Eの段階で発熱と電力消費の問題によりNVIDIAのテストに合格できず、AIメモリの恩恵を逃している。現在はHBM4に賭けて逆転を狙っている。

美光の差別化の切り口はエネルギー効率の向上だ。同じ帯域幅で比較した場合でも、美光のHBMは競合品より20〜30%低消費電力だ。単一カードの差は小さく見えるが、数万カードのデータセンターに展開すれば、電力費と冷却コストを大きく削減できる。さらに、1-gammaプロセスのLPDDR5Xは9.6Gbpsの高速化とともに、消費電力も30%低減しており、モバイル端末のAIモデルのバッテリー持続時間にも適している。

生産規模では、サムスンが圧倒的な規模を誇り、価格競争を背景に市場を支配している。美光は規模が小さく、価格競争を避けて技術の付加価値に集中し、先進的な工程とエネルギー効率の優位性を武器に市場での地位を確立している。

DRAMとHBM以外では、NANDとNORフラッシュも美光の第二の成長曲線を形成している。NAND市場では世界第4〜5位を維持し、市場シェアは10〜15%。NORフラッシュは低価格の消費者向け市場を放棄し、自動車規格や産業用の高端分野に特化。Octal xSPI高速インターフェース規格を主導し、ASIL-D最高安全認証を取得、長期供給を自社ウエハー工場から行い、自動車や産業の主要顧客と連携している。価格競争の激しい海に巻き込まれることなく、信頼性と性能で業界のプレミアムを獲得している。

美光の評価と同業他社との比較

現在の美光の株価は約600ドル、PERは21.44倍、時価総額は約6500億ドル。ウォール街の投資銀行の12ヶ月目標株価は400〜675ドルで、平均は約500ドルと見積もられ、全体として割安と評価されている。

過去の記憶チップは景気循環の激しい業界であり、景気の良し悪しにより生産能力の拡大と過剰供給、価格の暴落が繰り返された。市場は一般的に8〜10倍のPERしか付けていない。だが今の美光の評価は大きく上昇しており、その核心はHBMの収益構造の再構築にある。従来のDDRメモリは市場の需給変動に大きく左右されるが、HBMは受注生産モデルを採用し、投資前にNVIDIAなどの主要顧客と長期の供給契約を締結している。2026年までにHBMの生産能力はすべて売り切れ、収益は周期的な変動から契約に基づく安定収入へと変わった。市場はこれをAIインフラの供給者と再定義し、評価倍率も引き上げられている。

さらに政策や資金の後押しもあり、米国唯一の先進的記憶装置メーカーとして、「チップ法案」やサプライチェーンの国内化の流れに乗り、機関投資家の資金流入も続いている。流動性プレミアムも付与されている。

同業他社と比較すると、SKハイニックスのPERはわずか12.17倍と低い。HBM市場の半数以上を握り、NVIDIAのハイエンドサプライチェーンに結びついているが、韓国の財閥支配構造の影響で、配当や自社株買いの比率は低い。さらに、約40%の通常DRAM生産能力が中国の無錫工場にあり、海外の輸出規制により最新工程への移行が難しく、設備の陸送や資産の価値下落リスクも抱えているため、PERは抑えられている。

サムスン電子のPERは34.18倍だが、これは評価のプレミアムではなく、純利益の分母が低迷しているためだ。サムスンはメモリ、ウエハー受託生産、スマートフォン、ディスプレイなど多角的に事業を展開し、先進工程への投資も巨額だが、良率の低迷により継続的な赤字が続き、グループの純利益を圧迫している。国内資金の支援もあり、株価は安定しているためPERが高くなる。

投資機関は美光のコアロジックを明確に評価している。HBMの売上比率の上昇により毛利率が向上し、長期供給契約により収入の確実性を確保、HBMの比率が高まることで一般DRAMの供給を圧縮し、全製品の価格上昇を支える。1-gamma工程の量産後は資本支出の回収期に入り、フリーキャッシュフローも改善し続けている。ただし、記憶産業の景気循環は完全に消えたわけではなく、HBMの長期契約による平準化が進む一方、AIインフラ投資の鈍化やサムスンのHBM4の技術的優位が逆転すれば、供給と需要の構図は再び変わる可能性もある。

次世代インターコネクト技術CXLとHBMの評価

各社は自社のHBM製品の優位性をアピールしているが、HBMの品質を評価する際の三つの重要なパラメータは次の通りだ。

一つはピンレート(引脚速度)で、データ伝送帯域幅を決定する。HBMは微細な凸凹とGPUをインターコネクトし、ピンレートはシングルチャネルあたりの秒間データ伝送量を示す。業界標準のバス幅は1024ピンであり、総帯域幅は一定の換算式に従う。美光のHBM3Eは9.2Gbpsと公称され、1スタックあたりの帯域幅は約1.2TB/sで、競合の8.0〜8.5Gbpsを上回る。ただし、レートの向上は消費電力や信号歪みのリスクも伴う。電圧の頻繁な反転により熱が発生し、レートが高すぎると信号の乱れやすくなり、データ伝送の安定性に影響を与える。

二つはエネルギー効率で、pJ/bitの単位で表される。数値が低いほど省エネ性が高い。HBMはGPUと一体封止されて動作し、消費電力が高いと冷却負荷が増すため、GPUの動作クロックを下げる必要が出てくる。美光は1-beta工程の低電圧設計により、競合より約30%高いエネルギー効率を実現し、データセンターの電気代と冷却コストを大きく削減している。

三つ目は熱抵抗と封止工法であり、SKハイニックスの技術的な差別化ポイントだ。熱抵抗は消費電力と熱抵抗の両方に依存し、多層積層構造の熱伝導は難しい。層間の充填材料は熱抵抗に直接影響する。業界の主流はTC-NCFとMR-MUFの二つの工法に分かれる。美光とサムスンはTC-NCFを採用し、圧着時に気泡が残留しやすく、熱抵抗が高くなる。一方、SKハイニックスのMR-MUFは液体充填材を用いて隙間を満たし、気泡の残留がなく、熱抵抗が低い。

熱抵抗が高いと、環境温度の上昇によりDRAMの電気容量漏電が加速し、メモリコントローラーは頻繁にリフレッシュを行う必要が出て、帯域幅が圧迫される。また、封止工法は積層層数の上限を決める要素であり、層数が増えるほど機械的な応力や熱膨張の適合が難しくなり、歩留まりの管理が指数関数的に難しくなる。各メーカーのHBM技術資料を読む際は、次の三点に注目すれば良い。公称レートのテスト電圧、積層層数と容量、最終的な供給先の主要顧客だ。実測による顧客の検収が技術力の最終的な証明となる。

CXL:AIクラスター内のメモリプール化の次なる戦場

HBMは単一GPU内の帯域幅のボトルネックを解消したが、AIクラスターが数千GPUに拡大すると、メモリ資源の割り当て効率やデバイス間のキャッシュの不一致といった新たな課題が浮上する。そこでCXL技術が登場した。

従来のデータセンターのメモリはサーバ単体に物理的に結びついており、複数のサーバ間で共有できないため、一部のノードのKVキャッシュが満杯になり、他のノードは未使用のままといったメモリの遊離状態が高頻度で発生し、資源の浪費につながる。業界の遊離率は20〜30%に達する。さらに、CPUとGPUのキャッシュデータは同期しないため、従来のソフトウェアによる同期は遅延が高く、性能も犠牲になる。しかも、コードの適応も必要だ。これらはPCIeの規格の制約に由来し、大きなデータの搬送には適しているが、キャッシュの一貫性を保証しない。

CXLはPCIeの物理層を基に、メモリの意味論とキャッシュの一貫性を最適化した新しい通信規格だ。ハードウェアが自動的にキャッシュの状態を管理し、ナノ秒単位でデータの同期を行うため、システムやソフトウェアの介入は不要だ。固定のFLIT(フロー制御ユニット)フォーマットを採用し、データ解析の負荷を軽減している。遠隔のメモリアクセス遅延は170〜250ナノ秒に大幅に短縮される。

また、CXLはスイッチを介して共有メモリプールを構築でき、サーバ単体の物理的な結びつきから解放され、マイクロ秒単位で未使用のメモリ資源を動的に調整できる。これにより、メモリの遊離問題を根本的に解決できる。

美光はCXL Type 3のメモリ拡張モジュールを自社開発のDDR5技術を用いて製造し、HBMと高低の組み合わせを実現している。HBMは単一カードの超高速帯域と低遅延のシナリオに焦点を当て、CXLはノード間の大容量メモリ拡張を担い、TB級のリソースプールを支える。実用化においては、ホットデータはローカルのHBMに保持し、長いコンテキストのコールドデータはCXLメモリプールにオフロードし、プリフェッチ機能で伝送遅延を隠蔽し、百万トークン超の長大なコンテキストモデルの実現を支援する。

競争の構図は、HBMの市場競争が激化する一方、CXLメモリ拡張はまだ発展途上であり、業界の勢力図は未確定だ。美光は純粋なストレージメーカーとして、過去の負担がなく、CXLモジュールは標準のDDR5技術を踏襲しているため、複雑な積層封止も不要で、歩留まりや生産能力の圧迫もコントロールしやすい。先行優位を獲得できる可能性が高い。

産業の基礎経済学と最先端技術の課題

先進的なDRAMウエハー工場の建設費は150億〜200億ドルに達し、EUVリソグラフィのコストは2億ドルを超える。電源や冷却システムの設備投資も加わり、設備の5年の償却期間中は、日々のコスト負担が非常に大きい。稼働率は95%以上を維持しなければ、製造コストの薄まりは難しい。需要が落ち込むと、メーカーは生産を削減できず、無理に耐え、価格戦争に突入する。これが記憶産業の景気循環の根底にある。

HBMのコストも高止まりしているのは、物理的な制約による。多層DRAMの裸片は垂直に積み重ねられ、いずれかの層に欠陥があれば、モジュール全体が廃棄となる。良率は積層層数の増加とともに指数関数的に低下する。たとえば、単一の裸片の良率が95%、層間のボンディング良率が99%でも、8層のHBM3Eの総良率は約61%、12層のHBM4は50%未満となる。SKハイニックスの液体封止や美光の工程良率の向上は、全体の良率を高め、単位コストを下げるための努力だが、良率の向上と生産能力の拡大はすぐに実現できるものではなく、短期的にはHBMの価格は大きく下落しにくい。

PIM(Processing In Memory)技術は20年以上提案されているが、商用化には至っていない。これは物理的な工芸の矛盾に起因する。DRAMのトランジスタは低リークと高閾値電圧を求めており、電荷の保持とスイッチング速度の両立が難しい。CPUやGPUのロジックチップは逆に低閾値電圧と高クロック周波数を追求し、漏電電流が高くなる。両者の工芸的要求は根本的に対立している。もしDRAMに演算ユニットを無理に組み込めば、GPUに比べて計算能力は大きく劣り、発熱とともに電気容量の漏電も加速し、データの信頼性に影響を及ぼす。

現状の折衷案は、HBMの最下層に軽量なAI演算能力を集積し、TSMCの先進ロジック工芸を用いて製造し、DRAMの工芸的制約を回避することだが、真のメモリ・ストレージ一体化にはまだ距離がある。

長期的には、美光のコア競争戦略は明確だ。1-gamma工程を用いてビットあたりコストを低減し、高利益のHBMで価格を固定し、長期供給契約を通じて業界の景気循環を平準化することだ。しかし、記憶産業の構造的な制約は依然として存在し、DRAMの平面微細化は物理的な限界に近づき、3D積層の良率損失は層数の増加とともに拡大している。ストレージと計算の一体化は短期的な商用突破の道筋が見えず、今後の競争は単一の技術ノードの優位性だけでなく、良率の工程管理、封止技術、システム統合の総合力の勝負となる。これこそが、記憶巨頭たちが長年にわたり築き上げてきた深い技術的護城河だ。

産業の推移を見れば、チップ産業の進化は常に循環に陥る。計算能力が不足すれば、チップの面積を拡大し、良率を制約し、互いに連携するアーキテクチャに移行すれば、データ搬送の遅延に直面し、チップの積層は相互接続の難題を解決するが、散熱問題を生み出し、良率を再び低下させる。根本的には、チップ産業の最終的な競争は材料学に帰着し、フォトニクスインターコネクトや二次元半導体材料、破壊的な計算アーキテクチャが、既存の物理的制約を突破する核心的方向となるだろう。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン