10,000 USDT 悬赏,寻找Gate广场跟单金牌星探!🕵️♀️
挖掘顶级带单员,赢取高额跟单体验金!
立即参与:https://www.gate.com/campaigns/4624
🎁 三大活动,奖金叠满:
1️⃣ 慧眼识英:发帖推荐带单员,分享跟单体验,抽 100 位送 30 USDT!
2️⃣ 强力应援:晒出你的跟单截图,为大神打 Call,抽 120 位送 50 USDT!
3️⃣ 社交达人:同步至 X/Twitter,凭流量赢取 100 USDT!
📍 标签: #跟单金牌星探 #GateCopyTrading
⏰ 限时: 4/22 16:00 - 5/10 16:00 (UTC+8)
详情:https://www.gate.com/announcements/article/50848
最近、マイクロンテクノロジーについて深く调べる机会があった。正直なところ、この会社の存在感の薄さに驚いている。NvidiaやTSMCの阴に隠れて、ほとんど注目されていないのに、AIインフラの根底を支えている。
思い出してみれば、2012年に日本のエルピーダが破産した时、その资産を买収したのがマイクロンだった。当时、DRAMメモリ産业は日本からほぼ消滅し、韓国のサムスンとSKハイニックスが市场を支配していた。その中でマイクロンだけが米国で唯一、高度なメモリチップを量産できる企业として生き残った。
なぜこんなことが起きているのか。AIが急速に発展する中で、誰もが计算速度の話ばかりしている。GPUの性能、TFLOPS、演算能力。でも実际のボトルネックは全く別のところにある。それがメモリ帯域幅だ。
GPUが计算を終えてデータを待つ时间が、実际の计算时间より长くなってしまう。これをメモリの壁と呼ぶ。700亿パラメータのモデルを走らせるには、FP16形式で约140GBのメモリが必要になる。A100やH100といった高級なGPUカードのビデオメモリは80GBから192GB程度。つまり、複数のカード间でデータを分割して処理しなければならない。
この问題を解決するために、NvidiaはGPUのすぐ隣に高帯域幅メモリ、つまりHBMとは何か。それはDRAMダイを複数層垂直に積層し、シリコンインターポーザー上にパッケージングしたものだ。マイクロンはこのHBMを製造している。
HBMとは、単なるメモリではなく、AIコンピューティングの心臓部だと言ってもいい。推論フェーズではGPUの演算负荷は極めて低く、システム全体がメモリ帯域幅によって完全に制限される。データ転送に消费されるエネルギーは、演算自体の100倍から200倍にもなる。つまり、データセンターの电力消费の大部分がバス伝送に使われている。
マイクロンが注目されない理由は、彼らが派手なアーキテクチャ革新をしていないからだ。NvidiaはGPUの设计で革新している。TSMCはロジックチップの製造プロセスで革新している。一方、マイクロンは地味だが本质的な仕事をしている。1ガンマノードでのプロセス技術进化、複雑な積層パッケージング、エネルギー効率の最适化。
HBMの製造には複数のDRAMダイ層を垂直に積み重ねる必要があり、いずれかの層に欠陥があるとモジュール全体が使用不能になる。8層HBM3Eの全体歩留まりは约61%。12層HBM4になると48%まで低下する。各層の影響は加算ではなく乗算的に蓄積される。
SKハイニックスがHBM市场の50%以上を占めているのは、彼らのMR-MUF液状カプセル化技術が層间結合の歩留まりを直接向上させるからだ。一方、マイクロンはTC-NCFプロセスを採用しており、放熱性ではハイニックスに劣る。ただし、マイクロンのHBMは消费电力が20~30%低く、エネルギー効率で差別化している。
世界のDRAM市场はサムスン、SKハイニックス、マイクロンの3社で95%を占めている。でも立场は全く異なる。マイクロンはプロセス技術の进歩速度が最速だ。ウェハーあたりの記憶密度を高め、ビットあたりの製造コストを削減している。
サムスンは14nm以下のプロセスノードで歩留まりのボトルネックに直面し、供給ペースが鈍化している。SKハイニックスのプロセス进化速度はマイクロンとほぼ同等だ。
マイクロンの株価収益率が21倍というのは、従来のメモリ企业の8~10倍から大きく上昇している。理由はHBMの受注生産方式だ。Nvidiaなどの顾客と事前に长期供給契约を結び、価格と数量を固定している。2026年のHBM生産能力はすでに完売したと报じられている。
これはメモリ企业の景気循環的な不確実性を大きく低減させた。ウォール街もこれを評価し、マイクロンをインフラプロバイダーとして位置づけ直した。さらに、米国が国内の先进メモリ製造能力を必要としているという地政学的背景も、机関投资家の资金流入を加速させている。
HBMの次の戦场はCXLだ。CXLとはCompute Express Linkの略で、複数のサーバー间でメモリを共有し、キャッシュの一貫性を自动的に管理するプロトコル。ハイパースケールデータセンターではメモリの遊休率が20~30%に达している。CXLメモリプーリングでこれを解決できる。
マイクロンはCXLタイプ3メモリ拡張モジュールを発表した。HBMは数百ギガバイトの極めて高い帯域幅で低遅延を実现し、CXLモジュールはテラバイト級の容量で柔软なメモリ割り当てを実现する。両者を併用することで、频繁にアクセスされるホットデータをローカルHBMに、コールドデータをCXLメモリプールにオフロードできる。
HBMとは何か、という问いに答えるなら、それは単なるメモリではなく、AIインフラの进化における必然的な産物だ。演算能力の成长がメモリ帯域幅の成长をはるかに上回る中で、この物理的なボトルネックを解決する唯一の方法がHBMなのだ。
长期的には、半導体産业は材料科学の限界に直面する。平面小型化は物理的限界に近づき、3D積層の歩留まり低下は指数関数的に増大する。インメモリコンピューティングもプロセス上の根本的矛盾を抱えている。DRAMトランジスタは低ドレイン电圧を必要とするが、ロジックチップは低しきい値电圧を必要とする。この二つのニーズは完全に矛盾している。
結局のところ、マイクロンの競争力は単一の技術ではなく、歩留まり向上、パッケージングプロセス、システム统合など複数の側面で競合他社よりもミスを少なくする包括的能力に依存するようになる。その能力を蓄積するには数十年の製造経験が必要だ。これが真の堀である。