Googleの新しいTurboQuantテクノロジーは、Micronにとって終わりの始まりを意味するのか?

1年ちょっと前、中国のクオンツ系ヘッジファンドからAIラボに転じた企業が、DeepSeekと呼ばれる先進的なAIモデルをリリースしました。DeepSeekがどれくらい安く、どのチップで学習されたのかについては議論もありますが、DeepSeekが、より少ない、かつ「性能が劣る」半導体でAIモデルを学習する際の効率を大きく高める革新的な改良を実装したことに疑いはありません。

ニュースを受けて、AI半導体・メモリ株は急落しました。理由は、表面的には「AI企業はロジックおよびメモリチップをこれほど大量に買う必要はないはずだ」という印象によるものです。しかし私たちは今、これらの株がその後、むしろそれ以上に反発したことを知っています。より高いモデル効率は、チップ需要を妨げなかったからです。むしろAI企業は、その効率向上をさらに先進的なモデルへの投資に振り向け、計算能力とメモリ全体の需要を押し上げました。

先週、Alphabet(GOOG +5.02%)(GOOGL +5.10%)のGoogle Researchは、TurboQuantをリリースしました。TurboQuantは、ソフトウェアベースのAIメモリ圧縮技術で、より少ないメモリで、はるかに効率的な推論(inference)を可能にします。これに対し、Micron(MU +4.80%)のような主要メモリ企業やそのサプライヤーは急落しました。

しかし、これは投資家が買うべき「もう一つのDeepSeekの瞬間」なのでしょうか?

拡大

NASDAQ: MU

Micron Technology

今日の変化

(4.80%) $15.46

現在の価格

$337.26

主要データ

時価総額

$381B

本日のレンジ

$311.50 - $337.70

52週レンジ

$61.54 - $471.34

出来高

3.1M

平均出来高

40M

総利益率

58.54%

配当利回り

0.18%

TurboQuantとは?

TurboQuantは、AI推論におけるキー・バリューキャッシュ(KV cache)を大幅に増強し、速度も高めます。KV-cacheは、AIアルゴリズムが、過去の文脈を保持し、新しいトークンを生成するために、それまでのすべてのトークンを再計算することなく利用できるタイプのメモリです。したがって、KV-cacheは、AIの過去の出力の一種の「物語」です。

しかし、KV-cacheが過去の文脈における「物語」だとすれば、TurboQuantは、その物語を素早く、しかも正確に「要約」したものです。

一般の人向けに言い換えると、TurboQuantは次のように機能します。AIモデルは、データをベクトルとして保存することで文脈を理解します。ベクトルとは、いくつかの「埋め込み(embeddings)」を持つ、X-Y-Z軸上の多次元チャートのようなものです。あるトークンが別のトークンと似たベクトルを持つなら、それは似た関係性を持つということになります。

わかりやすくするため、X-Y平面だと仮定しましょう。すると、ある埋め込みは「東へ3マス進み、北へ4マス進む」という方向として定義されるかもしれません。

TurboQuantは、これらの指示を「北東へ37度で5マス進め」と言い換えることで単純化します。これにより文脈を理解するために必要な計算は大幅に減りますが、残差的な誤差につながる可能性があります。そこでTurboQuantは、後から1ビットの誤り訂正メカニズムを重ねて、それを取り除きます。追加の1ビットがあるとしても、この手法は、AIベクトルにおける標準的なXYZ座標方式よりもはるかに少ないメモリを使用します。

その結果、誤り訂正によってGoogle Researchは、TurboQuantがKV-cacheの容量を6倍に増やせるだけでなく、AI推論を8倍速くできると主張しています。しかも精度の低下なしです。

TurboQuantはAI推論を加速させます。画像出典:Getty Images。

TurboQuantがAIメモリに与える影響

AI推論がDRAMを6分の1に抑え、8倍速く動かせるなら、将来の推論アプリケーションではメモリ需要が減る可能性がある、という考え方になります。

ただ、これは少し単純すぎますが、もっともらしい下振れシナリオもあります。1つのリスクは、AI推論の市場シェアが、高帯域幅メモリ(HBM)を搭載した高価なGPUから、「伝統的な」サーバーメモリであるDDR5やMRDIMM上で動くCPUへと移る可能性です。

HBMはこれらの古いタイプのメモリよりずっと高速ですが、保持できる文脈量は少なく、しかもはるかに高価です。TurboQuantによってKVキャッシュの速度が8倍に向上するため、たとえば1,000ページの法的文書のような大量データで多数のAIエージェントを推論させたい企業は、DDR5やMR-DIMMをより効果的に展開できるかもしれません。HBMもTurboQuantでさらに強化される一方、CPUで使われる古い形式のメモリは、コストを下げたい大企業にとって「十分に速い」可能性があります。

HBMは、今日のメモリ供給逼迫の主要な要因の1つです。「伝統的な」メモリに比べて、HBMの1ビットを作るために必要な設備は、3〜4倍かかり得ます。したがって、推論向け需要がより伝統的なメモリへ移ることで、メモリ市場がそれほど供給制約に悩まされなくなる可能性もあります。

しかし、強気のストーリーのほうが可能性が高い

TurboQuantは、業界の供給の大半を吸い上げてきたHBM市場に対する潜在的なリスクをはらんでいますが、それでもこの投資家としては、強気シナリオのほうがより起こりやすいと考えています。

まず、TurboQuantによってHBMにも改善がもたらされます。HBMベースの推論が、より大きなコンテキストウィンドウを持てるようになるからです。つまり、AI推論が完全にCPUや伝統的メモリへ移行するわけではありません。レイテンシ(応答遅延)が極めて短いことが求められる用途では、HBMはある程度は引き続き投入される可能性が高いです。

また、HBMは依然としてAIモデル学習の主要なメモリの種類であり、TurboQuantはそれに影響しません。将来的には推論がより大きな市場になりますが、学習におけるHBM需要は引き続き増えていく可能性があります。現在HBMは供給が大幅に不足しており、さらにTurboQuantはまだGoogleのラボの外で実装されていないため、メモリ企業は、その供給成長を調整する時間を持てます。

ただし、供給調整すら不要かもしれません。Jevonのパラドックスが、DeepSeekのときと同様にTurboQuantにも当てはまる可能性があるからです。Jevonのパラドックスは、あるプロセスが効率化された結果、入力がより少なくて済むというよりも、むしろその資源に対する需要が増えることがあると述べています。効率が上がることで導入が進み、採用が広がり、より多くのユースケースが生まれるためです。

上位の多くのテクノロジー企業が、私たちはまだAI時代の始まりにいると考えているなら、TurboQuantが企業や消費者がAIを自社のビジネスに取り込む速度を加速させることになるでしょう。そうすれば、需要が上がっていく波は、すべての船を押し上げるはずです。

まとめると、このメモリ株の売り急ぎは好機になり得ます。Micronや関連する半導体の設備株はこの1年でまだ大きく上昇していますが、この「恐怖(scare)」は、過去1年の上昇局面を逃していたなら、初めての持ち分の追加や新規購入のチャンスになるかもしれません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン