GoogleのAI論文が崩壊、900億ドルのストレージ株を失い、実験の捏造が指摘される

原文作者:深潮 TechFlow

Google は「AI のメモリ使用量を 1/6 に圧縮する」ことであるとしている論文を 1 本公開し、先週それが Micron や SanDisk などの世界的なストレージ半導体株の時価総額を合わせて 900 億ドル超も蒸発させる事態を引き起こしました。

しかし論文の公開からわずか 2 日後、アルゴリズムの「圧倒」を裏付ける対比の相手――スイス連邦工科大学(ETH Zurich)のポスドク研究員である 高健扬 が、1 万字に及ぶ公開書簡を発表し、Google チームが実験でシングルコア CPU の Python スクリプトで相手をテストした一方、自分たちは A100 GPU でテストし、投稿前に問題を指摘されていたにもかかわらず修正を拒否したと告発しました。知乎(Zhihu)の閲覧数は急速に 400 万を突破し、Stanford NLP の公式アカウントが転送(リポスト)し、学界と市場の両方を同時に揺さぶりました。

この論争の核心は、実はそれほど複雑ではありません。Google 公式が大規模に直接宣伝し、グローバルな半導体セクターに恐慌的な投げ売りを引き起こした AI 会議トップレベルの論文は、すでに発表済みの先行研究をシステマティックに歪めていないか。そして、故意に不公平な実験を作り出すことで、見せかけの性能優位という物語を形成していないか?

TurboQuant は何をしたのか:AI の「下書き用紙」を元の 6 分の 1 に薄くする

大規模言語モデルが回答を生成するときは、書きながら、前に計算した内容を振り返って確認する必要があります。こうした中間結果は、一時的に GPU メモリ(VRAM)に保存されます。業界ではこれを「KV Cache」(キー・バリュー・キャッシュ)と呼びます。対話が長くなるほど、この「下書き用紙」は厚くなり、VRAM の消費も増え、コストも高くなります。

Google の研究チームが開発した TurboQuant のアルゴリズムは、最大の売りがこの下書き用紙を元の 1/6 に圧縮することです。同時に、精度はゼロ損失で、推論速度は最大 8 倍に向上するとも謳っています。論文は 2025 年 4 月に学術プレプリントプラットフォーム arXiv で初めて公開され、2026 年 1 月に AI 分野のトップ会議 ICLR 2026 で受理され、3 月 24 日に Google 公式ブログで再包装して宣伝されました。

技術面では、TurboQuant の発想はシンプルに次のように理解できます。まず、数学的変換によってごちゃごちゃしたデータを統一フォーマットに「洗う」。次に、あらかじめ算出された最適な圧縮テーブルでデータを 1 つずつ圧縮する。最後に、1 ビットの誤り訂正メカニズムで、圧縮が引き起こす計算上のズレを修正する。コミュニティによる独立実装が、その圧縮効果は概ね妥当であることを検証しています。アルゴリズム層の数学的貢献は、実在します。

争点は TurboQuant が使えるかどうかではなく、Google が「競合に比べてはるかに優れている」ことを証明するために、何をしたのかです。

高健扬 公開書簡:3 つの指摘、どれも核心を突く

3 月 27 日の夜 10 時、高健扬 は知乎に長文を投稿し、同時に ICLR の公式査読プラットフォーム OpenReview に正式なコメントを提出しました。高健扬 は RaBitQ アルゴリズムの第一著者であり、このアルゴリズムは 2024 年にデータベース分野のトップ会議 SIGMOD で発表されました。解く対象は同種の問題――高次元ベクトルの効率的な圧縮です。

彼の指摘は 3 つで、それぞれにメール記録とタイムラインによる裏付けがあります。

指摘 1:他人の中核手法を使いながら、論文全編で触れない。

TurboQuant と RaBitQ の技術的コアには、重要な共通ステップがあります。圧縮データの前に、データに対して「ランダム回転」を行うことです。この操作の役割は、元々は不規則だったデータ分布を、予測可能な一様分布に変えて、圧縮の難易度を大幅に下げることです。これは、2 つのアルゴリズムの最も核心で、最も近い部分です。

TurboQuant の著者は査読への返信の中でもこの点を認めていますが、論文全文では、この手法と RaBitQ との関連を正面から説明したことは一度もありません。さらに重要な背景は、TurboQuant の第二著者 Majid Daliri が 2025 年 1 月に自ら高健扬チームへ連絡し、RaBitQ のソースコードをもとに書き換えた自分の Python バージョンのデバッグを手伝ってほしいと依頼していたことです。メールには再現手順やエラー情報が詳細に記述されていました。言い換えれば、TurboQuant チームは RaBitQ の技術的詳細を非常によく理解していました。

ICLR の匿名査読者の 1 人も独立に、両者が同じ技術を使っていることを指摘し、十分な議論を求めました。しかし最終版の論文では、TurboQuant チームは追加で議論するどころか、もともとの本文中にあった RaBitQ への(すでに不完全な)記述を付録へ移してしまいました。

指摘 2:根拠なく相手の理論を「劣っている」と言う。

TurboQuant の論文は、RaBitQ に対して直接「理論的に劣っている(suboptimal)」というラベルを貼り付けています。理由は、RaBitQ の数学的分析が「やや粗い」からだというものです。しかし高健扬 は、RaBitQ の拡張版論文では、圧縮誤差が数学的に最適な上界に達することを、すでに厳密に証明していると指摘しました。この結論は、理論計算機科学のトップ会議で発表されています。

2025 年 5 月、高健扬 チームは、複数回のメールで RaBitQ の理論上の最適性を詳細に説明していました。TurboQuant の第二著者 Daliri も、全著者に対して共有済みであることを確認していました。にもかかわらず、論文の最終版では依然として「劣っている」という表現が残され、何ら反駁の根拠は提示されていません。

指摘 3:実験対比で「左手で縛って右手で刀を持たせる」。

これは本文全体で最も致命的な一つです。高健扬 は、TurboQuant の論文における速度比較実験では、2 層の不公平な条件が重ねられていると指摘しています。

第一に、RaBitQ 公式が最適化済みの C++ コード(デフォルトでマルチスレッド並列に対応)を提供しているのに、TurboQuant チームはそれを使わず、自分たちが翻訳した Python バージョンで RaBitQ をテストしていたこと。第二に、RaBitQ をテストするときはシングルコア CPU でマルチスレッドを無効化していたのに対し、TurboQuant では NVIDIA A100 GPU を使っていたことです。

これら 2 つの条件を組み合わせると、読者が見る結論は「RaBitQ は TurboQuant より数桁遅い」になります。しかし、その結論が前提としているのが、Google チームが相手を縛り上げてから試合を走らせた後のものだということは、読者には分からない状態になります。論文では、こうした実験条件の差異が十分に開示されていません。

Google の反応:「ランダム回転は汎用技術で、毎回の論文に全部は引用できない」

高健扬 の開示によれば、TurboQuant チームは 2026 年 3 月のメール返信で次のように述べたといいます。「ランダム回転と Johnson-Lindenstrauss 変換の使用は、その分野の標準技術であり、これらの方法を使っている論文をすべて引用することは不可能だ」。

高健扬 チームは、これは概念のすり替えだと考えています。問題は、ランダム回転を使った論文をすべて引用するかどうかではありません。RaBitQ はまったく同一の問題設定下で、最初にこの方法をベクトル圧縮と結び付け、最適性を証明した研究である。したがって TurboQuant の論文は、両者の関係を正確に説明すべきだ、ということです。

Stanford NLP Group の公式 X アカウントが高健扬の声明を転送しました。高健扬 チームは ICLR OpenReview プラットフォーム上で公開コメントを掲載済みで、ICLR 大会の議長および倫理委員会にも正式な苦情を提出し、その後も arXiv に詳細な技術レポートを公開する予定です。

独立系の技術ブロガー Dario Salvati は分析の中で、比較的中立な評価を提示しました。TurboQuant は数学的手法において確かに実在する貢献があるが、RaBitQ との関係は、論文の記述よりもはるかに密接だ、というものです。

時価総額 900 億ドル蒸発:論文論争が市場の恐慌に重なる

今回の学術論争が起きた時点は極めて微妙です。Google が 3 月 24 日に公式ブログで TurboQuant を発表した後、世界のストレージ半導体セクターは激しい投げ売りに遭いました。CNBC など複数のメディアによれば、Micron は 6 取引日連続で下落し、累計下落率は 20% 超でした。SanDisk は 1 日で 11% 下落。韓国の SK 海力士(SK hynix)は約 6% 下落、Samsung Electronics はほぼ 5% 下落、日本の Kioxia は約 6% 下落。市場の恐慌ロジックはシンプルかつ乱暴です。ソフトウェア圧縮によって AI 推論のメモリ需要が 6 倍低下し、ストレージ半導体の需要見通しは構造的に引き下げられるはずだ、というものです。

モルガン・スタンレーのアナリスト Joseph Moore は 3 月 26 日のリサーチノートで、このロジックに反論し、Micron と SanDisk の「買い増し(add)」評価を維持しました。Moore は、TurboQuant が圧縮しているのは KV Cache という特定タイプのキャッシュであり、メモリ使用量全体ではないと指摘し、これを「通常の生産性(効率)改善」と位置づけました。ウェルズ・ファーゴのアナリスト Andrew Rocha も、ジェボンズのパラドックスを引用し、効率改善によってコストが下がれば、むしろより大規模な AI 展開が促され、最終的にメモリ需要が押し上げられる可能性がある、と述べました。

旧論文、新包装:AI 研究から市場の物語への伝導チェーンのリスク

技術ブロガー Ben Pouladian の分析によると、TurboQuant の論文は 2025 年 4 月にはすでに公開されており、新しい研究ではありません。3 月 24 日に Google が公式ブログで再包装して宣伝した一方で、市場はそれをまったく新しいブレークスルーとして値付けしました。こうした「旧論文、新発表」の宣伝戦略は、さらに論文中にありうる実験上の偏りが重なって、AI 研究が学術論文から市場の物語へ伝わる伝導チェーンにおけるシステマティックなリスクを映し出しています。

AI インフラ投資家の観点では、ある論文が「数桁にわたる」性能向上を実現したと主張する場合、まず確認すべきは、ベンチマーク比較の前提条件が公平なのかどうかです。

高健扬チームは、問題の正式な解決に向けて引き続き推進することを明確にしています。Google は公開書簡に対する具体的な指摘について、現時点では正式な回答をしていません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • 人気の Gate Fun

    もっと見る
  • 時価総額:$2.27K保有者数:2
    0.00%
  • 時価総額:$2.37K保有者数:2
    1.04%
  • 時価総額:$2.24K保有者数:1
    0.00%
  • 時価総額:$2.24K保有者数:1
    0.00%
  • 時価総額:$2.25K保有者数:1
    0.00%
  • ピン