血洗内存股900億ドルのGoogle AI論文、なんと学術不正の疑い

株式投資は金麒麟のアナリストによるリサーチレポートを見ればよい。権威的で、プロフェッショナルで、タイムリーで、包括的。潜在的なテーマのチャンスを掘り起こすお手伝いをします!

(出典:マシーン・ヒーシンPro)

編集|ゼナン、ヤン・ウェン

まさか今回これだけ大規模な市場の震動を引き起こすとは思わなかった。そして学術の“ビッグニュース”まで飛び出してきた。

今週金曜の夜、グーグルの学術不正事件がAI界隈の注目の的になった。

チューリッヒ連邦工科大学(ETH Zurich)の博士研究員・ガオ・ジエンヤンが知乎に記事を投稿し、Google Researchの論文「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」には、既存のRaBitQベクトル量子化アルゴリズムに関する記述、理論結果の比較、実験の比較のいずれも重大な問題があり、しかも関連する問題は論文投稿前からすでに明確に指摘されていたにもかかわらず、著者側が故意に無視していたと述べた。

一面をひっくり返す「メインライン」ロジック会社のAI研究として、TurboQuantの業界での価値が疑いようもないのは確かだ。しかし、グーグルが神壇に押し上げ、数千万規模の露出を持つICLRのトップ会議論文で、その最核心の技術基盤が「盗用」の疑いに深く沈んでいるとは、誰が思えただろうか。

メモリ関連株を揺るがせたTurboQuant

グーグルのTurboQuant論文は最近、AI研究分野で一気に話題になっている。世界のAI研究トップ会議ICLR 2026に採択されたこの論文は、圧縮アルゴリズムを紹介しており、大規模言語モデルのKVキャッシュのメモリ使用量を少なくとも6倍削減し、速度は最大8倍向上し、精度はゼロ損失だと主張している

TurboQuantは2025年4月にプレプリント論文プラットフォームarXivで公開され、2026年1月にICLR 2026に採択され、3月24日にグーグル研究ブログで紹介されたことで大量の注目を集めた。

グーグルがX上で行った宣伝投稿の閲覧数は1,000万を超えた。

AI大規模モデルの推論では、AIが新しい単語を生成するたびに「対話履歴」(コンテキスト)を「参照」する必要がある。この部分はKVキャッシュに保存される。そのためKVキャッシュの使用メモリが、大規模モデルの速度とコストを制限する最大のボトルネックになることが多い。TurboQuantが提案した極限のロスレス圧縮手法の効果は驚異的で、大規模モデルの実行に必要なハードウェア資源を大幅に削減できるため、メモリーチップが爆発的に伸びるという市場の見通しに直接打撃を与えた。

グーグルのブログが公開された当日、米国のメモリ株は連れ安で大幅下落し、サンディスクは一時6.5%下落、シーゲート・テクノロジーは5%以上下落、ウエスタンデジタルは4%以上下落、マイクロン・テクノロジーは4%下落した。市場で1日で蒸発した時価総額は900億米ドルを超えた

グーグルが大々的に宣伝したこの技術は、いったいどのようにして実現したのか?簡単に言えば、それは、メモリ消費の“行き詰まり”を見事に解く一連の巧妙な方法を用いている。

TurboQuantは二段階の圧縮でこの目標を実現している。第一段階では「ランダム回転」およびPolarQuantのメカニズムを用いて高次元ベクトルを極座標へ写像し、極限まで圧縮する。第二段階では、Quantized Johnson-Lindenstrauss (QJL)変換を用い、内積計算の誤差の偏差を補正するのに、空間はわずか1 bitだけを使う。

しかし、まさにこの部分の技術が、学術スキャンダルを爆発させる引き金になった。

ETH Zurichのガオ・ジエンヤン博士は証拠を挙げ、このグーグルが宣伝する「革命的」な中核メカニズムはグーグル独自のものではなく、2年前には彼のチームがすでに完全に提案していたと述べた。

さらに怒りを誘うのは、グーグルが論文の中で、先行技術をあえて「回避」し「薄めた」ことだ。

RaBitQの著者が公開で疑問を投げかけた:

TurboQuantの核心的な方法は、2年前から存在していた

RaBitQシリーズの論文は2024年に発表され、高次元ベクトルの量子化手法を提案し、理論的に、理論計算機科学のトップ会議論文が提示する漸近的に最適な誤差上界に到達していることを証明した。

RaBitQと拡張版は、それぞれトップ会議SIGMOD 2024およびSIGMOD 2025に掲載された。

RaBitQの核心的な考えの一つは、量子化の前に入力ベクトルへランダム回転(random rotation / Johnson-Lindenstrauss変換)を適用し、回転後の座標分布の性質を利用してベクトル量子化を行うことで、理論的に最適な誤差上界を実現する点にある。

一方、TurboQuantの方法の核心も同様に、量子化の前に入力ベクトルへランダム回転(Johnson-Lindenstrauss変換)を適用することにある。これは、TurboQuantの著者自身がICLRの査読対応で自ら口で説明していることでもある。

しかし、TurboQuantの論文は終始、RaBitQとの方法上の直接の関連をあえて回避し、逆に本文中でRaBitQをgrid-based PQとして描写し、描写の中ではRaBitQの核心となるrandom rotationのステップを意図的に無視して、両者の継承関係をわざと曖昧にしている。

TurboQuantの第二著者Majid Daliriは、早くも2025年1月からガオ・ジエンヤンに自ら連絡し、本人がPythonで再現したRaBitQコードのデバッグ協力を依頼していた。これは、TurboQuantチームがRaBitQの技術的な細部を非常によく把握していたことを示している。

それなら、なぜ原著者にすでに知っていて相談までしていたのに、最終論文では適切な引用や客観的な比較を行わなかったのか?

ガオ・ジエンヤンチームは、これらの問題を見つけた後、学術的な厳密さの精神に則り、2025年5月からメールでTurboQuantチームと複数回の非公開のやりとりを行い、その中の事実関係の誤りを明確に指摘した。

しかしTurboQuantチームは、「ランダム回転は領域における標準技術になっており、その方法を使うすべての論文を引用できない」という理由で修正を拒否した。その後、この論文はICLR 2026にまで押し上げられ、さらに世界的な注目の的となった。

こうした学術的な物語が訂正されなければ、やがてそれが共通認識になっていく。ガオ・ジエンヤンチームは最終的に、いくつかの告発項目を挙げた。

具体的な3つの指摘

ガオ・ジエンヤンは記事の中で、3つの具体的な問題を列挙している。

第一に、技術の類似性を体系的に回避していること。

TurboQuantは、2つの方法の構造的なつながりを正面から議論できていないだけでなく、そもそも本文にあったRaBitQの不完全な説明を付録へ移してしまった。この行動は、査読者がすでに「RaBitQ and variants are similar to TurboQuant in that they all use random projection」と明確に指摘し、さらに十分に議論するよう求めた後に起きたものだ。

TurboQuantの著者の回答は、「ランダム回転とJohnson-Lindenstrauss変換の使用はこの分野における標準技術であり、これらの方法を使っているすべての論文を引用することはできない」というものだった。

ガオ・ジエンヤンチームは、この応答は論点のすり替えだと考えている。同一の問題設定のもとで最初にランダム回転(Johnson-Lindenstrauss変換)とベクトル量子化を組み合わせ、最適な理論的保証も構築した具体的な先行研究として、RaBitQは本文で正確に説明されるべきであり、そのTurboQuantとの方法上の関連は十分に議論されるべきだ。

第二に、RaBitQの理論結果を誤って記述していること。

TurboQuantの論文では、RaBitQの理論保証を定性的に「次優(suboptimal)」とし、「より粗い分析(loose analysis)」に起因するとしているが、いかなる導出、比較、証拠も提示していない。

事実は、拡張版RaBitQ論文(arXiv:2409.09913)のTheorem 3.2において、RaBitQの誤差上界が理論計算機科学トップ会議論文(Alon-Klartag, FOCS 2017)が提示する漸近的に最適な誤差上界にすでに厳密に到達していることが証明されているという点だ。この結果ゆえに、ガオ・ジエンヤンチームは理論計算機科学トップ会議FOCSのワークショップで報告に招かれた。

2025年5月、ガオ・ジエンヤンチームはTurboQuantの第二著者Majid Daliriと複数ラウンドにわたる詳細なメールによる技術的議論を行い、誤った解釈を1項目ずつ明確化した。Majid Daliriも、全共同著者に対してすでに伝えたと明確に述べていた。しかし、この誤った定性評価は、論文が完全な査読を経て受理され、大規模に宣伝されるまでの全プロセスを通じて、最後まで修正されなかった。

第三に、不公平な実験条件を意図的に作り出していること。

TurboQuantの論文がRaBitQの速度をテストするとき、公式に公開されたオープンソースのC++実装は使わず、代わりにMajid Daliri自身が翻訳したPython版を使用し、さらにRaBitQを単一コアCPUで、マルチスレッドを無効にした条件下で実行し、一方TurboQuant自身はNVIDIA A100 GPUでテストしている。この二重の体系的に不公平な条件は、論文内で明確に開示されていない。

Majid Daliri本人は、2025年5月のメールで単一コアの制約があることを認めていた。しかし、論文はその結果として導かれる「RaBitQはTurboQuantより数桁遅い」という結論を読者に提示したまま、何の説明も付けていなかった。

公開して声を上げる選択

ガオ・ジエンヤンは、彼らが2025年11月にTurboQuantがICLR 2026に投稿されたことを発見すると、すぐにICLR Program Committee Chairsに連絡したが、何の返答も得られなかったと述べた。

2026年1月に論文が正式に受理された後、グーグルは公式ルートを通じて大規模に宣伝し始め、関連内容はソーシャルメディア上での閲覧が急速に数千万回に達した。

2026年3月、ガオ・ジエンヤンチームは再びTurboQuantの全著者に対して正式な書簡を送り、説明と訂正を求めた。現時点で受け取った返信は第一著者Amir Zandiehからで、ICLRの会議が正式に終了した後に問題2と問題3を修正することは約束したが、技術の類似性の問題については一切議論しないという姿勢だった。

ガオ・ジエンヤンはICLR OpenReviewプラットフォームに公開コメントを投稿し、さらにICLR General Chairs、PC Chairs、Code and Ethics Chairsに、完全な証拠を含む正式な申し立てを提出した。同時に、arXiv上でTurboQuantとRaBitQに関する詳細な技術レポートを公開し、関連機関へのさらなる働きかけを行う選択肢も保持すると述べた。

彼は論文末尾にこう書いている。「数千万回の露出量でGoogleが論文を公衆に押し出した場合、この規模では、論文内の誤った物語は自ら拡散する必要はなく、訂正されないだけで自動的に共通認識になる。

現時点で、ガオ・ジエンヤンらの主張は多くの人から支持されている。

多くの人が、AI研究においてグーグルがこうしたやり方をするのは今回が初めてではないと言っている。

おそらくグーグルとICLRの公式側は説明を出す必要があるのだろう。

参考内容:

大量の情報、精密な解説は、Sina Finance APPの中へ

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン