AI・TurboQuantの技術的な説明は学術論争を鎮められるか?4月1日、ほぼ一週間沈黙した後、Googleが論争を呼んだ圧縮アルゴリズムTurboQuantの論文チームがついに反応した。しかし、この最新の「技術的な説明」も依然として議論を収束させていない。「核心技術の類似性」に関する非難に対し、Googleはランダム回転は標準的な技術であり、実験基準の誤りは事実に「重要ではない」と弁明した。3月最終週、Google公式ブログで大々的に宣伝されたこの論文は、単独で世界的なストレージチップ株価を崩壊させ、美光、SKハイニックス、サムスン電子などの時価総額が900億ドル超蒸発した。論文は、TurboQuantのような圧縮アルゴリズムが大規模言語モデルのKVキャッシュメモリの占有を少なくとも6倍削減し、速度は最大8倍向上し、精度は損なわないと指摘している。ウォール街のパニックは、もしソフトウェアがAIのメモリ需要を6倍圧縮できるなら、チップハードウェアの成長ロジックを書き換える必要が出てくることだ。しかし、逆転は早かった。3月27日、RaBitQの著者でチューリッヒ連邦工科大学の博士後期課程の高健揚は知乎に長文を投稿し、Googleチームに体系的な学術的問題があると指摘した。これにより、世論はGoogleの学術不正への追及に一気に傾いた。業界では、RaBitQが先行して独自の方法を提案し、TurboQuantはそれを基に最適化したが、適切な引用や尊重を与えず、不公正な軽視を行ったとの見方が一般的だ。4月1日、外部からの指摘に直面し、論文の第二著者Majid Daliriはついに登場し、OpenReviewプラットフォーム上で4点からなる「技術的な説明」を発表した。核心技術の新規性について、Googleは、TurboQuantの核心手法はRaBitQ由来ではないと弁明した。なぜなら、「ランダム回転は量子化の文献で標準的かつ遍在する技術」であり、RaBitQ登場前から広く使われていたからだ。TurboQuantの真の革新は、回転後の座標分布を導き出した点にある。しかし、学術界のルールは、もし誰かが「車」に「車輪」を最初に使い、完全な車を作った場合、その後の車の製作者が引用し感謝するのは基本的な学術的礼儀だ。Googleは先行者の成果を業界の常識のように軽視し、先行者の貢献を格下げしている。次に、RaBitQを「次善」と貶めた指摘について、論文の著者は、付録をよく見ていなかったために定数因子を見落とし、軽率な結論を出したと認めた。「最初は正直にその方法を次善と記述したが、詳細を調査した結果、RaBitQは実際に最適だったと判明し、チームはTurboQuantの原稿を更新中だ」と述べている。しかし、トップ会議の論文で、同行の核心理論に対して「付録を見落とした」ことを根拠に否定的評価を行うのは、その説得力に疑問が残る。三点目は、「相手を縛り付けて競争する」という指摘に対し、Majid Daliriは直接、「RaBitQの実行時比較を完全に省略しても、この論文の科学的影響と有効性はほぼ変わらない」と指摘した。なぜなら、TurboQuantの主な貢献は圧縮の質のトレードオフにあり、特定の高速化ではないからだ。以前、高健揚は公開書簡で、GoogleチームがRaBitQをテストした際はシングルコアCPUを使用し、マルチスレッドを停止していたと明かした。一方、TurboQuantのテストにはNVIDIA A100 GPUを用いた。速度比較は核心ではないとチームは主張しているが、論文中では速度も重要な売りの一つとして扱われている。最後に、Googleは回答の中で、「相手は悪意がある」と暗に示し、論文は2025年4月にarXivに公開されており、相手はほぼ1年近く学術的なルートで問題提起を行う時間があったにもかかわらず、論文が広く注目された後になって騒ぎ出したと指摘した。高健揚の以前の反応によると、2025年5月に両者はメールで非公開のやり取りを行い、2025年11月にはICLRの運営委員会とも連絡を取ったが、いずれも有効な回答は得られなかった。Googleが公式に論文を大規模に公開し、学術的な是正が差し迫る中、事態は一気に緊迫した。OpenReview上の研究者のコメントによると、これはより多くの注目を集めるべき深刻な問題だという。「実務の基礎を担う人々が無視され、大規模で影響力のある組織が自らの成果を大々的に宣伝しているのを見ると、非常に残念だ」とのこと。これを見て、科学というよりも、大手企業のPR戦争のように感じられる。同時に、TurboQuantの論文の査読者も意見を表明し、理論分析と実験結果に基づき高評価を与えたと述べている。「ただし、私も明確に指摘したいのは、RaBitQとTurboQuantはともにランダム回転を使用しており、TurboQuantの著者には、両者の設計差が性能にどう影響するか比較してほしいと求めている」と述べた。この査読者は、正しい学術的実践は論文中でRaBitQとTurboQuantの差異を詳細に議論することだが、査読時には「驚くべきことに、RaBitQは主論文の実験部分で一度しか言及されていなかった」とも付け加えた。否定できないのは、TurboQuantは技術的に商業的潜在性を持つという点だ。あるAI修士は知乎で、巨大モデル推論のシナリオにおいて、KVキャッシュのメモリ占有は単一カードで処理できるリクエスト数を直接決定し、推論サービスの最も重要な経済指標だと分析している。同じGPUであっても、並列処理量が6倍に増えれば、各リクエストの推論コストは理論上6分の1に下がる。毎日数十億回のAPI呼び出しを処理するAI企業にとって、これは大きなコスト削減となり、今回の株式市場の動揺の原因ともなった。Googleのこの論文は、4月末のトップ機械学習会議ICLR 2026で発表予定だが、まずはこの学術的な論争のハードルを越える必要がありそうだ。結末はまだ見えない。
Google再次发布“技术澄清”,引发全球存储股崩盘的论文争议
AI・TurboQuantの技術的な説明は学術論争を鎮められるか?
4月1日、ほぼ一週間沈黙した後、Googleが論争を呼んだ圧縮アルゴリズムTurboQuantの論文チームがついに反応した。しかし、この最新の「技術的な説明」も依然として議論を収束させていない。「核心技術の類似性」に関する非難に対し、Googleはランダム回転は標準的な技術であり、実験基準の誤りは事実に「重要ではない」と弁明した。
3月最終週、Google公式ブログで大々的に宣伝されたこの論文は、単独で世界的なストレージチップ株価を崩壊させ、美光、SKハイニックス、サムスン電子などの時価総額が900億ドル超蒸発した。論文は、TurboQuantのような圧縮アルゴリズムが大規模言語モデルのKVキャッシュメモリの占有を少なくとも6倍削減し、速度は最大8倍向上し、精度は損なわないと指摘している。
ウォール街のパニックは、もしソフトウェアがAIのメモリ需要を6倍圧縮できるなら、チップハードウェアの成長ロジックを書き換える必要が出てくることだ。
しかし、逆転は早かった。3月27日、RaBitQの著者でチューリッヒ連邦工科大学の博士後期課程の高健揚は知乎に長文を投稿し、Googleチームに体系的な学術的問題があると指摘した。これにより、世論はGoogleの学術不正への追及に一気に傾いた。
業界では、RaBitQが先行して独自の方法を提案し、TurboQuantはそれを基に最適化したが、適切な引用や尊重を与えず、不公正な軽視を行ったとの見方が一般的だ。
4月1日、外部からの指摘に直面し、論文の第二著者Majid Daliriはついに登場し、OpenReviewプラットフォーム上で4点からなる「技術的な説明」を発表した。
核心技術の新規性について、Googleは、TurboQuantの核心手法はRaBitQ由来ではないと弁明した。なぜなら、「ランダム回転は量子化の文献で標準的かつ遍在する技術」であり、RaBitQ登場前から広く使われていたからだ。TurboQuantの真の革新は、回転後の座標分布を導き出した点にある。
しかし、学術界のルールは、もし誰かが「車」に「車輪」を最初に使い、完全な車を作った場合、その後の車の製作者が引用し感謝するのは基本的な学術的礼儀だ。Googleは先行者の成果を業界の常識のように軽視し、先行者の貢献を格下げしている。
次に、RaBitQを「次善」と貶めた指摘について、論文の著者は、付録をよく見ていなかったために定数因子を見落とし、軽率な結論を出したと認めた。「最初は正直にその方法を次善と記述したが、詳細を調査した結果、RaBitQは実際に最適だったと判明し、チームはTurboQuantの原稿を更新中だ」と述べている。
しかし、トップ会議の論文で、同行の核心理論に対して「付録を見落とした」ことを根拠に否定的評価を行うのは、その説得力に疑問が残る。
三点目は、「相手を縛り付けて競争する」という指摘に対し、Majid Daliriは直接、「RaBitQの実行時比較を完全に省略しても、この論文の科学的影響と有効性はほぼ変わらない」と指摘した。なぜなら、TurboQuantの主な貢献は圧縮の質のトレードオフにあり、特定の高速化ではないからだ。
以前、高健揚は公開書簡で、GoogleチームがRaBitQをテストした際はシングルコアCPUを使用し、マルチスレッドを停止していたと明かした。一方、TurboQuantのテストにはNVIDIA A100 GPUを用いた。速度比較は核心ではないとチームは主張しているが、論文中では速度も重要な売りの一つとして扱われている。
最後に、Googleは回答の中で、「相手は悪意がある」と暗に示し、論文は2025年4月にarXivに公開されており、相手はほぼ1年近く学術的なルートで問題提起を行う時間があったにもかかわらず、論文が広く注目された後になって騒ぎ出したと指摘した。
高健揚の以前の反応によると、2025年5月に両者はメールで非公開のやり取りを行い、2025年11月にはICLRの運営委員会とも連絡を取ったが、いずれも有効な回答は得られなかった。Googleが公式に論文を大規模に公開し、学術的な是正が差し迫る中、事態は一気に緊迫した。
OpenReview上の研究者のコメントによると、これはより多くの注目を集めるべき深刻な問題だという。「実務の基礎を担う人々が無視され、大規模で影響力のある組織が自らの成果を大々的に宣伝しているのを見ると、非常に残念だ」とのこと。これを見て、科学というよりも、大手企業のPR戦争のように感じられる。
同時に、TurboQuantの論文の査読者も意見を表明し、理論分析と実験結果に基づき高評価を与えたと述べている。
「ただし、私も明確に指摘したいのは、RaBitQとTurboQuantはともにランダム回転を使用しており、TurboQuantの著者には、両者の設計差が性能にどう影響するか比較してほしいと求めている」と述べた。この査読者は、正しい学術的実践は論文中でRaBitQとTurboQuantの差異を詳細に議論することだが、査読時には「驚くべきことに、RaBitQは主論文の実験部分で一度しか言及されていなかった」とも付け加えた。
否定できないのは、TurboQuantは技術的に商業的潜在性を持つという点だ。あるAI修士は知乎で、巨大モデル推論のシナリオにおいて、KVキャッシュのメモリ占有は単一カードで処理できるリクエスト数を直接決定し、推論サービスの最も重要な経済指標だと分析している。同じGPUであっても、並列処理量が6倍に増えれば、各リクエストの推論コストは理論上6分の1に下がる。毎日数十億回のAPI呼び出しを処理するAI企業にとって、これは大きなコスト削減となり、今回の株式市場の動揺の原因ともなった。
Googleのこの論文は、4月末のトップ機械学習会議ICLR 2026で発表予定だが、まずはこの学術的な論争のハードルを越える必要がありそうだ。結末はまだ見えない。