株をやるなら、金麒麟のアナリストがまとめたリサーチレポートを見てください。権威的で、専門的で、タイムリーで、網羅的——潜在テーマやチャンスの掘り起こしをお手伝いします!
(出所:NetEaseテック)
これが、GoogleのTurboQuantがこんな騒ぎを起こさなければ、私は、私たちがAIにあれだけ待たされていたことに、気づかなかったでしょう。
今月24日、Google Research(グーグル研究院)が突然投稿し、TurboQuantという名の極端な圧縮アルゴリズムについて詳しく紹介しました。
この投稿は、TurboQuantというアルゴリズムの用途をとても簡単にまとめています——大規模モデルの推論時におけるKVキャッシュのメモリを3.5 bit(約6倍)まで圧縮でき、しかも精度をほとんど落とさない、というものです。
平たく言うと、Google Researchが紹介したのは、大規模モデルがメモリを消費する量を大幅に減らせるアルゴリズムです。以前は600Gのメモリでないとできなかったことが、このアルゴリズムを使えば100Gで済む!
翌日、鍋をつついて歌っていたストレージ大手の株価が、その場で急落しました。
Micron Technologyの株価は3.4%下落し、時価総額の損失は151.66億ドル。SanDisk(サンディスク)の株価は一時6.5%下落し、引けでは下落幅が3.5%に縮小、時価総額の損失は36.3億ドル。Western Digital(ウエスタンデジタル)は1.63%下落し、時価総額の損失は16.64億ドル。
図表の出所:新浪财经
AI業界全体が大騒ぎになり、皆がこぞって分析を始めました。TurboQuantは一体どこがすごいのか、そしてどう影響するのか、と。
ClaudflareのCEOですら文を書いて評価し、「これはGoogleのDeepSeekの瞬間だ」と言いました。
仲間の何人かはこのニュースを見て、布団の中で笑いが止まらないかもしれません。「やってくれた!次のメモリやソリッドステートドライブ(SSD)も、ついでに下がるのかな?自作PC勢って、ついに報われるのか?」
私はもちろん、この方向に事が進むのを願っています。
この、いちばん素朴な願いが叶うか確かめるために、私は特地に下調べをして、TurboQuantがそもそも何なのか学びました。
しかし、TurboQuantが「どれくらいターボ」なのか理解する前に、180度の大逆転が起きました——
3月27日夜10時、スイス連邦工科大学チューリッヒ校のポスドク、高健扬氏が、知乎、X、そしてICLRの審査プラットフォームで同時に投稿し、当初GoogleがTurboQuantアルゴリズムを紹介する際に使った論文に重大な学術的不正があると告発しました。
高氏によれば、GoogleのTurboQuantは、自身のチームが作ったRaBitQアルゴリズムと高度に「ぶつかっている」。根幹ではどちらも「ランダム回転+JL変換」を使っているとのことです。
「英雄の見ているところは同じ」という程度ならまだしも、常軌を逸していたのは、高氏が突きつけたメールの内容です。そこでは、2025年1月の時点ですでにGoogleのこの論文の2作目(Majid)が、わざわざメールで高氏に助けを求め、「RaBitQのコードをどう通せばいいか」を、ひそひそと頭を下げるように相談していたとされています。
つまり、Googleのやり方は、人の手の内をすべて見抜いたうえで、勝利の清算の場では他人が何をしたかまったく触れない、ということに当たるのではないでしょうか?
出所の隠蔽だけでなく、GoogleのTurbo Quantチームは既に決まっている数学的な証明まで無視し、論文の中で口先だけで高氏の理論を強く否定したのです。
高氏は、自分のRaBitQのアルゴリズムが、理論計算機分野のトップ会議レベルで一流基準に厳密に到達していると考えています。
ところがTurboQuantチームは、導出すら見ず、証拠もないまま、本文の中で高氏に対して「理論的に劣る、分析が雑だ」というレッテルを貼りました。
しかし、さらに堪えがたいのは、Googleによる「魔法みたいな」スコア(ベンチマーク)のダブルスタンダードです。
論文では、自分たちのアルゴリズムがRaBitQよりもいくつもの桁速いと吹聴していますが、その裏で行われた密室の操作は非常に下品でした。
Googleは自分には計算力の怪物A100 GPUを割り当て、対戦相手にはマルチスレッドをオフにしたCPUを用意しました。
さらに、既成で高度に最適化されたC++のオープンソースコードがあるのに、それを使わず、TurboQuant論文の2作目が自作した半端な翻訳版であるPythonバージョンを使って実行させたのです。結果として、高氏のアルゴリズムにはもう一段階のdebuff(弱体化要因)が重なりました。
昨年5月のメールでは、この論文の2作目の著者自身が、「シングルコアでマルチコアを殴る」という非対称操作があったことを、本人の口から認めています。そして、それを他の共同著者にも共有していたことも認めています。
しかし、最終的に発表された論文では、この2層の差が生む「量が質を変える」ようなレベルのソフト/ハード情報が、完全に消し去られていました。
同時に、TurboQuant論文の著者も、自分たちのアルゴリズムが高氏のRabitQと構造的に似ている点について、認めることを拒否しました。
この明確に重大な誤りを含む論文は、ICLR 2026会議に採択され、そののち、冒頭で話したように、Google Researchの公式チャネルを通じて大規模にこの論文が宣伝されることになりました。
Google Researchは、TurboQuantがどれほどすごいか、どれだけメモリを節約できるかだけを述べましたが、そのTurboQuantを支えるこの論文自身に存在する数々の誤りについては、一言も触れていません。
こうした宣伝は、SNSの閲覧数が数千万回に達したため、先週の上位ストレージメーカー数社の株式市場が震えることにつながりました。
高氏も、おそらく我慢の限界だったのでしょう。だからこそ文章を出して公に「実証」を突きつけたのです。
するとストレージ市場側も、第一波の震えから徐々に落ち着きを取り戻してきました。
Amir Zandiehが高氏のメールに返信した当日、Micron Technology(MU)の株は当日+0.5%、出来高は162.46億ドルでしたが、今週の累計ではなお15.5%下落しています。
皆さんは、この話を聞いてどんな気持ちになるでしょうか。
私は、自分が瓜畑で反応が遅いあの猹(かわうそみたいな生き物)みたいだと思いました。仲間たちがその瓜(うり)を食べ終えて、次の瓜へ行こうとしているのを見ながら、「自分は置いていかれるのでは」と心配していた。
ところが振り向くと、猹兄たちはもう噴射していました——この瓜は、毒がある。
さらにわけがわからないのは、このように明らかな誤りを含む論争論文が、1年たってからやっとGoogleが宣伝に使ったというのに、私たちは高氏が出てきてGoogleを実打した直前まで、誰も立ち上がって異議を唱えるのを聞いたことがなかったように思えることです。
市場は黙っていて、ただ揺れただけ。そして、いわゆるAI業界はただの大騒ぎでした——ついに、AI大規模モデルがメモリをむさぼる問題を治す人が現れた。
理性的な分析を保っている数少ない機関や国内の自媒体も、この件が「ウォール街の古い格言」である「ジェヴンズのパラドックス(杰文斯悖论)」に完全に一致しているだけだと指摘しただけでした。
TurboQuantは確かに長文推論のコストを下げますが、ハードルが下がれば、メーカーは必ず手を広げて開発を進めます——
いま国内モデルのコンテキストウィンドウの主流標準は200K-256Kで、少数が1Mに到達しています。
しかし海外の主流モデルはすでに1Mにできています。あなたたちは、このアルゴリズムがあれば海外モデルが優位を広げようと思わないとでも?国内モデルが追い上げに奮起しないとでも?
そのうち、多種多様なマルチモーダルや長いコンテキストのアプリが大量にリリースされます。より便利になることで使う人や利用シーンが何倍にも増えれば、世界で本当に必要な計算資源やストレージ用ハードウェアは、節約できるどころか、巨大な需要量に直接「爆発的に」押し上げられるはずです。
ただ、TurboQuantが本当にそこまで「すごい」のかを疑う声は、なぜかかき消されてしまったようです。つまり、人口のかなりの部分が、裏取りもせず、学術界の実態を調べもせず、GoogleのこのTurboQuantが確かに世界を変えると、当然のように受け入れてしまったということです。
もちろん、私がこう言っているのは、誰かを批判するためではありません。私自身も、TurboQuantの報道を見たときは、子どものように喜んでいました。
はっきり言いたいのは、GoogleのTurboQuant騒動が露呈したのは、皆がAIに対して不満を感じて耐えられないということです。
AIというハードウェアの「金食い虫」を育てるために、私たちはもうあまりにも多くを我慢してきました。
去年末から、スマホのような、ほぼ誰もが一台持っている電子製品ですら、メモリ価格の高騰で値上がりしてきました。
図表の出所:「锌刻度」李觐麟
このとき、事態の性格が変わりました——高価なAIは結局、みんなが一緒に負担することになる。
しかも皮肉なことに、これまで誰もはっきり説明できていません。AIは一体どれほどの生産力をもたらし、どれほどの便利さをもたらすのか、と。
今年のはじめに、Anthropicが「AIが労働市場に与える影響」に関する重大な研究を発表しました。
研究によると、現時点ではAIを使っているのは特定の職業に限られており、またAIがそれらの仕事に浸透している度合いも、想像されていたほど高くないとのことです。
図表の出所:Anthropic
つまり、この業界では実際の浸透率が高くなく、ごく一部の人を儲けさせるのに役立っているだけで、実際にはそれほど使い勝手がいい製品ではない。それがもたらすマイナスの影響が、まさに社会全体に請求書を回しているのです。。。
このとき、もし「AIの食欲を少しでも小さくして、値上げに巻き込まれないようにしてくれる何かがある」と教えてくれるニュースがあれば——それが本当であることを私はきっと期待するでしょう。
たぶん、それが、誤りのある論文であって、商用投入されていないアルゴリズムであっても、これほど大きな騒ぎを引き起こせた理由なのかもしれません。
とはいえ、残念ながら、これらは最終的にただのドタバタ騒ぎだったと証明されました。
執筆:施昂
編集:早起&米罗
大量の情報、精密な解釈——新浪财经APPで提供します
126.36K 人気度
213.81K 人気度
21.42K 人気度
104.73K 人気度
1.24M 人気度
メモリメーカーが百億円以上の暴落、結局はただの誤解だった?
(出所:NetEaseテック)
これが、GoogleのTurboQuantがこんな騒ぎを起こさなければ、私は、私たちがAIにあれだけ待たされていたことに、気づかなかったでしょう。
今月24日、Google Research(グーグル研究院)が突然投稿し、TurboQuantという名の極端な圧縮アルゴリズムについて詳しく紹介しました。
この投稿は、TurboQuantというアルゴリズムの用途をとても簡単にまとめています——大規模モデルの推論時におけるKVキャッシュのメモリを3.5 bit(約6倍)まで圧縮でき、しかも精度をほとんど落とさない、というものです。
平たく言うと、Google Researchが紹介したのは、大規模モデルがメモリを消費する量を大幅に減らせるアルゴリズムです。以前は600Gのメモリでないとできなかったことが、このアルゴリズムを使えば100Gで済む!
翌日、鍋をつついて歌っていたストレージ大手の株価が、その場で急落しました。
Micron Technologyの株価は3.4%下落し、時価総額の損失は151.66億ドル。SanDisk(サンディスク)の株価は一時6.5%下落し、引けでは下落幅が3.5%に縮小、時価総額の損失は36.3億ドル。Western Digital(ウエスタンデジタル)は1.63%下落し、時価総額の損失は16.64億ドル。
図表の出所:新浪财经
AI業界全体が大騒ぎになり、皆がこぞって分析を始めました。TurboQuantは一体どこがすごいのか、そしてどう影響するのか、と。
ClaudflareのCEOですら文を書いて評価し、「これはGoogleのDeepSeekの瞬間だ」と言いました。
仲間の何人かはこのニュースを見て、布団の中で笑いが止まらないかもしれません。「やってくれた!次のメモリやソリッドステートドライブ(SSD)も、ついでに下がるのかな?自作PC勢って、ついに報われるのか?」
私はもちろん、この方向に事が進むのを願っています。
この、いちばん素朴な願いが叶うか確かめるために、私は特地に下調べをして、TurboQuantがそもそも何なのか学びました。
しかし、TurboQuantが「どれくらいターボ」なのか理解する前に、180度の大逆転が起きました——
3月27日夜10時、スイス連邦工科大学チューリッヒ校のポスドク、高健扬氏が、知乎、X、そしてICLRの審査プラットフォームで同時に投稿し、当初GoogleがTurboQuantアルゴリズムを紹介する際に使った論文に重大な学術的不正があると告発しました。
高氏によれば、GoogleのTurboQuantは、自身のチームが作ったRaBitQアルゴリズムと高度に「ぶつかっている」。根幹ではどちらも「ランダム回転+JL変換」を使っているとのことです。
「英雄の見ているところは同じ」という程度ならまだしも、常軌を逸していたのは、高氏が突きつけたメールの内容です。そこでは、2025年1月の時点ですでにGoogleのこの論文の2作目(Majid)が、わざわざメールで高氏に助けを求め、「RaBitQのコードをどう通せばいいか」を、ひそひそと頭を下げるように相談していたとされています。
つまり、Googleのやり方は、人の手の内をすべて見抜いたうえで、勝利の清算の場では他人が何をしたかまったく触れない、ということに当たるのではないでしょうか?
出所の隠蔽だけでなく、GoogleのTurbo Quantチームは既に決まっている数学的な証明まで無視し、論文の中で口先だけで高氏の理論を強く否定したのです。
高氏は、自分のRaBitQのアルゴリズムが、理論計算機分野のトップ会議レベルで一流基準に厳密に到達していると考えています。
ところがTurboQuantチームは、導出すら見ず、証拠もないまま、本文の中で高氏に対して「理論的に劣る、分析が雑だ」というレッテルを貼りました。
しかし、さらに堪えがたいのは、Googleによる「魔法みたいな」スコア(ベンチマーク)のダブルスタンダードです。
論文では、自分たちのアルゴリズムがRaBitQよりもいくつもの桁速いと吹聴していますが、その裏で行われた密室の操作は非常に下品でした。
Googleは自分には計算力の怪物A100 GPUを割り当て、対戦相手にはマルチスレッドをオフにしたCPUを用意しました。
さらに、既成で高度に最適化されたC++のオープンソースコードがあるのに、それを使わず、TurboQuant論文の2作目が自作した半端な翻訳版であるPythonバージョンを使って実行させたのです。結果として、高氏のアルゴリズムにはもう一段階のdebuff(弱体化要因)が重なりました。
昨年5月のメールでは、この論文の2作目の著者自身が、「シングルコアでマルチコアを殴る」という非対称操作があったことを、本人の口から認めています。そして、それを他の共同著者にも共有していたことも認めています。
しかし、最終的に発表された論文では、この2層の差が生む「量が質を変える」ようなレベルのソフト/ハード情報が、完全に消し去られていました。
同時に、TurboQuant論文の著者も、自分たちのアルゴリズムが高氏のRabitQと構造的に似ている点について、認めることを拒否しました。
この明確に重大な誤りを含む論文は、ICLR 2026会議に採択され、そののち、冒頭で話したように、Google Researchの公式チャネルを通じて大規模にこの論文が宣伝されることになりました。
Google Researchは、TurboQuantがどれほどすごいか、どれだけメモリを節約できるかだけを述べましたが、そのTurboQuantを支えるこの論文自身に存在する数々の誤りについては、一言も触れていません。
こうした宣伝は、SNSの閲覧数が数千万回に達したため、先週の上位ストレージメーカー数社の株式市場が震えることにつながりました。
高氏も、おそらく我慢の限界だったのでしょう。だからこそ文章を出して公に「実証」を突きつけたのです。
するとストレージ市場側も、第一波の震えから徐々に落ち着きを取り戻してきました。
Amir Zandiehが高氏のメールに返信した当日、Micron Technology(MU)の株は当日+0.5%、出来高は162.46億ドルでしたが、今週の累計ではなお15.5%下落しています。
皆さんは、この話を聞いてどんな気持ちになるでしょうか。
私は、自分が瓜畑で反応が遅いあの猹(かわうそみたいな生き物)みたいだと思いました。仲間たちがその瓜(うり)を食べ終えて、次の瓜へ行こうとしているのを見ながら、「自分は置いていかれるのでは」と心配していた。
ところが振り向くと、猹兄たちはもう噴射していました——この瓜は、毒がある。
さらにわけがわからないのは、このように明らかな誤りを含む論争論文が、1年たってからやっとGoogleが宣伝に使ったというのに、私たちは高氏が出てきてGoogleを実打した直前まで、誰も立ち上がって異議を唱えるのを聞いたことがなかったように思えることです。
市場は黙っていて、ただ揺れただけ。そして、いわゆるAI業界はただの大騒ぎでした——ついに、AI大規模モデルがメモリをむさぼる問題を治す人が現れた。
理性的な分析を保っている数少ない機関や国内の自媒体も、この件が「ウォール街の古い格言」である「ジェヴンズのパラドックス(杰文斯悖论)」に完全に一致しているだけだと指摘しただけでした。
TurboQuantは確かに長文推論のコストを下げますが、ハードルが下がれば、メーカーは必ず手を広げて開発を進めます——
いま国内モデルのコンテキストウィンドウの主流標準は200K-256Kで、少数が1Mに到達しています。
しかし海外の主流モデルはすでに1Mにできています。あなたたちは、このアルゴリズムがあれば海外モデルが優位を広げようと思わないとでも?国内モデルが追い上げに奮起しないとでも?
そのうち、多種多様なマルチモーダルや長いコンテキストのアプリが大量にリリースされます。より便利になることで使う人や利用シーンが何倍にも増えれば、世界で本当に必要な計算資源やストレージ用ハードウェアは、節約できるどころか、巨大な需要量に直接「爆発的に」押し上げられるはずです。
ただ、TurboQuantが本当にそこまで「すごい」のかを疑う声は、なぜかかき消されてしまったようです。つまり、人口のかなりの部分が、裏取りもせず、学術界の実態を調べもせず、GoogleのこのTurboQuantが確かに世界を変えると、当然のように受け入れてしまったということです。
もちろん、私がこう言っているのは、誰かを批判するためではありません。私自身も、TurboQuantの報道を見たときは、子どものように喜んでいました。
はっきり言いたいのは、GoogleのTurboQuant騒動が露呈したのは、皆がAIに対して不満を感じて耐えられないということです。
AIというハードウェアの「金食い虫」を育てるために、私たちはもうあまりにも多くを我慢してきました。
去年末から、スマホのような、ほぼ誰もが一台持っている電子製品ですら、メモリ価格の高騰で値上がりしてきました。
図表の出所:「锌刻度」李觐麟
このとき、事態の性格が変わりました——高価なAIは結局、みんなが一緒に負担することになる。
しかも皮肉なことに、これまで誰もはっきり説明できていません。AIは一体どれほどの生産力をもたらし、どれほどの便利さをもたらすのか、と。
今年のはじめに、Anthropicが「AIが労働市場に与える影響」に関する重大な研究を発表しました。
研究によると、現時点ではAIを使っているのは特定の職業に限られており、またAIがそれらの仕事に浸透している度合いも、想像されていたほど高くないとのことです。
図表の出所:Anthropic
つまり、この業界では実際の浸透率が高くなく、ごく一部の人を儲けさせるのに役立っているだけで、実際にはそれほど使い勝手がいい製品ではない。それがもたらすマイナスの影響が、まさに社会全体に請求書を回しているのです。。。
このとき、もし「AIの食欲を少しでも小さくして、値上げに巻き込まれないようにしてくれる何かがある」と教えてくれるニュースがあれば——それが本当であることを私はきっと期待するでしょう。
たぶん、それが、誤りのある論文であって、商用投入されていないアルゴリズムであっても、これほど大きな騒ぎを引き起こせた理由なのかもしれません。
とはいえ、残念ながら、これらは最終的にただのドタバタ騒ぎだったと証明されました。
執筆:施昂
編集:早起&米罗
大量の情報、精密な解釈——新浪财经APPで提供します