この三つの事象が重なり、GitHubのある上級ディレクターが次のように書いた:「Claudeは退化し、もはや複雑なエンジニアリング作業を信頼して任せられない状態にまで落ちた」(“Claude has regressed to the point it cannot be trusted to perform complex engineering”)。Axiosの4月16日の記事「AnthropicのAIダウングレードがパワーユーザーに痛手を与える」もこれを取り上げた。
4月23日、GPT-5.5が公開された同じ日に、Simon Willison(Djangoフレームワークの共同創始者、AI界の著名な独立評価者)は自身のブログにこう書いた:「It’s not a dramatic departure from what we’ve had before.」(これはこれまでのものから大きく飛躍したわけではない)。
しかし、次世代の大規模訓練用チップ昇腾950DTは、華為のロードマップによると2026年第4四半期に量産開始予定だ。つまり、V4の訓練が動き出すのは、前世代の950PRを使っているからだ。V4 Pro Maxのようなフルスペックの1.6T MoEモデルを、徹底的に訓練し、大規模に推論させるには、次世代のハードウェアの到着を待つ必要がある。
昇腾950PRは2026年第1四半期に量産され、FP4の演算能力は1.56 PFLOPS、オンチップメモリは112GB。スペックはNVIDIAのH20を超えるとされるが、1つのチップが動作し、超ノード全体が数百万トークン/秒の推論リクエストを安定して処理できるかは別問題だ。V4 Pro Maxのフルスペック版は、この「超ノード」を制御する——昇腾950シリーズの大規模クラスター版が2026年下半期に順次到着する。
DeepSeekの真の切り札は、「最先端の性能」ではなく、「性能を実用的な範囲に抑えつつ、トークン単価を他を寄せ付けないレベルに引き下げること」だ。V4プレビューはNVIDIAのGPUと昇腾950PRに適応したが、量産規模のフルスペック推論を実現するには超ノードの到着を待たねばならない。その瞬間、二つのことが同時に起きる:一つは、V4 Pro Maxの能力が最大限に解放されること、もう一つは、推論コストとAPI価格がさらに下がること——価格で市場を制圧する企業にとって、後者の方が致命的だ。
AI 巨头,走入黑暗森林
null
文 | 象先志
大刘は『三体』の中で、後に無数に引用されるイメージを書いた——闇の森。すべての文明は銃を持つ狩人であり、誰が最初に自己を露出させるか、誰が最初に死ぬか。森の中に人がいないわけではない、ただ皆が灯りをつけると弾を招くことを知っているため、皆が灯りを消しているのだ。
2026年春、トップAI研究所たちは、そんな闇の森に足を踏み入れた。
4月16日、AnthropicはClaude Opus 4.7を最初にリリースした。同じ日に、彼らは異常な行動をとった——安全性の懸念から、未公開のモデルMythosよりも性能が劣ると公に認めたのだ。(安全上の理由)
4月23日、OpenAIは公式サイトにGPT-5.5を掲示した。同じ日に、Anthropicは「最近のClaudeコード品質レポートのアップデート」という事故の振り返りレポートを公式ブログに掲載し、過去1ヶ月以上、Claude Codeが確かに馬鹿になってきていると認めた——新しいカードを放ち、誤りを補正するためのものだ。しかし、この「新王者」はほとんど自慢しているようなものだ:我々はClaudeが一時的に馬鹿になったことを認める——だが忘れるな、我々はまだMythosを隠し持っている。
4月24日、「神秘的な東方の力」DeepSeek V4プレビューが公開され、梁文锋チームは初めてモデルと華為昇腾950PRを深く結びつけて公式発表した;しかし、誰もが理解した——本当に「フルスペック」のV4 Pro Maxは、昇腾950の超ノードの量産後に初めて公開されるのだ。
三つの会社、三つの動き。表面上はそれぞれの製品リズムだが、並べて見ると、一つの事が浮かび上がる:
各社とも少なくとも一つの「銃」を握っている——より強力なモデル、未公開の次世代アーキテクチャ、まだ大規模展開されていないチップの超ノード。しかし、誰も最初にこの銃を掲げる勇気はない。
なぜなら、この業界では、「先に明かす」ことの代償は決して漏洩だけではないからだ。先に明かすことは、自分の能力の上限を自ら相手に見せることになり、セキュリティの審査や規制の強化、世論の圧力を最初に引き受けることを意味する。つまり、自分自身を次のターゲットに変えてしまうのだ。森の中に英雄はいない——最初に銃を撃った者は、次に狙われる対象になる。
だから、狩人たちの最も合理的な選択は、灯りを消し、息を潜め、武器を背後に隠すことだ。
これが最適な戦略解だ。
Anthropicの自信過剰
Claude側は、過去一ヶ月で、最悪のバージョンリリースをほぼ演じた。
早々にOpus 4.7を更新し、Anthropicは依然として各種ランキングのトップに立ち、しかも企業向けにのみ提供されるMythosも隠し持っている——まるで悠然と構えているかのようだ。
しかし、Opus 4.7のこの期間は、ほぼClaudeユーザー体験最悪の時期で、「酷評の嵐」だった。
3月初め、AnthropicはClaude Codeの推論深度のデフォルトをhighからmediumに変更した。この決定の出発点は理解できる:highモードではUIが頻繁にフリーズしたように見え、応答が遅くて有料ユーザーを苛立たせていた。しかし問題は、その時点で公表しなかったことだ。
3月末、また「効率化」のためのアップデートを行った——Claude Codeの会話が1時間以上アイドル状態になると、システムは古いreasoning blockをクリアする。設計上は計算資源節約のためだが、実際には、各対話後にClaudeが記憶を失い、文脈を完全に忘れる状態になった。開発者コミュニティは数週間にわたり大量の不満を投稿した:「Claudeはもう私の前回の指示を覚えていない」。
そして最近、第三の事態が起きた——システムの指示にverbosityを圧縮するコマンドを追加したのだ。後にAnthropic自身が認めたところによると、このコマンドはClaude Codeのコーディング品質を直接3%低下させた。
この三つの事象が重なり、GitHubのある上級ディレクターが次のように書いた:「Claudeは退化し、もはや複雑なエンジニアリング作業を信頼して任せられない状態にまで落ちた」(“Claude has regressed to the point it cannot be trusted to perform complex engineering”)。Axiosの4月16日の記事「AnthropicのAIダウングレードがパワーユーザーに痛手を与える」もこれを取り上げた。
その後、Anthropicは認めた——確かに問題があると。
4月7日、彼らは静かにreasoning effortの調整をロールバックした;4月10日、キャッシュのバグを修正した;4月20日、verbosity圧縮のシステム指示を撤回した。しかし、真の事故の振り返りレポートは4月23日にやっと公開された——それはちょうどGPT-5.5の公開日だった。
この「おっと、ちょっと工程戦略にバグがあっただけ、修正すればいいだけだ」という軽視の感覚は、OpenAIの重厚なリリースの前後のタイミングと重なる。偶然とは言い難い。
さらに興味深いのは、Opus 4.7のリリース時に、Anthropicが一つの異常な行動をとったことだ——未公開のモデルMythosよりも性能が劣ると公に認めたことだ。これは明らかに「戦略的後退」の一種だ——Anthropicは最も強力な能力を企業向けに留めておき、一般公開には急がない。チームがMythosを公開する準備が整っていないからだ。
この見解は信じてもいいだろう。しかし、ビジネスの物語の観点からもう一つの真実もある:AnthropicはClaude Codeの退化を認めるのに6週間もかかり、OpenAIが新たなカードを出すその日にようやく問題を表に出したのだ。もし競合のプレッシャーが十分でなかったら、もしOpus 4.7が「我々には後手がある」と証明しなかったら、この声明は永遠に出てこなかったかもしれない。
Claude側では、歯磨きのように少しずつ能力を削るのは、意図的に能力を抑えることではなく、能力の解放のリズムや問題の開示のリズムを競合に合わせているだけだ。
最先端の能力を出し惜しみなく見せることは、必ず標的にされる運命にある。あるいは、Anthropicにとっては、4.6が競合に与えたプレッシャーがまだ消えないうちに、より強力なカードを今出す必要はないと考えているのかもしれない。
OpenAIの古典的手法の再現
もしAnthropicが「Mythosを隠したままにしている」なら、OpenAIの歯磨きはより巧妙だ——能力の解放権を、自社サーバーの負荷曲線と「auto-router」と呼ばれる分岐メカニズムに委ねている。
4月23日、GPT-5.5が公開された同じ日に、Simon Willison(Djangoフレームワークの共同創始者、AI界の著名な独立評価者)は自身のブログにこう書いた:「It’s not a dramatic departure from what we’ve had before.」(これはこれまでのものから大きく飛躍したわけではない)。
彼はさらに重要な情報を付け加えた:GPT-5.5は、GPT-4.5以降、OpenAIが初めて完全に再訓練した基盤モデルだ。つまり、過去半年にリリースされた5.1、5.2、5.3、5.4はすべて増分アップデートに過ぎない。言い換えれば、過去の四つの小バージョンは、OpenAIが控えめにリリースしてきた——競合が何を出すかわからないからだ。
「控えめに更新する」ことは、より理解しやすく言えば、「歯磨き」だ。
しかし、もっと興味深いのは、GPT-5.5のリリース数時間後に起きたことだ。CodexユーザーがGitHubにIssue #19241を立て、「Fast modeは最初は本当に速かったが、多くのユーザーが参加した後、目に見えて遅くなり、料金もFastプランで計算されている」と不満を述べたのだ。彼らはこう書いた:「OpenAIに調査を依頼してほしい。GPT-5.5のFast modeは高負荷時にダウングレードされているかどうか。」
これはほぼ2025年8月7日のGPT-5初公開時の再現だ——その時、Redditのr/ChatGPTは「GPT-5はひどい」と投稿をトップにし、翌日、Sam AltmanはAMAで「自動切り替え機能が壊れた…GPT-5はかなり馬鹿になった」と認めた——ルーターが裏でユーザーのためにダウングレードしていたことを。
同じ脚本が、八ヶ月後に再演されたのだ。
さらに皮肉なことに、GPT-5.5の正式リリース前日に、OpenAIのCodexは内部のステージング環境を誤って本番環境にプッシュし、数人のProユーザーにスクリーンショットを撮られ、数分で修正されたが、その内容はすでに広まっていた。当時のセレクターには、GPT-5.5自体のほか、「Glacier」(「大陸を動かす知性」)、生命科学モデルのHeisenberg、未知の用途のArcanine、コード名oai-2.1など複数のバージョンが表示されていた。
つまり、OpenAIがGPT-5.5を「次世代」として公開した同じタイミングで、少なくとも5〜6の並行した製品ラインが動いており、それぞれがまだ一般公開されていない状態だった。
OpenAI自身も認めている。2026年の公式ロードマップでは、「capability overhang」(能力の過剰在庫)という、学術界で長らく議論されてきた言葉を使い、現状の大規模モデルの真の能力と、ユーザーが実際に使える効果の間に巨大なギャップが存在すると認めている。
これは馴染みのある話だ。AnthropicがMythosに対して使う言葉とほぼ同じだ。たとえ4月22日のCodex漏洩が誤操作だったとしても、OpenAIは「capability overhang」という言葉をロードマップに入れ、そのメッセージは明確だ——「我々はまだ多くの能力を持っている。見ていろ」。
あなたが持っているものは、ユーザーに売る以上のものだ。だからこそ、絞り出す必要がある。GPT-5.5の24時間は、その前提を再びライブ配信したに過ぎない。
DeepSeekの忍耐の待機
DeepSeek側の「絞る」方式は、完全に変わった——能力を隠すのではなく、より適切なタイミングを待つのだ。
1.6T MoE、1Mのコンテキスト、Pro/Flashの二規格、価格は1Mトークンあたり3.48ドル——これはGPT-5.5の数十分の一、Opus 4.7との差は桁違いだ。海外の独立評価者の結論は二言:性能はGPT-5.4やGemini 3.1-Proに近いがやや劣り、価格は「最先端の実験室の経済学を打ち砕く」。
しかし、DeepSeekの自社の座標系では、V4プレビューはすでにV3の「異常に安い」価格よりも高くなっている。誰もが知っている——これはフルスペックではない。
DeepSeek V4の完全な物語は、リリースを終点とせず、むしろ始点とも言える。
2025年のR2の未公開リリースから始める。R2は2025年5月にリリース予定だったが、最終的に秋冬に延期された。中国DeepSeekのインフラは華為のCANNエコシステムに移行した。これはどの研究所にとっても、数ヶ月で完了できる工程ではない——コンパイラ、演算子、通信ライブラリ、推論フレームワーク、MoEルーティング、すべてを書き直す必要がある。
そして今回のV4は、DeepSeekが初めて昇腾を訓練ハードウェアリストに正式に入れたケースだ。V4はハイブリッド訓練の最初のバージョン——昇腾が初めて登場した。
しかし、次世代の大規模訓練用チップ昇腾950DTは、華為のロードマップによると2026年第4四半期に量産開始予定だ。つまり、V4の訓練が動き出すのは、前世代の950PRを使っているからだ。V4 Pro Maxのようなフルスペックの1.6T MoEモデルを、徹底的に訓練し、大規模に推論させるには、次世代のハードウェアの到着を待つ必要がある。
真の技術的難点は、「V4が訓練できるか」ではなく、「昇腾上で満足に動き、安定し、コストを抑えられるか」だ。
昇腾950PRは2026年第1四半期に量産され、FP4の演算能力は1.56 PFLOPS、オンチップメモリは112GB。スペックはNVIDIAのH20を超えるとされるが、1つのチップが動作し、超ノード全体が数百万トークン/秒の推論リクエストを安定して処理できるかは別問題だ。V4 Pro Maxのフルスペック版は、この「超ノード」を制御する——昇腾950シリーズの大規模クラスター版が2026年下半期に順次到着する。
これは、前の二社とは全く異なる戦略だ。AnthropicとOpenAIの絞り込み戦略は、「より強力なものを持っているが、先に出さない」だが、DeepSeekの絞り込みは、「フルスペックの最強版を出すには、価格をさらに下げるタイミングを待つ」だ。
この差は非常に重要だ。
DeepSeekの真の切り札は、「最先端の性能」ではなく、「性能を実用的な範囲に抑えつつ、トークン単価を他を寄せ付けないレベルに引き下げること」だ。V4プレビューはNVIDIAのGPUと昇腾950PRに適応したが、量産規模のフルスペック推論を実現するには超ノードの到着を待たねばならない。その瞬間、二つのことが同時に起きる:一つは、V4 Pro Maxの能力が最大限に解放されること、もう一つは、推論コストとAPI価格がさらに下がること——価格で市場を制圧する企業にとって、後者の方が致命的だ。
2025年の「DeepSeekの瞬間」が再びこのリリースで再現されることはなかった。そして、V4プレビューのリリースはあくまで予告編であり、真のメインイベントは下半期の「DeepSeek + Huawei昇腾」の瞬間だ。
この観点から、梁文锋チームが今やっているのは、強制的な「隠す」ではなく、商業的な「抑制的な選択」だ——最強バージョンの最初のリリースを、最も発言権のあるシナリオに委ねること:国内超ノード大規模展開の初日に。その前に、V4プレビューでコストパフォーマンスの物語をもう一度強化しておく。
DeepSeekが背負うのは、国内大規模モデルをランキング一位にする「長所の物語」ではなく、チップ、訓練、推論、価格の四つのラインを同時に走らせる「システム的物語」——後者の方がはるかに重要だ。
数日前、黄仁勋はDwarkesh Patelのポッドキャストで、「DeepSeekがHuaweiのチップで最初に出たら、我々アメリカにとっては恐ろしい結果になる」と語った(“a horrible outcome for our nation”)。
今もNVIDIAが最先端の計算能力を握っている。しかし、黄仁勋自身が提唱した「AI五層ケーキ」——エネルギー、チップ、インフラ、モデル、アプリケーション——の各層で、国内の大規模モデル産業はすでに国内製の解決策を持ち、差は肉眼で縮小しつつある。最後のピースであるチップを埋めれば、DeepSeekのオープンソース大規模モデルの物語は、米国の大規模モデルよりも大きな物語になる——それは、コストをあまりかけずに、世界中に知能の平等をもたらす重要な一歩だ。
全世界が、覇権に支配された先進的な計算能力を迂回し、高効率な知能社会へと歩みを進めることができる。
エピローグ
Anthropicの「隠す」——それは積極的だ。彼らはMythosを持っているが、発表しない理由は安全性。
OpenAIの「隠す」——それは構造的だ。彼らはPro層を持つが、あまり提供しない理由はインフラと価格の層分け。
DeepSeekの「隠す」——それは必要だ。社会的知能の飛躍のための一連の物語モデルに関わる。
しかし、別の側面から見ると、これはまさに大刘が描いた闇の森のようだ:この暗黒の知能の森の中で、最も優れた狩人たちは、自らの銃を最初に撃つことは決してしない。
露出は無制限を意味し、底を見せることになり、他の狩人の標的となる。
誰が最初に最も致命的な一撃を放つのか誰も知らない。しかし、確かなのは、今日あなたが使っているモデルは、その本当の姿ではないということだ。