エージェント時代のインフラは、「ロブスター」よりはるかに大きなチャンスと想像力を持っている。2026年3月、AI業界で最も熱い言葉は、どのモデル名でもない。AIとはまったく関係がなさそうな英語の単語だ:Harness。その本来の意味は馬具である。手綱、あぶみ、鞍具――あれ一式の、馬の体に装着するもの。動詞に置き換えるなら、その意味は「駆使する」だろう。あなたは「harness a calculator(計算機を駆使する)」とは言わないが、「harness the wind(風を駆使する)」や「harness a horse(馬を駆使する)」と言う。そういう言葉を使う人は、有意か無意かにかかわらず、あることを認めている。つまり、相手は受動的な道具ではなく、力と自律性を持つ存在だ、ということだ。彼はそれを「使用」しているのではなく、「駆使」している。この単語は、AIエージェント時代で最も中核的な産業コンセプトになりつつある。その周りに、1兆ドル規模の基盤インフラ層が生え出している。そして、そのインフラ層のルール制定者は――もうすぐ姿を現す。Harness is the New Infra------------------------HarnessはAIの文脈で、2つの進化の筋がある。1つ目は修辞のレイヤーだ。「Harness AI」としての一般的な言い回しは、テック業界で長い間流通しており、意味は要するに「AIを駆使する能力」程度のものだ。2つ目、より重要なのは技術のレイヤーである。2025年末、Anthropicは「harness」を、AI Agentを構築するためのあの一式――コンテキスト管理、ツール呼び出し、記憶、ガードレール、オーケストレーション――を指すために使い始めた。Claude Agent SDKの公式定義はまさに「a general-purpose agent harness」だ。2026年初め、HashiCorpの共同創業者であるMitchell Hashimotoは「AI Harness」を正式な概念として提起し、「Harness Engineering」を新しいエンジニアリング実践分野として急速に広めた。だが、本当にこの言葉を真剣に扱うべきなのは、流行しているからではない。正確に、人とAIのあいだで形成されつつある新しい関係を描写しているからだ:**共生的な非対称協働**。人は意図、判断、方向性を提供する。AIは能力、速度、スケールを提供する。Harnessは、能力の非対称性と権威の非対称性を同時に認めている。そしてこの2つの非対称性は逆方向だ――AIの能力は駆使者を大きく上回り得るが、駆使者には最終的な方向決定権がある。馬は人より速く、力もはるかに強いが、どこへ行くかは人が決める。**人は自分より強いAIを駆使する必要がある。** これはAnthropicがこの言葉を選んだとき――有意か無意かにかかわらず――最も精確に表している層だと思う。そしてHarnessという単語は、確かにちょっと「Anthropic」(人類的)で、人間中心のニュアンスがある。「Harness is the New Datasets」と言う人もいる。この一文は直感が鋭いが、結論は正確ではない。基座モデルが収斂していくと、Harnessの質がAgentの善し悪しを決める重要な変数になるのは事実だ。ちょうどデータ品質が基座モデルの生死を決められるように。しかしDatasets(データセット)とHarnessの存在の仕方は根本的に違う。Datasetsは技術アーキテクチャ上で単一の位置を占め、訓練段階における入力だ。一方でHarnessは、特定の層というよりは、スタックであり、層の組み合わせだ。コンテキスト・エンジニアリングと記憶はストレージ層、ツール接続はネットワーク層、オーケストレーションはコンテナ層、ガードレールはセキュリティ層、評価は可観測層、スキルのカプセル化はミドルウェア。どの層も、独立した会社、標準、ビジネスモデルを生み出せる。これはクラウド計算のInfraにおけるスタック型構造と完全に同型だ。この意味で言うと、**Harness is the New Infra**だ。それはモデルの事前学習のためのinfraではなく、Agentを構築するためのinfraである。Agentに自律性を与えつつ、人の指示を厳格に守り、安全を確保し、ルールを順守させるinfraだ。Harness自体は新しいDatasetsではない。しかしHarnessが良く回ることで、Agentには良質なdatasetsが生成され、データのフライホイールが回り始める。あるharnessが十分に多くのユーザー行動データとドメイン知識を蓄積すると、それはもはや外付けのシステム設計ではなくなる。データの属性を持ち始める:使うほど良くなり、使うほど置き換えが難しくなる。ここから、ほぼ定義に使える等式が導ける:**基座モデル + Harness = Agent。**基座モデルは推論、生成、理解といった原始的な能力を提供する。しかしそれは静的で、受動的で、方向性がない。何でもできるから、何でもない。Harnessは構造、方向、制約を提供し、無限の可能性を有限で目的のあるアクションに収束させる。両者が結合した瞬間、AIは「問いかけられる対象」から「行動する主体」へと変わる。同じ1頭の馬でも、異なる装具をつければ、荷車を引き、人を運び、畑を耕し、レースもできる。Harnessの設計が、Agentの形態と用途を決める。林俊旸のPitch Deck---------------2026年3月26日、Qwenチームの前CTO(林俊旸、Junyang Lin)がX上で長文を投稿した。タイトルは _"From 'Reasoning' Thinking to 'Agentic' Thinking"_。2日以内に70万リード、2800いいね、677回のリポスト。3週間前、3月4日彼は阿里巴巴を退職した。3週間後、彼は体系的な業界判断の記事を書いた。**この記事の核となる主張は、AIが「もっと考える」から「行動するために考える」へ移っているということだ。**Reasoning Thinking(推論思考)の本質は静的な独白である――モデルが閉じた空間で、より長い推論チェーンを生成し続け、環境との相互作用が不足していることを、より多くのテキストで埋めようとする。一方でAgentic Thinkingは、環境と相互作用しながらタスクを継続的に前進させる。訓練対象は三段跳びを経験した:モデルを訓練するところから、Agentを訓練するところへ、そしてシステムを訓練するところへ。これは単なる空想ではない。彼はQwen自身の実戦での教訓で裏付けた:thinking(思考)とinstruct(指示)モードの統合は、想像以上に難しい。2つの挙動のデータ分布と最適化目標は、根本的に互いに引っ張り合っている――instructは簡潔さ、速さ、フォーマット順守を追求し、thinkingはより多くのtokenを使って代替ルートを探索することを追求する。Qwen3は統合を試みたが、その後また独立したラインに分解された。この教訓は、より深い洞察へとつながる:**Instructは、前のAgent時代のHarnessの代替物だ。**InstructはSFTとRLHFを通じて、行動の規範をモデルの重みに「焼き付ける」――つまり手綱を馬の筋肉に縫い込むのと同じだ。これで一問一答の時代には十分だ。だがAgent時代になると、モデルは自律的に稼働し、ツールを呼び出し、継続的に意思決定を行う。行動空間は爆発的に膨張し、あらゆる制約をすべて重みに訓練して入れることなど不可能になる。制御の重心は、モデルの内部からモデルの外部へ移す必要がある。Instructの能力境界は、Agentパラダイムにより突き破られた。Harnessこそが必然的な進化だ。林俊旸は記事の中で4回「harness」に言及しており、関係の進行は非常に明確だ:「agentが動く外部環境」から、「独立したエンジニアリング実践――harness engineering」へ、さらに「訓練対象の一部――agent and the harness around it」へ。彼の記事は訓練側から一つのことを証明している:Harnessは、Agentの実行時の基盤だけでなく、Agentの訓練時の基盤でもある。Agentic RLの閉ループでは、AgentがHarness内で動き、環境がフィードバック信号を生成する。フィードバックがRLの更新方策を駆動し、方策がAgentの挙動を変える。Agentの挙動はまた新しい環境フィードバックを引き起こす。Harnessを取り除けば、Agentが遅くなる問題ではなく、訓練の根本が動かなくなる問題になる。さらに彼は明確に提起する:Agentic RLの最大のボトルネックはアルゴリズムでもモデルアーキテクチャでもなく、環境の質とrolloutの基盤インフラだ。Agentの進化を制約する詰まりどころはInfra層にある。俊旸に感謝しつつ、私の代わりに「Harness is the New Infra」という主張の論証が欠けている半分を補ってくれた。前文の主張は、HarnessがAgentの実行時に不可欠な基盤インフラ(infra)だということだった。そして俊旸の記事は、HarnessがAgentの訓練時にもInfraであることを教えてくれる。Agentic RLの閉ループでは、環境がフィードバック信号を生成し、フィードバックが方策更新を駆動し、方策がAgentの挙動を変え、Agentの挙動がまた新しい環境フィードバックを引き起こす。訓練と推論の両端でどちらも不可欠な“システム層”こそが、真に意味のあるinfraであり、それがHarnessだ。林俊旸は記事中で意味深な一言を述べている:「環境構築は、サイドプロジェクトから本当に起業できるカテゴリへと変わりつつある」。「環境構築」はHarnessと同一ではなく、Harnessのサブセットだが、重要なサブセットでもある。「環境」は、Harnessアーキテクチャ内のツール接続と評価フィードバックに主に対応する。特にAgent訓練時にそれと相互作用するあの世界――コード実行サンドボックス、ブラウザ・シミュレーター、テストケース集、API模擬レイヤー――を指す。そのコア機能は、フィードバック信号を生成することにあり、Agentic RLが最適化する“もの”を用意する。これは、Agent訓練と組み立てにおけるコンテナ、benchmark、Hugging Faceのようなものだ。**環境はAgent訓練時のグラウンドであり、HarnessはAgentが走り出すときの装備一式である。** グラウンドは装備の一部だが、全部ではない。しかし、オープンソースモデルの前CTOがHarnessのあるサブモジュールに対して、起業カテゴリを個別に定義し始めたという事実そのものが、ひとつのシグナルである――このスタックはすでに十分に複雑で、十分に価値があり、真正面からInfraスタックのように層をなして独立したビジネス実体が生まれ始めていることを示している。そして、学術っぽい味が濃い長文の中で、起業の勝負レーンを定義している。もしそれが林俊旸の起業pitch deckとしてまだ足りないと思うなら、VCをやめたほうがいい。1兆ドルの起業レーン---------もし林俊旸が本当にAgent訓練環境の基盤インフラを作る――彼自身が「本当に起業できるカテゴリ」と定義したあの方向性――をやるのなら、彼が直面するのはHarnessのどの層のケーキなのか?そのケーキはどれくらい大きいのか?Harnessの中には、完全な多層アーキテクチャがあり、7つのコアモジュールに分解できる:コンテキスト・エンジニアリング、記憶システム、ツール接続、スキルのカプセル化、ガードレールと権限、評価とフィードバック、オーケストレーションと状態管理。ツール接続層(MCP)を除き、各層にスタートアップが走っている。コンテキストと記憶の層にはCognee(€750万の資金調達)とInterloom($1650万のシードラウンド、Sequoiaが出資)。ツール接続層はMCPプロトコルで標準化されている――月SDKダウンロード数9700万、Anthropic、OpenAI、Google、Microsoft、Amazonのすべてが接続していて、スタートアップが入り込む余地はあまりない。セキュリティ接続層にはRunlayer($1100万、Khoslaがリード投資)、ガードレールとコンプライアンスのGuardrails AI、Vigilant AI、Runtime、Alterが現れている。評価と可観測性が最も熱い。Arize AIは$7000万のCラウンドを獲得し、顧客にはUberやPepsiCoが含まれる。Langfuseはオープンソースコミュニティの標準として定着した。オーケストレーション層は「三強」の構図を見せている:LangGraph、CrewAI($1800万の資金調達、Fortune 500の60%が利用)とMicrosoft Agent Framework。そのうち2社がスタートアップだ。一方、Skills封装層のスタートアップは、垂直業界のエージェント製品として現れることが多い。代表格はHarvey――法律AI、$110億のバリュエーション、$10億の累計調達、ARR $1.9億――それにAbridge――医療AI、$53億のバリュエーション。訓練環境層は最も初期で、約20社のシード段階の会社。Wing VCは、2030年までに3〜5社に統合されると予測している。ただし、すべてのモジュールが良いレースというわけではない。勝てるレーンかどうかの中核判断基準は、そのモジュールが解決するのが「モデル能力の問題」なのか、「システム設計の問題」なのかだ。前者は基座モデルに飲み込まれる。コンテキストウィンドウは128Kから1Mへ、さらにより大きくへと拡張されていく。今日の精巧な圧縮戦略も、明日には使えなくなるかもしれない。一方、システム設計層のモジュールには持続的な価値がある。例えばツール接続はエコロジー(ニッチ)の問題である。安全ガードレールはコンプライアンスの問題。評価は独立性の問題――これらはモデルが強くなっただけでは解消されない。それらの退出ルートもまったく異なる。ツール接続やスキル封装はモデルに近すぎる。モデル企業には極めて強い“取り込み”の動機がある。AnthropicはMCPとSkillsをやり、OpenAIはPluginsとGPTsをやっている。どちらもこの2層を飲み込もうとしている。この2方向での起業における天井は、買収されることだ。ガードレールとコンプライアンス、そして評価と可観測性はその反対で、彼らは天然に第三者の独立性を必要とする。銀行はAnthropic自身のコンプライアンス監査ツールを信用しない。監査対象者自身に監査レポートを書かせないのと同じだ。**独立性はビジネス戦略ではなく、プロダクト価値そのものだ。** 前者は良い買収ターゲットであり、後者は良いIPOターゲットである。それらはすべてHarness、つまりAgentのInfraに属する。そのHarnessレースの総規模はどれくらいあるのか?下から上へ、7つのサブレーンのバリュエーション空間を合計し、2030年に独立したスタートアップのバリュエーション合計は約$5000-8000億になる。そのうちスキル封装と垂直知識が最大($2500-3500億)、ガードレールとコンプライアンスは最も速い伸びを見せる(CAGR 65.8%。2024年の$7億から2034年の予測$1099億へ)。Agentがより自律的になるほど、手綱の価格はより高くなる。訓練環境は最も初期だが、確実性が最も高い。AI Agentの全体市場の2030年予測は収益$500-1000億で、HarnessはInfra層として40-50%を占める。SaaS/Infraの10-15x PS倍率で換算すると、バリュエーション空間は十分に整合的だ。数兆ドルの起業レーン。モデル企業の中に内蔵されたHarness収入も織り込めば、Harness基盤インフラ層全体のバリュエーション空間は$2.5-3.8兆になる。これは概ね、今日のクラウド計算Infra層の時価総額合計に相当する。では、林俊旸に戻ろう。もし彼が本当に訓練環境とRL基盤インフラというHarnessのサブレーンに参入するとしたら、彼が直面するのは現在約20社のシード段階企業があるだけの市場で、しかし2030年のバリュエーション空間は$200-500億。Wing VCはこのレースが最終的に3-5社のトップ企業に統合されると予測している。彼がQwenの前CTOという立場を考えれば、シリコンバレーではシードラウンドのバリュエーションは$2-5億の範囲になるかもしれない。市場が払うのは企業価値ではなく“人への価格”だ。林俊旸はもうBPを書く必要がない。そのツイートだけで十分だ。そしてもし中国でドル建てファンドを相手にするなら、バリュエーションは$5000万からが下限で、$1億もあり得ない話ではない。人民元?それはまた別の話だ。Anthropicの手のひら--------------次に答えるべき本当に重要な問題がある:この1兆ドル規模のHarness基盤インフラ層は、誰がルールを定義しているのか?残酷な事実を見てみよう:MCPはAnthropicが推した標準プロトコルだ。Claude CodeはAnthropicが作ったharnessプロダクトで、年換算収益$25億。Agent SDKはAnthropicが建てた開発者の入口。SkillsシステムはAnthropicが設計した。さらに「harness」という言葉がAI Agent文脈で流行することの最大の推進者もAnthropicだ。より深い理由はビジネスモデルにある。OpenAIの中心的な物語は「最強モデル」だ。収益は主にChatGPTサブスクリプションから来る。一方でAnthropicはマルチモーダルやワールドモデルを徹底的にやっていない。だが、より多くの人に「最強モデル」だと見なされるようになっている。Claudeのセールスポイントはスコアで1位を取ることではなく、「Agentのワークフローに最も適したモデル」――より信頼性が高く、より制御しやすく、長時間の自律運転により向いている――という点だ。このポジショニングは、Anthropicの競争力がモデルだけではなく、モデルの周りのHarnessの品質からも来ていることを意味する。Harnessの各レイヤーが成熟するほど、城壁(モート)が厚くなる。**Harnessエコシステムの繁栄は、直接Anthropicの商業利益に等しい。**これが、OpenAIが2023年から生態系(エコシステム)を作ろうと試みた理由だ――Plugins、GPTs、GPT Store。しかしそれはうまくいかなかった。一方でAnthropicのMCPは2024年末に出た。1年半遅れたのに、それでも事実上の標準になった。**背後の根本原因はこうだ:OpenAIはアプリのエコシステムを作り、Anthropicはインフラのエコシステムを作った。**OpenAIのGPT StoreはApp Storeのロジックだ――ユーザー基盤が最大だから、店を出してくれるならこっちへ来い。だが、モデル自体が何でもできるのなら、アプリが存在する必要はない。GPTsには差別化の壁がない。なぜなら、基盤能力とChatGPT自体が同じものだからだ。**そしてAnthropicのMCPは、アプリのストアではなく、プロトコルのストアだ。** それは開発者をClaude上で店を開かせるのではなく、接続の標準を定義する。すべてのツール、すべてのモデルが使えるようにする。**これはHTTPのロジックであって、App Storeのロジックではない。**プロトコルがよりオープンになるほど、エコシステムの支配力はより強くなる。今、誰もがMCPを使っている。MCPはAnthropicが設計したものだ。Anthropicはユーザーをロックする必要はない。ロックするのは、開発者の“心智”とツールチェーンだ。資本面でも。Anthropicと早期投資家のMenlo Venturesは$1億のAnthology Fundを設立し、年間で30社以上のharness系スタートアップに投資した。構造が賢い:Menloが金を出し、Anthropicはファンドの経済的利益には参加しない。しかし投資先の各社に$25,000分のモデルクレジットを配り、首席製品責任者のMike Kriegerと社長のDaniela Amodeiがdemo dayに参加できるようにする。**Anthropicは1セントも出さずに、30社以上のスタートアップをClaudeエコシステムに固定しつつ、最前線の需要シグナルを得る。これは無コストのオプションだ。**だが、考えてみたことはあるだろうか:Agentic AIの時代において、なぜAnthropicのプロトコルエコシステムは、OpenAIのアプリエコシステムより重要なのか?なぜならAgentは、伝統的な意味での「アプリ」ではない。従来のAppのインタラクション・インターフェースは固定で、限られている――ユーザーが呼ぶ、Appはあらかじめ決めた手順でAPIを呼び、ドライバーとマッチし、ルートを計算する。Agentは違う。Agentは、自分でどのツールを、どの順序で、いつ呼ぶかを決める。インタラクション・インターフェースは無限で、動的だ。しかもAgent同士の協業も必要になる――オーケストレーターが専門のAgentをスケジューリングし、専門のAgentがサブAgentをスケジューリングする。これは分散システムにおける協調の問題だ。**インタラクション・インターフェースが固定なら、1つずつ接続できる。インタラクション・インターフェースが無限なら、標準を定義するしかない。**TCP/IPが任意の2台のコンピュータを通信可能にし、HTTPが任意のクライアントから任意のサーバーへアクセス可能にし、MCPが任意のAgentから任意のツールを呼び出せるようにする。**アプリエコシステムの基本単位は「プロダクト」であり、プロトコルエコシステムの基本単位は「接続」だ。Agentic時代では、接続の数と質がすべてを決める。**すべてのHarnessスタートアップは、宙返りしている。林俊旸が本当に訓練環境基盤インフラをやるなら、彼が自ら記事中で「本当に起業できるカテゴリ」と定義したその方向性であれば、彼のプロダクトも最終的にはたいていClaudeエコシステムに接続する必要がある。あるいは中国で並行するエコシステムを作ることになる。Anthropicがプロトコルを定義し、SDKを作り、エコシステムファンドを敷き、開発者の心智を掴んでいるからだ。たぶん、不可抗力として、中国のAgentスタートアップだけがAnthropicの手のひらから跳び出せる可能性がある。
Harness、林俊旸、兆ドルの市場とAnthropicの手のひら
エージェント時代のインフラは、「ロブスター」よりはるかに大きなチャンスと想像力を持っている。
2026年3月、AI業界で最も熱い言葉は、どのモデル名でもない。AIとはまったく関係がなさそうな英語の単語だ:Harness。
その本来の意味は馬具である。手綱、あぶみ、鞍具――あれ一式の、馬の体に装着するもの。
動詞に置き換えるなら、その意味は「駆使する」だろう。
あなたは「harness a calculator(計算機を駆使する)」とは言わないが、「harness the wind(風を駆使する)」や「harness a horse(馬を駆使する)」と言う。そういう言葉を使う人は、有意か無意かにかかわらず、あることを認めている。つまり、相手は受動的な道具ではなく、力と自律性を持つ存在だ、ということだ。彼はそれを「使用」しているのではなく、「駆使」している。
この単語は、AIエージェント時代で最も中核的な産業コンセプトになりつつある。
その周りに、1兆ドル規模の基盤インフラ層が生え出している。そして、そのインフラ層のルール制定者は――もうすぐ姿を現す。
Harness is the New Infra
HarnessはAIの文脈で、2つの進化の筋がある。
1つ目は修辞のレイヤーだ。「Harness AI」としての一般的な言い回しは、テック業界で長い間流通しており、意味は要するに「AIを駆使する能力」程度のものだ。
2つ目、より重要なのは技術のレイヤーである。2025年末、Anthropicは「harness」を、AI Agentを構築するためのあの一式――コンテキスト管理、ツール呼び出し、記憶、ガードレール、オーケストレーション――を指すために使い始めた。Claude Agent SDKの公式定義はまさに「a general-purpose agent harness」だ。
2026年初め、HashiCorpの共同創業者であるMitchell Hashimotoは「AI Harness」を正式な概念として提起し、「Harness Engineering」を新しいエンジニアリング実践分野として急速に広めた。
だが、本当にこの言葉を真剣に扱うべきなのは、流行しているからではない。正確に、人とAIのあいだで形成されつつある新しい関係を描写しているからだ:共生的な非対称協働。
人は意図、判断、方向性を提供する。AIは能力、速度、スケールを提供する。
Harnessは、能力の非対称性と権威の非対称性を同時に認めている。そしてこの2つの非対称性は逆方向だ――AIの能力は駆使者を大きく上回り得るが、駆使者には最終的な方向決定権がある。
馬は人より速く、力もはるかに強いが、どこへ行くかは人が決める。
人は自分より強いAIを駆使する必要がある。 これはAnthropicがこの言葉を選んだとき――有意か無意かにかかわらず――最も精確に表している層だと思う。
そしてHarnessという単語は、確かにちょっと「Anthropic」(人類的)で、人間中心のニュアンスがある。
「Harness is the New Datasets」と言う人もいる。
この一文は直感が鋭いが、結論は正確ではない。基座モデルが収斂していくと、Harnessの質がAgentの善し悪しを決める重要な変数になるのは事実だ。ちょうどデータ品質が基座モデルの生死を決められるように。
しかしDatasets(データセット)とHarnessの存在の仕方は根本的に違う。Datasetsは技術アーキテクチャ上で単一の位置を占め、訓練段階における入力だ。一方でHarnessは、特定の層というよりは、スタックであり、層の組み合わせだ。
コンテキスト・エンジニアリングと記憶はストレージ層、ツール接続はネットワーク層、オーケストレーションはコンテナ層、ガードレールはセキュリティ層、評価は可観測層、スキルのカプセル化はミドルウェア。どの層も、独立した会社、標準、ビジネスモデルを生み出せる。これはクラウド計算のInfraにおけるスタック型構造と完全に同型だ。
この意味で言うと、Harness is the New Infraだ。それはモデルの事前学習のためのinfraではなく、Agentを構築するためのinfraである。Agentに自律性を与えつつ、人の指示を厳格に守り、安全を確保し、ルールを順守させるinfraだ。
Harness自体は新しいDatasetsではない。しかしHarnessが良く回ることで、Agentには良質なdatasetsが生成され、データのフライホイールが回り始める。あるharnessが十分に多くのユーザー行動データとドメイン知識を蓄積すると、それはもはや外付けのシステム設計ではなくなる。データの属性を持ち始める:使うほど良くなり、使うほど置き換えが難しくなる。
ここから、ほぼ定義に使える等式が導ける:
基座モデル + Harness = Agent。
基座モデルは推論、生成、理解といった原始的な能力を提供する。しかしそれは静的で、受動的で、方向性がない。何でもできるから、何でもない。Harnessは構造、方向、制約を提供し、無限の可能性を有限で目的のあるアクションに収束させる。両者が結合した瞬間、AIは「問いかけられる対象」から「行動する主体」へと変わる。
同じ1頭の馬でも、異なる装具をつければ、荷車を引き、人を運び、畑を耕し、レースもできる。Harnessの設計が、Agentの形態と用途を決める。
林俊旸のPitch Deck
2026年3月26日、Qwenチームの前CTO(林俊旸、Junyang Lin)がX上で長文を投稿した。タイトルは “From ‘Reasoning’ Thinking to ‘Agentic’ Thinking”。2日以内に70万リード、2800いいね、677回のリポスト。
3週間前、3月4日彼は阿里巴巴を退職した。3週間後、彼は体系的な業界判断の記事を書いた。
この記事の核となる主張は、AIが「もっと考える」から「行動するために考える」へ移っているということだ。
Reasoning Thinking(推論思考)の本質は静的な独白である――モデルが閉じた空間で、より長い推論チェーンを生成し続け、環境との相互作用が不足していることを、より多くのテキストで埋めようとする。一方でAgentic Thinkingは、環境と相互作用しながらタスクを継続的に前進させる。訓練対象は三段跳びを経験した:モデルを訓練するところから、Agentを訓練するところへ、そしてシステムを訓練するところへ。
これは単なる空想ではない。彼はQwen自身の実戦での教訓で裏付けた:thinking(思考)とinstruct(指示)モードの統合は、想像以上に難しい。2つの挙動のデータ分布と最適化目標は、根本的に互いに引っ張り合っている――instructは簡潔さ、速さ、フォーマット順守を追求し、thinkingはより多くのtokenを使って代替ルートを探索することを追求する。Qwen3は統合を試みたが、その後また独立したラインに分解された。
この教訓は、より深い洞察へとつながる:Instructは、前のAgent時代のHarnessの代替物だ。
InstructはSFTとRLHFを通じて、行動の規範をモデルの重みに「焼き付ける」――つまり手綱を馬の筋肉に縫い込むのと同じだ。これで一問一答の時代には十分だ。だがAgent時代になると、モデルは自律的に稼働し、ツールを呼び出し、継続的に意思決定を行う。行動空間は爆発的に膨張し、あらゆる制約をすべて重みに訓練して入れることなど不可能になる。制御の重心は、モデルの内部からモデルの外部へ移す必要がある。
Instructの能力境界は、Agentパラダイムにより突き破られた。Harnessこそが必然的な進化だ。
林俊旸は記事の中で4回「harness」に言及しており、関係の進行は非常に明確だ:
「agentが動く外部環境」から、「独立したエンジニアリング実践――harness engineering」へ、さらに「訓練対象の一部――agent and the harness around it」へ。
彼の記事は訓練側から一つのことを証明している:Harnessは、Agentの実行時の基盤だけでなく、Agentの訓練時の基盤でもある。
Agentic RLの閉ループでは、AgentがHarness内で動き、環境がフィードバック信号を生成する。フィードバックがRLの更新方策を駆動し、方策がAgentの挙動を変える。Agentの挙動はまた新しい環境フィードバックを引き起こす。Harnessを取り除けば、Agentが遅くなる問題ではなく、訓練の根本が動かなくなる問題になる。
さらに彼は明確に提起する:Agentic RLの最大のボトルネックはアルゴリズムでもモデルアーキテクチャでもなく、環境の質とrolloutの基盤インフラだ。Agentの進化を制約する詰まりどころはInfra層にある。
俊旸に感謝しつつ、私の代わりに「Harness is the New Infra」という主張の論証が欠けている半分を補ってくれた。
前文の主張は、HarnessがAgentの実行時に不可欠な基盤インフラ(infra)だということだった。そして俊旸の記事は、HarnessがAgentの訓練時にもInfraであることを教えてくれる。Agentic RLの閉ループでは、環境がフィードバック信号を生成し、フィードバックが方策更新を駆動し、方策がAgentの挙動を変え、Agentの挙動がまた新しい環境フィードバックを引き起こす。
訓練と推論の両端でどちらも不可欠な“システム層”こそが、真に意味のあるinfraであり、それがHarnessだ。
林俊旸は記事中で意味深な一言を述べている:「環境構築は、サイドプロジェクトから本当に起業できるカテゴリへと変わりつつある」。
「環境構築」はHarnessと同一ではなく、Harnessのサブセットだが、重要なサブセットでもある。「環境」は、Harnessアーキテクチャ内のツール接続と評価フィードバックに主に対応する。特にAgent訓練時にそれと相互作用するあの世界――コード実行サンドボックス、ブラウザ・シミュレーター、テストケース集、API模擬レイヤー――を指す。そのコア機能は、フィードバック信号を生成することにあり、Agentic RLが最適化する“もの”を用意する。これは、Agent訓練と組み立てにおけるコンテナ、benchmark、Hugging Faceのようなものだ。
環境はAgent訓練時のグラウンドであり、HarnessはAgentが走り出すときの装備一式である。 グラウンドは装備の一部だが、全部ではない。
しかし、オープンソースモデルの前CTOがHarnessのあるサブモジュールに対して、起業カテゴリを個別に定義し始めたという事実そのものが、ひとつのシグナルである――このスタックはすでに十分に複雑で、十分に価値があり、真正面からInfraスタックのように層をなして独立したビジネス実体が生まれ始めていることを示している。
そして、学術っぽい味が濃い長文の中で、起業の勝負レーンを定義している。もしそれが林俊旸の起業pitch deckとしてまだ足りないと思うなら、VCをやめたほうがいい。
1兆ドルの起業レーン
もし林俊旸が本当にAgent訓練環境の基盤インフラを作る――彼自身が「本当に起業できるカテゴリ」と定義したあの方向性――をやるのなら、彼が直面するのはHarnessのどの層のケーキなのか?そのケーキはどれくらい大きいのか?
Harnessの中には、完全な多層アーキテクチャがあり、7つのコアモジュールに分解できる:コンテキスト・エンジニアリング、記憶システム、ツール接続、スキルのカプセル化、ガードレールと権限、評価とフィードバック、オーケストレーションと状態管理。
ツール接続層(MCP)を除き、各層にスタートアップが走っている。
コンテキストと記憶の層にはCognee(€750万の資金調達)とInterloom($1650万のシードラウンド、Sequoiaが出資)。
ツール接続層はMCPプロトコルで標準化されている――月SDKダウンロード数9700万、Anthropic、OpenAI、Google、Microsoft、Amazonのすべてが接続していて、スタートアップが入り込む余地はあまりない。
セキュリティ接続層にはRunlayer($1100万、Khoslaがリード投資)、ガードレールとコンプライアンスのGuardrails AI、Vigilant AI、Runtime、Alterが現れている。評価と可観測性が最も熱い。Arize AIは$7000万のCラウンドを獲得し、顧客にはUberやPepsiCoが含まれる。Langfuseはオープンソースコミュニティの標準として定着した。
オーケストレーション層は「三強」の構図を見せている:LangGraph、CrewAI($1800万の資金調達、Fortune 500の60%が利用)とMicrosoft Agent Framework。そのうち2社がスタートアップだ。一方、Skills封装層のスタートアップは、垂直業界のエージェント製品として現れることが多い。代表格はHarvey――法律AI、$110億のバリュエーション、$10億の累計調達、ARR $1.9億――それにAbridge――医療AI、$53億のバリュエーション。
訓練環境層は最も初期で、約20社のシード段階の会社。Wing VCは、2030年までに3〜5社に統合されると予測している。
ただし、すべてのモジュールが良いレースというわけではない。
勝てるレーンかどうかの中核判断基準は、そのモジュールが解決するのが「モデル能力の問題」なのか、「システム設計の問題」なのかだ。
前者は基座モデルに飲み込まれる。コンテキストウィンドウは128Kから1Mへ、さらにより大きくへと拡張されていく。今日の精巧な圧縮戦略も、明日には使えなくなるかもしれない。
一方、システム設計層のモジュールには持続的な価値がある。例えばツール接続はエコロジー(ニッチ)の問題である。安全ガードレールはコンプライアンスの問題。評価は独立性の問題――これらはモデルが強くなっただけでは解消されない。
それらの退出ルートもまったく異なる。ツール接続やスキル封装はモデルに近すぎる。モデル企業には極めて強い“取り込み”の動機がある。AnthropicはMCPとSkillsをやり、OpenAIはPluginsとGPTsをやっている。どちらもこの2層を飲み込もうとしている。
この2方向での起業における天井は、買収されることだ。ガードレールとコンプライアンス、そして評価と可観測性はその反対で、彼らは天然に第三者の独立性を必要とする。銀行はAnthropic自身のコンプライアンス監査ツールを信用しない。監査対象者自身に監査レポートを書かせないのと同じだ。独立性はビジネス戦略ではなく、プロダクト価値そのものだ。 前者は良い買収ターゲットであり、後者は良いIPOターゲットである。
それらはすべてHarness、つまりAgentのInfraに属する。そのHarnessレースの総規模はどれくらいあるのか?
下から上へ、7つのサブレーンのバリュエーション空間を合計し、2030年に独立したスタートアップのバリュエーション合計は約$5000-8000億になる。そのうちスキル封装と垂直知識が最大($2500-3500億)、ガードレールとコンプライアンスは最も速い伸びを見せる(CAGR 65.8%。2024年の$7億から2034年の予測$1099億へ)。Agentがより自律的になるほど、手綱の価格はより高くなる。訓練環境は最も初期だが、確実性が最も高い。
AI Agentの全体市場の2030年予測は収益$500-1000億で、HarnessはInfra層として40-50%を占める。SaaS/Infraの10-15x PS倍率で換算すると、バリュエーション空間は十分に整合的だ。
数兆ドルの起業レーン。
モデル企業の中に内蔵されたHarness収入も織り込めば、Harness基盤インフラ層全体のバリュエーション空間は$2.5-3.8兆になる。これは概ね、今日のクラウド計算Infra層の時価総額合計に相当する。
では、林俊旸に戻ろう。もし彼が本当に訓練環境とRL基盤インフラというHarnessのサブレーンに参入するとしたら、彼が直面するのは現在約20社のシード段階企業があるだけの市場で、しかし2030年のバリュエーション空間は$200-500億。Wing VCはこのレースが最終的に3-5社のトップ企業に統合されると予測している。
彼がQwenの前CTOという立場を考えれば、シリコンバレーではシードラウンドのバリュエーションは$2-5億の範囲になるかもしれない。市場が払うのは企業価値ではなく“人への価格”だ。林俊旸はもうBPを書く必要がない。そのツイートだけで十分だ。そしてもし中国でドル建てファンドを相手にするなら、バリュエーションは$5000万からが下限で、$1億もあり得ない話ではない。人民元?それはまた別の話だ。
Anthropicの手のひら
次に答えるべき本当に重要な問題がある:この1兆ドル規模のHarness基盤インフラ層は、誰がルールを定義しているのか?
残酷な事実を見てみよう:
MCPはAnthropicが推した標準プロトコルだ。Claude CodeはAnthropicが作ったharnessプロダクトで、年換算収益$25億。Agent SDKはAnthropicが建てた開発者の入口。SkillsシステムはAnthropicが設計した。さらに「harness」という言葉がAI Agent文脈で流行することの最大の推進者もAnthropicだ。
より深い理由はビジネスモデルにある。
OpenAIの中心的な物語は「最強モデル」だ。収益は主にChatGPTサブスクリプションから来る。一方でAnthropicはマルチモーダルやワールドモデルを徹底的にやっていない。だが、より多くの人に「最強モデル」だと見なされるようになっている。Claudeのセールスポイントはスコアで1位を取ることではなく、「Agentのワークフローに最も適したモデル」――より信頼性が高く、より制御しやすく、長時間の自律運転により向いている――という点だ。
このポジショニングは、Anthropicの競争力がモデルだけではなく、モデルの周りのHarnessの品質からも来ていることを意味する。Harnessの各レイヤーが成熟するほど、城壁(モート)が厚くなる。Harnessエコシステムの繁栄は、直接Anthropicの商業利益に等しい。
これが、OpenAIが2023年から生態系(エコシステム)を作ろうと試みた理由だ――Plugins、GPTs、GPT Store。しかしそれはうまくいかなかった。一方でAnthropicのMCPは2024年末に出た。1年半遅れたのに、それでも事実上の標準になった。
背後の根本原因はこうだ:OpenAIはアプリのエコシステムを作り、Anthropicはインフラのエコシステムを作った。
OpenAIのGPT StoreはApp Storeのロジックだ――ユーザー基盤が最大だから、店を出してくれるならこっちへ来い。だが、モデル自体が何でもできるのなら、アプリが存在する必要はない。GPTsには差別化の壁がない。なぜなら、基盤能力とChatGPT自体が同じものだからだ。
そしてAnthropicのMCPは、アプリのストアではなく、プロトコルのストアだ。 それは開発者をClaude上で店を開かせるのではなく、接続の標準を定義する。すべてのツール、すべてのモデルが使えるようにする。これはHTTPのロジックであって、App Storeのロジックではない。
プロトコルがよりオープンになるほど、エコシステムの支配力はより強くなる。今、誰もがMCPを使っている。MCPはAnthropicが設計したものだ。Anthropicはユーザーをロックする必要はない。ロックするのは、開発者の“心智”とツールチェーンだ。
資本面でも。Anthropicと早期投資家のMenlo Venturesは$1億のAnthology Fundを設立し、年間で30社以上のharness系スタートアップに投資した。構造が賢い:Menloが金を出し、Anthropicはファンドの経済的利益には参加しない。しかし投資先の各社に$25,000分のモデルクレジットを配り、首席製品責任者のMike Kriegerと社長のDaniela Amodeiがdemo dayに参加できるようにする。
Anthropicは1セントも出さずに、30社以上のスタートアップをClaudeエコシステムに固定しつつ、最前線の需要シグナルを得る。これは無コストのオプションだ。
だが、考えてみたことはあるだろうか:Agentic AIの時代において、なぜAnthropicのプロトコルエコシステムは、OpenAIのアプリエコシステムより重要なのか?
なぜならAgentは、伝統的な意味での「アプリ」ではない。従来のAppのインタラクション・インターフェースは固定で、限られている――ユーザーが呼ぶ、Appはあらかじめ決めた手順でAPIを呼び、ドライバーとマッチし、ルートを計算する。Agentは違う。Agentは、自分でどのツールを、どの順序で、いつ呼ぶかを決める。インタラクション・インターフェースは無限で、動的だ。しかもAgent同士の協業も必要になる――オーケストレーターが専門のAgentをスケジューリングし、専門のAgentがサブAgentをスケジューリングする。これは分散システムにおける協調の問題だ。
インタラクション・インターフェースが固定なら、1つずつ接続できる。インタラクション・インターフェースが無限なら、標準を定義するしかない。
TCP/IPが任意の2台のコンピュータを通信可能にし、HTTPが任意のクライアントから任意のサーバーへアクセス可能にし、MCPが任意のAgentから任意のツールを呼び出せるようにする。アプリエコシステムの基本単位は「プロダクト」であり、プロトコルエコシステムの基本単位は「接続」だ。Agentic時代では、接続の数と質がすべてを決める。
すべてのHarnessスタートアップは、宙返りしている。林俊旸が本当に訓練環境基盤インフラをやるなら、彼が自ら記事中で「本当に起業できるカテゴリ」と定義したその方向性であれば、彼のプロダクトも最終的にはたいていClaudeエコシステムに接続する必要がある。あるいは中国で並行するエコシステムを作ることになる。Anthropicがプロトコルを定義し、SDKを作り、エコシステムファンドを敷き、開発者の心智を掴んでいるからだ。
たぶん、不可抗力として、中国のAgentスタートアップだけがAnthropicの手のひらから跳び出せる可能性がある。