作者:0xai特此感谢@DistStateAndMe 及其团队在开源 AI 模型领域的贡献,以及对本文提供的宝贵建议与支持。なぜこのレポートに注目すべきか「分散型AIトレーニング」が不可能から可能へと変わった今、Bittensorはどれだけ過小評価されているのか?2026年初頭、暗号通貨界隈には疲弊感が漂っている。前回のブルマーの余韻はすでに消え去り、人材はAI業界へと加速して流れている。かつて「次の100倍」を語っていた人々は今、「Claude CodeOpenclaw」について語る。 「暗号は時間の無駄だ」—この言葉を一度や二度聞いたことがあるかもしれない。しかし2026年3月10日、Templarと呼ばれるBittensorのサブネットが静かに一つの発表をした。世界各地の70以上の独立した参加者が、中央サーバーや大企業の調整なしに、暗号インセンティブメカニズムだけを頼りに、合計720億パラメータのAI大規模モデルを共同でトレーニングした。モデルと関連論文はすでにHuggingFaceやarXivに公開され、データは誰でも検証可能だ。さらに重要なのは、多くの重要なテストで、このモデルがMetaが高額を投じて訓練した同等クラスのモデルを上回ったことである。この発表後、TAOの価格はほぼ2日間沈黙した。3日目に突如暴騰し、6日後もその勢いは止まらず、総上昇率は約40%に達した。なぜこの2日の遅れが生じたのか?このレポートの核心は次の通り:暗号投資家が見ているのは「また一つのオープンソースモデル」であり、日常的に使われているGPTやClaudeには及ばないと感じている。AI研究者は暗号には関心が薄い。両者の間に存在するギャップが、認知的アービトラージの窓を生み出している。読解の枠組みこのレポートは二つの論理的部分に分かれる。Part I — 技術的ブレークスルー:SN3 Templarが何を成し遂げたのか、その意義は何かを解説。Part II — 業界への意味:この出来事がBittensorエコシステムの過小評価を招いている理由、そしてBittensorが暗号界の希望である理由を解説。Part I:分散型AIトレーニングの突破1. SN3は何をしているのか?大規模言語モデルのトレーニングには何が必要か?従来の答え:巨大なデータセンターを建設し、何万もの最先端GPUを購入し、数億ドルを投じ、企業のエンジニアチームが一元的に調整する。これがMeta、Google、OpenAIのやり方だ。SN3 Templarのやり方:世界中に散らばる参加者が、それぞれ1台または数台のGPUサーバーを持ち寄り、パズルのピースのように計算能力を結集し、協力して完全な大モデルを訓練する。しかし根本的な課題がある:参加者が世界中に散らばり、信頼できず、ネットワーク遅延も不安定な場合、どうやって訓練結果の有効性を保証するのか?誰かがサボったり不正をしたりしないようにするには?どうやって継続的な貢献を促すのか?Bittensorは答えを示す:TAOトークンによるインセンティブだ。貢献度(モデル改善への寄与、すなわち「勾配」)が効果的なほど、多くのTAOを獲得できる。システムは自動的に評価し、報酬を決済する。中央集権的な調整機関は不要だ。これがBittensorのSN3(第3サブネット)、コードネームはTemplarだ。もしBitcoinが分散型の「お金」が可能であることを証明したなら、SN3は分散型の「AIトレーニング」も可能であることを証明している。2. SN3は何を達成したのか?2026年3月10日、SN3 Templarは「Covenant-72B」という名の大規模言語モデルの訓練を完了したと発表した。「72B」とは何か?:720億パラメータ。パラメータはAIモデルの「知識記憶ユニット」であり、多いほど賢いとされる。GPT-3は1750億、LLaMA-2(Metaのオープンソースフラッグシップ)は700億。Covenant-72BはLLaMA-2と同じ規模だ。訓練規模はどれくらいか?:約1.1兆語(トークン)=約550万冊の本(1冊20万字換算)。誰が参加したのか?:70以上の独立した参加者(マイナー)が順次計算能力を提供(各ラウンドの同期上限は約20ノード)。訓練は2025年9月12日に開始し、約6か月かかった。中央サーバーや調整機関は存在しない。モデルの性能はどうか?:主流AIの試験を例にすると、データソース:HuggingFace 1Covenant/Covenant-72B-Chatモデルカード・MMLU(57科目の総合知識):Covenant-72B 67.35% vs Meta LLaMA-2 63.08%・GSM8K(数学推論):Covenant-72B 63.91% vs Meta LLaMA-2 52.16%・IFEval(指示追従能力):Covenant-72B 64.70% vs Meta LLaMA-2 40.67%完全オープンソース:Apache 2.0ライセンス。誰でも無料でダウンロード・使用・商用可能。学術的裏付け:論文はarXivに提出済み[arXiv:2603.08163]、コア技術(SparseLoCo最適化器とGauntlet反作弊機構)はNeurIPS Optimization Workshopで発表済み。3. この成果は何を意味するのか?オープンソースAIコミュニティにとって:資金と計算資源のハードルのため、70Bクラスの大モデルの訓練は少数の大企業の専売だった。Covenant-72Bは初めて、コミュニティが中央資金支援なしで同規模のモデルを訓練できることを証明した。これにより、AI基盤モデル開発への参加資格の境界が変わる。AIの権力構造にとって:現在のAI基盤モデルの格局は高度に集中化されている—OpenAI、Google、Meta、Anthropicなどの数社が最強のモデルを支配している。分散型訓練の成立は、この壁を越えられる可能性を示す。「大企業だけが基盤モデルを作れる」という前提が揺らぎ始めている。暗号業界にとって:これは暗号プロジェクトがAI分野で初めて実質的な技術貢献をした例だ。Covenant-72BにはHuggingFaceのモデル、arXivの論文、公開されたベンチマークデータがある。これにより、暗号のインセンティブメカニズムが真剣なAI研究のインフラになり得ることを示した。Bittensor自身にとって:SN3の成功は、Bittensorを「理論上可能な分散型AIプロトコル」から、「実践的に検証された分散型AIインフラ」へと変えた。これは0から1への質的変化だ。4. SN3の歴史的地位分散型AIトレーニングの道はSN3が初めて切り開いたわけではないが、SN3は先人たちが到達し得なかった地点に到達した。分散型トレーニングの進化史:2022 — Together GPT-JT(6B):初期の探索、マルチマシン協調の実現2023 — SWARM Intelligence(~1B):異種ノード協調訓練フレームワーク提案2024 — INTELLECT-1(10B):複数機関による分散型訓練2026 — Covenant-72B / SN3(72B):主流ベンチマークで集中訓練を超えた最初の72B大モデルわずか4年で、パラメータは6Bから72Bへ12倍に増加。しかし、重要なのはパラメータ数だけではなく、その質だ。前世代のプロジェクトは「動かすこと」が目的だったが、Covenant-72Bは、主流ベンチマークで集中訓練モデルを超えた最初の分散型大モデルだ。技術的ブレークスルー:>99%圧縮率(>146倍):参加者がアップロードする勾配データは、通常GB単位だが、SparseLoCoはこれを146倍以上圧縮。まるで一シーズンのドラマを一枚の画像に圧縮し、情報損失は最小限。通信コストはわずか6%:100人の協調作業のうち、実質的な通信・調整にかかるのは6%のみ。残り94%は実際の訓練に使われる。これにより、分散型訓練の最大のボトルネックの一つを解消した。5. 分散型訓練は過小評価されているのか?データを見て判断しよう。過小評価の証拠・MMLU 67.35% vs LLaMA-2 63.08%・MMLU-Pro 40.91% vs LLaMA-2 35.20%・IFEval 64.70% vs LLaMA-2 40.67%これらは、分散型訓練のモデルがMetaの高額投資によるLLaMA-2-70Bを超えていることを示す。現状の最先端オープンソースモデルとのギャップ(正直に認める必要がある):・MMLU:Covenant-72B 67.35% vs Qwen2.5-72B 86.8% vs LLaMA-3.1-70B 83.6%・GSM8K:Covenant-72B 63.91% vs Qwen2.5-72B 95.8% vs LLaMA-3.1-70B 95.1%約20〜30ポイントの差がある。しかし、重要なのは比較の枠組みだ。Covenant-72Bの意義はSOTAを打ち負かすことではなく、分散型訓練が実現可能であることを証明した点にある。Qwen2.5やLLaMA-3.1は千億規模の投資と数万GPU、専門のエンジニアチームによるものだが、Covenant-72Bは70人以上の独立したマイナーと中央調整なしの環境で動いている。トレンドのスピードは静止画よりも重要:2022年:最良の分散モデルは6Bパラメータで、MMLUも未測定。2026年:72BモデルでMMLU 67.35%、Metaと同等レベルに到達。わずか4年で、分散型訓練は「概念実験」から「性能が集中訓練に匹敵」へと進化した。この曲線の傾きは、どのベンチマークの数字よりも価値がある。さらに、Covenant-72Bの深い推論能力の差は、後続の改善策によって埋められる見込みだ。SN81 Grailは後訓練の強化学習(RLHF)を担当し、モデルの整合性と能力向上を図る。これこそGPT-4がGPT-3に比べて最も重要な改良を施したステップだ。Heterogeneous SparseLoCoは次のマイルストーン:現在のSN3は全マイナーが同じGPUモデルを使う必要があるが、次のHeterogeneous SparseLoCoは異種ハードウェア(B200、A100、消費者向けGPU)を混在させて同一訓練に参加させることを可能にする。これが実現すれば、次の訓練サイクルの計算能力プールは大幅に拡大する。分散型訓練はすでに実現可能性の閾を超えた。現状のベンチマーク差は、さらなる最適化の工程的課題であり、根本的な理論的障壁ではない。Part II:市場はこの事実をまだ理解していないTAOの価格推移SN3の発表後、TAOの価格動向はこの認知遅れを明確に示している。この2日間の沈黙(3/10→3/12)に注目:発表後、価格はほぼ動かず。なぜ遅れが生じたのか?暗号投資家が見ているのは、「Bittensor SN3がAIモデルを訓練した」という情報だが、「72Bの分散型訓練がMMLUでMetaを超えた」という技術的意義を理解していない。AI研究者はこの技術的意義を理解できるが、彼らは暗号には関心が薄い。この両者の認知差が、約2〜3日の価格遅延の窓を生み出している。また、多くの暗号投資家はBittensorの認知が前サイクルのまま停滞している。現在、Bittensorには79以上のサブネットが活発に稼働し、AIエージェント、計算資源、AI訓練、AI取引、ロボットなど多岐にわたる分野をカバーしている。市場がBittensorのエコシステムの広がりを再評価し始めるとき、その認知差は修正され、価格の暴騰という形で現れるだろう。Bittensorの評価の歪みより大きな産業背景にBittensorを置いてみると、SN3はすでに証明した:Bittensorは分散型大規模モデル訓練を実現できる。もし将来、AIがオープンで許可不要な訓練ネットワークを必要とするなら、現時点で実践的に検証された唯一のインフラ候補はBittensorだ。市場は、アプリケーション層のプロジェクトの評価ロジックでAIインフラ級のネットワークを価格付けしている。暗号内だけで比較すれば、Bitcoinは暗号市場全体のシェアが長期にわたり50〜60%に達しているが、Bittensorは暗号AI分野でのシェアは約11.5%に過ぎない。市場がBittensorのAIインフラとしての位置付けを再理解すれば、この歪みは必ず修正される。結論:Bittensorは暗号界の希望だもしSN3 TemplarのCovenant-72Bが一つ証明したことがあるとすれば、それは、分散型ネットワークは資本だけでなく、計算能力と最先端AI研究も調整できるということだ。過去数年、暗号はAIの物語の中で多くは脇役だった。多くのプロジェクトは概念や感情、資本の物語に頼り、検証可能な技術的成果に乏しかった。SN3は明らかに異なるケースだ。新たなトークンの物語も、AI+Web3のアプリ層の製品も出していない。より根源的で難しいことを成し遂げた。それは、中央調整なしに72B規模のモデルを訓練したことだ。参加者は世界中から集まり、互いに信頼せず、システムはチェーン上のインセンティブと検証メカニズムにより自動的に調整され、貢献と報酬を分配している。暗号の仕組みがAI分野で初めて、実質的な生産力を組織したのだ。多くの人はSN3の歴史的意義を理解していない。Bitcoinが証明したのは、「より良い支払い」ではなく、「中央信用なしの価値共識」だったことと同じだ。今日、多くの人が見ているのは、ベンチマークやモデルのリリース、あるいは一時的な価格上昇だけだ。しかし、実際に起きているのは、Bittensorが証明していることだ:暗号は資産を発行するだけでなく、生産を組織できる。暗号は注意力を取引するだけでなく、知能を生み出せる。オープンソースコミュニティはコードを貢献でき、学術界は論文を提供できるが、超大規模訓練や長期協調、多地域調整、反作弊と報酬分配の問題に直面したとき、善意や評判体系だけでは不十分だ。経済的インセンティブがなければ、安定した供給は生まれない。検証可能な報酬と罰則がなければ、長期的な協力は成立しない。トークン化された調整メカニズムがなければ、真のグローバルな、許可不要なAI生産ネットワークは形成できない。したがって、Bittensorは過小評価されているのか?答えは「可能性」ではなく、「著しく、体系的に過小評価されている」だ。「Cryptoに未来はあるのか?」という大議論の中で、Bittensorは最も力強い答えを示している。だからこそ、Bittensorは暗号界の希望なのだ。
Bittensor は暗号資産コミュニティ全体の希望です
作者:0xai
特此感谢@DistStateAndMe 及其团队在开源 AI 模型领域的贡献,以及对本文提供的宝贵建议与支持。
なぜこのレポートに注目すべきか
「分散型AIトレーニング」が不可能から可能へと変わった今、Bittensorはどれだけ過小評価されているのか?
2026年初頭、暗号通貨界隈には疲弊感が漂っている。
前回のブルマーの余韻はすでに消え去り、人材はAI業界へと加速して流れている。かつて「次の100倍」を語っていた人々は今、「Claude CodeOpenclaw」について語る。 「暗号は時間の無駄だ」—この言葉を一度や二度聞いたことがあるかもしれない。
しかし2026年3月10日、Templarと呼ばれるBittensorのサブネットが静かに一つの発表をした。
世界各地の70以上の独立した参加者が、中央サーバーや大企業の調整なしに、暗号インセンティブメカニズムだけを頼りに、合計720億パラメータのAI大規模モデルを共同でトレーニングした。
モデルと関連論文はすでにHuggingFaceやarXivに公開され、データは誰でも検証可能だ。
さらに重要なのは、多くの重要なテストで、このモデルがMetaが高額を投じて訓練した同等クラスのモデルを上回ったことである。
この発表後、TAOの価格はほぼ2日間沈黙した。3日目に突如暴騰し、6日後もその勢いは止まらず、総上昇率は約40%に達した。なぜこの2日の遅れが生じたのか?
このレポートの核心は次の通り:暗号投資家が見ているのは「また一つのオープンソースモデル」であり、日常的に使われているGPTやClaudeには及ばないと感じている。AI研究者は暗号には関心が薄い。両者の間に存在するギャップが、認知的アービトラージの窓を生み出している。
読解の枠組み
このレポートは二つの論理的部分に分かれる。
Part I — 技術的ブレークスルー:SN3 Templarが何を成し遂げたのか、その意義は何かを解説。
Part II — 業界への意味:この出来事がBittensorエコシステムの過小評価を招いている理由、そしてBittensorが暗号界の希望である理由を解説。
Part I:分散型AIトレーニングの突破
大規模言語モデルのトレーニングには何が必要か?
従来の答え:巨大なデータセンターを建設し、何万もの最先端GPUを購入し、数億ドルを投じ、企業のエンジニアチームが一元的に調整する。これがMeta、Google、OpenAIのやり方だ。
SN3 Templarのやり方:世界中に散らばる参加者が、それぞれ1台または数台のGPUサーバーを持ち寄り、パズルのピースのように計算能力を結集し、協力して完全な大モデルを訓練する。
しかし根本的な課題がある:参加者が世界中に散らばり、信頼できず、ネットワーク遅延も不安定な場合、どうやって訓練結果の有効性を保証するのか?誰かがサボったり不正をしたりしないようにするには?どうやって継続的な貢献を促すのか?
Bittensorは答えを示す:TAOトークンによるインセンティブだ。貢献度(モデル改善への寄与、すなわち「勾配」)が効果的なほど、多くのTAOを獲得できる。システムは自動的に評価し、報酬を決済する。中央集権的な調整機関は不要だ。
これがBittensorのSN3(第3サブネット)、コードネームはTemplarだ。
もしBitcoinが分散型の「お金」が可能であることを証明したなら、SN3は分散型の「AIトレーニング」も可能であることを証明している。
2026年3月10日、SN3 Templarは「Covenant-72B」という名の大規模言語モデルの訓練を完了したと発表した。
「72B」とは何か?:720億パラメータ。パラメータはAIモデルの「知識記憶ユニット」であり、多いほど賢いとされる。GPT-3は1750億、LLaMA-2(Metaのオープンソースフラッグシップ)は700億。Covenant-72BはLLaMA-2と同じ規模だ。
訓練規模はどれくらいか?:約1.1兆語(トークン)=約550万冊の本(1冊20万字換算)。
誰が参加したのか?:70以上の独立した参加者(マイナー)が順次計算能力を提供(各ラウンドの同期上限は約20ノード)。訓練は2025年9月12日に開始し、約6か月かかった。中央サーバーや調整機関は存在しない。
モデルの性能はどうか?:主流AIの試験を例にすると、
データソース:HuggingFace 1Covenant/Covenant-72B-Chatモデルカード
・MMLU(57科目の総合知識):Covenant-72B 67.35% vs Meta LLaMA-2 63.08%
・GSM8K(数学推論):Covenant-72B 63.91% vs Meta LLaMA-2 52.16%
・IFEval(指示追従能力):Covenant-72B 64.70% vs Meta LLaMA-2 40.67%
完全オープンソース:Apache 2.0ライセンス。誰でも無料でダウンロード・使用・商用可能。
学術的裏付け:論文はarXivに提出済み[arXiv:2603.08163]、コア技術(SparseLoCo最適化器とGauntlet反作弊機構)はNeurIPS Optimization Workshopで発表済み。
オープンソースAIコミュニティにとって:資金と計算資源のハードルのため、70Bクラスの大モデルの訓練は少数の大企業の専売だった。Covenant-72Bは初めて、コミュニティが中央資金支援なしで同規模のモデルを訓練できることを証明した。これにより、AI基盤モデル開発への参加資格の境界が変わる。
AIの権力構造にとって:現在のAI基盤モデルの格局は高度に集中化されている—OpenAI、Google、Meta、Anthropicなどの数社が最強のモデルを支配している。分散型訓練の成立は、この壁を越えられる可能性を示す。「大企業だけが基盤モデルを作れる」という前提が揺らぎ始めている。
暗号業界にとって:これは暗号プロジェクトがAI分野で初めて実質的な技術貢献をした例だ。Covenant-72BにはHuggingFaceのモデル、arXivの論文、公開されたベンチマークデータがある。これにより、暗号のインセンティブメカニズムが真剣なAI研究のインフラになり得ることを示した。
Bittensor自身にとって:SN3の成功は、Bittensorを「理論上可能な分散型AIプロトコル」から、「実践的に検証された分散型AIインフラ」へと変えた。これは0から1への質的変化だ。
分散型AIトレーニングの道はSN3が初めて切り開いたわけではないが、SN3は先人たちが到達し得なかった地点に到達した。
分散型トレーニングの進化史:
2022 — Together GPT-JT(6B):初期の探索、マルチマシン協調の実現
2023 — SWARM Intelligence(~1B):異種ノード協調訓練フレームワーク提案
2024 — INTELLECT-1(10B):複数機関による分散型訓練
2026 — Covenant-72B / SN3(72B):主流ベンチマークで集中訓練を超えた最初の72B大モデル
わずか4年で、パラメータは6Bから72Bへ12倍に増加。しかし、重要なのはパラメータ数だけではなく、その質だ。前世代のプロジェクトは「動かすこと」が目的だったが、Covenant-72Bは、主流ベンチマークで集中訓練モデルを超えた最初の分散型大モデルだ。
技術的ブレークスルー:
通信コストはわずか6%:100人の協調作業のうち、実質的な通信・調整にかかるのは6%のみ。残り94%は実際の訓練に使われる。これにより、分散型訓練の最大のボトルネックの一つを解消した。
データを見て判断しよう。
過小評価の証拠
・MMLU 67.35% vs LLaMA-2 63.08%
・MMLU-Pro 40.91% vs LLaMA-2 35.20%
・IFEval 64.70% vs LLaMA-2 40.67%
これらは、分散型訓練のモデルがMetaの高額投資によるLLaMA-2-70Bを超えていることを示す。
現状の最先端オープンソースモデルとのギャップ(正直に認める必要がある):
・MMLU:Covenant-72B 67.35% vs Qwen2.5-72B 86.8% vs LLaMA-3.1-70B 83.6%
・GSM8K:Covenant-72B 63.91% vs Qwen2.5-72B 95.8% vs LLaMA-3.1-70B 95.1%
約20〜30ポイントの差がある。
しかし、重要なのは比較の枠組みだ。Covenant-72Bの意義はSOTAを打ち負かすことではなく、分散型訓練が実現可能であることを証明した点にある。Qwen2.5やLLaMA-3.1は千億規模の投資と数万GPU、専門のエンジニアチームによるものだが、Covenant-72Bは70人以上の独立したマイナーと中央調整なしの環境で動いている。
トレンドのスピードは静止画よりも重要:
2022年:最良の分散モデルは6Bパラメータで、MMLUも未測定。
2026年:72BモデルでMMLU 67.35%、Metaと同等レベルに到達。
わずか4年で、分散型訓練は「概念実験」から「性能が集中訓練に匹敵」へと進化した。この曲線の傾きは、どのベンチマークの数字よりも価値がある。
さらに、Covenant-72Bの深い推論能力の差は、後続の改善策によって埋められる見込みだ。SN81 Grailは後訓練の強化学習(RLHF)を担当し、モデルの整合性と能力向上を図る。これこそGPT-4がGPT-3に比べて最も重要な改良を施したステップだ。
Heterogeneous SparseLoCoは次のマイルストーン:現在のSN3は全マイナーが同じGPUモデルを使う必要があるが、次のHeterogeneous SparseLoCoは異種ハードウェア(B200、A100、消費者向けGPU)を混在させて同一訓練に参加させることを可能にする。これが実現すれば、次の訓練サイクルの計算能力プールは大幅に拡大する。
分散型訓練はすでに実現可能性の閾を超えた。現状のベンチマーク差は、さらなる最適化の工程的課題であり、根本的な理論的障壁ではない。
Part II:市場はこの事実をまだ理解していない
TAOの価格推移
SN3の発表後、TAOの価格動向はこの認知遅れを明確に示している。
この2日間の沈黙(3/10→3/12)に注目:発表後、価格はほぼ動かず。
なぜ遅れが生じたのか?
暗号投資家が見ているのは、「Bittensor SN3がAIモデルを訓練した」という情報だが、「72Bの分散型訓練がMMLUでMetaを超えた」という技術的意義を理解していない。
AI研究者はこの技術的意義を理解できるが、彼らは暗号には関心が薄い。
この両者の認知差が、約2〜3日の価格遅延の窓を生み出している。
また、多くの暗号投資家はBittensorの認知が前サイクルのまま停滞している。現在、Bittensorには79以上のサブネットが活発に稼働し、AIエージェント、計算資源、AI訓練、AI取引、ロボットなど多岐にわたる分野をカバーしている。市場がBittensorのエコシステムの広がりを再評価し始めるとき、その認知差は修正され、価格の暴騰という形で現れるだろう。
Bittensorの評価の歪み
より大きな産業背景にBittensorを置いてみると、
SN3はすでに証明した:Bittensorは分散型大規模モデル訓練を実現できる。
もし将来、AIがオープンで許可不要な訓練ネットワークを必要とするなら、現時点で実践的に検証された唯一のインフラ候補はBittensorだ。
市場は、アプリケーション層のプロジェクトの評価ロジックでAIインフラ級のネットワークを価格付けしている。
暗号内だけで比較すれば、Bitcoinは暗号市場全体のシェアが長期にわたり50〜60%に達しているが、Bittensorは暗号AI分野でのシェアは約11.5%に過ぎない。
市場がBittensorのAIインフラとしての位置付けを再理解すれば、この歪みは必ず修正される。
結論:Bittensorは暗号界の希望だ
もしSN3 TemplarのCovenant-72Bが一つ証明したことがあるとすれば、それは、
分散型ネットワークは資本だけでなく、計算能力と最先端AI研究も調整できるということだ。
過去数年、暗号はAIの物語の中で多くは脇役だった。多くのプロジェクトは概念や感情、資本の物語に頼り、検証可能な技術的成果に乏しかった。SN3は明らかに異なるケースだ。
新たなトークンの物語も、AI+Web3のアプリ層の製品も出していない。より根源的で難しいことを成し遂げた。
それは、中央調整なしに72B規模のモデルを訓練したことだ。
参加者は世界中から集まり、互いに信頼せず、システムはチェーン上のインセンティブと検証メカニズムにより自動的に調整され、貢献と報酬を分配している。
暗号の仕組みがAI分野で初めて、実質的な生産力を組織したのだ。
多くの人はSN3の歴史的意義を理解していない。Bitcoinが証明したのは、「より良い支払い」ではなく、「中央信用なしの価値共識」だったことと同じだ。
今日、多くの人が見ているのは、ベンチマークやモデルのリリース、あるいは一時的な価格上昇だけだ。
しかし、実際に起きているのは、Bittensorが証明していることだ:
暗号は資産を発行するだけでなく、生産を組織できる。
暗号は注意力を取引するだけでなく、知能を生み出せる。
オープンソースコミュニティはコードを貢献でき、学術界は論文を提供できるが、超大規模訓練や長期協調、多地域調整、反作弊と報酬分配の問題に直面したとき、善意や評判体系だけでは不十分だ。
経済的インセンティブがなければ、安定した供給は生まれない。
検証可能な報酬と罰則がなければ、長期的な協力は成立しない。
トークン化された調整メカニズムがなければ、真のグローバルな、許可不要なAI生産ネットワークは形成できない。
したがって、Bittensorは過小評価されているのか?答えは「可能性」ではなく、「著しく、体系的に過小評価されている」だ。
「Cryptoに未来はあるのか?」という大議論の中で、Bittensorは最も力強い答えを示している。
だからこそ、Bittensorは暗号界の希望なのだ。