a. 私たちはEthereumを基にOpenMCP.Networkクリエイターインセンティブネットワークを構築できます。MCPサーバーは安定したサービスをホスティングおよび提供する必要があり、ユーザーはLLMプロバイダーに支払い、LLMプロバイダーは実際のインセンティブをネットワークを通じて呼び出されたMCPサーバーに分配し、ネットワーク全体の持続可能性と安定性を維持し、MCPのクリエイターが継続的に創作し、高品質のコンテンツを提供することを促します。このネットワークは、インセンティブの自動化、透明性、信頼性、検閲耐性を実現するためにスマートコントラクトを使用する必要があります。運用中の署名、権限検証、プライバシー保護は、Ethereumウォレット、ZKなどの技術を使用して実現できます。
b. Ethereum チェーン上の操作に関連する MCP サーバーを開発します。たとえば、AA ウォレット呼び出しサービスでは、ユーザーが LLM 内で言語を通じてウォレット支払いを実行できるようにし、関連する秘密鍵や権限を LLM に漏らさないようにします。
c. さらに、Ethereum スマートコントラクトの開発とコード生成をさらに簡素化するさまざまな開発者ツールがあります。
AIの分散化を実現する
a. MCPサーバーはAIの知識と能力を分散化し、誰でもMCPサーバーを作成し、OpenMCP.Networkのようなプラットフォームにホスティングすることができ、その後、呼び出しに応じてインセンティブを受け取ることができます。どの企業もすべてのMCPサーバーを掌握することはできません。もしあるLLMプロバイダーがMCPサーバーに対して不公平なインセンティブを提供した場合、クリエイターはその企業をブロックすることを支持し、ユーザーは質の高い結果を得られなくなった場合、より公平な競争を実現するために他のLLMプロバイダーに切り替えることになります。
b. クリエイターは自分のMCPサーバーに対して細かい権限管理を実現し、プライバシーと著作権を保護できます。スリムLLMプロバイダーは、クリエイターが高品質のMCPサーバーを提供するために合理的なインセンティブを提供するべきです。
c. スリム LLM の能力差は徐々に埋まっていくでしょう。なぜなら、人間の言語には遍歴上限があり、進化も非常に遅いからです。LLM サプライヤーは、より多くの GPU を再利用してマイニングするのではなく、高品質の MCP サーバーに目を向け、資金を投入する必要があります。
d. AGIの能力は分散され、権限が低下します。LLMは単に言語処理とユーザーインタラクションとして機能し、具体的な能力は各MCPサーバーに分配されます。AGIは人類を脅かすことはなく、MCPサーバーを停止した後は基礎的な言語対話しかできなくなります。
AIが「USB-Cの時代」を迎え、MCPはどのようにイーサリアムと完璧に融合するのか?
内容 | ブルース
編集 & タイピング | 環環
デザイン | デイジー
AIの進化の歴史における「USB-Cの瞬間」、2024年11月、Anthropicが発表したMCPプロトコルがシリコンバレーに衝撃をもたらしています。この「AI界のUSB-C」と称されるオープンスタンダードは、大規模モデルと物理世界の接続方法を再構築するだけでなく、AIの独占状況を打破し、デジタル文明の生産関係を再構築するための暗号を秘めています。私たちがまだGPT-5のパラメータ規模について議論している間に、MCPは静かにAGI時代への分散型の道を敷いています......
ブルース:最近、Model Context Protocol(MCP)について研究しています。これはChatGPTに続いて、AI分野で私を非常に興奮させる二番目のものであり、私が長年考え続けてきた3つの問題を解決する可能性があります。
01、MCPとは何ですか?
MCPは、LLMと外部データソースおよびツールの統合を簡素化するためのオープンスタンダードフレームワークです。LLMをWindowsオペレーティングシステムに例えるなら、Cursorなどのアプリケーションがキーボードやハードウェアであり、MCPはUSBインターフェースで、外部データやツールを柔軟に挿入できることをサポートし、ユーザーはこれらの外部データやツールを読み取って使用できます。
MCPはLLMを拡張するための三つの能力を提供します:
MCPは誰でも開発およびホスティングでき、サーバーの形で提供され、いつでもサービスを停止することができます。
02、なぜMCPが必要なのか
現在、LLMは可能な限り多くのデータを使用して大量の計算を行い、大量のパラメータを生成し、知識をモデルに組み込むことで、対話に応じた知識を出力します。しかし、いくつかの大きな問題があります。
03、太ったLLMと細いLLM + MCPのアーキテクチャの進化
現在の超大規模モデルを太いLLMとして考えることができ、そのアーキテクチャは以下のシンプルな図で示すことができます:
! AIが「USB-Cの瞬間」の到来を告げる、MCPはどのようにしてイーサリアムと完全に統合されるのか?
ユーザーが情報を入力した後、Perception & Reasoning 層で入力を分解し推論を行い、その後、大規模なパラメータを使用して結果を生成します。
MCPに基づいて、LLMは言語解析自体に焦点を当て、知識や能力を切り離し、スリムなLLMに変わる可能性があります。
! AIが「USB-Cの瞬間」の到来を告げる、MCPはどのようにしてイーサリアムと完全に統合されるのか?
スリムLLMのアーキテクチャの下で、Perception & Reasoningレイヤーは、音声、声のトーン、匂い、画像、文字、重力、気温などを含むがそれに限定されない、人間の物理的環境情報をトークンに解析する方法に焦点を当てます。そして、MCP Coordinatorを通じて、数百のMCPサーバーを編成し、調整してタスクを完了します。スリムLLMのトレーニングコストと速度は急速に向上し、デプロイメントデバイスの要求は非常に低くなります。
04、MCPは三つの大きな問題をどのように解決するか
一般の人は AI 業界にどのように参加できますか?
独自の才能を持つ人は誰でも、自分のMCPサーバーを作成してLLMにサービスを提供できます。例えば、鳥類愛好家は自分の多年の鳥類ノートをMCPを通じて外部に提供することができます。誰かがLLMを使って鳥類に関連する情報を検索すると、現在の鳥類ノートMCPサービスが呼び出されます。クリエイターはそのために収入の分配を得ることができます。
これは、より正確で自動化されたクリエイターエコノミーのサイクルであり、サービス内容がより標準化され、呼び出し回数や出力トークンを非常に正確に統計することができます。LLMプロバイダーは、同時に複数のバードノートMCPサーバーを呼び出して、ユーザーが選択し評価することで、誰の品質がより良いかを判断し、より高いマッチングウェイトを得ることができます。
AIとEthereumのウィンウィンの結合
a. 私たちはEthereumを基にOpenMCP.Networkクリエイターインセンティブネットワークを構築できます。MCPサーバーは安定したサービスをホスティングおよび提供する必要があり、ユーザーはLLMプロバイダーに支払い、LLMプロバイダーは実際のインセンティブをネットワークを通じて呼び出されたMCPサーバーに分配し、ネットワーク全体の持続可能性と安定性を維持し、MCPのクリエイターが継続的に創作し、高品質のコンテンツを提供することを促します。このネットワークは、インセンティブの自動化、透明性、信頼性、検閲耐性を実現するためにスマートコントラクトを使用する必要があります。運用中の署名、権限検証、プライバシー保護は、Ethereumウォレット、ZKなどの技術を使用して実現できます。
b. Ethereum チェーン上の操作に関連する MCP サーバーを開発します。たとえば、AA ウォレット呼び出しサービスでは、ユーザーが LLM 内で言語を通じてウォレット支払いを実行できるようにし、関連する秘密鍵や権限を LLM に漏らさないようにします。
c. さらに、Ethereum スマートコントラクトの開発とコード生成をさらに簡素化するさまざまな開発者ツールがあります。
AIの分散化を実現する
a. MCPサーバーはAIの知識と能力を分散化し、誰でもMCPサーバーを作成し、OpenMCP.Networkのようなプラットフォームにホスティングすることができ、その後、呼び出しに応じてインセンティブを受け取ることができます。どの企業もすべてのMCPサーバーを掌握することはできません。もしあるLLMプロバイダーがMCPサーバーに対して不公平なインセンティブを提供した場合、クリエイターはその企業をブロックすることを支持し、ユーザーは質の高い結果を得られなくなった場合、より公平な競争を実現するために他のLLMプロバイダーに切り替えることになります。
b. クリエイターは自分のMCPサーバーに対して細かい権限管理を実現し、プライバシーと著作権を保護できます。スリムLLMプロバイダーは、クリエイターが高品質のMCPサーバーを提供するために合理的なインセンティブを提供するべきです。
c. スリム LLM の能力差は徐々に埋まっていくでしょう。なぜなら、人間の言語には遍歴上限があり、進化も非常に遅いからです。LLM サプライヤーは、より多くの GPU を再利用してマイニングするのではなく、高品質の MCP サーバーに目を向け、資金を投入する必要があります。
d. AGIの能力は分散され、権限が低下します。LLMは単に言語処理とユーザーインタラクションとして機能し、具体的な能力は各MCPサーバーに分配されます。AGIは人類を脅かすことはなく、MCPサーバーを停止した後は基礎的な言語対話しかできなくなります。
05、全体のレビュー
06、未来の展望:次のステップのシナリオ進化