成长值第 1️⃣ 1️⃣ 期夏季抽奖大狂欢火热进行中!
立即抽奖,iPhone16 Pro Max和精美周边等你拿!
👉 https://www.gate.com/activities/pointprize?now_period=11
🎁 100%中奖,在动态完成发帖、点赞、评论、社群发言等成长值任务
抽取iPhone16 Pro Max 512G、Gate品牌卫衣、速干运动套装、人气代币、合约体验券等超多好礼!
集齐两片碎片轻松兑周边,福利抱回家!
截止于6月4日 24:00 UTC+8,快来试试手气!
更多: https://www.gate.com/announcements/article/45185
AI迎来“USB-C时刻”,MCP如何与以太坊完美融合?
内容 | Bruce
编辑 & 排版 | 环环
设计 | Daisy
AI 进化史上的"USB-C时刻",2024 年 11 月,Anthropic 发布的 MCP 协议正在引发硅谷地震。这个被喻为"AI 界 USB-C"的开放标准,不仅重构了大模型与物理世界的连接方式,更暗藏着破解 AI 垄断困局、重构数字文明生产关系的密码。当我们还在争论 GPT-5 的参数规模时,MCP 已悄然铺就通向 AGI 时代的去中心化之路......
Bruce:最近在研究 Model Context Protocol(MCP)。这是继 ChatGPT 之后,在 AI 领域第二个让我非常兴奋的东西,因为它有希望解决我思考多年的三个问题:
01、MCP 是什么?
MCP 是一个开放标准框架,可以简化 LLM 与外部数据源和工具的集成。如果我们把 LLM 比作 Windows 操作系统,Cursor 等应用是键盘和硬件,那么 MCP 就是 USB 接口,支持将外部数据和工具灵活插入,然后用户可以读取使用这些外部数据和工具。
MCP 提供了三种能力对 LLM 进行扩展:
MCP 可以由任何人进行开发和托管,以 Server 的方式提供,可以随时下线停止服务。
02、为什么需要 MCP
目前 LLM 使用尽可能多的数据进行大量的运算并生成大量的参数,将知识融入到模型里面,从而实现对话输出相应知识。但是存在比较大的几个问题:
03、胖 LLM 和瘦 LLM + MCP 的架构演进
我们可以将目前的超大规模模型视为胖 LLM,其架构可以以下面简单图示表示:
用户输入信息之后,通过 Perception & Reasoning 层对输入进行拆解和推理,然后调用庞大的参数进行结果生成。
基于 MCP 之后,LLM 可能聚焦在语言解析本身,剥离出去知识和能力,变成瘦 LLM:
瘦 LLM 的架构下,Perception & Reasoning 层将会关注如何将全方面的人类物理环境信息解析成为 tokens,包括但不限于:语音、语气、气味、图像、文字、重力、气温等,然后通过 MCP Coordinator 编排和协调多达数百的 MCP Servers 完成任务。瘦 LLM 的训练成本和速度将会极速提升,对于部署设备的要求变得很低。
04、MCP 如何解决三大问题
普通人如何参与 AI 行业?
任何有独特才能的人,都可以创建自己的 MCP Server 对 LLM 提供服务。例如一个鸟类爱好者可以将自己多年的鸟类笔记通过 MCP 对外提供服务。当有人使用 LLM 搜索跟鸟类相关的信息,就会调用到当前鸟类笔记 MCP 服务。创作者也会因此获得收入分成。
这是一种更为精准和自动化的创作者经济循环,服务内容更加标准化,调用的次数、输出的 token 都可以很精准的统计。LLM 提供商甚至可以同时调用多个鸟类笔记 MCP Servers 让用户选择和评分来确定谁的质量更好获得更高匹配权重。
AI 和 Ethereum 的双赢结合
a. 我们可以基于 Ethereum 构建一个 OpenMCP.Network 创作者激励网络。MCP Server 需要托管和提供稳定的服务,用户对 LLM 提供商付费,LLM 提供商将实际的激励通过网络分配到被调用的 MCP Servers 上从而维持整个网络的可持续性和稳定性,激发 MCP 的创作者持续创作和提供高质量内容。这一套网络将需要使用智能合约实现激励的自动化、透明、可信和抗审查。运行过程中的签名、权限验证、隐私保护都可以使用以太坊钱包、ZK 等技术实现。
b. 开发 Ethereum 链上操作相关的 MCP Servers,例如 AA 钱包调用服务,用户将支持在 LLM 里面通过语言实现钱包付款而不暴露相关私钥和权限给 LLM。
c. 还有各种开发者工具,进一步简化 Ethereum 智能合约开发和代码生成。
实现 AI 去中心化
a. MCP Servers 将 AI 的知识和能力去中心化,任何人都可以创建和托管 MCP Servers,注册到例如 OpenMCP.Network 这样的平台上面之后按照调用获得激励。没有任何一个公司可以掌握全部的 MCP Servers。如果一个 LLM 提供商给予不公平的激励到 MCP Servers,创作者将支持屏蔽该公司,用户得不到优质结果后将会更换其他 LLM 提供商实现更公平的竞争。
b. 创作者可以对自己的 MCP Servers 实现细粒度的权限控制以保护隐私和版权。瘦 LLM 提供商应该通过提供合理的激励来让创作者贡献高质量的 MCP Servers。
c. 瘦 LLM 能力差距将慢慢抹平,因为人类的语言是有遍历上限的,演进也很缓慢。LLM 提供商将需要把目光、资金瞄向高质量的 MCP Servers,而非重复使用更多显卡炼丹。
d. AGI 的能力将得到分散和降权,LLM 仅作为语言处理和用户交互,具体能力分布在各个 MCP Servers 里面。AGI 将不会威胁到人类,因为关闭 MCP Servers 之后就只能进行基础语言对话。
05、总体回顾
06、未来展望:下一步的剧本演进