AI迎来“USB-C时刻”,MCP如何与 Ethereum 完美融合?

Nội dung | Bruce

Chỉnh sửa & Biên tập | Huán Huán

Thiết kế | Daisy

"Khoảnh khắc USB-C" trong lịch sử tiến hóa AI, vào tháng 11/2024, giao thức MCP của Anthropic đang gây ra một trận động đất ở Thung lũng Silicon. Tiêu chuẩn mở này, được gọi là "USB-C của thế giới AI", không chỉ tái tạo lại kết nối giữa các mô hình lớn và thế giới vật lý, mà còn ẩn mã để phá vỡ tình thế tiến thoái lưỡng nan độc quyền AI và xây dựng lại mối quan hệ sản xuất của nền văn minh kỹ thuật số. Trong khi chúng ta vẫn đang tranh luận về quy mô tham số của GPT-5, MCP đã lặng lẽ mở đường cho sự phân cấp trong kỷ nguyên AGI......

Bruce: Gần đây tôi đang nghiên cứu Giao thức Ngữ cảnh Mô hình (MCP). Đây là điều thứ hai trong lĩnh vực AI khiến tôi rất phấn khích, sau ChatGPT, vì nó có hy vọng giải quyết ba vấn đề mà tôi đã suy nghĩ trong nhiều năm.

  • Những người không phải là nhà khoa học và thiên tài, người bình thường có thể tham gia vào ngành AI và kiếm thu nhập như thế nào?
  • AI và Ethereum có những sự kết hợp đôi bên cùng có lợi nào?
  • Làm thế nào để thực hiện AI d/acc? Tránh sự độc quyền, kiểm duyệt của các công ty lớn tập trung, AGI hủy diệt nhân loại?

01、MCP là gì?

MCP là một khung tiêu chuẩn mở, có thể đơn giản hóa việc tích hợp LLM với các nguồn dữ liệu và công cụ bên ngoài. Nếu chúng ta so sánh LLM với hệ điều hành Windows, các ứng dụng như Cursor là bàn phím và phần cứng, thì MCP chính là giao diện USB, hỗ trợ việc linh hoạt kết nối dữ liệu và công cụ bên ngoài, sau đó người dùng có thể đọc và sử dụng những dữ liệu và công cụ bên ngoài này.

MCP cung cấp ba khả năng để mở rộng LLM:

  • Tài nguyên (Mở rộng kiến thức)
  • Công cụ(thực thi hàm, gọi hệ thống bên ngoài)
  • Nhắc nhở (Mẫu từ nhắc nhở đã được viết sẵn)

MCP có thể được phát triển và quản lý bởi bất kỳ ai, cung cấp dưới dạng Server, có thể ngừng dịch vụ bất cứ lúc nào.

02, Tại sao cần MCP

Hiện tại, LLM sử dụng càng nhiều dữ liệu càng tốt để thực hiện một khối lượng lớn phép toán và tạo ra một lượng lớn tham số, tích hợp kiến thức vào mô hình, từ đó thực hiện đầu ra đối thoại với kiến thức tương ứng. Tuy nhiên, vẫn tồn tại vài vấn đề lớn:

  1. Một lượng lớn dữ liệu và phép toán cần rất nhiều thời gian và phần cứng, kiến thức được sử dụng để đào tạo thường đã lỗi thời.
  2. Mô hình với nhiều tham số rất khó để triển khai và sử dụng trên thiết bị cục bộ, nhưng thực tế người dùng trong hầu hết các trường hợp có thể không cần tất cả thông tin để hoàn thành yêu cầu.
  3. Một số mô hình sử dụng phương pháp thu thập thông tin từ bên ngoài để thực hiện tính toán nhằm đạt được tính kịp thời, nhưng do những hạn chế của việc thu thập dữ liệu và chất lượng dữ liệu bên ngoài, có thể tạo ra nội dung gây hiểu lầm hơn.
  4. Do AI không mang lại lợi ích tốt cho các nhà sáng tạo, nhiều trang web và nội dung bắt đầu thực hiện các biện pháp chống AI, tạo ra một lượng lớn thông tin rác, sẽ dẫn đến việc chất lượng LLM dần giảm.
  5. LLM rất khó mở rộng đến các chức năng và thao tác bên ngoài ở mọi khía cạnh, chẳng hạn như gọi chính xác API GitHub để thực hiện một số thao tác, nó sẽ tạo mã dựa trên tài liệu có thể đã lỗi thời, nhưng không thể đảm bảo rằng có thể thực hiện chính xác.

03、Kiến trúc tiến hóa của LLM béo và LLM gầy + MCP

Chúng ta có thể coi các mô hình quy mô siêu lớn hiện tại là các LLM béo, kiến trúc của chúng có thể được biểu diễn bằng hình ảnh đơn giản dưới đây:

AI đón chào "Thời khắc USB-C", MCP sẽ hòa nhập hoàn hảo với Ethereum như thế nào?

Sau khi người dùng nhập thông tin, thông qua lớp Nhận thức & Lý luận để phân tích và suy luận đầu vào, sau đó gọi các tham số khổng lồ để tạo ra kết quả.

Dựa trên MCP, LLM có thể tập trung vào việc phân tích ngôn ngữ bản thân, tách rời kiến thức và khả năng, trở thành LLM gọn nhẹ:

AI chào đón “thời khắc USB-C”, MCP làm thế nào để hòa hợp hoàn hảo với Ethereum?

Dưới kiến trúc của LLM gầy, lớp Perception & Reasoning sẽ tập trung vào cách phân tích thông tin môi trường vật lý toàn diện của con người thành các tokens, bao gồm nhưng không giới hạn: giọng nói, ngữ điệu, mùi hương, hình ảnh, văn bản, trọng lực, nhiệt độ, v.v., sau đó thông qua MCP Coordinator để điều phối và phối hợp với hàng trăm MCP Servers để hoàn thành nhiệm vụ. Chi phí và tốc độ đào tạo của LLM gầy sẽ tăng nhanh chóng, yêu cầu về thiết bị triển khai sẽ giảm xuống rất thấp.

04、MCP làm thế nào để giải quyết ba vấn đề lớn

Người bình thường có thể tham gia vào ngành AI như thế nào?

Bất kỳ ai có tài năng độc đáo đều có thể tạo ra máy chủ MCP của riêng mình để cung cấp dịch vụ cho LLM. Ví dụ, một người yêu thích chim có thể sử dụng những ghi chép về chim của mình trong nhiều năm qua để cung cấp dịch vụ qua MCP. Khi ai đó sử dụng LLM để tìm kiếm thông tin liên quan đến chim, dịch vụ MCP ghi chép về chim hiện tại sẽ được gọi. Người sáng tạo cũng sẽ nhận được phần chia thu nhập từ đó.

Đây là một vòng tuần hoàn kinh tế của người sáng tạo chính xác và tự động hơn, nội dung dịch vụ được chuẩn hóa hơn, số lần gọi và token đầu ra đều có thể được thống kê một cách chính xác. Nhà cung cấp LLM thậm chí có thể gọi đồng thời nhiều máy chủ MCP của Bird Note để người dùng lựa chọn và đánh giá nhằm xác định ai có chất lượng tốt hơn và nhận được trọng số phù hợp cao hơn.

Sự kết hợp đôi bên cùng có lợi của AI và Ethereum

a. Chúng tôi có thể xây dựng một mạng lưới khuyến khích người sáng tạo OpenMCP.Network dựa trên Ethereum. Máy chủ MCP cần được lưu trữ và cung cấp dịch vụ ổn định, người dùng trả phí cho nhà cung cấp LLM, nhà cung cấp LLM sẽ phân phối các khuyến khích thực tế qua mạng đến các Máy chủ MCP được gọi để duy trì tính bền vững và ổn định của toàn bộ mạng lưới, kích thích người sáng tạo MCP tiếp tục sáng tạo và cung cấp nội dung chất lượng cao. Hệ thống mạng này sẽ cần sử dụng hợp đồng thông minh để thực hiện tự động hóa, minh bạch, đáng tin cậy và chống kiểm duyệt cho các khuyến khích. Quá trình ký, xác thực quyền hạn và bảo vệ quyền riêng tư trong quá trình vận hành có thể được thực hiện bằng ví Ethereum, ZK và các công nghệ khác.

b. Phát triển các MCP Servers liên quan đến thao tác trên chuỗi Ethereum, chẳng hạn như dịch vụ gọi ví AA, người dùng sẽ hỗ trợ thanh toán ví thông qua ngôn ngữ trong LLM mà không tiết lộ khóa riêng và quyền hạn liên quan cho LLM.

c. Còn có nhiều công cụ dành cho nhà phát triển, giúp đơn giản hóa việc phát triển hợp đồng thông minh Ethereum và tạo mã.

Thực hiện AI phi tập trung

a. MCP Servers phân quyền kiến thức và khả năng của AI, bất kỳ ai cũng có thể tạo và lưu trữ MCP Servers, đăng ký lên các nền tảng như OpenMCP.Network và nhận phần thưởng theo cách gọi. Không có công ty nào có thể kiểm soát tất cả MCP Servers. Nếu một nhà cung cấp LLM đưa ra phần thưởng không công bằng cho MCP Servers, các nhà sáng tạo sẽ hỗ trợ việc chặn công ty đó, và người dùng sẽ chuyển sang các nhà cung cấp LLM khác để đạt được sự cạnh tranh công bằng hơn.

b. Người sáng tạo có thể thực hiện kiểm soát quyền truy cập chi tiết cho các máy chủ MCP của họ để bảo vệ quyền riêng tư và bản quyền. Các nhà cung cấp LLM gầy nên cung cấp các động lực hợp lý để khuyến khích người sáng tạo đóng góp các máy chủ MCP chất lượng cao.

c. Khoảng cách năng lực giữa các LLM gầy sẽ từ từ được thu hẹp, vì ngôn ngữ của con người có giới hạn khám phá và sự tiến hóa cũng rất chậm. Các nhà cung cấp LLM sẽ cần phải hướng tầm nhìn và vốn vào các MCP Servers chất lượng cao, thay vì lặp đi lặp lại việc sử dụng nhiều card đồ họa để khai thác.

d. Khả năng của AGI sẽ được phân tán và giảm quyền, LLM chỉ hoạt động như một công cụ xử lý ngôn ngữ và tương tác với người dùng, khả năng cụ thể sẽ được phân bổ trong các Máy chủ MCP khác nhau. AGI sẽ không đe dọa đến con người, vì sau khi tắt các Máy chủ MCP, chỉ có thể thực hiện các cuộc trò chuyện ngôn ngữ cơ bản.

05、Tổng quan

  1. Sự tiến hóa của kiến trúc LLM + MCP Servers về bản chất là phân quyền khả năng AI, giảm thiểu rủi ro AGI tiêu diệt nhân loại.
  2. Cách sử dụng LLM đã thiết lập nền tảng cho hệ thống kinh tế của người sáng tạo AI bằng cách cho phép thống kê và tự động hóa số lần gọi đến MCP Servers và đầu vào đầu ra ở cấp độ token.
  3. Hệ thống kinh tế tốt có thể thúc đẩy các nhà sáng tạo chủ động đóng góp vào việc tạo ra các máy chủ MCP chất lượng cao, từ đó thúc đẩy sự phát triển của toàn nhân loại, thực hiện vòng quay tích cực. Các nhà sáng tạo không còn chống đối AI, AI cũng sẽ cung cấp nhiều công việc và thu nhập hơn, phân phối hợp lý lợi nhuận của các công ty thương mại độc quyền như OpenAI.
  4. Hệ thống kinh tế này, kết hợp với đặc điểm và nhu cầu của người sáng tạo, rất phù hợp để triển khai trên Ethereum.

06, Triển vọng tương lai: Kịch bản phát triển tiếp theo

  1. Các giao thức MCP hoặc tương tự MCP sẽ xuất hiện ngày càng nhiều, một vài công ty lớn sẽ bắt đầu cạnh tranh để định nghĩa tiêu chuẩn.
  2. LLM dựa trên MCP sẽ xuất hiện, tập trung vào các mô hình nhỏ phân tích cú pháp và xử lý ngôn ngữ của con người, với Điều phối viên MCP để kết nối với mạng MCP. LLM sẽ hỗ trợ tự động phát hiện và lập lịch trình của MCP Server mà không cần cấu hình thủ công phức tạp.
  3. Các nhà cung cấp dịch vụ MCP Network sẽ xuất hiện, mỗi nhà cung cấp có hệ thống động lực kinh tế riêng, người sáng tạo MCP chỉ cần đăng ký và lưu trữ Server của mình để nhận thu nhập.
  4. Nếu hệ thống kích thích kinh tế của MCP Network được xây dựng trên Ethereum, dựa trên hợp đồng thông minh, thì số giao dịch trên mạng Ethereum sẽ ước tính tăng khoảng 150 lần (theo giả định rất bảo thủ với khối lượng gọi MCP Servers là 100 triệu mỗi ngày, hiện tại 12 giây cho một Block bao gồm 100 txs).
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • 1
  • Chia sẻ
Bình luận
0/400
ZhuQivip
· 03-22 13:57
Kiên định HODL💎
Trả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)