"Momen USB-C" dalam sejarah evolusi AI, pada November 2024, protokol MCP yang dirilis oleh Anthropic sedang memicu gempa di Silicon Valley. Standar terbuka yang dijuluki "USB-C dunia AI" ini tidak hanya membangun kembali cara model besar terhubung dengan dunia fisik, tetapi juga menyimpan kunci untuk memecahkan masalah monopoli AI dan membangun kembali hubungan produksi dalam peradaban digital. Saat kita masih memperdebatkan ukuran parameter GPT-5, MCP telah secara diam-diam membuka jalan menuju era AGI yang terdesentralisasi......
Bruce: Saya baru-baru ini sedang mempelajari Model Context Protocol (MCP). Ini adalah hal kedua yang membuat saya sangat bersemangat di bidang AI setelah ChatGPT, karena ini memiliki harapan untuk menyelesaikan tiga masalah yang telah saya pikirkan selama bertahun-tahun:
Bukan ilmuwan dan jenius, bagaimana orang biasa dapat terlibat dalam industri AI dan mendapatkan penghasilan?
Apa saja sinergi yang saling menguntungkan antara AI dan Ethereum?
Bagaimana cara mewujudkan AI d/acc? Menghindari monopoli dan sensor oleh perusahaan besar yang terpusat, AGI menghancurkan umat manusia?
01、Apa itu MCP?
MCP adalah kerangka standar terbuka yang dapat menyederhanakan integrasi LLM dengan sumber data dan alat eksternal. Jika kita membandingkan LLM dengan sistem operasi Windows, aplikasi seperti Cursor adalah keyboard dan perangkat keras, maka MCP adalah antarmuka USB yang mendukung penyisipan data dan alat eksternal secara fleksibel, sehingga pengguna dapat membaca dan menggunakan data dan alat eksternal ini.
MCP menyediakan tiga kemampuan untuk memperluas LLM:
Sumber (Ekspansi Pengetahuan)
Alat(menjalankan fungsi, memanggil sistem eksternal)
Prompts (Template kata pengantar yang telah ditulis sebelumnya)
MCP dapat dikembangkan dan dikelola oleh siapa saja, disediakan dalam bentuk Server, dan dapat dihentikan kapan saja.
02, mengapa perlu MCP
Saat ini LLM menggunakan sebanyak mungkin data untuk melakukan sejumlah besar perhitungan dan menghasilkan sejumlah besar parameter, mengintegrasikan pengetahuan ke dalam model, sehingga dapat menghasilkan output dialog yang sesuai dengan pengetahuan tersebut. Namun, ada beberapa masalah yang cukup besar:
Data dan perhitungan yang besar memerlukan banyak waktu dan perangkat keras, pengetahuan yang digunakan untuk pelatihan biasanya sudah ketinggalan zaman.
Model dengan banyak parameter sulit untuk diterapkan dan digunakan di perangkat lokal, namun pada kenyataannya, sebagian besar pengguna mungkin tidak memerlukan semua informasi untuk memenuhi kebutuhan.
Beberapa model menggunakan metode crawling untuk membaca informasi eksternal untuk melakukan perhitungan guna mencapai ketepatan waktu, namun karena keterbatasan crawling dan kualitas data eksternal, mungkin menghasilkan konten yang lebih menyesatkan.
Karena AI tidak memberikan manfaat yang baik bagi para pencipta, banyak situs web dan konten mulai menerapkan langkah-langkah anti-AI, menghasilkan banyak informasi sampah, yang akan menyebabkan kualitas LLM secara bertahap menurun.
LLM sangat sulit untuk diperluas ke berbagai fungsi dan operasi eksternal, seperti memanggil antarmuka GitHub dengan akurat untuk melakukan beberapa operasi, ia akan menghasilkan kode berdasarkan dokumentasi yang mungkin sudah usang, tetapi tidak dapat menjamin bahwa dapat dieksekusi dengan tepat.
03、Arsitektur evolusi LLM Gemuk dan LLM Kurus + MCP
Kita dapat melihat model skala besar saat ini sebagai LLM gemuk, yang arsitekturnya dapat digambarkan dengan diagram sederhana di bawah ini:
Setelah pengguna memasukkan informasi, lapisan Perception & Reasoning akan menguraikan dan menyimpulkan input, kemudian memanggil parameter besar untuk menghasilkan hasil.
Berdasarkan MCP, LLM mungkin akan fokus pada pemrosesan bahasa itu sendiri, memisahkan pengetahuan dan kemampuan, menjadi LLM yang lebih ramping:
Di bawah arsitektur LLM ramping, lapisan Persepsi & Penalaran akan fokus pada bagaimana mengubah informasi lingkungan fisik manusia secara menyeluruh menjadi token, termasuk tetapi tidak terbatas pada: suara, nada, aroma, gambar, teks, gravitasi, suhu, dan lain-lain, kemudian melalui Koordinator MCP mengatur dan mengoordinasikan hingga ratusan Server MCP untuk menyelesaikan tugas. Biaya pelatihan dan kecepatan LLM ramping akan meningkat pesat, dan persyaratan untuk perangkat yang digunakan akan menjadi sangat rendah.
04、MCP bagaimana menyelesaikan tiga masalah utama
Bagaimana orang biasa dapat berpartisipasi dalam industri AI?
Siapa pun yang memiliki bakat unik dapat membuat server MCP mereka sendiri untuk memberikan layanan kepada LLM. Misalnya, seorang penggemar burung dapat menyediakan layanan menggunakan catatan burungnya selama bertahun-tahun melalui MCP. Ketika seseorang menggunakan LLM untuk mencari informasi terkait burung, layanan catatan burung MCP saat ini akan dipanggil. Kreator juga akan mendapatkan pembagian pendapatan karena ini.
Ini adalah siklus ekonomi kreator yang lebih presisi dan otomatis, dengan konten layanan yang lebih terstandarisasi, jumlah panggilan, dan output token dapat dihitung dengan sangat akurat. Penyedia LLM bahkan dapat memanggil beberapa Server MCP Bird Notes sekaligus agar pengguna dapat memilih dan memberi penilaian untuk menentukan siapa yang memiliki kualitas lebih baik dan mendapatkan bobot kecocokan yang lebih tinggi.
Kombinasi Win-Win antara AI dan Ethereum
a. Kita dapat membangun jaringan insentif kreator OpenMCP.Network berdasarkan Ethereum. MCP Server perlu dihosting dan menyediakan layanan yang stabil, pengguna membayar untuk penyedia LLM, dan penyedia LLM akan mendistribusikan insentif yang sebenarnya melalui jaringan ke MCP Servers yang dipanggil untuk mempertahankan keberlanjutan dan stabilitas seluruh jaringan, serta mendorong kreator MCP untuk terus berkarya dan menyediakan konten berkualitas tinggi. Jaringan ini akan memerlukan penggunaan kontrak pintar untuk mewujudkan otomasi, transparansi, kepercayaan, dan ketahanan terhadap sensor. Tanda tangan, verifikasi izin, dan perlindungan privasi selama proses operasional dapat direalisasikan menggunakan dompet Ethereum, ZK, dan teknologi lainnya.
b. Mengembangkan MCP Servers yang terkait dengan operasi di atas rantai Ethereum, seperti layanan panggilan dompet AA, pengguna akan mendukung pembayaran dompet melalui bahasa di dalam LLM tanpa mengekspos kunci pribadi dan izin terkait kepada LLM.
c. Ada berbagai alat pengembang, yang lebih menyederhanakan pengembangan dan pembuatan kode kontrak pintar Ethereum.
Mewujudkan Desentralisasi AI
a. MCP Servers mendekentralisasikan pengetahuan dan kemampuan AI, siapa pun dapat membuat dan menghosting MCP Servers, setelah mendaftar di platform seperti OpenMCP.Network, mereka akan mendapatkan insentif berdasarkan panggilan. Tidak ada satu perusahaan pun yang dapat mengendalikan semua MCP Servers. Jika penyedia LLM memberikan insentif yang tidak adil kepada MCP Servers, pencipta akan mendukung pemblokiran perusahaan tersebut, dan pengguna yang tidak mendapatkan hasil yang berkualitas akan beralih ke penyedia LLM lainnya untuk mencapai persaingan yang lebih adil.
b. Kreator dapat menerapkan kontrol hak akses yang terperinci pada MCP Servers mereka untuk melindungi privasi dan hak cipta. Penyedia LLM ramping harus memberikan insentif yang wajar untuk mendorong kreator berkontribusi pada MCP Servers yang berkualitas tinggi.
c. Kesenjangan kemampuan LLM yang ramping akan perlahan-lahan terselesaikan, karena bahasa manusia memiliki batasan dalam eksplorasi, dan evolusinya juga sangat lambat. Penyedia LLM akan perlu mengalihkan perhatian dan dana mereka ke Server MCP berkualitas tinggi, alih-alih terus menggunakan lebih banyak GPU untuk menambang.
d. Kemampuan AGI akan didistribusikan dan dikurangi, LLM hanya sebagai pemrosesan bahasa dan interaksi pengguna, kemampuan spesifik akan tersebar di berbagai Server MCP. AGI tidak akan mengancam manusia, karena setelah Server MCP dimatikan, hanya percakapan bahasa dasar yang dapat dilakukan.
05, Tinjauan Umum
Evolusi arsitektur LLM + MCP Servers, pada dasarnya adalah desentralisasi kemampuan AI, yang mengurangi risiko AGI menghancurkan umat manusia.
Cara penggunaan LLM memungkinkan penghitungan dan otomatisasi panggilan serta input-output terhadap MCP Servers pada tingkat token, yang menjadi dasar bagi pembangunan sistem ekonomi kreator AI.
Sistem ekonomi yang baik dapat mendorong para kreator untuk secara aktif menyumbangkan pembuatan MCP Servers berkualitas tinggi, sehingga mendorong perkembangan umat manusia secara keseluruhan dan mewujudkan roda positif. Para kreator tidak lagi melawan AI, dan AI juga akan menyediakan lebih banyak pekerjaan dan pendapatan, serta mendistribusikan keuntungan dari perusahaan-perusahaan monopoli seperti OpenAI secara adil.
Sistem ekonomi ini, yang menggabungkan karakteristiknya dan kebutuhan penciptanya, sangat cocok untuk diimplementasikan berdasarkan Ethereum.
06, Prospek Masa Depan: Evolusi Naskah Selanjutnya
Protokol MCP atau protokol serupa MCP akan bermunculan satu demi satu, beberapa perusahaan besar akan mulai bersaing dalam mendefinisikan standar.
MCP Berbasis LLM akan muncul, fokus pada pemrosesan dan analisis bahasa manusia dengan model kecil, dilengkapi dengan MCP Coordinator untuk mengakses jaringan MCP. LLM akan mendukung penemuan otomatis dan penjadwalan MCP Servers tanpa perlu konfigurasi manual yang kompleks.
Penyedia layanan Jaringan MCP akan muncul, masing-masing dengan sistem insentif ekonominya sendiri, pencipta MCP dapat mendaftar dan menghosting Server mereka sendiri untuk mendapatkan pendapatan.
Jika sistem insentif ekonomi MCP Network dibangun menggunakan Ethereum, berdasarkan kontrak pintar, maka transaksi jaringan Ethereum diperkirakan akan meningkat sekitar 150 kali lipat (berdasarkan jumlah panggilan MCP Servers yang sangat konservatif yaitu 100 juta per hari, saat ini 12 detik per Block termasuk 100 txs dihitung).
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
AI menyambut "momen USB-C", bagaimana MCP dapat berintegrasi dengan sempurna dengan Ethereum?
Konten | Bruce
Edit & Tata Letak | Huan Huan
Desain | Daisy
"Momen USB-C" dalam sejarah evolusi AI, pada November 2024, protokol MCP yang dirilis oleh Anthropic sedang memicu gempa di Silicon Valley. Standar terbuka yang dijuluki "USB-C dunia AI" ini tidak hanya membangun kembali cara model besar terhubung dengan dunia fisik, tetapi juga menyimpan kunci untuk memecahkan masalah monopoli AI dan membangun kembali hubungan produksi dalam peradaban digital. Saat kita masih memperdebatkan ukuran parameter GPT-5, MCP telah secara diam-diam membuka jalan menuju era AGI yang terdesentralisasi......
Bruce: Saya baru-baru ini sedang mempelajari Model Context Protocol (MCP). Ini adalah hal kedua yang membuat saya sangat bersemangat di bidang AI setelah ChatGPT, karena ini memiliki harapan untuk menyelesaikan tiga masalah yang telah saya pikirkan selama bertahun-tahun:
01、Apa itu MCP?
MCP adalah kerangka standar terbuka yang dapat menyederhanakan integrasi LLM dengan sumber data dan alat eksternal. Jika kita membandingkan LLM dengan sistem operasi Windows, aplikasi seperti Cursor adalah keyboard dan perangkat keras, maka MCP adalah antarmuka USB yang mendukung penyisipan data dan alat eksternal secara fleksibel, sehingga pengguna dapat membaca dan menggunakan data dan alat eksternal ini.
MCP menyediakan tiga kemampuan untuk memperluas LLM:
MCP dapat dikembangkan dan dikelola oleh siapa saja, disediakan dalam bentuk Server, dan dapat dihentikan kapan saja.
02, mengapa perlu MCP
Saat ini LLM menggunakan sebanyak mungkin data untuk melakukan sejumlah besar perhitungan dan menghasilkan sejumlah besar parameter, mengintegrasikan pengetahuan ke dalam model, sehingga dapat menghasilkan output dialog yang sesuai dengan pengetahuan tersebut. Namun, ada beberapa masalah yang cukup besar:
03、Arsitektur evolusi LLM Gemuk dan LLM Kurus + MCP
Kita dapat melihat model skala besar saat ini sebagai LLM gemuk, yang arsitekturnya dapat digambarkan dengan diagram sederhana di bawah ini:
Setelah pengguna memasukkan informasi, lapisan Perception & Reasoning akan menguraikan dan menyimpulkan input, kemudian memanggil parameter besar untuk menghasilkan hasil.
Berdasarkan MCP, LLM mungkin akan fokus pada pemrosesan bahasa itu sendiri, memisahkan pengetahuan dan kemampuan, menjadi LLM yang lebih ramping:
Di bawah arsitektur LLM ramping, lapisan Persepsi & Penalaran akan fokus pada bagaimana mengubah informasi lingkungan fisik manusia secara menyeluruh menjadi token, termasuk tetapi tidak terbatas pada: suara, nada, aroma, gambar, teks, gravitasi, suhu, dan lain-lain, kemudian melalui Koordinator MCP mengatur dan mengoordinasikan hingga ratusan Server MCP untuk menyelesaikan tugas. Biaya pelatihan dan kecepatan LLM ramping akan meningkat pesat, dan persyaratan untuk perangkat yang digunakan akan menjadi sangat rendah.
04、MCP bagaimana menyelesaikan tiga masalah utama
Bagaimana orang biasa dapat berpartisipasi dalam industri AI?
Siapa pun yang memiliki bakat unik dapat membuat server MCP mereka sendiri untuk memberikan layanan kepada LLM. Misalnya, seorang penggemar burung dapat menyediakan layanan menggunakan catatan burungnya selama bertahun-tahun melalui MCP. Ketika seseorang menggunakan LLM untuk mencari informasi terkait burung, layanan catatan burung MCP saat ini akan dipanggil. Kreator juga akan mendapatkan pembagian pendapatan karena ini.
Ini adalah siklus ekonomi kreator yang lebih presisi dan otomatis, dengan konten layanan yang lebih terstandarisasi, jumlah panggilan, dan output token dapat dihitung dengan sangat akurat. Penyedia LLM bahkan dapat memanggil beberapa Server MCP Bird Notes sekaligus agar pengguna dapat memilih dan memberi penilaian untuk menentukan siapa yang memiliki kualitas lebih baik dan mendapatkan bobot kecocokan yang lebih tinggi.
Kombinasi Win-Win antara AI dan Ethereum
a. Kita dapat membangun jaringan insentif kreator OpenMCP.Network berdasarkan Ethereum. MCP Server perlu dihosting dan menyediakan layanan yang stabil, pengguna membayar untuk penyedia LLM, dan penyedia LLM akan mendistribusikan insentif yang sebenarnya melalui jaringan ke MCP Servers yang dipanggil untuk mempertahankan keberlanjutan dan stabilitas seluruh jaringan, serta mendorong kreator MCP untuk terus berkarya dan menyediakan konten berkualitas tinggi. Jaringan ini akan memerlukan penggunaan kontrak pintar untuk mewujudkan otomasi, transparansi, kepercayaan, dan ketahanan terhadap sensor. Tanda tangan, verifikasi izin, dan perlindungan privasi selama proses operasional dapat direalisasikan menggunakan dompet Ethereum, ZK, dan teknologi lainnya.
b. Mengembangkan MCP Servers yang terkait dengan operasi di atas rantai Ethereum, seperti layanan panggilan dompet AA, pengguna akan mendukung pembayaran dompet melalui bahasa di dalam LLM tanpa mengekspos kunci pribadi dan izin terkait kepada LLM.
c. Ada berbagai alat pengembang, yang lebih menyederhanakan pengembangan dan pembuatan kode kontrak pintar Ethereum.
Mewujudkan Desentralisasi AI
a. MCP Servers mendekentralisasikan pengetahuan dan kemampuan AI, siapa pun dapat membuat dan menghosting MCP Servers, setelah mendaftar di platform seperti OpenMCP.Network, mereka akan mendapatkan insentif berdasarkan panggilan. Tidak ada satu perusahaan pun yang dapat mengendalikan semua MCP Servers. Jika penyedia LLM memberikan insentif yang tidak adil kepada MCP Servers, pencipta akan mendukung pemblokiran perusahaan tersebut, dan pengguna yang tidak mendapatkan hasil yang berkualitas akan beralih ke penyedia LLM lainnya untuk mencapai persaingan yang lebih adil.
b. Kreator dapat menerapkan kontrol hak akses yang terperinci pada MCP Servers mereka untuk melindungi privasi dan hak cipta. Penyedia LLM ramping harus memberikan insentif yang wajar untuk mendorong kreator berkontribusi pada MCP Servers yang berkualitas tinggi.
c. Kesenjangan kemampuan LLM yang ramping akan perlahan-lahan terselesaikan, karena bahasa manusia memiliki batasan dalam eksplorasi, dan evolusinya juga sangat lambat. Penyedia LLM akan perlu mengalihkan perhatian dan dana mereka ke Server MCP berkualitas tinggi, alih-alih terus menggunakan lebih banyak GPU untuk menambang.
d. Kemampuan AGI akan didistribusikan dan dikurangi, LLM hanya sebagai pemrosesan bahasa dan interaksi pengguna, kemampuan spesifik akan tersebar di berbagai Server MCP. AGI tidak akan mengancam manusia, karena setelah Server MCP dimatikan, hanya percakapan bahasa dasar yang dapat dilakukan.
05, Tinjauan Umum
06, Prospek Masa Depan: Evolusi Naskah Selanjutnya