Історія еволюції штучного інтелекту переживає "момент USB-C": у листопаді 2024 року протокол MCP, випущений компанією Anthropic, викликає землетрус у Силіконовій долині. Цей відкритий стандарт, який називають "USB-C для світу штучного інтелекту", не лише реконструює спосіб зв'язку великих моделей із фізичним світом, але й приховує ключ до розв'язання проблеми монополії в AI та реконструкції виробничих відносин цифрової цивілізації. Поки ми ще сперечаємося про параметри GPT-5, MCP вже тихо прокладає шлях до децентралізації епохи AGI......
Брюс: Останнім часом я вивчаю Model Context Protocol (MCP). Це друге, що мене дуже захоплює в сфері ШІ після ChatGPT, оскільки воно має можливість вирішити три питання, над якими я думав багато років:
Як звичайні люди можуть брати участь в AI-індустрії та отримувати дохід, якщо вони не є науковцями чи геніями?
Які вигідні поєднання між AI та Ethereum?
Як реалізувати AI d/acc? Уникнути монополії, цензури великих централізованих компаній, знищення людства AGI?
01、Що таке MCP?
MCP є відкритим стандартним фреймворком, який може спростити інтеграцію LLM з зовнішніми джерелами даних та інструментами. Якщо ми порівняємо LLM з операційною системою Windows, то програми, такі як Cursor, є клавіатурою та апаратним забезпеченням, а MCP - це USB-інтерфейс, який підтримує гнучке підключення зовнішніх даних та інструментів, після чого користувач може зчитувати та використовувати ці зовнішні дані та інструменти.
MCP пропонує три можливості для розширення LLM:
Ресурси(知識擴展)
Інструменти(виконання функцій, виклик зовнішніх систем)
Підказки(попередньо написані шаблони підказок)
MCP може бути розроблений і підтримуваний будь-ким, пропонуючи його у вигляді сервера, який можна в будь-який час вимкнути та зупинити обслуговування.
02, чому потрібен MCP
Наразі LLM використовує якомога більше даних для виконання великої кількості обчислень та генерування великої кількості параметрів, вбудовуючи знання в модель, щоб реалізувати відповідь на запитання. Проте існує кілька суттєвих проблем:
Велика кількість даних та обчислень потребує великої кількості часу та апаратного забезпечення, знання, що використовуються для навчання, зазвичай є застарілими.
Моделі з великою кількістю параметрів важко розгорнути та використовувати на локальних пристроях, але насправді більшість користувачів у своїх сценаріях можуть не потребувати всієї інформації для задоволення вимог.
Деякі моделі використовують методи веб-сканування для отримання зовнішньої інформації для обробки з метою забезпечення своєчасності, але через обмеження сканерів і якість зовнішніх даних можуть виникати більш оманливі результати.
Оскільки ШІ не приносить значної вигоди творцям, багато сайтів і контент почали впроваджувати анти-ШІ заходи, що призводить до генерації великої кількості сміттєвої інформації, що в свою чергу буде поступово знижувати якість LLM.
LLM важко розширити на всі зовнішні функції та операції, такі як точний виклик інтерфейсу GitHub для виконання деяких дій, він буде генерувати код відповідно до, можливо, застарілої документації, але не може гарантувати його точне виконання.
03, еволюція архітектури товстих LLM та тонких LLM + MCP
Ми можемо розглядати сучасні надвеликими моделями як товсті LLM, архітектура яких може бути показана за допомогою простого малюнка нижче:
Після введення інформації користувачем, через рівень сприйняття та міркування вхідні дані розбираються і аналізуються, після чого викликаються величезні параметри для генерації результату.
Після MCP LLM може зосередитися на самій мовній解析, відокремлюючи знання та здатності, перетворюючись на тонкий LLM:
У рамках архітектури тонкого LLM, шар Perception & Reasoning зосередиться на тому, як перетворити всебічну інформацію про фізичне середовище людини на токени, включаючи, але не обмежуючись: голосом, інтонацією, запахом, зображеннями, текстом, гравітацією, температурою тощо, а потім через MCP Coordinator організувати та координувати виконання завдань за допомогою сотень MCP Servers. Вартість навчання тонкого LLM та швидкість значно зростуть, а вимоги до обладнання для розгортання стануть дуже низькими.
04, як MCP вирішує три основні проблеми
Як звичайним людям долучитися до індустрії штучного інтелекту?
Будь-хто, хто має унікальні таланти, може створити власний MCP сервер для надання послуг LLM. Наприклад, орнітолог може надати свої багаторічні нотатки про птахів через MCP. Коли хтось використовує LLM для пошуку інформації, пов'язаної з птахами, буде викликано відповідний MCP сервіс нотаток про птахів. Творець також отримає частину доходу.
Це більш точний і автоматизований цикл економіки творців, де зміст послуг більш стандартизований, кількість викликів та вихідних токенів можуть бути дуже точно підраховані. Постачальники LLM навіть можуть одночасно викликати кілька MCP-серверів Bird Notes, щоб користувачі могли вибирати та оцінювати, щоб визначити, хто має кращу якість і отримує вищу вагу відповідності.
Двостороння вигода від поєднання AI та Ethereum
a. Ми можемо побудувати мережу стимулювання творців OpenMCP.Network на основі Ethereum. MCP Server потребує хостингу та надання стабільних послуг, користувачі сплачують постачальникам LLM, а постачальники LLM розподіляють фактичні стимули через мережу до викликаних MCP Servers, щоб підтримувати стійкість і стабільність всієї мережі, спонукати творців MCP до безперервного створення та надання якісного контенту. Ця мережа вимагатиме використання смарт-контрактів для реалізації автоматизації, прозорості, надійності та стійкості до цензури стимулів. Під час роботи процесу підпис, перевірка прав доступу, захист конфіденційності можуть бути реалізовані з використанням гаманців Ethereum, ZK та інших технологій.
b. Розробка MCP серверів, пов'язаних з операціями на Ethereum, наприклад, сервісів виклику AA гаманця, користувачі зможуть підтримувати оплату гаманцем у LLM за допомогою мови, не розкриваючи відповідні приватні ключі та права доступу LLM.
c. Є також різні інструменти для розробників, які ще більше спрощують розробку смарт-контрактів Ethereum та генерацію коду.
Реалізація децентралізованого ШІ
a. MCP Servers децентралізують знання та можливості штучного інтелекту, будь-хто може створювати та хостити MCP Servers, зареєструвавшись на платформах, таких як OpenMCP.Network, після чого отримує винагороду за виклики. Жодна компанія не може контролювати всі MCP Servers. Якщо постачальник LLM надає несправедливі винагороди MCP Servers, творці підтримають блокування цієї компанії, а користувачі, не отримавши якісні результати, перейдуть до інших постачальників LLM для забезпечення більш справедливої конкуренції.
b. Творці можуть реалізувати детальний контроль доступу до своїх MCP Servers для захисту конфіденційності та авторських прав. Постачальники струнких LLM повинні заохочувати творців вносити свій внесок у високоякісні MCP Servers, пропонуючи розумні стимули.
c. Різниця в можливостях тонких LLM повільно зникне, оскільки людська мова має межу охоплення, а еволюція також дуже повільна. Постачальники LLM повинні будуть орієнтуватися на високоякісні MCP-сервери, а не на повторне використання більшої кількості графічних карт для видобутку.
d. Потужність AGI буде розподілена та зменшена, LLM буде використовуватись лише для обробки мови та взаємодії з користувачем, а конкретні можливості будуть розподілені між різними MCP-серверами. AGI не стане загрозою для людства, оскільки після відключення MCP-серверів можливість спілкування зведеться лише до базового мовного діалогу.
05、Загальний огляд
Еволюція архітектури LLM + MCP серверів, по суті, є децентралізацією можливостей штучного інтелекту, що знижує ризик знищення людства AGI.
Використання LLM дозволяє здійснювати підрахунок та автоматизацію викликів до MCP серверів на рівні токенів, що закладає основу для побудови економічної системи AI творців.
Хороша економічна система може спонукати творців активно вносити свій внесок у створення високоякісних MCP Servers, що в свою чергу сприятиме розвитку всього людства та реалізації позитивного маховика. Творці більше не будуть протистояти ШІ, ШІ також запропонує більше робочих місць і доходів, розподіляючи прибуток таких монопольних комерційних компаній, як OpenAI, справедливо.
Ця економічна система, враховуючи її характеристики та потреби творця, дуже підходить для реалізації на базі Ethereum.
06, Майбутнє: Наступний етап еволюції сценарію
Протоколи MCP або подібні до MCP з'являться один за одним, кілька великих компаній почнуть змагатися за визначення стандартів.
З'явиться MCP Based LLM, який зосередиться на аналізі та обробці людської мови, супроводжуючись MCP Coordinator для підключення до мережі MCP. LLM буде підтримувати автоматичне виявлення та розкладку MCP Servers без складної ручної конфігурації.
Постачальники послуг MCP Network з'являться, кожен з них матиме власну економічну систему стимулів, творці MCP зможуть отримувати дохід, реєструючи та хостуючи власні сервери.
Якщо економічна система стимулів мережі MCP будується на Ethereum, на основі смарт-контрактів, то транзакції в мережі Ethereum, за консервативними оцінками, збільшаться приблизно в 150 разів (згідно з дуже консервативними даними про щоденну кількість викликів 1 мільярд MCP серверів, з урахуванням того, що блоки формуються кожні 12 секунд і містять 100 транзакцій).
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
AI зустрічає "USB-C момент", як MCP може ідеально вписатися в Ethereum?
Зміст | Брус
Редагування & верстка | Хуан Хуан
Дизайн | Дейзі
Історія еволюції штучного інтелекту переживає "момент USB-C": у листопаді 2024 року протокол MCP, випущений компанією Anthropic, викликає землетрус у Силіконовій долині. Цей відкритий стандарт, який називають "USB-C для світу штучного інтелекту", не лише реконструює спосіб зв'язку великих моделей із фізичним світом, але й приховує ключ до розв'язання проблеми монополії в AI та реконструкції виробничих відносин цифрової цивілізації. Поки ми ще сперечаємося про параметри GPT-5, MCP вже тихо прокладає шлях до децентралізації епохи AGI......
Брюс: Останнім часом я вивчаю Model Context Protocol (MCP). Це друге, що мене дуже захоплює в сфері ШІ після ChatGPT, оскільки воно має можливість вирішити три питання, над якими я думав багато років:
01、Що таке MCP?
MCP є відкритим стандартним фреймворком, який може спростити інтеграцію LLM з зовнішніми джерелами даних та інструментами. Якщо ми порівняємо LLM з операційною системою Windows, то програми, такі як Cursor, є клавіатурою та апаратним забезпеченням, а MCP - це USB-інтерфейс, який підтримує гнучке підключення зовнішніх даних та інструментів, після чого користувач може зчитувати та використовувати ці зовнішні дані та інструменти.
MCP пропонує три можливості для розширення LLM:
MCP може бути розроблений і підтримуваний будь-ким, пропонуючи його у вигляді сервера, який можна в будь-який час вимкнути та зупинити обслуговування.
02, чому потрібен MCP
Наразі LLM використовує якомога більше даних для виконання великої кількості обчислень та генерування великої кількості параметрів, вбудовуючи знання в модель, щоб реалізувати відповідь на запитання. Проте існує кілька суттєвих проблем:
03, еволюція архітектури товстих LLM та тонких LLM + MCP
Ми можемо розглядати сучасні надвеликими моделями як товсті LLM, архітектура яких може бути показана за допомогою простого малюнка нижче:
Після введення інформації користувачем, через рівень сприйняття та міркування вхідні дані розбираються і аналізуються, після чого викликаються величезні параметри для генерації результату.
Після MCP LLM може зосередитися на самій мовній解析, відокремлюючи знання та здатності, перетворюючись на тонкий LLM:
У рамках архітектури тонкого LLM, шар Perception & Reasoning зосередиться на тому, як перетворити всебічну інформацію про фізичне середовище людини на токени, включаючи, але не обмежуючись: голосом, інтонацією, запахом, зображеннями, текстом, гравітацією, температурою тощо, а потім через MCP Coordinator організувати та координувати виконання завдань за допомогою сотень MCP Servers. Вартість навчання тонкого LLM та швидкість значно зростуть, а вимоги до обладнання для розгортання стануть дуже низькими.
04, як MCP вирішує три основні проблеми
Як звичайним людям долучитися до індустрії штучного інтелекту?
Будь-хто, хто має унікальні таланти, може створити власний MCP сервер для надання послуг LLM. Наприклад, орнітолог може надати свої багаторічні нотатки про птахів через MCP. Коли хтось використовує LLM для пошуку інформації, пов'язаної з птахами, буде викликано відповідний MCP сервіс нотаток про птахів. Творець також отримає частину доходу.
Це більш точний і автоматизований цикл економіки творців, де зміст послуг більш стандартизований, кількість викликів та вихідних токенів можуть бути дуже точно підраховані. Постачальники LLM навіть можуть одночасно викликати кілька MCP-серверів Bird Notes, щоб користувачі могли вибирати та оцінювати, щоб визначити, хто має кращу якість і отримує вищу вагу відповідності.
Двостороння вигода від поєднання AI та Ethereum
a. Ми можемо побудувати мережу стимулювання творців OpenMCP.Network на основі Ethereum. MCP Server потребує хостингу та надання стабільних послуг, користувачі сплачують постачальникам LLM, а постачальники LLM розподіляють фактичні стимули через мережу до викликаних MCP Servers, щоб підтримувати стійкість і стабільність всієї мережі, спонукати творців MCP до безперервного створення та надання якісного контенту. Ця мережа вимагатиме використання смарт-контрактів для реалізації автоматизації, прозорості, надійності та стійкості до цензури стимулів. Під час роботи процесу підпис, перевірка прав доступу, захист конфіденційності можуть бути реалізовані з використанням гаманців Ethereum, ZK та інших технологій.
b. Розробка MCP серверів, пов'язаних з операціями на Ethereum, наприклад, сервісів виклику AA гаманця, користувачі зможуть підтримувати оплату гаманцем у LLM за допомогою мови, не розкриваючи відповідні приватні ключі та права доступу LLM.
c. Є також різні інструменти для розробників, які ще більше спрощують розробку смарт-контрактів Ethereum та генерацію коду.
Реалізація децентралізованого ШІ
a. MCP Servers децентралізують знання та можливості штучного інтелекту, будь-хто може створювати та хостити MCP Servers, зареєструвавшись на платформах, таких як OpenMCP.Network, після чого отримує винагороду за виклики. Жодна компанія не може контролювати всі MCP Servers. Якщо постачальник LLM надає несправедливі винагороди MCP Servers, творці підтримають блокування цієї компанії, а користувачі, не отримавши якісні результати, перейдуть до інших постачальників LLM для забезпечення більш справедливої конкуренції.
b. Творці можуть реалізувати детальний контроль доступу до своїх MCP Servers для захисту конфіденційності та авторських прав. Постачальники струнких LLM повинні заохочувати творців вносити свій внесок у високоякісні MCP Servers, пропонуючи розумні стимули.
c. Різниця в можливостях тонких LLM повільно зникне, оскільки людська мова має межу охоплення, а еволюція також дуже повільна. Постачальники LLM повинні будуть орієнтуватися на високоякісні MCP-сервери, а не на повторне використання більшої кількості графічних карт для видобутку.
d. Потужність AGI буде розподілена та зменшена, LLM буде використовуватись лише для обробки мови та взаємодії з користувачем, а конкретні можливості будуть розподілені між різними MCP-серверами. AGI не стане загрозою для людства, оскільки після відключення MCP-серверів можливість спілкування зведеться лише до базового мовного діалогу.
05、Загальний огляд
06, Майбутнє: Наступний етап еволюції сценарію