IOSG: Який вихід для уніфікованої інфраструктури WEB3 + AI?

Автор: IOSG

ТЛ; ДОКТОР

З поєднанням Web3 та шифрування шифрування валют стає головною темою, інфраструктура шифрування світу штучного інтелекту починає процвітати, проте фактичне використання штучного інтелекту або програм, побудованих для штучного інтелекту, не є великим, і проблема гомогенізації інфраструктури штучного інтелекту починає проявлятися. Недавно ми брали участь у першому етапі фінансування RedPill, що викликало дещо глибше розуміння.

Основними інструментами для створення AI Dapp є доступ до мережі Децентралізація OpenAI, мережа GPU, мережа інференції та мережа проксі.

Через те, що мережа GPU наразі популярніша, ніж коли-небудь раніше під час періоду Майнінг Біткойна, це через: більший ринок штучного інтелекту і швидке та стабільне зростання; штучний інтелект підтримує мільйони додатків кожен день; штучному інтелекту потрібні різні моделі GPU та місця розташування серверів; технології більш зрілі, аудиторія більш широка.

Мережі міркування та мережі-посередники мають схожу інфраструктуру, але мають різну спрямованість. Мережі міркування призначені переважно для розгортання власних моделей досвідченими розробниками, і не обов'язково потребують GPU для запуску моделей, які не є LLM. Мережі-посередники зосереджені на LLM, розробники не повинні мати власні моделі, але більше уваги приділяють інженерним вказівкам та тому, як з'єднувати різні посередники. Мережам-посередникам завжди потрібні високопродуктивні GPU.

Проект інфраструктури штучного інтелекту обіцяє величезний потенціал і продовжує впроваджувати нові функції.

Більшість проектів з шифрування ще знаходяться на етапі Тестова мережа, мають низьку стійкість, складну конфігурацію, обмежені можливості та потребують часу для підтвердження їх безпеки та приватності.

Припустимо, що AI Dapp стане великим трендом, а також існує багато незрозумілих областей, таких як моніторинг, інфраструктура, пов'язана з RAG, веб-модель Web3, вбудований API шифрування та агенти Децентралізація, оцінка мережі тощо.

Вертикальна інтеграція - це помітний тренд. Інфраструктурні проекти намагаються надати всеукраїнські послуги, спростити роботу розробників AI Dapp.

Майбутнє буде гібридним. Частина міркувань відбувається на фронтенді, а частина - у блокчейні обчислення, таким чином можна врахувати фактори вартості та перевірки.

Джерело: IOSG

Вступ

Поєднання Web3 та штучного інтелекту є однією з найбільш очікуваних тем у сфері шифрування. Талановиті розробники будують інфраструктуру штучного інтелекту для шифрування, щоб приносити інтелект в смарт-контракти. Створення AI Dapp - надзвичайно складане завдання, до якого розробники повинні включити обробку даних, моделі, обчислювальну потужність, операції, розгортання та інтеграцію з блокчейном.

Для задоволення цих потреб засновники Web3 вже розробили багато початкових рішень, таких як мережа GPU, маркування даних спільноти, моделі тренування спільноти, перевірка AI міркувань та навчання та агентський магазин. Однак на фоні цього процвітаючого інфраструктурного середовища фактичне використання штучного інтелекту або програм, побудованих для штучного інтелекту, досить мале.

Розробники, шукаючи посібник з розробки AI Dapp, виявили, що немає багато посібників, пов'язаних з шифруванням AI базової інфраструктури. Більшість посібників обмежуються лише викликом OpenAI API на фронтенді.

Джерело: IOSG Ventures

Поточні додатки не використовують весь потенціал Децентралізація та перевірки блокчейну, але ця ситуація швидко зміниться. Зараз більшість інфраструктури штучного інтелекту, яка фокусується на шифруванні, вже запустила тестову мережу і планує офіційний запуск протягом наступних 6 місяців. Це дослідження детально описує основні інструменти, які доступні в інфраструктурі штучного інтелекту, спрямовані на шифрування. Давайте готуватися до моменту запуску GPT-3.5 у світі шифрування!

  1. RedPill: надає Децентралізація авторизацію для OpenAI

Згадане раніше нами участі у RedPill є чудовою відправною точкою. OpenAI має кілька потужних світових моделей, таких як GPT-4-vision, GPT-4-turbo і GPT-4o, які є найкращим вибором для створення передових додатків штучного інтелекту. Розробники можуть інтегрувати їх у Dapp, використовуючи Оракул-машина або фронтендовий інтерфейс для виклику OpenAI API.

RedPill об'єднує API різних розробників OpenAI в одному інтерфейсі, щоб надати користувачам по всьому світу швидке, економічне та перевірене шифрування штучного інтелекту, тим самим демократизуючи ресурси високопродуктивних моделей штучного інтелекту. Маршрутизаційний Алгоритм RedPill буде направляти запити розробників до одного внесення. Запити API будуть виконуватися через їх розподільчу мережу, обходячи будь-які можливі обмеження від OpenAI та вирішуючи деякі загальні проблеми, з якими стикаються розробники шифрування, такі як:

• Обмеження TPM (Токен на хвилину): Новий рахунок обмежений у використанні Токенів, що не може задовольнити потреби популярних Dapp, які залежать від штучного інтелекту.

• Обмеження доступу: Деякі моделі мають обмеження на доступ до нового рахунку або до деяких країн.

За допомогою того ж запиту, але змінивши назву хоста, розробник може отримати доступ до моделі OpenAI за низьку ціну, високу масштабованість та необмежений спосіб.

  1. GPU мережа

Крім використання API OpenAI, багато розробників також вибирають самостійний хостинг моделей вдома. Вони можуть спиратися на децентралізовані мережі GPU, такі як io.net, Aethir, Akash та інші популярні мережі, щоб створити кластери GPU та розгорнути та запустити різноманітні потужні внутрішні або відкриті моделі коду.

Такі мережі GPU Децентралізація можуть використовувати обчислювальну потужність фізичних осіб або невеликих даних центри, що надає гнучку конфігурацію, більший вибір серверних розташувань та менші витрати, що дозволяє розробникам проводити експерименти з штучним інтелектом в межах обмеженого бюджету. Однак через Децентралізація природу, такі мережі GPU мають певні обмеження щодо функціональності, доступності та конфіденційності даних.

Протягом останніх кількох місяців попит на GPU був таким же великим, як і попит на BTCМайнінг раніше. Причини цього явища включають:

Мета полягає в збільшенні кількості цільових клієнтів, мережа GPU в даний час обслуговує розробників штучного інтелекту, кількість яких не лише величезна, але й вірна, і не піддається впливу коливань ціни криптоактивів.

Порівняно з спеціалізованим обладнанням для майнінгу, GPU забезпечує більше моделей та специфікацій, що краще відповідає потребам. Зокрема, для обробки великих моделей потрібна більш висока обсяг оперативної пам'яті VRAM, а для невеликих завдань є підходящіші варіанти вибору GPU. Крім того, GPU може надавати послуги безпосередньо користувачам з мінімальним затримками.

Технологія швидко зрізала зрізають, ГПУ мережа залежить від швидкого Блокчейн, такого як Solana Розрахунок, віртуалізація Docker і обчислювальний кластер Ray.

Щодо прибутковості інвестицій, ринок штучного інтелекту розширюється, з'являються багато нових можливостей для розробки нових додатків і моделей. Очікуваний дохід від моделі H100 становить 60-70%, тоді як BTCМайнінг є більш складним і обмеженим з точки зору виробництва.

BTCМайнінг підприємства, такі як Iris Energy, Core Scientific і Bitdeer, також починають підтримувати мережу GPU, надають послуги штучного інтелекту та активно придбовують GPU, спеціально розроблені для штучного інтелекту, такі як H100.

Рекомендується: Для розробників веб-2, які не надають великого значення SLA, io.net надає простий та зручний досвід, є вигідним вибором.

Це є основою шифрування для нативної AI інфраструктури. Вона підтримуватиме мільярди операцій з AI в майбутньому. Багато шарів AI layer1 або layer2 надають розробникам можливість нативно викликати AI виведення в у блокчейні. Серед лідерів ринку є Ritual, Valence і Fetch.ai.

Ці мережі відрізняються у таких аспектах: продуктивність (затримка, час обчислення), підтримувані моделі, перевірка, ціна (витрати у блокчейні, витрати на міркування), досвід розробки.

3.1 Ціль

Ідеальним випадком є можливість для розробників отримувати легкий доступ до власних послуг штучного інтелекту через будь-яке доказ валідації в будь-якому місці без будь-яких перешкод. Мережа виведення надає всі необхідні основи для розробників, включаючи генерацію за потребою та Реле та перевірку даних виведення, надання інтерфейсів для Web2 та Web3, одночасне розгортання моделей, моніторинг системи, крос-ланцюгові взаємодії, синхронізовану інтеграцію та планове виконання.

За допомогою цих функцій розробники можуть безшовно інтегрувати сервіси машинного навчання в їхні існуючі смарт-контракти. Наприклад, при побудові торгового робота для Децентралізованих фінансів, ці роботи використовуватимуть моделі машинного навчання для пошуку відповідних торговельних стратегій для певних торгових пар та виконання відповідних торгових стратегій на базовій торговій платформі.

У повністю ідеальному стані всі базові структури є хмарною. Розробникам потрібно лише завантажити свої моделі торгових стратегій у загальному форматі, такому як факел, інференційна мережа буде зберігати ці моделі та надавати їх для запитів веб-2 та веб-3.

Після завершення всіх етапів розгортання моделей розробник може безпосередньо викликати інтелектуальну обробку моделей через API Web3 або смарт-контракт. Мережа інтелектуальної обробки буде продовжувати виконувати ці торгові стратегії та надавати результати основному смарт-контракту. Якщо розробник управляє великим обсягом коштів у спільноті, також потрібно надати перевірку результатів інтелектуальної обробки. Після отримання результатів інтелектуальної обробки смарт-контракт здійснює угоди на основі цих результатів.

3.1.1 Асинхронний та синхронний

Теоретично асинхронні інференційні операції можуть забезпечити кращу продуктивність; проте такий підхід може бути не зручним для розробки. При використанні асинхронного підходу розробник повинен спочатку надіслати завдання в розумовий контракт мережі інференції. Коли завдання інференції завершиться, розумовий контракт Смарт-контракту інференції поверне результат. У цьому програмувальному шаблоні логіка розділяється на дві частини: виклик інференції та обробка результату інференції.

Якщо у розробника є вкладені виклики мислення та велика кількість логіки керування, ситуація стане ще гіршою.

Асинхронний режим програмування ускладнює інтеграцію з наявними смарт-контрактами. Це потребує від розробника написання значної кількості додаткового коду, обробки помилок та керування залежностями. Натомість, синхронне програмування є більш очевидним для розробників, але воно вносить проблеми в час відгуку та проектування блокчейну. Наприклад, якщо вхідні дані є часом блоку або ціною на швидко змінювані дані, то дані стають застарілими після завершення розуміння, що може привести до відкату виконання смарт-контракту в певних випадках. Уявіть, що ви проводите операцію за застарілою ціною.

Більшість базових інфраструктур штучного інтелекту використовують асинхронну обробку, але Valence намагається вирішити ці проблеми.

3.2 реальна ситуація

Фактично, багато нових мереж міркувань все ще перебувають на етапі тестування, таких як мережа Ritual. Згідно з їхніми публічними документами, ці мережі мають обмежені можливості наразі (такі як перевірка, доведення тощо). Вони не надають хмарну інфраструктуру для підтримки обчислень AI у блокчейні, а замість цього надають фреймворк для самостійного хостингу обчислень AI та передачі результатів у блокчейн. Це архітектура, в якій працює токен AIGC. Модель розширення генерує токен Невзаємозамінний та завантажує його до Arweave. Мережа міркувань використовує цю Адреса Arweave для мінтування Невзаємозамінний токен у блокчейні.

Цей процес дуже складний, розробники повинні самостійно розгортати та підтримувати більшість інфраструктури, такі як Ritual Нода зі спеціалізованою сервісною логікою, Stable Diffusion Нода та невзаємозамінний токен смарт-контракту. Рекомендація: наразі інтеграція та розгортання власних моделей у резонансній мережі є досить складною, і на цій етапі більшість мереж не підтримують функцію підтвердження. Використання технології штучного інтелекту на фронтенді надасть розробникам відносно простий вибір. Якщо вам дуже потрібна функція підтвердження, постачальник ZKML Giza є чудовим вибором.

  1. Агентська мережа

Агентська мережа дозволяє користувачам легко налаштувати агентів. Ця мережа складається з сутностей або смарт-контрактів, які можуть виконувати завдання, взаємодіяти між собою та взаємодіяти з мережею Блокчейн, все це без прямого втручання людини. Вона в основному призначена для технології LLM. Наприклад, вона може надати більше інформації про Ethereum за допомогою чат-бота GPT. Існуючі інструменти для такого чат-бота поки що обмежені, розробники ще не можуть створювати складні застосунки на цій основі.

Проте у майбутньому агентська мережа надасть агентам більше інструментів, не лише знань, а й здатність використовувати зовнішні API, виконувати певні завдання та інше. Розробники зможуть об'єднати кілька агентів, щоб створити робочий процес. Наприклад, написання розумних контрактів Solidity вимагатиме використання кількох спеціалізованих агентів, включаючи протокольний дизайнерський агент, розробницький агент Solidity, агент забезпечення безпеки коду та агент розгортання Solidity.

Ми координуємо співпрацю цих агентів за допомогою підказок і сценаріїв. Деякі приклади мереж агентів включають Flock.ai, Myshell, Theoriq. Рекомендується: більшість сучасних проксі-серверів мають обмежені можливості. Для конкретних випадків використання Web2 проксі може бути кращим варіантом, оскільки він має зрілі інструменти для складання, такі як Langchain, Llamaindex.

5 відмінностей між проксі-мережею та мережею виведення

Проксі-мережа більше зосереджена на LM, надаючи такі інструменти, як Langchain, для інтеграції кількох проксі. Зазвичай розробникам не потрібно самостійно розробляти моделі машинного навчання, мережа проксі вже спростила процес розробки та розгортання моделей. Їм потрібно лише підключити необхідні проксі та інструменти. У більшості випадків кінцеві користувачі будуть безпосередньо використовувати ці проксі.

Інференційна мережа є основною інфраструктурою підтримки агентської мережі. Вона надає розробникам доступ до нижчого рівня. Зазвичай кінцеві користувачі не використовують інференційну мережу безпосередньо. Розробники повинні розгортати власні моделі, що не обмежується лише LLM, і вони можуть використовувати їх через поза блокчейном або у блокчейні. Агентська мережа та інференційна мережа не є повністю незалежними продуктами. Ми вже почали бачити деякі продукти вертикальної інтеграції. Через те, що ці дві функції залежать від схожої інфраструктури, вони одночасно надають можливості як агентської, так і інференційної мереж.

  1. Нові можливості Поза моделлюванням, навчанням та агентними мережами, у сфері web3 є багато нових сфер варто досліджувати:

Набір даних: як перетворити дані Блокчейну на набір даних, придатний для машинного навчання? Розробники машинного навчання потребують більш конкретних і спеціалізованих даних. Наприклад, Giza надає деякі високоякісні набори даних про Децентралізовані фінанси, призначені спеціально для тренування машинного навчання. Ідеальні дані повинні містити не тільки прості табличні дані, але й графічні дані, які описують взаємодію світу Блокчейну. Наразі ми ще не маємо достатньо таких даних. Деякі проекти вирішують цю проблему, пропонуючи винагороди для осіб, які створюють нові набори даних, такі як Bagel і Sahara, які обіцяють захищати конфіденційність особистих даних.

Зберігання моделей: Деякі моделі мають великий обсяг, і ключовим є зберігання, розподіл та контроль версій цих моделей, оскільки це стосується продуктивності та витрат у блокчейні машинного навчання. У цій сфері вже зроблено прогрес з боку передових проектів, таких як FIL, AR та 0g.

Навчання моделей: розподілена та перевірена можливість навчання моделей є складною задачею. Gensyn, Bittensor, Flock та Allora вже досягли значних успіхів. Моніторинг: оскільки інференція моделі відбувається як у блокчейні, так і поза ним, нам потрібна нова інфраструктура, щоб допомогти розробникам web3 відстежувати використання моделей, вчасно виявляти можливі проблеми та відхилення. З відповідними інструментами моніторингу розробники машинного навчання web3 можуть швидко налаштовувати та постійно вдосконалювати точність моделей.

RAG інфраструктура: розподілена RAG потребує нового середовища інфраструктури з високою потребою у сховищах, вбудованих обчисленнях та векторних базах даних, а також забезпеченням конфіденційності даних. Це відрізняється від поточної інфраструктури Web3 AI, багато з якої залежить від сторонніх постачальників для виконання RAG, таких як Firstbatch і Bagel.

Спеціально для Web3: не всі моделі підходять для сценаріїв Web3. У більшості випадків потрібно повторно навчати моделі, щоб вони відповідали конкретним застосуванням, таким як прогнозування цін, рекомендації тощо. З розвитком інфраструктури штучного інтелекту ми очікуємо, що у майбутньому з'явиться більше локальних для web3 моделей для обслуговування застосувань штучного інтелекту. Наприклад, Pond розробляє блокчейн GNN для прогнозування цін, рекомендацій, виявлення шахрайства та протидії відмиванню грошей в різних сценаріях.

Оцінка мережі: оцінка агента в умовах відсутності зворотнього зв'язку людини не є легкою. З поширенням інструментів для створення агентів на ринку з'явиться безліч агентів. Це потребує системи для відображення можливостей цих агентів та допомоги користувачам у визначенні, який з них найкраще виступить у конкретній ситуації. Наприклад, Neuronets - один з учасників у цій галузі.

Механізм консенсусу: для задач штучного інтелекту PoS не завжди є найкращим вибором. Складність обчислення, складнощі перевірки та відсутність визначеності становлять основні виклики для PoS. Bittensor створив новий розумний Механізм консенсусу, який винагороджує Ноди, що внесли вклад у мережу штучного інтелекту для моделей машинного навчання та їх виведення.

  1. Перспективи майбутнього

Ми спостерігаємо тенденцію вертикальної інтеграції. Шляхом побудови базового обчислювального рівня мережа може підтримувати різноманітні завдання машинного навчання, включаючи навчання, інференс та послуги мережі-агента. Ця модель має на меті надати розробникам машинного навчання веб-3 повноцінне все в одному рішення. В даний час, навіть при високих витратах і повільній швидкості у блокчейні, він забезпечує високу перевірку та безшовну інтеграцію з бекенд-системами (наприклад, смартконтрактами). Я вважаю, що майбутнє полягатиме в розвитку гібридних додатків. Частину інференсу можна буде виконувати на фронтенді або поза блокчейном, а критичний та вирішальний інференс буде виконуватися в у блокчейні. Ця модель вже застосовується на мобільних пристроях. Використовуючи природні характеристики мобільних пристроїв, вона може швидко виконувати невеликі моделі локально та переносити більш складні завдання в хмару для обробки на більших масштабах.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити