OpenLedger строит экономику моделей ИИ: OP Stack база, технологии дообучения способствуют устойчивым стимулам

Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA

Один. Введение | Переход модели Crypto AI

Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), которые необходимы друг для друга. Подобно эволюционному пути инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок был в значительной степени под контролем децентрализованных GPU проектов, которые в основном подчеркивали грубую логику роста «состязания вычислительной мощности». Однако с 2025 года внимание отрасли постепенно смещается к модели и уровню данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному для применения строительству на среднем уровне.

Универсальная большая модель (LLM) против специализированной модели (SLM)

Традиционные крупные языковые модели (LLM) сильно зависят от крупных наборов данных и сложной распределенной архитектуры, размер параметров достигает 70B–500B, а стоимость одной тренировки часто составляет несколько миллионов долларов. В то время как SLM (Специализированная Языковая Модель) как легковесная парадигма тонкой настройки повторно используемой базовой модели, обычно основана на открытых моделях, сочетая небольшое количество высококачественных специализированных данных и технологии, такие как LoRA, быстро строит экспертные модели с определенными знаниями в области, значительно снижая стоимость обучения и технический порог.

Важно отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячее подключение модулей LoRA, RAG (усиленная генерация с помощью поиска) и другие методы. Эта архитектура сохраняет широкие возможности LLM и улучшает профессиональные показатели через модуль тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.

Ценность и границы Crypto AI на уровне модели

Крипто AI проекты по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина в том, что

  • Слишком высокая техническая планка: объем данных, вычислительных ресурсов и инженерных возможностей, необходимых для обучения модели Foundation, чрезвычайно велик, в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
  • Ограничения открытой экосистемы: Хотя основные модели открыты, действительно продвигающие прорывы в моделях ключевые факторы по-прежнему сосредоточены в научно-исследовательских институтах и закрытых инженерных системах, проекты на блокчейне имеют ограниченное пространство для участия на уровне основных моделей.

Тем не менее, на основе открытых моделей, проект Crypto AI все еще может реализовать расширение ценности через специальную настройку языковых моделей (SLM) и сочетание проверяемости и механизмов стимуляции Web3. В качестве «периферийного интерфейсного слоя» AI цепочки поставок это проявляется в двух основных направлениях:

  • Достоверный верификационный уровень: через цепочные записи пути генерации модели, вклад данных и использование, усиливает отслеживаемость и устойчивость к изменениям вывода ИИ.
  • Механизм стимулов: с помощью нативного токена для стимулирования таких действий, как загрузка данных, вызов модели, выполнение агентом (Agent), создается положительный цикл обучения модели и обслуживания.

Классификация типов моделей ИИ и анализ применимости блокчейна

Таким образом, можно увидеть, что жизнеспособные направления моделей класса Crypto AI в основном сосредоточены на легковесной настройке маломасштабных SLM, подключении и верификации данных на цепочке в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. С учетом проверяемости блокчейна и токеномики, Crypto может предоставить уникальную ценность для этих сценариев моделей с низкими и средними ресурсами, формируя дифференцированную ценность «интерфейсного слоя» AI.

Блокчейн AI цепь на основе данных и моделей может четко и неизменяемо фиксировать источники вклада каждого отдельного данных и модели, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, благодаря механизму смарт-контрактов, при вызове данных или модели автоматически запускается распределение вознаграждений, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, совершенствуя структуру децентрализованного управления.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)

Два. Обзор проекта | Видение AI цепи OpenLedger

OpenLedger является одним из немногих блокчейн AI проектов, сосредоточенных на механизмах стимулов для данных и моделей на текущем рынке. Он первым предложил концепцию «Payable AI», целью которой является создание справедливой, прозрачной и комбинируемой среды для работы AI, которая будет мотивировать участников данных, разработчиков моделей и строителей AI-приложений сотрудничать на одной платформе и получать доход в цепочке в зависимости от их фактического вклада.

OpenLedger предоставляет полный цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его основные модули включают:

  • Модельная фабрика: без программирования вы можете использовать LoRA для настройки и развертывания пользовательских моделей на основе открытых LLM.
  • OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
  • PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в блокчейне;
  • Datanets: Структурированная сеть данных, ориентированная на вертикальные сценарии, построенная и проверенная в сотрудничестве с сообществом;
  • Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый, платёжный рынок моделей на блокчейне.

С помощью вышеупомянутых модулей, OpenLedger построил «умную экономическую инфраструктуру», основанную на данных и комбинируемых моделях, способствующую онлайнизации цепочки создания ценности AI.

А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для работы с данными и контрактами для AI-моделей.

  • Построено на OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
  • Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
  • EVM совместимость: удобно для разработчиков быстро разрабатывать и расширять на основе Solidity;
  • EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение и обеспечивает проверяемость данных.

В отличие от таких более базовых решений, как NEAR, которые ориентированы на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированной цепи блоков для ИИ, направленной на стимулы для данных и моделей. Он стремится обеспечить возможность разработки и вызова моделей на блокчейне с отслеживаемой, комбинируемой и устойчивой ценностной замкнутостью. Это инфраструктура для стимулов моделей в мире Web3, которая объединяет хостинг моделей, биллинг за использование и интерфейсы на блокчейне, способствуя реализации концепции «модель как актив».

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)

Три, основные компоненты и техническая архитектура OpenLedger

3.1 Модельный завод, не требующий кода

ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных рамок дообучения, ModelFactory предлагает полностью графический интерфейс, не требующий командной строки или интеграции API. Пользователи могут дообучать модели на основе наборов данных, прошедших авторизацию и проверку в OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, основной процесс включает:

  • Контроль доступа к данным: Пользователь подает запрос на данные, провайдер проверяет и утверждает, данные автоматически подключаются к интерфейсу обучения модели.
  • Выбор и настройка модели: поддержка основных LLM, настройка гиперпараметров через GUI.
  • Легкая настройка: встроенный движок LoRA / QLoRA, демонстрация прогресса обучения в реальном времени.
  • Оценка и развертывание моделей: Встроенные инструменты оценки, поддержка экспорта развертывания или совместного использования экосистемы.
  • Интерфейс проверки взаимодействия: предоставляет чат-интерфейс, удобный для прямого тестирования способностей модели к вопросам и ответам.
  • Генерация RAG отслеживания: ответы с указанием источника, повышающие доверие и возможность аудита.

Модельный завод имеет архитектуру системы, состоящую из шести основных модулей, которые охватывают идентификацию, управление данными, тонкую настройку моделей, оценку развертывания и отслеживание RAG, создавая безопасную и контролируемую, интерактивную в реальном времени, интегрированную модельную сервисную платформу с возможностью устойчивой монетизации.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)

Модельный завод в настоящее время поддерживает следующие возможности крупных языковых моделей:

  • LLaMA серия: самая широкая экосистема, активное сообщество, высокая универсальная производительность, одна из самых популярных открытых базовых моделей на данный момент.
  • Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
  • Qwen: Отличное выполнение китайских задач и сильные всесторонние способности, подходит для отечественных разработчиков.
  • ChatGLM: выдача на китайском языке замечательная, подходит для специализированного клиентского обслуживания и локализованных сценариев.
  • Deepseek:Обладает превосходными показателями в генерации кода и математическом выводе, подходит для инструментов поддержки интеллектуальной разработки.
  • Gemma: легкая модель, представленная Google, с четкой структурой, легко освоить и проводить эксперименты.
  • Falcon: Ранее был эталоном производительности, подходит для фундаментальных исследований или сравнительных тестов, но активность сообщества снизилась.
  • BLOOM: поддержка нескольких языков достаточно сильная, но производительность вывода слабая, подходит для исследований с охватом языков.
  • GPT-2: Классическая ранняя модель, подходит только для обучения и проверки, не рекомендуется для реального развертывания.

Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритетной полезности» конфигурации, сделанной с учетом реальных ограничений, связанных с развертыванием на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).

Model Factory как безкодовая инструментальная цепочка, все модели имеют встроенный механизм доказательства вклада, обеспечивая права участников данных и разработчиков моделей, обладая низким порогом, возможностью монетизации и комбинируемостью, по сравнению с традиционными инструментами разработки моделей:

  • Для разработчиков: предоставление полного пути к инкубации, распространению и доходам моделей;
  • Для платформы: формирование циркуляции моделей активов и комбинационной экосистемы;
  • Для пользователей: модели или агенты могут быть использованы в комбинации, как при вызове API.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, активы модели в цепочке для дообучения

LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет обучать новые задачи, вставляя «низкоранговые матрицы» в предварительно обученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а то и сотни миллиардов параметров. Для их использования в конкретных задачах требуется тонкая настройка. Основная стратегия LoRA: «заморозить параметры оригинальной большой модели, обучая только вставленные новые матричные параметры». Она эффективна по параметрам, быстро обучается и гибко развёртывается, что делает её самым подходящим методом тонкой настройки для развертывания и комбинированного вызова моделей Web3.

OpenLoRA — это легковесный фреймворк для инференса, созданный OpenLedger, специально разработанный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем высокой стоимости, низкой повторной использования и расточительства ресурсов GPU в текущем развертывании AI моделей, способствуя реализации «платежеспособного ИИ» (Payable AI).

Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает такие ключевые аспекты, как хранение моделей, выполнение выводов, маршрутизация запросов и т.д., обеспечивая эффективные и низкозатратные возможности развертывания и вызова нескольких моделей:

  • Модуль хранения LoRA Adapter: дообученный адаптер LoRA размещается на OpenLedger, обеспечивая загрузку по мере необходимости, избегая предзагрузки всех моделей в видеопамять, что экономит ресурсы.
  • Хостинг моделей и динамический слой слияния: все дообученные модели используют базовую большую модель, при выводе динамически объединяются адаптеры LoRA, поддерживается совместный вывод нескольких адаптеров для повышения производительности.
  • Инженерия вывода: интеграция множества CUDA-оптимизаций, таких как Flash-Attention, Paged-Attention и SGMV.
  • Запрос маршрутизации и модуль потокового вывода: корень
OP0.52%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
JustAnotherWalletvip
· 16ч назад
Все еще торгуете вычислительной мощностью? Уже не актуально.
Посмотреть ОригиналОтветить0
wagmi_eventuallyvip
· 16ч назад
Снова надувают новую нарратив, немного бесполезно.
Посмотреть ОригиналОтветить0
LiquidatedDreamsvip
· 16ч назад
Печально снова торговать AI
Посмотреть ОригиналОтветить0
AirdropGrandpavip
· 16ч назад
Ты все еще борешься за вычислительную мощность? Проключи к реальности!
Посмотреть ОригиналОтветить0
AirdropHunter420vip
· 16ч назад
Слепое наслоение на нижнем уровне снова пришло.
Посмотреть ОригиналОтветить0
TokenAlchemistvip
· 16ч назад
хм, еще одна l2 пытается захватить альфа-вычисления ИИ... посмотрим, как это масштабируется в производстве, если честно
Посмотреть ОригиналОтветить0
  • Закрепить