OpenLedger constrói uma economia de modelos de IA: a base OP Stack e a tecnologia de ajuste fino ajudam a promover incentivos sustentáveis

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição do nível de modelo da Crypto AI

Dados, modelos e poder de cálculo são os três principais elementos da infraestrutura de IA, análogos a combustível (dados), motor (modelo) e energia (poder de cálculo), todos indispensáveis. Assim como o caminho de evolução da infraestrutura da indústria de IA tradicional, o campo do Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder de cálculo". No entanto, a partir de 2025, o foco da indústria começou a se deslocar para os níveis de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos básicos para uma construção de nível médio mais sustentável e de valor aplicado.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem de grande escala tradicionais (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com tamanhos de parâmetros frequentemente variando entre 70B e 500B, e o custo de um único treinamento pode facilmente chegar a vários milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que permite a reutilização de modelos básicos, geralmente se baseia em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras tecnológicas.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através de chamadas da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot swapping do módulo LoRA, RAG (Geração Aumentada por Recuperação), entre outros. Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto aprimora o desempenho especializado através de módulos ajustados, formando um sistema inteligente combinatório altamente flexível.

O valor e os limites da Crypto AI na camada do modelo

Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal é que

  • Barreiras tecnológicas muito altas: a escala de dados, recursos computacionais e capacidades de engenharia necessárias para treinar um Foundation Model são extremamente grandes, atualmente apenas gigantes tecnológicos como os EUA e a China possuem essa capacidade.
  • Limitações do ecossistema de código aberto: embora os modelos básicos principais tenham sido tornados públicos, a verdadeira chave para impulsionar os avanços nos modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, e o espaço de participação dos projetos on-chain no nível do modelo central é limitado.

No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem alcançar a extensão de valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:

  • Camada de Verificação Confiável: Através do registo em cadeia do caminho gerado pelo modelo, das contribuições de dados e da utilização, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Com o uso do Token nativo, para incentivar o upload de dados, chamadas de modelos e execução de agentes, construindo um ciclo positivo de treinamento e serviços de modelos.

Classificação de tipos de modelo de IA e análise da aplicabilidade da blockchain

Assim, é evidente que os pontos viáveis para projetos de Crypto AI do tipo modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e validação de dados on-chain da arquitetura RAG, e na implantação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor exclusivo para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado para a "camada de interface" da AI.

A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, transformando o comportamento da AI em um valor tokenizado, mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos, participar da formulação e iteração de regras através de votação com tokens, aprimorando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A visão da cadeia de IA da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborar na mesma plataforma e a obter rendimentos em cadeia com base nas suas contribuições reais.

A OpenLedger fornece um ciclo completo que vai desde "fornecimento de dados" até "implementação de modelos" e "chamadas de distribuição de lucros", sendo os seus módulos principais:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar LoRA para ajuste fino e treinamento de modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporte para coexistência de mil modelos, carregamento dinâmico sob demanda, reduz significativamente os custos de implantação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada por colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" impulsionada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído sobre OP Stack: baseado na pilha tecnológica Optimism, suporta alta capacidade de processamento e execução de baixas taxas.
  • Liquidar na rede principal do Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita aos desenvolvedores a rápida implementação e expansão com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Em comparação com cadeias de IA genéricas como NEAR, que são mais orientadas para a camada base e focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger concentra-se mais na construção de cadeias de IA dedicadas à incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos em uma cadeia com um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica do OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Foi implementado um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares, permitindo a configuração de hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibe em tempo real o progresso do treinamento.
  • Avaliação e Desdobramento do Modelo: Ferramentas de avaliação integradas, suportam exportação para desdobramento ou chamadas de compartilhamento ecológico.
  • Interface de verificação interativa: Fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG de Rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura e controlável, com interações em tempo real e monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:

  • Série LLaMA: ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos de base de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e com recursos limitados.
  • Qwen:Desempenho excelente em tarefas em chinês, capacidade abrangente, adequado como primeira escolha para desenvolvedores nacionais.
  • ChatGLM: Efeito de conversa em chinês destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Era um padrão de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte a várias línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implementação em blockchain (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prática em primeiro lugar".

O Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Apresenta vantagens como baixa barreira de entrada, capacidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecemos um caminho completo para incubação, distribuição e receita de modelos;
  • Para a plataforma: formar a circulação de ativos modelo e ecossistema de combinação;
  • Para os utilizadores: pode combinar modelos ou Agentes como se estivesse a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia de modelos de ajuste fino

LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas ao inserir "matrizes de baixo rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implementação é flexível, sendo o método de ajuste fino mais adequado para a implementação e chamada combinada de modelos Web3 atualmente.

OpenLoRA é um framework de inferência leve projetado pela OpenLedger, especialmente para o desenvolvimento e compartilhamento de recursos em múltiplos modelos. Seu objetivo central é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos de GPU no atual desenvolvimento de modelos de IA, promovendo a execução prática da "IA Pagável" (Payable AI).

OpenLoRA arquitetura do sistema componente central, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, alcançando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de armazenamento LoRA Adapter: o adaptador LoRA ajustado é hospedado na OpenLedger, permitindo o carregamento sob demanda, evitando que todos os modelos sejam carregados na memória de vídeo, economizando recursos.
  • Hospedagem de modelos e camada de fusão dinâmica: todos os modelos de ajuste fino compartilham um grande modelo base, com a fusão dinâmica do adaptador LoRA durante a inferência, suportando múltiplos adaptadores em inferência conjunta, melhorando o desempenho.
  • Motor de inferência: integração de várias tecnologias de otimização CUDA, incluindo Flash-Attention, Paged-Attention e SGMV.
  • Módulo de Roteamento de Solicitações e Saída em Fluxo: Raiz
OP-5.47%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Republicar
  • Partilhar
Comentar
0/400
JustAnotherWalletvip
· 7h atrás
Ainda está a negociar poder de computação? Já está fora de moda.
Ver originalResponder0
wagmi_eventuallyvip
· 7h atrás
Outra nova narrativa que parece um pouco inútil.
Ver originalResponder0
LiquidatedDreamsvip
· 7h atrás
Tristeza e volta a negociar ai
Ver originalResponder0
AirdropGrandpavip
· 7h atrás
Ainda está a competir pelo poder de computação? Acorda!
Ver originalResponder0
AirdropHunter420vip
· 7h atrás
A cega acumulação da camada base está de volta.
Ver originalResponder0
TokenAlchemistvip
· 7h atrás
hmm outro l2 a tentar capturar o alpha de computação de IA... veremos como isso escala em produção, para ser sincero
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)