OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligente, pilotée par les données et modélisée de manière combinable, sur la base d'OP Stack + EigenDA
I. Introduction | La transition de la couche de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), chacun étant indispensable. Comme pour l'évolution de l'infrastructure de l'industrie traditionnelle de l'IA, le domaine de la Crypto IA a également traversé des étapes similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant généralement l'accent sur la logique de croissance extensive de « l'assemblage de la puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une concurrence pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèles de grande taille (LLM) vs Modèles spécialisés (SLM)
Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres variant de 70B à 500B, et le coût d'un entraînement unique pouvant atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-optimisation de modèle de base réutilisable, est généralement basé sur des modèles open source, combinant un petit nombre de données spécialisées de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts d'entraînement et les barrières techniques.
Il est à noter que SLM ne sera pas intégré dans les poids LLM, mais qu'il fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, un module LoRA pour le branchement à chaud, et RAG (Génération Améliorée par Recherche). Cette architecture conserve la large capacité de couverture de LLM tout en renforçant la performance spécialisée grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de l'IA crypto au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités centrales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technique trop élevée : l'échelle des données, les ressources de calcul et les compétences en ingénierie nécessaires pour entraîner un modèle fondation sont extrêmement importantes, et seuls des géants technologiques comme les États-Unis et la Chine disposent actuellement des capacités correspondantes.
Limites de l'écosystème open source : Bien que les principaux modèles de base soient désormais open source, la véritable clé pour faire progresser les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base étant limité.
Cependant, au-dessus des modèles de base open source, le projet Crypto AI peut toujours réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne industrielle de l'IA, cela se manifeste dans deux directions principales :
Couche de validation de confiance : enregistre les chemins de génération de modèles, les contributions de données et les utilisations sur la chaîne, renforçant ainsi la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service des modèles.
Classification des types de modèles IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points de convergence viables des projets de type Crypto AI se concentrent principalement sur l'affinage léger des petits SLM, l'intégration et la validation des données en chaîne du cadre RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des jetons, Crypto peut offrir une valeur unique à ces scénarios de modèles à ressources faibles à moyennes, formant une valeur différenciée pour la « couche d'interface » de l'IA.
Une chaîne AI blockchain basée sur des données et des modèles peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, une distribution automatique de récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par vote tokenisé, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
Deux, aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuellement axé sur les mécanismes d'incitation des données et des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger propose une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » en passant par « appel de partage des bénéfices », ses modules clés comprennent :
Model Factory : sans programmation, il est possible d'utiliser LoRA pour l'ajustement fin et le déploiement de modèles personnalisés basés sur des LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : Mesure de contribution et distribution des récompenses via l'enregistrement des appels sur la chaîne ;
Datanets : Réseaux de données structurées destinés à des scénarios verticaux, construits et vérifiés par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne combinables, appelables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et des modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base, créant un environnement d'exécution de données et de contrats performant, économique et vérifiable pour les modèles d'IA.
Construire sur OP Stack : Basé sur la pile technologique Optimism, prend en charge une exécution à haut débit et à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Facilite le déploiement et l'extension rapides pour les développeurs basés sur Solidity ;
EigenDA offre un support en matière de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à NEAR, qui est une blockchain générale axée sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction d'une blockchain dédiée à l'IA, orientée vers les incitations liées aux données et aux modèles, visant à rendre le développement et l'appel des modèles traçables, combinables et durables en termes de valeur sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation à l'utilisation et des interfaces combinables sur la chaîne, et favorise la réalisation de « modèle en tant qu'actif ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'Usine, sans code modèle d'usine
ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ni d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement des modèles sur la base des ensembles de données ayant été autorisés et examinés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus centraux comprennent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
Sélection et configuration du modèle : support des LLM courants, configuration des hyperparamètres via une interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de l'avancement de l'entraînement.
Évaluation et déploiement des modèles : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel partagé dans l'écosystème.
Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
RAG génération de traçabilité : réponses avec références source, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification d'identité, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, interactive en temps réel et capable de générer des revenus durables.
Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement supportés par ModelFactory :
LLaMA série : écosystème le plus vaste, communauté active, performances générales solides, c'est l'un des modèles de base open source les plus courants actuellement.
Mistral : Architecture efficace, performance d'inférence excellente, adaptée aux scénarios de déploiement flexible et de ressources limitées.
Qwen : Performance exceptionnelle sur les tâches en chinois, compétences globales fortes, idéal pour les développeurs nationaux en première sélection.
ChatGLM : Les performances de conversation en chinois sont remarquables, adaptées aux services clients de niche et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Autrefois une référence en performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : un support multilingue assez fort, mais des performances d'inférence faibles, adapté à la recherche sur la couverture linguistique.
GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, ne pas recommander pour une utilisation en déploiement réel.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt configurée de manière « pragmatique » en fonction des contraintes réelles de déploiement sur la chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que des barrières d'entrée faibles, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme un appel d'API.
3.2 OpenLoRA, l'assetisation on-chain des modèles de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui permet d'apprendre de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement le coût d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un réglage est nécessaire. La stratégie clé de LoRA est la suivante : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. » Cela permet un réglage efficace en termes de paramètres, un entraînement rapide et un déploiement flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement de multiples modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU dans le déploiement des modèles d'IA actuels, et de promouvoir l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture core components, basé sur un design modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel multi-modèles efficaces et à faible coût :
Module de stockage LoRA Adapter : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
Hébergement de modèles et couche de fusion dynamique : tous les modèles ajustés partagent un grand modèle de base, avec une fusion dynamique des adaptateurs LoRA lors de l'inférence, prenant en charge plusieurs adaptateurs pour une inférence conjointe, améliorant ainsi les performances.
Moteur d'inférence : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
Module de routage des requêtes et de sortie en flux : racine
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 J'aime
Récompense
17
6
Reposter
Partager
Commentaire
0/400
JustAnotherWallet
· Il y a 14h
Vous parlez encore de puissance de calcul, c'est démodé.
Voir l'originalRépondre0
wagmi_eventually
· Il y a 14h
Encore un nouveau récit, un peu inutile.
Voir l'originalRépondre0
LiquidatedDreams
· Il y a 14h
Terrible, encore pour spéculer sur l'IA
Voir l'originalRépondre0
AirdropGrandpa
· Il y a 14h
Tu es encore en train de te battre pour la puissance de calcul, réveille-toi vite.
Voir l'originalRépondre0
AirdropHunter420
· Il y a 14h
L'accumulation aveugle de la couche inférieure est de retour.
Voir l'originalRépondre0
TokenAlchemist
· Il y a 15h
hmm un autre l2 essayant de capturer l'alpha du calcul AI... nous verrons comment cela se développe en production, pour être honnête.
OpenLedger construit une économie de modèles d'IA : la base OP Stack et la technologie de réglage fin soutiennent les incitations durables
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligente, pilotée par les données et modélisée de manière combinable, sur la base d'OP Stack + EigenDA
I. Introduction | La transition de la couche de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), chacun étant indispensable. Comme pour l'évolution de l'infrastructure de l'industrie traditionnelle de l'IA, le domaine de la Crypto IA a également traversé des étapes similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant généralement l'accent sur la logique de croissance extensive de « l'assemblage de la puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une concurrence pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèles de grande taille (LLM) vs Modèles spécialisés (SLM)
Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres variant de 70B à 500B, et le coût d'un entraînement unique pouvant atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-optimisation de modèle de base réutilisable, est généralement basé sur des modèles open source, combinant un petit nombre de données spécialisées de haute qualité et des technologies comme LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts d'entraînement et les barrières techniques.
Il est à noter que SLM ne sera pas intégré dans les poids LLM, mais qu'il fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, un module LoRA pour le branchement à chaud, et RAG (Génération Améliorée par Recherche). Cette architecture conserve la large capacité de couverture de LLM tout en renforçant la performance spécialisée grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de l'IA crypto au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités centrales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, au-dessus des modèles de base open source, le projet Crypto AI peut toujours réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne industrielle de l'IA, cela se manifeste dans deux directions principales :
Classification des types de modèles IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points de convergence viables des projets de type Crypto AI se concentrent principalement sur l'affinage léger des petits SLM, l'intégration et la validation des données en chaîne du cadre RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des jetons, Crypto peut offrir une valeur unique à ces scénarios de modèles à ressources faibles à moyennes, formant une valeur différenciée pour la « couche d'interface » de l'IA.
Une chaîne AI blockchain basée sur des données et des modèles peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, une distribution automatique de récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par vote tokenisé, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
Deux, aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuellement axé sur les mécanismes d'incitation des données et des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger propose une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » en passant par « appel de partage des bénéfices », ses modules clés comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et des modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base, créant un environnement d'exécution de données et de contrats performant, économique et vérifiable pour les modèles d'IA.
Comparé à NEAR, qui est une blockchain générale axée sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction d'une blockchain dédiée à l'IA, orientée vers les incitations liées aux données et aux modèles, visant à rendre le développement et l'appel des modèles traçables, combinables et durables en termes de valeur sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation à l'utilisation et des interfaces combinables sur la chaîne, et favorise la réalisation de « modèle en tant qu'actif ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'Usine, sans code modèle d'usine
ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ni d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement des modèles sur la base des ensembles de données ayant été autorisés et examinés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus centraux comprennent :
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification d'identité, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, interactive en temps réel et capable de générer des revenus durables.
Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement supportés par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt configurée de manière « pragmatique » en fonction des contraintes réelles de déploiement sur la chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que des barrières d'entrée faibles, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, l'assetisation on-chain des modèles de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui permet d'apprendre de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement le coût d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un réglage est nécessaire. La stratégie clé de LoRA est la suivante : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. » Cela permet un réglage efficace en termes de paramètres, un entraînement rapide et un déploiement flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement de multiples modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU dans le déploiement des modèles d'IA actuels, et de promouvoir l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture core components, basé sur un design modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel multi-modèles efficaces et à faible coût :