Merci pour les commentaires de Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.
Cette étude vise à explorer quels domaines de l'intelligence artificielle sont les plus importants pour les développeurs, ainsi que quelles pourraient être les prochaines opportunités à saisir dans les domaines de l'IA et du Web3.
Avant de partager de nouveaux points de vue de recherche, nous sommes très heureux de participer d'abord à la première levée de fonds de 5 millions de dollars au total de RedPill, et nous sommes également très excités et impatients de pouvoir grandir ensemble avec RedPill à l'avenir !
TL;DR
Avec la combinaison de Web3 et de l'IA devenant un sujet d'attention dans le monde de la longue monnaie, l'infrastructure de base de l'IA dans le monde de la longue monnaie est en plein essor, mais l'utilisation réelle de l'IA ou des applications construites pour l'IA n'est pas longue, et le problème d'homogénéisation de l'infrastructure de base de l'IA apparaît progressivement. Récemment, notre participation au premier tour de financement de RedPill a suscité une compréhension plus approfondie.
Les principaux outils pour construire l'AI Dapp incluent l'accès à Décentralisation OpenAI, le réseau GPU, le réseau d'inférence et le réseau d'agent.
La raison pour laquelle le réseau GPU est plus populaire que le «BTCMining period», c'est que le marché de l'IA est plus grand, la hausse est rapide et stable, l'IA prend en charge des millions d'applications chaque jour, nécessitant une variété de modèles de GPU et d'emplacements de serveurs, la technologie est plus mature qu'avant et le public ciblé est plus large.
Les réseaux d'inférence et les réseaux de proxy ont des infrastructures similaires, mais des points d'intérêt différents. Les réseaux d'inférence sont principalement destinés aux développeurs expérimentés pour déployer leurs propres modèles, et l'exécution de modèles non LLM ne nécessite pas nécessairement de GPU. Les réseaux de proxy se concentrent davantage sur LLM, les développeurs n'ont pas besoin d'apporter leurs propres modèles, mais accordent plus d'importance à l'ingénierie des suggestions et à la façon de relier différents proxies. Les réseaux de proxy nécessitent toujours des GPU haute performance.
Le projet d'infrastructure IA promet énormément et continue de lancer de nouvelles fonctionnalités.
La plupart des projets de chiffrement natifs sont encore à l'étape du Testnet, avec une stabilité médiocre, une configuration complexe, des fonctionnalités limitées, et il faut encore du temps pour prouver leur sécurité et confidentialité.
Supposons que les AI Dapp deviennent une grande tendance, il y a encore de nombreux domaines inexploités, tels que la surveillance, l'infrastructure liée à RAG, les modèles natifs Web3, les API natives chiffrées et les agents de décentralisation de données, les réseaux d'évaluation, etc.
L'intégration verticale est une tendance notable. Les projets d'infrastructure visent à fournir des services tout-en-un, simplifiant le travail des développeurs d'AI Dapp.
L'avenir sera hybride. Une partie du raisonnement sera effectuée en frontal, tandis qu'une partie sera effectuée hors de la chaîne (off-chain) pour prendre en compte les coûts et la vérifiabilité.
Source:IOSG
Introduction
La combinaison de Web3 et de l'IA est l'un des sujets les plus en vue dans le domaine du chiffrement. Des développeurs talentueux construisent actuellement une infrastructure d'IA pour le monde du chiffrement, visant à introduire l'intelligence dans les smart contracts. Créer une dApp d'IA est une tâche extrêmement complexe, les développeurs doivent gérer des domaines tels que les données, les modèles, la puissance de calcul, les opérations, le déploiement et l'intégration avec la blockchain. Pour répondre à ces besoins, les fondateurs de Web3 ont déjà développé de nombreuses solutions préliminaires, telles que le réseau GPU, l'annotation des données communautaires, les modèles d'entraînement communautaire, le raisonnement et l'entraînement d'IA vérifiables, ainsi que la boutique d'agents.
Dans ce contexte d'infrastructure prospère, l'utilisation réelle de l'IA ou des applications construites pour l'IA n'est pas longue. Les développeurs à la recherche de tutoriels de développement de dApp AI constatent que ces tutoriels liés à l'infrastructure native de chiffrement AI ne sont pas longs, la plupart des tutoriels ne faisant que traiter l'appel de l'API OpenAI en front-end.
Source:IOSGVentures
Les applications actuelles ne parviennent pas à tirer pleinement parti des capacités décentralisées et vérifiables des blockchains, mais cela va bientôt changer. Aujourd’hui, la plupart des infrastructures d’IA axées sur les crypto-monnaies ont lancé des réseaux de test et devraient être officiellement opérationnelles dans les 6 prochains mois.
Cette étude présente en détail les principaux outils disponibles dans l'infrastructure de l'intelligence artificielle dans le domaine du chiffrement. Préparons-nous pour le monde du chiffrement avec GPT-3.5 !
1. RedPill:为 OpenAI 提供Décentralisation授权
Le RedPill dans lequel nous avons investi précédemment est un bon point d'entrée.
OpenAI dispose de plusieurs modèles puissants de classe mondiale tels que GPT-4-vision, GPT-4-turbo et GPT-4o, ce qui en fait le choix préféré pour la création de Dapp d'intelligence artificielle avancée.
Les développeurs peuvent intégrer l'API OpenAI dans leur dApp en utilisant Oracle Machine ou une interface frontale.
RedPill regroupe les API OpenAI de différents développeurs sous une seule interface, offrant ainsi aux utilisateurs du monde entier des services d'intelligence artificielle rapides, économiques et vérifiables, démocratisant ainsi l'accès aux ressources des meilleurs modèles d'intelligence artificielle. L'algorithme de routage RedPill dirigera les demandes des développeurs vers un contributeur unique. Les demandes d'API seront exécutées via son réseau de distribution, contournant ainsi toute restriction éventuelle de la part d'OpenAI et résolvant certains problèmes courants auxquels les développeurs sont confrontés, tels que le chiffrement.
Limitation de TPM (Jeton par minute) : Le nouvel compte a une utilisation limitée de Jeton qui ne peut pas répondre aux besoins des dApp populaires et dépendants de l'IA.
Restrictions d'accès : certains modèles ont des restrictions d'accès pour les nouveaux comptes ou certains pays.
En utilisant le même code de requête mais en changeant le nom d'hôte, les développeurs peuvent accéder aux modèles OpenAI de manière économique, hautement évolutive et sans restriction.
Ce type de réseau Décentralisation GPU permet d'utiliser la puissance de calcul des particuliers ou des petits centres de données pour offrir une configuration flexible, un choix de serveur plus long et des coûts plus bas, permettant aux développeurs de mener facilement des expériences liées à l'IA dans un budget limité. Cependant, en raison de la nature Décentralisation de ces réseaux GPU, ils présentent encore certaines limites en termes de fonctionnalité, d'accessibilité et de confidentialité des données.
Au cours des derniers mois, la demande de GPU a été très forte, dépassant la précédente fièvre du minage de BTC. Les raisons de ce phénomène comprennent:
Le nombre croissant de clients cibles fait que le réseau GPU sert désormais les développeurs d'IA, qui sont non seulement nombreux mais aussi plus fidèles, et ne sont pas affectés par la fluctuation des prix des Cryptoactifs.
Par rapport aux équipements spécialisés dans le Mining, les GPU Décentralisation offrent des modèles et des spécifications plus longues, mieux adaptés aux exigences de iez. En particulier, le traitement de modèles de grande taille nécessite une VRAM plus élevée, tandis que les tâches de petite taille ont le choix de GPU plus adaptés. De plus, les GPU Décentralisation peuvent servir les utilisateurs finaux avec une Gouttelatence plus faible.
La technologie devient de plus en plus mature, avec des réseaux GPU dépendant de blocs haute vitesse tels que Solana Règlement, la virtualisation Docker et les clusters de calcul Ray.
En termes de retour sur investissement, le marché de l'IA est en expansion, avec de longues opportunités de développement de nouvelles applications et modèles. Le taux de rendement prévu du modèle H100 est de 60 à 70%, alors que le BTCMining est plus complexe, avec des gagnants prenant tout et une production limitée.
Les sociétés BTCMining telles que Iris Energy, Core Scientific et Bitdeer commencent également à prendre en charge les réseaux GPU, offrant des services d'IA et achetant activement des GPU conçus spécifiquement pour l'IA, tels que le H100.
Recommandé : Pour les développeurs Web2 qui ne prêtent pas trop d'attention à l'SLA, io.net offre une expérience simple et facile à utiliser, c'est un choix très rentable.
3. Réseau de raisonnement
C'est le cœur de l'infrastructure native off-chain AI chiffrement. Il prendra en charge des opérations d'inférence AI par milliards à l'avenir. De nombreux couches AI layer1 ou layer2 offrent aux développeurs la capacité d'appeler nativement l'inférence AI off-chain. Les leaders du marché incluent Ritual, Valence et Fetch.ai.
Ces réseaux diffèrent dans les aspects suivants :
Performance (latence, temps de calcul)
Modèles pris en charge
Vérifiabilité
Prix (coût hors chaîne, coût de raisonnement)
Expérience de développement
3.1 Objectif
L'idéal serait que les développeurs puissent accéder facilement à des services d'inférence d'IA personnalisés, n'importe où et par n'importe quel moyen de preuve, sans pratiquement aucun obstacle pendant l'intégration.
Le réseau de raisonnement fournit tout le support de base dont les développeurs ont besoin, y compris la génération à la demande et la preuve de validation, le calcul de raisonnement, le relais et la validation des données de raisonnement, les interfaces pour Web2 et Web3, le déploiement de modèles en un clic, la surveillance du système, les opérations d'interaction inter-chaînes, l'intégration et l'exécution synchronisée, etc.
Source:IOSGVentures
Avec ces fonctionnalités, les développeurs peuvent intégrer facilement les services d'inférence dans leurs contrats intelligents existants. Par exemple, lors de la construction de robots de trading DeFi, ces robots utilisent des modèles d'apprentissage automatique pour trouver des opportunités d'achat et de vente pour des paires de trading spécifiques, et exécutent des stratégies de trading correspondantes sur la plateforme de trading de base.
Dans un état idéal, toute l'infrastructure est hébergée dans le cloud. Les développeurs doivent simplement télécharger leur modèle de stratégie de transaction au format générique tel que torch, et le réseau d'inférence stockera le modèle et le rendra disponible pour les requêtes Web2 et Web3.
Une fois toutes les étapes de déploiement du modèle terminées, les développeurs peuvent appeler directement l'inférence du modèle via l'API Web3 ou le contrat intelligent. Le réseau d'inférence continuera à exécuter ces stratégies de transaction et à fournir les résultats au contrat intelligent de base. S'il y a une grande quantité de fonds communautaires gérés par les développeurs, il est également nécessaire de fournir une vérification des résultats d'inférence. Une fois les résultats d'inférence reçus, le contrat intelligent effectuera des transactions en fonction de ces résultats.
Source:IOSGVentures
3.1.1 Asynchrone et Synchronisé
En théorie, les opérations de raisonnement asynchrones peuvent améliorer les performances; cependant, cette approche peut être peu pratique en termes d'expérience de développement.
Lors de l'utilisation du mode asynchrone, les développeurs doivent d'abord soumettre la tâche au contrat intelligent du réseau d'inférence. Une fois la tâche d'inférence terminée, le contrat intelligent du réseau d'inférence renverra le résultat. Dans ce mode de programmation, la logique est divisée en deux parties : l'appel d'inférence et le traitement des résultats d'inférence.
Source:IOSGVentures
Si les développeurs ont des appels de raisonnement imbriqués et beaucoup de logique de contrôle, la situation deviendra encore pire.
Source:IOSGVentures
Le mode de programmation asynchrone rend difficile l'intégration avec les smart contracts existants. Cela nécessite que les développeurs écrivent beaucoup de code supplémentaire, gèrent les erreurs et la gestion des dépendances.
Relativement, la programmation synchrone est plus intuitive pour les développeurs, mais elle pose des problèmes en termes de temps de réponse et de conception de la chaîne de blocs. Par exemple, si les données d'entrée sont des données à évolution rapide telles que le temps de bloc ou le prix, une fois le raisonnement terminé, les données ne sont plus fraîches, ce qui peut entraîner un rollback dans l'exécution du Smart Contract dans des cas spécifiques. Imaginez que vous effectuez une transaction avec un prix obsolète.
Source:IOSGVentures
La plupart des infrastructures AI utilisent un traitement asynchrone, mais Valence cherche à résoudre ces problèmes.
3.2 Situation actuelle
En réalité, de nombreux nouveaux réseaux de raisonnement sont encore en phase de test, tels que le réseau Ritual. Selon leurs documents publics, ces réseaux ont actuellement des fonctionnalités assez limitées (telles que la vérification, la preuve, etc. ne sont pas encore en ligne). Ils ne fournissent actuellement pas d'infrastructure cloud pour prendre en charge les calculs d'IA hors chaîne, mais ils fournissent un cadre pour l'auto-hébergement des calculs d'IA et la transmission des résultats hors chaîne.
C'est une architecture qui exécute le modèle de diffusion AIGC NFT. Le modèle de diffusion génère des jetons non fongibles et les télécharge sur Arweave. Le réseau de raisonnement utilisera cette adresse Arweave pour effectuer le minting off-chain de ce jeton non fongible.
Source:IOSGVentures
Ce processus est très complexe, les développeurs doivent déployer et entretenir la plupart des infrastructures eux-mêmes, telles que Ritual Nœud avec une logique de service personnalisée, Stable Diffusion Nœud et Jeton non fongible Smart Contract.
Recommandation : Les réseaux de déduction actuels sont assez complexes en ce qui concerne l'intégration et le déploiement de modèles personnalisés, et la plupart de ces réseaux ne prennent pas encore en charge la fonction de vérification à ce stade. L'application de la technologie de l'IA à la partie frontale offre aux développeurs une option relativement simple. Si vous avez vraiment besoin de la fonction de vérification, Giza, fournisseur de ZKML, est un bon choix.
4. Réseau de proxy
Le réseau de proxy permet aux utilisateurs de personnaliser facilement les proxies. Ce réseau est composé d'entités ou de contrats intelligents capables d'exécuter des tâches de manière autonome, de s'entraider et d'interagir avec le réseau Blockchain, sans intervention directe de l'homme. Il est principalement destiné à la technologie LLM. Par exemple, il peut fournir un chatbot GPT pour approfondir la compréhension d'Ethereum. Les outils actuels de ce chatbot sont assez limités, les développeurs ne peuvent pas encore développer d'applications complexes sur cette base.
Source:IOSGVentures
Mais à l'avenir, le réseau d'agents fournira des outils plus longs aux agents, non seulement des connaissances, mais aussi la capacité d'appeler des API externes, d'exécuter des tâches spécifiques, etc. Les développeurs pourront relier longs agents pour construire des flux de travail. Par exemple, l'écriture de contrats intelligents Solidity impliquera longs agents spécialisés, y compris des agents de conception de protocole, des agents de développement Solidity, des agents d'examen de sécurité du code et des agents de déploiement Solidity.
Source:IOSGVentures
Nous coordonnons la collaboration de ces agents en utilisant des indices et des scénarios.
Des exemples de réseaux de proxy incluent Flock.ai, Myshell et Theoriq.
Recommandation : La plupart des agents actuels ont des fonctionnalités relativement limitées. Pour certains cas d'utilisation, les agents Web2 peuvent mieux servir et disposent d'outils de composition matures tels que Langchain et Llamaindex.
5. Différences entre le réseau d'agents et le réseau de raisonnement
Le réseau d'agents met davantage l'accent sur LLM, fournissant des outils tels que Langchain pour intégrer long agents. En général, les développeurs n'ont pas besoin de développer personnellement des modèles d'apprentissage automatique, le réseau d'agents a déjà simplifié le processus de développement et de déploiement des modèles. Ils ont seulement besoin de lier les agents et les outils nécessaires. Dans de nombreux cas, les utilisateurs finaux utiliseront directement ces agents.
Le réseau d'inférence est l'infrastructure de base du réseau de mandataires qui fournit aux développeurs des autorisations d'accès de niveau inférieur. En général, les utilisateurs finaux n'utilisent pas directement le réseau d'inférence. Les développeurs doivent déployer leurs propres modèles, ce qui n'est pas limité à LLM, et ils peuvent les utiliser via des points d'accès off-chain ou off-chain.
Les réseaux d'agence et les réseaux de raisonnement ne sont pas des produits entièrement indépendants. Nous commençons déjà à voir des produits intégrés verticalement. Ils offrent à la fois des capacités d'agence et de raisonnement car ces deux fonctionnalités dépendent d'infrastructures similaires.
6. Nouvelle opportunité
Outre l'inférence, la formation et les réseaux d'agents de modèles, il existe encore de nombreux nouveaux domaines à explorer dans le domaine de la web3 :
Ensemble de données : Comment transformer les données de la chaîne de blocs en un ensemble de données utilisable par l'apprentissage automatique ? Ce dont les développeurs d'apprentissage automatique ont besoin, ce sont des données plus spécifiques et spécialisées. Par exemple, Giza propose des ensembles de données de haute qualité sur la finance décentralisée, spécifiquement conçus pour l'entraînement de l'apprentissage automatique. Les données idéales ne devraient pas se limiter à de simples données tabulaires, elles devraient également inclure des données graphiques décrivant les interactions dans le monde de la chaîne de blocs. À l'heure actuelle, nous sommes encore en manque à cet égard. Certains projets tentent actuellement de résoudre ce problème en récompensant les individus qui créent de nouveaux ensembles de données, tels que Bagel et Sahara, qui promettent de protéger la confidentialité des données personnelles.
Stockage des modèles : certains modèles ont une taille importante, et il est crucial de pouvoir stocker, distribuer et contrôler les versions de ces modèles, car cela est lié aux performances et aux coûts de l'apprentissage automatique hors chaîne. Dans ce domaine, des projets avant-gardistes tels que FIL, AR et 0g ont déjà réalisé des progrès.
Entraînement de modèle : l'entraînement de modèle distribué et vérifiable est un défi. Des progrès significatifs ont été réalisés avec des projets tels que Gensyn, Bittensor, Flock et Allora.
Surveillance : étant donné que le raisonnement de modèle se produit à la fois hors chaîne et hors chaîne, nous avons besoin d'une nouvelle infrastructure pour aider les développeurs de web3 à suivre l'utilisation des modèles, détecter rapidement les problèmes et les biais potentiels. Avec les bons outils de surveillance, les développeurs de machine learning de web3 peuvent ajuster rapidement et continuellement la précision du modèle.
Infrastructure RAG: La distribution RAG nécessite un nouvel environnement d'infrastructure avec des exigences élevées en matière de stockage, de calcul embarqué et de bases de données vectorielles, tout en veillant à la confidentialité des données. Cela diffère considérablement de l'infrastructure Web3 AI actuelle, qui dépend largement de tiers pour effectuer RAG, tels que Firstbatch et Bagel.
Modèle conçu spécialement pour Web3 : tous les modèles ne conviennent pas à la situation Web3. Dans de nombreux cas, il est nécessaire de re-entraîner le modèle pour qu'il convienne à des applications spécifiques telles que la prédiction de prix, la recommandation, etc. Avec le développement prospère des infrastructures d'IA, nous espérons qu'il y aura plus de modèles locaux Web3 à long terme pour servir les applications d'IA. Par exemple, Pond développe actuellement un GNN blockchain pour la prédiction de prix, la recommandation, la détection de la fraude et le blanchiment d'argent, entre autres scénarios.
Évaluation du réseau : il est difficile d'évaluer les agents sans rétroaction humaine. Avec la popularité des outils de création d'agents, il y aura de nombreux agents sur le marché. Il est donc nécessaire d'avoir un système pour montrer les capacités de ces agents et aider les utilisateurs à déterminer le meilleur agent dans des situations spécifiques. Par exemple, Neuronets est un acteur majeur dans ce domaine.
Mécanisme de consensus: Pour les tâches d'IA, PoS n'est pas nécessairement le meilleur choix. La complexité du calcul, les difficultés de vérification et le manque de déterminisme sont les principaux défis auxquels est confronté PoS. Bittensor a créé un nouveau Mécanisme de consensus intelligent, récompensant les Nœuds contribuant aux modèles d'apprentissage automatique et aux sorties du réseau.
7. Perspectives futures
Nous avons observé une tendance à l'intégration verticale. En construisant une couche de calcul de base, le réseau peut prendre en charge diverses tâches d'apprentissage automatique, notamment la formation, l'inférence et les services de réseau proxy. Ce modèle vise à fournir aux développeurs d'apprentissage automatique Web3 une solution tout-en-un complète.
Actuellement, bien que le raisonnement off-chain soit coûteux et lent, il offre une excellente vérifiabilité et une intégration transparente avec les systèmes backend (comme les smart contracts). Je pense que l'avenir se dirige vers des applications hybrides. Une partie du raisonnement sera effectué en frontal ou off-chain, tandis que les raisonnements critiques et décisifs seront effectués off-chain. Ce modèle est déjà appliqué sur les appareils mobiles. En exploitant la nature des appareils mobiles, il peut exécuter rapidement des petits modèles localement et déplacer des tâches plus complexes vers le cloud pour une plus grande capacité de traitement.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
IOSG: Où sera le prochain point d'explosion de Web3+AI ?
Auteur : IOSG Ventures
Merci pour les commentaires de Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.
Cette étude vise à explorer quels domaines de l'intelligence artificielle sont les plus importants pour les développeurs, ainsi que quelles pourraient être les prochaines opportunités à saisir dans les domaines de l'IA et du Web3.
Avant de partager de nouveaux points de vue de recherche, nous sommes très heureux de participer d'abord à la première levée de fonds de 5 millions de dollars au total de RedPill, et nous sommes également très excités et impatients de pouvoir grandir ensemble avec RedPill à l'avenir !
TL;DR
Avec la combinaison de Web3 et de l'IA devenant un sujet d'attention dans le monde de la longue monnaie, l'infrastructure de base de l'IA dans le monde de la longue monnaie est en plein essor, mais l'utilisation réelle de l'IA ou des applications construites pour l'IA n'est pas longue, et le problème d'homogénéisation de l'infrastructure de base de l'IA apparaît progressivement. Récemment, notre participation au premier tour de financement de RedPill a suscité une compréhension plus approfondie.
Source:IOSG
Introduction
Source:IOSGVentures
1. RedPill:为 OpenAI 提供Décentralisation授权
Le RedPill dans lequel nous avons investi précédemment est un bon point d'entrée.
OpenAI dispose de plusieurs modèles puissants de classe mondiale tels que GPT-4-vision, GPT-4-turbo et GPT-4o, ce qui en fait le choix préféré pour la création de Dapp d'intelligence artificielle avancée.
Les développeurs peuvent intégrer l'API OpenAI dans leur dApp en utilisant Oracle Machine ou une interface frontale.
RedPill regroupe les API OpenAI de différents développeurs sous une seule interface, offrant ainsi aux utilisateurs du monde entier des services d'intelligence artificielle rapides, économiques et vérifiables, démocratisant ainsi l'accès aux ressources des meilleurs modèles d'intelligence artificielle. L'algorithme de routage RedPill dirigera les demandes des développeurs vers un contributeur unique. Les demandes d'API seront exécutées via son réseau de distribution, contournant ainsi toute restriction éventuelle de la part d'OpenAI et résolvant certains problèmes courants auxquels les développeurs sont confrontés, tels que le chiffrement.
En utilisant le même code de requête mais en changeant le nom d'hôte, les développeurs peuvent accéder aux modèles OpenAI de manière économique, hautement évolutive et sans restriction.
2. Réseau de GPU
除了使用 OpenAI 的 API,许多开发人员还会选择自行在家中托管模型。他们可以依托Décentralisation GPU 网络,如 io.net、Aethir、Akash 等流行的网络,自行建立 GPU 集群并部署及运行各种强大的内部或Open Source模型。
Ce type de réseau Décentralisation GPU permet d'utiliser la puissance de calcul des particuliers ou des petits centres de données pour offrir une configuration flexible, un choix de serveur plus long et des coûts plus bas, permettant aux développeurs de mener facilement des expériences liées à l'IA dans un budget limité. Cependant, en raison de la nature Décentralisation de ces réseaux GPU, ils présentent encore certaines limites en termes de fonctionnalité, d'accessibilité et de confidentialité des données.
Au cours des derniers mois, la demande de GPU a été très forte, dépassant la précédente fièvre du minage de BTC. Les raisons de ce phénomène comprennent:
Recommandé : Pour les développeurs Web2 qui ne prêtent pas trop d'attention à l'SLA, io.net offre une expérience simple et facile à utiliser, c'est un choix très rentable.
3. Réseau de raisonnement
C'est le cœur de l'infrastructure native off-chain AI chiffrement. Il prendra en charge des opérations d'inférence AI par milliards à l'avenir. De nombreux couches AI layer1 ou layer2 offrent aux développeurs la capacité d'appeler nativement l'inférence AI off-chain. Les leaders du marché incluent Ritual, Valence et Fetch.ai.
Ces réseaux diffèrent dans les aspects suivants :
3.1 Objectif
L'idéal serait que les développeurs puissent accéder facilement à des services d'inférence d'IA personnalisés, n'importe où et par n'importe quel moyen de preuve, sans pratiquement aucun obstacle pendant l'intégration.
Le réseau de raisonnement fournit tout le support de base dont les développeurs ont besoin, y compris la génération à la demande et la preuve de validation, le calcul de raisonnement, le relais et la validation des données de raisonnement, les interfaces pour Web2 et Web3, le déploiement de modèles en un clic, la surveillance du système, les opérations d'interaction inter-chaînes, l'intégration et l'exécution synchronisée, etc.
Source:IOSGVentures
Avec ces fonctionnalités, les développeurs peuvent intégrer facilement les services d'inférence dans leurs contrats intelligents existants. Par exemple, lors de la construction de robots de trading DeFi, ces robots utilisent des modèles d'apprentissage automatique pour trouver des opportunités d'achat et de vente pour des paires de trading spécifiques, et exécutent des stratégies de trading correspondantes sur la plateforme de trading de base.
Dans un état idéal, toute l'infrastructure est hébergée dans le cloud. Les développeurs doivent simplement télécharger leur modèle de stratégie de transaction au format générique tel que torch, et le réseau d'inférence stockera le modèle et le rendra disponible pour les requêtes Web2 et Web3.
Une fois toutes les étapes de déploiement du modèle terminées, les développeurs peuvent appeler directement l'inférence du modèle via l'API Web3 ou le contrat intelligent. Le réseau d'inférence continuera à exécuter ces stratégies de transaction et à fournir les résultats au contrat intelligent de base. S'il y a une grande quantité de fonds communautaires gérés par les développeurs, il est également nécessaire de fournir une vérification des résultats d'inférence. Une fois les résultats d'inférence reçus, le contrat intelligent effectuera des transactions en fonction de ces résultats.
Source:IOSGVentures
3.1.1 Asynchrone et Synchronisé
En théorie, les opérations de raisonnement asynchrones peuvent améliorer les performances; cependant, cette approche peut être peu pratique en termes d'expérience de développement.
Lors de l'utilisation du mode asynchrone, les développeurs doivent d'abord soumettre la tâche au contrat intelligent du réseau d'inférence. Une fois la tâche d'inférence terminée, le contrat intelligent du réseau d'inférence renverra le résultat. Dans ce mode de programmation, la logique est divisée en deux parties : l'appel d'inférence et le traitement des résultats d'inférence.
Source:IOSGVentures
Si les développeurs ont des appels de raisonnement imbriqués et beaucoup de logique de contrôle, la situation deviendra encore pire.
Source:IOSGVentures
Le mode de programmation asynchrone rend difficile l'intégration avec les smart contracts existants. Cela nécessite que les développeurs écrivent beaucoup de code supplémentaire, gèrent les erreurs et la gestion des dépendances.
Relativement, la programmation synchrone est plus intuitive pour les développeurs, mais elle pose des problèmes en termes de temps de réponse et de conception de la chaîne de blocs. Par exemple, si les données d'entrée sont des données à évolution rapide telles que le temps de bloc ou le prix, une fois le raisonnement terminé, les données ne sont plus fraîches, ce qui peut entraîner un rollback dans l'exécution du Smart Contract dans des cas spécifiques. Imaginez que vous effectuez une transaction avec un prix obsolète.
Source:IOSGVentures
La plupart des infrastructures AI utilisent un traitement asynchrone, mais Valence cherche à résoudre ces problèmes.
3.2 Situation actuelle
En réalité, de nombreux nouveaux réseaux de raisonnement sont encore en phase de test, tels que le réseau Ritual. Selon leurs documents publics, ces réseaux ont actuellement des fonctionnalités assez limitées (telles que la vérification, la preuve, etc. ne sont pas encore en ligne). Ils ne fournissent actuellement pas d'infrastructure cloud pour prendre en charge les calculs d'IA hors chaîne, mais ils fournissent un cadre pour l'auto-hébergement des calculs d'IA et la transmission des résultats hors chaîne.
C'est une architecture qui exécute le modèle de diffusion AIGC NFT. Le modèle de diffusion génère des jetons non fongibles et les télécharge sur Arweave. Le réseau de raisonnement utilisera cette adresse Arweave pour effectuer le minting off-chain de ce jeton non fongible.
Source:IOSGVentures
Ce processus est très complexe, les développeurs doivent déployer et entretenir la plupart des infrastructures eux-mêmes, telles que Ritual Nœud avec une logique de service personnalisée, Stable Diffusion Nœud et Jeton non fongible Smart Contract.
Recommandation : Les réseaux de déduction actuels sont assez complexes en ce qui concerne l'intégration et le déploiement de modèles personnalisés, et la plupart de ces réseaux ne prennent pas encore en charge la fonction de vérification à ce stade. L'application de la technologie de l'IA à la partie frontale offre aux développeurs une option relativement simple. Si vous avez vraiment besoin de la fonction de vérification, Giza, fournisseur de ZKML, est un bon choix.
4. Réseau de proxy
Le réseau de proxy permet aux utilisateurs de personnaliser facilement les proxies. Ce réseau est composé d'entités ou de contrats intelligents capables d'exécuter des tâches de manière autonome, de s'entraider et d'interagir avec le réseau Blockchain, sans intervention directe de l'homme. Il est principalement destiné à la technologie LLM. Par exemple, il peut fournir un chatbot GPT pour approfondir la compréhension d'Ethereum. Les outils actuels de ce chatbot sont assez limités, les développeurs ne peuvent pas encore développer d'applications complexes sur cette base.
Source:IOSGVentures
Mais à l'avenir, le réseau d'agents fournira des outils plus longs aux agents, non seulement des connaissances, mais aussi la capacité d'appeler des API externes, d'exécuter des tâches spécifiques, etc. Les développeurs pourront relier longs agents pour construire des flux de travail. Par exemple, l'écriture de contrats intelligents Solidity impliquera longs agents spécialisés, y compris des agents de conception de protocole, des agents de développement Solidity, des agents d'examen de sécurité du code et des agents de déploiement Solidity.
Source:IOSGVentures
Nous coordonnons la collaboration de ces agents en utilisant des indices et des scénarios.
Des exemples de réseaux de proxy incluent Flock.ai, Myshell et Theoriq.
Recommandation : La plupart des agents actuels ont des fonctionnalités relativement limitées. Pour certains cas d'utilisation, les agents Web2 peuvent mieux servir et disposent d'outils de composition matures tels que Langchain et Llamaindex.
5. Différences entre le réseau d'agents et le réseau de raisonnement
Le réseau d'agents met davantage l'accent sur LLM, fournissant des outils tels que Langchain pour intégrer long agents. En général, les développeurs n'ont pas besoin de développer personnellement des modèles d'apprentissage automatique, le réseau d'agents a déjà simplifié le processus de développement et de déploiement des modèles. Ils ont seulement besoin de lier les agents et les outils nécessaires. Dans de nombreux cas, les utilisateurs finaux utiliseront directement ces agents.
Le réseau d'inférence est l'infrastructure de base du réseau de mandataires qui fournit aux développeurs des autorisations d'accès de niveau inférieur. En général, les utilisateurs finaux n'utilisent pas directement le réseau d'inférence. Les développeurs doivent déployer leurs propres modèles, ce qui n'est pas limité à LLM, et ils peuvent les utiliser via des points d'accès off-chain ou off-chain.
Les réseaux d'agence et les réseaux de raisonnement ne sont pas des produits entièrement indépendants. Nous commençons déjà à voir des produits intégrés verticalement. Ils offrent à la fois des capacités d'agence et de raisonnement car ces deux fonctionnalités dépendent d'infrastructures similaires.
6. Nouvelle opportunité
Outre l'inférence, la formation et les réseaux d'agents de modèles, il existe encore de nombreux nouveaux domaines à explorer dans le domaine de la web3 :
7. Perspectives futures
Nous avons observé une tendance à l'intégration verticale. En construisant une couche de calcul de base, le réseau peut prendre en charge diverses tâches d'apprentissage automatique, notamment la formation, l'inférence et les services de réseau proxy. Ce modèle vise à fournir aux développeurs d'apprentissage automatique Web3 une solution tout-en-un complète.
Actuellement, bien que le raisonnement off-chain soit coûteux et lent, il offre une excellente vérifiabilité et une intégration transparente avec les systèmes backend (comme les smart contracts). Je pense que l'avenir se dirige vers des applications hybrides. Une partie du raisonnement sera effectué en frontal ou off-chain, tandis que les raisonnements critiques et décisifs seront effectués off-chain. Ce modèle est déjà appliqué sur les appareils mobiles. En exploitant la nature des appareils mobiles, il peut exécuter rapidement des petits modèles localement et déplacer des tâches plus complexes vers le cloud pour une plus grande capacité de traitement.