Avec la fusion de Web3 et de l'IA devenant un sujet d'intérêt dans le monde de la cryptographie, l'infrastructure IA du monde de la cryptographie prospère. Cependant, il y a encore peu d'applications réelles utilisant l'IA ou construites par l'IA, et le problème d'homogénéisation de l'infrastructure IA commence à se manifester. Récemment, notre participation à la première levée de fonds de RedPill a suscité une compréhension plus approfondie.
Les principaux outils pour construire un AI Dapp incluent l'accès Décentralisation à OpenAI, le réseau GPU, le réseau d'inférence et le réseau d'agents.
La raison pour laquelle le réseau GPU est plus populaire que pendant la période de minage de BTC est que : le marché de l'IA est plus grand et en hausse rapide et stable ; l'IA prend en charge des millions d'applications chaque jour ; l'IA nécessite une variété de modèles de GPU et de positions de serveur ; la technologie est plus mature qu'avant ; et elle cible également un public plus large.
Les réseaux d'inférence et les réseaux de proxy ont des infrastructures similaires, mais des préoccupations différentes. Les réseaux d'inférence sont principalement destinés aux développeurs expérimentés pour déployer leurs propres modèles, et l'exécution de modèles non LLM ne nécessite pas nécessairement de GPU. Les réseaux de proxy se concentrent davantage sur le LLM, les développeurs n'ont pas besoin de fournir leur propre modèle, mais se concentrent plutôt sur l'ingénierie des suggestions et la façon de lier différents proxies. Les réseaux de proxy nécessitent toujours des GPU hautes performances.
Le projet d'infrastructure de base de l'IA promet énormément et continue de lancer de nouvelles fonctionnalités.
La plupart des projets de chiffrement natifs sont encore à l'étape de Testnet, avec une stabilité médiocre, une configuration complexe, des fonctionnalités limitées et nécessitent encore du temps pour prouver leur sécurité et leur confidentialité.
Supposons que l'AI Dapp devienne une grande tendance, il y a encore de nombreux domaines non développés tels que la surveillance, l'infrastructure associée à RAG, les modèles natifs Web3, les API natives pour le chiffrement et les agents de décentralisation des données, l'évaluation des réseaux, etc.
L'intégration verticale est une tendance marquée. Les projets d'infrastructure visent à fournir des services tout-en-un, simplifiant le travail des développeurs d'AI Dapp.
L'avenir sera hybride. Une partie du raisonnement se fera en front-end, tandis qu'une partie sera effectuée via des calculs off-chain, ce qui permet de prendre en compte les coûts et la vérifiabilité.
Source: IOSG
Introduction
La combinaison de Web3 et de l'IA est l'un des sujets les plus populaires dans le domaine du chiffrement. Des développeurs talentueux construisent une infrastructure d'IA pour le monde du chiffrement, afin d'intégrer l'intelligence dans les contrats intelligents. La construction d'une application AI est une tâche extrêmement complexe, les développeurs doivent gérer les aspects tels que les données, les modèles, la puissance de calcul, les opérations, le déploiement et l'intégration avec la blockchain.
Pour répondre à ces besoins, les fondateurs de Web3 ont déjà développé de nombreuses solutions préliminaires telles que les réseaux GPU, l'annotation des données communautaires, les modèles entraînés par la communauté, l'inférence et l'apprentissage de l'IA vérifiables, ainsi que les boutiques d'agents. Cependant, malgré cette infrastructure prospère, il y a encore peu d'utilisations réelles de l'IA ou d'applications construites avec l'IA.
Les développeurs ont constaté qu'il n'y avait pas beaucoup de tutoriels sur le développement d'AI Dapp liés à l'infrastructure de base du chiffrement AI natif lorsqu'ils cherchaient des tutoriels. La plupart des tutoriels ne font que traiter de l'appel de l'API OpenAI côté front-end.
Source: IOSG Ventures
Les applications actuelles n'exploitent pas pleinement la Décentralisation et la fonction de vérification de la blockchain, mais cette situation va bientôt changer. À l'heure actuelle, la plupart des infrastructures d'intelligence artificielle axées sur le chiffrement ont lancé des réseaux de test et prévoient de fonctionner officiellement dans les 6 prochains mois. Cette étude détaillera les principaux outils disponibles dans l'infrastructure d'intelligence artificielle axée sur le chiffrement. Préparons-nous à l'ère du chiffrement avec GPT-3.5 !
RedPill: fournir une autorisation de Décentralisation à OpenAI
Le RedPill dans lequel nous avons investi précédemment est un excellent point d'entrée. OpenAI dispose de plusieurs modèles puissants de classe mondiale tels que GPT-4-vision, GPT-4-turbo et GPT-4o, qui sont des choix préférés pour construire des Dapp d'intelligence artificielle avancée. Les développeurs peuvent intégrer ces modèles dans leurs Dapp en utilisant l'Oracle Machine ou une interface frontale pour appeler l'API OpenAI.
RedPill regroupe les API OpenAI de différents développeurs sous une seule interface pour fournir des services d'intelligence artificielle rapides, économiques et vérifiables à des utilisateurs du monde entier, permettant ainsi de démocratiser l'accès aux meilleurs modèles d'IA. L'Algorithme de routage de RedPill dirigera les demandes des développeurs vers un contributeur unique. Les demandes d'API seront exécutées via son réseau de distribution, contournant ainsi toute restriction potentielle de la part d'OpenAI et résolvant certains problèmes courants auxquels les développeurs sont confrontés, tels que: 01928374656574839201.
• Limite TPM (Jeton par minute) : L'utilisation de Jeton est limitée pour les nouveaux comptes, ce qui ne répond pas aux besoins des Dapp populaires et dépendants de l'IA.
• Restrictions d'accès : Certaines modèles ont des restrictions d'accès pour les nouveaux comptes ou pour certains pays.
En utilisant le même code de requête mais en changeant le nom d'hôte, les développeurs peuvent accéder aux modèles OpenAI de manière économique, évolutive et illimitée.
Réseau GPU
En plus d'utiliser l'API d'OpenAI, de nombreux développeurs choisissent également d'héberger eux-mêmes les modèles à domicile. Ils peuvent s'appuyer sur des réseaux décentralisés GPU tels que io.net, Aethir, Akash, etc., pour créer et déployer des clusters GPU et exécuter divers modèles puissants internes ou open source.
Ce type de réseau Décentralisation de GPU peut utiliser la puissance de calcul des particuliers ou des petits centres de données pour offrir une configuration flexible, plus de choix de positionnement des serveurs et des coûts plus bas, permettant aux développeurs d'effectuer facilement des expériences liées à l'IA dans un budget limité. Cependant, en raison de la nature Décentralisation, ces réseaux de GPU présentent encore certaines limitations en termes de fonctionnalité, de disponibilité et de confidentialité des données.
Au cours des derniers mois, la demande de GPU a été très forte, dépassant même la vague de BTCMining précédente. Les raisons de ce phénomène incluent :
Le nombre de clients cibles augmente, le réseau GPU sert désormais les développeurs d'IA, leur nombre est non seulement important mais aussi loyal, et ils ne sont pas affectés par les fluctuations des prix des Cryptoactifs.
Par rapport aux équipements spécialisés Mining, les GPU de Décentralisation offrent plus de modèles et de spécifications pour répondre aux besoins. En particulier, un traitement de modèle de grande taille nécessite une VRAM plus élevée, tandis que de petites tâches ont des options de GPU plus adaptées. De plus, les GPU de Décentralisation peuvent fournir un service de proximité aux utilisateurs finaux avec une latence réduite.
La technologie devient de plus en plus mature, dépendant de réseaux GPU à haute vitesse tels que Solana Bloc Règlement, la technologie de virtualisation Docker et les clusters de calcul Ray.
En termes de retour sur investissement, le marché de l'IA est en expansion, offrant de nombreuses opportunités de développement de nouvelles applications et modèles. Le taux de rendement prévu du modèle H100 est de 60 à 70 %, tandis que BTCMining est plus complexe, avec une production limitée et un gagnant emporte tout.
Les entreprises de minage de BTC telles que Iris Energy, Core Scientific et Bitdeer commencent également à soutenir le réseau GPU, à fournir des services d'IA et à acheter activement des GPU conçus spécifiquement pour l'IA, tels que le H100.
Recommandation: pour les développeurs Web2 qui ne prêtent pas trop d'attention à l'ALD, io.net offre une expérience simple et facile à utiliser, ce qui en fait un choix très rentable.
C'est le cœur de l'infrastructure native de chiffrement. Il prendra en charge des milliards d'opérations d'inférence IA à l'avenir. De nombreux couches AI layer1 ou layer2 offrent aux développeurs la capacité d'appeler nativement l'inférence IA hors chaîne. Les leaders du marché comprennent Ritual, Valence et Fetch.ai.
Ces réseaux diffèrent dans les aspects suivants: performance (latence, temps de calcul), modèles supportés, vérifiabilité, prix (coûts hors chaîne, coûts d'inférence), expérience de développement.
3.1 Objectif
L'idéal serait que les développeurs puissent accéder facilement aux services d'inférence IA personnalisés partout et sous n'importe quelle forme de preuve, sans pratiquement aucune entrave. Le réseau d'inférence fournit tout le support de base dont les développeurs ont besoin, notamment la génération à la demande et la preuve de validation, le calcul d'inférence, les relais et la vérification des données d'inférence, les interfaces Web2 et Web3, le déploiement de modèles en un clic, la surveillance du système, les opérations de cross-chain d'interaction, l'intégration synchrone et l'exécution programmée, etc.
À l'aide de ces fonctionnalités, les développeurs peuvent intégrer de manière transparente les services d'inférence dans leurs smart contracts existants. Par exemple, lors de la création de robots de trading pour la finance décentralisée, ces robots utiliseront des modèles d'apprentissage automatique pour rechercher des opportunités d'achat et de vente sur des paires de transactions spécifiques, et exécuteront les stratégies de transaction correspondantes sur la plateforme de trading sous-jacente.
Dans un état parfait, toute l'infrastructure est hébergée dans le cloud. Les développeurs n'ont qu'à télécharger leurs modèles de stratégie de trading dans un format commun tel que torch, et le réseau d'inférence stockera et fournira des modèles pour les requêtes Web2 et Web3.
Une fois que toutes les étapes de déploiement du modèle sont terminées, les développeurs peuvent appeler directement l'inférence de modèle via l'API Web3 ou le contrat intelligent. Le réseau d'inférence continuera d'exécuter ces stratégies de transaction et fournira des résultats au contrat intelligent sous-jacent. Si la communauté de gestion des développeurs dispose d'un montant important de fonds, une vérification des résultats d'inférence doit également être fournie. Une fois les résultats d'inférence reçus, le contrat intelligent effectuera des transactions en fonction de ces résultats.
3.1.1 Asynchronisme et synchronisme
En théorie, l'exécution asynchrone des opérations de raisonnement peut améliorer les performances ; cependant, ce mode de fonctionnement peut être inconfortable en termes d'expérience de développement. Lors de l'utilisation du mode asynchrone, les développeurs doivent d'abord soumettre les tâches au contrat intelligent du réseau de raisonnement. Une fois la tâche de raisonnement terminée, le contrat intelligent du réseau de raisonnement renverra les résultats. Dans ce mode de programmation, la logique est divisée en deux parties : l'appel au raisonnement et le traitement des résultats du raisonnement.
Si les développeurs ont des appels d'inférence imbriqués et beaucoup de logique de contrôle, la situation deviendra encore pire.
Le mode de programmation asynchrone rend difficile son intégration avec les smart contracts existants. Cela nécessite que les développeurs écrivent beaucoup de code supplémentaire, gèrent les erreurs et la gestion des dépendances. En revanche, la programmation synchrone est plus intuitive pour les développeurs, mais elle pose des problèmes en termes de temps de réponse et de conception de blocs. Par exemple, si les données d'entrée sont des données à évolution rapide telles que le temps du bloc ou le prix, une fois le raisonnement terminé, les données ne sont plus fraîches, ce qui peut entraîner un rollback de l'exécution du smart contract dans des cas particuliers. Imaginez que vous effectuez une transaction avec un prix obsolète.
La plupart des infrastructures d'IA utilisent un traitement asynchrone, mais Valence essaie de résoudre ces problèmes.
3.2 Situation réelle
En réalité, de nombreux nouveaux réseaux de raisonnement sont encore en phase de test, tels que le réseau Ritual. Selon leurs documents publics, ces réseaux ont actuellement des fonctionnalités limitées (comme la vérification, les preuves, etc.) qui ne sont pas encore disponibles. Ils ne fournissent pas actuellement une infrastructure cloud pour prendre en charge le calcul d'IA hors chaîne, mais ils proposent un cadre pour l'auto-hébergement du calcul d'IA et la transmission des résultats hors chaîne. Il s'agit d'une architecture qui exécute le jeton non fongible AIGC Jeton. Le modèle de diffusion génère un jeton non fongible et le télécharge sur Arweave. Le réseau de raisonnement utilisera cette Adresse Arweave pour effectuer la frappe hors chaîne de ce jeton non fongible.
Ce processus est très complexe, les développeurs doivent déployer et entretenir la plupart des infrastructures, telles que le Nœud Ritual personnalisé avec une logique de service, le Nœud Diffusion Stable et le Contrat intelligent Jeton non fongible. Recommandation : Les réseaux de raisonnement actuels sont assez complexes en ce qui concerne l'intégration et le déploiement de modèles personnalisés, et à ce stade, la plupart des réseaux ne prennent pas en charge la fonction de vérification. L'application de la technologie AI en front-end offrira aux développeurs une option relativement simple. Si vous avez vraiment besoin de la fonction de vérification, Giza, le fournisseur de ZKML, est un bon choix.
Réseau d'agence
Le réseau de proxy permet aux utilisateurs de personnaliser facilement les mandataires. Ce réseau est composé d'entités ou de contrats intelligents capables d'exécuter des tâches de manière autonome, d'interagir entre elles et d'interagir avec le réseau de blocs, le tout sans intervention directe de l'homme. Il est principalement axé sur la technologie LLM. Par exemple, il peut fournir un robot de chat GPT qui permet de mieux comprendre Ethereum. Les outils actuels pour ce type de robot de chat sont limités et les développeurs ne peuvent pas encore développer d'applications complexes sur cette base.
Cependant, à l'avenir, le réseau de proxy fournira aux agents plus d'outils à utiliser, non seulement des connaissances, mais aussi la capacité d'appeler des API externes, d'exécuter des tâches spécifiques, etc. Les développeurs pourront connecter plusieurs agents pour construire des flux de travail. Par exemple, écrire un contrat intelligent Solidity impliquera plusieurs agents spécialisés, y compris le protocole de conception des agents, l'agent de développement Solidity, l'agent d'examen de sécurité du code et l'agent de déploiement Solidity.
Nous coordonnons la collaboration de ces agents en utilisant des indices et des scénarios. Des exemples de réseaux d'agents incluent Flock.ai, Myshell, Theoriq.
Recommandations : La plupart des agents actuels ont des fonctionnalités relativement limitées. Pour certains cas d'utilisation, les agents Web2 peuvent mieux répondre aux besoins et disposent d'outils de composition avancés tels que Langchain et Llamaindex.
Les différences entre le réseau mandataire et le réseau de raisonnement de la 5e génération
Le réseau de proxy est plus axé sur LLM, offrant des outils tels que Langchain pour intégrer plusieurs procurations. En général, les développeurs n'ont pas besoin de développer personnellement des modèles d'apprentissage automatique, le réseau de proxy a déjà simplifié le processus de développement et de déploiement des modèles. Ils ont juste besoin de lier les procurations et les outils nécessaires. Dans la plupart des cas, les utilisateurs finaux utiliseront directement ces procurations.
Le réseau de raisonnement est l'infrastructure de support du réseau d'agents. Il fournit aux développeurs un accès de niveau inférieur. En règle générale, les utilisateurs finaux n'utilisent pas directement le réseau de raisonnement. Les développeurs doivent déployer leurs propres modèles, ce qui n'est pas limité à LLM, et ils peuvent les utiliser via des points d'accès off-chain ou off-chain. Le réseau d'agents et le réseau de raisonnement ne sont pas des produits totalement indépendants. Nous commençons à voir des produits d'intégration verticale, car ils offrent simultanément des capacités d'agent et de raisonnement en raison de la similitude de l'infrastructure de support pour ces deux fonctions.
Nouveau lieu d'opportunité
Outre l'inférence, la formation de modèles et les réseaux d'agents, il existe de nombreux nouveaux domaines passionnants à explorer dans le domaine de la web3 :
Données : Comment transformer les données de la blockchain en ensembles de données utilisables pour l'apprentissage automatique ? Les développeurs d'apprentissage automatique ont besoin de données plus concrètes et spécialisées. Par exemple, Giza fournit des ensembles de données de haute qualité sur la finance décentralisée, spécifiquement conçus pour l'entraînement en apprentissage automatique. Les données idéales ne devraient pas se limiter à des données tabulaires simples, mais devraient également inclure des données graphiques décrivant les interactions dans le monde de la blockchain. Actuellement, nous manquons de telles données. Certains projets tentent actuellement de résoudre ce problème en récompensant les individus qui créent de nouveaux ensembles de données, tels que Bagel et Sahara, qui s'engagent à protéger la vie privée des données personnelles.
Stockage des modèles : La question de stocker, distribuer et contrôler les versions de ces modèles, qui peuvent être volumineux, est essentielle pour les performances et les coûts de l'apprentissage automatique hors chaîne. Dans ce domaine, des projets pionniers tels que FIL, AR et 0g ont déjà fait des avancées.
Entraînement de modèles: l'entraînement de modèles distribués et vérifiables est un défi. Gensyn, Bittensor, Flock et Allora ont tous réalisé des progrès significatifs. Surveillance: Comme l'inférence de modèle se produit à la fois hors chaîne et dans la chaîne, nous avons besoin d'une nouvelle infrastructure pour aider les développeurs Web3 à suivre l'utilisation du modèle, détecter rapidement les problèmes et les écarts possibles. Avec les bons outils de surveillance, les développeurs de machine learning Web3 peuvent ajuster en temps opportun et améliorer continuellement la précision du modèle.
Infrastructure de base RAG : la RAG distribuée nécessite un tout nouvel environnement d'infrastructure, avec des besoins élevés en matière de stockage, de calcul intégré et de bases de données vectorielles, tout en garantissant la confidentialité des données. Cela diffère considérablement de l'infrastructure Web3 AI actuelle, qui dépend largement de tiers pour réaliser la RAG, tels que Firstbatch et Bagel.
Modèles conçus spécifiquement pour le Web3 : tous les modèles ne conviennent pas aux scénarios Web3. Dans la plupart des cas, il est nécessaire de re-entraîner les modèles pour les adapter à des applications spécifiques telles que la prédiction des prix et les recommandations. Avec le développement prospère de l'infrastructure IA, nous espérons qu'à l'avenir, il y aura plus de modèles locaux Web3 pour servir les applications IA. Par exemple, Pond développe actuellement un GNN basé sur la blockchain pour la prédiction des prix, les recommandations, la détection de la fraude et le blanchiment d'argent, entre autres scénarios.
Évaluation du réseau: évaluer les mandataires en l'absence de rétroaction humaine n'est pas facile. Avec la popularité des outils de création de mandataires, il y aura de nombreux mandataires sur le marché. Cela nécessite un système pour montrer les capacités de ces mandataires et aider les utilisateurs à déterminer lequel fonctionne le mieux dans des circonstances particulières. Par exemple, Neuronets est un acteur de ce domaine.
Mécanisme de consensus: Pour les tâches liées à l'IA, la preuve d'enjeu (PoS) n'est pas nécessairement le meilleur choix. La complexité des calculs, la difficulté de la validation et l'absence de certitude sont les principaux défis auxquels le PoS est confronté. Bittensor a créé un nouveau Mécanisme de consensus intelligent, récompensant les Nœuds contribuant aux modèles d'apprentissage automatique et à leurs résultats dans le réseau.
Perspectives futures
Nous observons actuellement une tendance au développement de l'intégration verticale. En construisant une couche de calcul de base, le réseau peut prendre en charge diverses tâches d'apprentissage automatique, y compris la formation, l'inférence et les services de réseau d'agents. Ce modèle vise à fournir une solution tout-en-un complète pour les développeurs d'apprentissage automatique Web3. Actuellement, bien que l'inférence off-chain soit coûteuse et lente, elle offre une excellente vérifiabilité et s'intègre parfaitement aux systèmes backend (par exemple les smart contracts). Je pense que l'avenir se dirige vers des applications hybrides. Une partie du traitement d'inférence se fera en frontal ou off-chain, tandis que les inférences critiques et décisionnelles seront effectuées off-chain. Ce modèle est déjà appliqué sur les appareils mobiles. En exploitant la nature des appareils mobiles, il peut exécuter rapidement localement de petits modèles et déplacer des tâches plus complexes vers le cloud, en utilisant des capacités de traitement LLM plus importantes.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
IOSG: Où se trouve la sortie de l'infrastructure WEB3 + IA standardisée ?
Auteur: IOSG
TL;DR
Avec la fusion de Web3 et de l'IA devenant un sujet d'intérêt dans le monde de la cryptographie, l'infrastructure IA du monde de la cryptographie prospère. Cependant, il y a encore peu d'applications réelles utilisant l'IA ou construites par l'IA, et le problème d'homogénéisation de l'infrastructure IA commence à se manifester. Récemment, notre participation à la première levée de fonds de RedPill a suscité une compréhension plus approfondie.
Les principaux outils pour construire un AI Dapp incluent l'accès Décentralisation à OpenAI, le réseau GPU, le réseau d'inférence et le réseau d'agents.
La raison pour laquelle le réseau GPU est plus populaire que pendant la période de minage de BTC est que : le marché de l'IA est plus grand et en hausse rapide et stable ; l'IA prend en charge des millions d'applications chaque jour ; l'IA nécessite une variété de modèles de GPU et de positions de serveur ; la technologie est plus mature qu'avant ; et elle cible également un public plus large.
Les réseaux d'inférence et les réseaux de proxy ont des infrastructures similaires, mais des préoccupations différentes. Les réseaux d'inférence sont principalement destinés aux développeurs expérimentés pour déployer leurs propres modèles, et l'exécution de modèles non LLM ne nécessite pas nécessairement de GPU. Les réseaux de proxy se concentrent davantage sur le LLM, les développeurs n'ont pas besoin de fournir leur propre modèle, mais se concentrent plutôt sur l'ingénierie des suggestions et la façon de lier différents proxies. Les réseaux de proxy nécessitent toujours des GPU hautes performances.
Le projet d'infrastructure de base de l'IA promet énormément et continue de lancer de nouvelles fonctionnalités.
La plupart des projets de chiffrement natifs sont encore à l'étape de Testnet, avec une stabilité médiocre, une configuration complexe, des fonctionnalités limitées et nécessitent encore du temps pour prouver leur sécurité et leur confidentialité.
Supposons que l'AI Dapp devienne une grande tendance, il y a encore de nombreux domaines non développés tels que la surveillance, l'infrastructure associée à RAG, les modèles natifs Web3, les API natives pour le chiffrement et les agents de décentralisation des données, l'évaluation des réseaux, etc.
L'intégration verticale est une tendance marquée. Les projets d'infrastructure visent à fournir des services tout-en-un, simplifiant le travail des développeurs d'AI Dapp.
L'avenir sera hybride. Une partie du raisonnement se fera en front-end, tandis qu'une partie sera effectuée via des calculs off-chain, ce qui permet de prendre en compte les coûts et la vérifiabilité.
Source: IOSG
Introduction
La combinaison de Web3 et de l'IA est l'un des sujets les plus populaires dans le domaine du chiffrement. Des développeurs talentueux construisent une infrastructure d'IA pour le monde du chiffrement, afin d'intégrer l'intelligence dans les contrats intelligents. La construction d'une application AI est une tâche extrêmement complexe, les développeurs doivent gérer les aspects tels que les données, les modèles, la puissance de calcul, les opérations, le déploiement et l'intégration avec la blockchain.
Pour répondre à ces besoins, les fondateurs de Web3 ont déjà développé de nombreuses solutions préliminaires telles que les réseaux GPU, l'annotation des données communautaires, les modèles entraînés par la communauté, l'inférence et l'apprentissage de l'IA vérifiables, ainsi que les boutiques d'agents. Cependant, malgré cette infrastructure prospère, il y a encore peu d'utilisations réelles de l'IA ou d'applications construites avec l'IA.
Les développeurs ont constaté qu'il n'y avait pas beaucoup de tutoriels sur le développement d'AI Dapp liés à l'infrastructure de base du chiffrement AI natif lorsqu'ils cherchaient des tutoriels. La plupart des tutoriels ne font que traiter de l'appel de l'API OpenAI côté front-end.
Source: IOSG Ventures
Les applications actuelles n'exploitent pas pleinement la Décentralisation et la fonction de vérification de la blockchain, mais cette situation va bientôt changer. À l'heure actuelle, la plupart des infrastructures d'intelligence artificielle axées sur le chiffrement ont lancé des réseaux de test et prévoient de fonctionner officiellement dans les 6 prochains mois. Cette étude détaillera les principaux outils disponibles dans l'infrastructure d'intelligence artificielle axée sur le chiffrement. Préparons-nous à l'ère du chiffrement avec GPT-3.5 !
Le RedPill dans lequel nous avons investi précédemment est un excellent point d'entrée. OpenAI dispose de plusieurs modèles puissants de classe mondiale tels que GPT-4-vision, GPT-4-turbo et GPT-4o, qui sont des choix préférés pour construire des Dapp d'intelligence artificielle avancée. Les développeurs peuvent intégrer ces modèles dans leurs Dapp en utilisant l'Oracle Machine ou une interface frontale pour appeler l'API OpenAI.
RedPill regroupe les API OpenAI de différents développeurs sous une seule interface pour fournir des services d'intelligence artificielle rapides, économiques et vérifiables à des utilisateurs du monde entier, permettant ainsi de démocratiser l'accès aux meilleurs modèles d'IA. L'Algorithme de routage de RedPill dirigera les demandes des développeurs vers un contributeur unique. Les demandes d'API seront exécutées via son réseau de distribution, contournant ainsi toute restriction potentielle de la part d'OpenAI et résolvant certains problèmes courants auxquels les développeurs sont confrontés, tels que: 01928374656574839201.
• Limite TPM (Jeton par minute) : L'utilisation de Jeton est limitée pour les nouveaux comptes, ce qui ne répond pas aux besoins des Dapp populaires et dépendants de l'IA.
• Restrictions d'accès : Certaines modèles ont des restrictions d'accès pour les nouveaux comptes ou pour certains pays.
En utilisant le même code de requête mais en changeant le nom d'hôte, les développeurs peuvent accéder aux modèles OpenAI de manière économique, évolutive et illimitée.
En plus d'utiliser l'API d'OpenAI, de nombreux développeurs choisissent également d'héberger eux-mêmes les modèles à domicile. Ils peuvent s'appuyer sur des réseaux décentralisés GPU tels que io.net, Aethir, Akash, etc., pour créer et déployer des clusters GPU et exécuter divers modèles puissants internes ou open source.
Ce type de réseau Décentralisation de GPU peut utiliser la puissance de calcul des particuliers ou des petits centres de données pour offrir une configuration flexible, plus de choix de positionnement des serveurs et des coûts plus bas, permettant aux développeurs d'effectuer facilement des expériences liées à l'IA dans un budget limité. Cependant, en raison de la nature Décentralisation, ces réseaux de GPU présentent encore certaines limitations en termes de fonctionnalité, de disponibilité et de confidentialité des données.
Au cours des derniers mois, la demande de GPU a été très forte, dépassant même la vague de BTCMining précédente. Les raisons de ce phénomène incluent :
Le nombre de clients cibles augmente, le réseau GPU sert désormais les développeurs d'IA, leur nombre est non seulement important mais aussi loyal, et ils ne sont pas affectés par les fluctuations des prix des Cryptoactifs.
Par rapport aux équipements spécialisés Mining, les GPU de Décentralisation offrent plus de modèles et de spécifications pour répondre aux besoins. En particulier, un traitement de modèle de grande taille nécessite une VRAM plus élevée, tandis que de petites tâches ont des options de GPU plus adaptées. De plus, les GPU de Décentralisation peuvent fournir un service de proximité aux utilisateurs finaux avec une latence réduite.
La technologie devient de plus en plus mature, dépendant de réseaux GPU à haute vitesse tels que Solana Bloc Règlement, la technologie de virtualisation Docker et les clusters de calcul Ray.
En termes de retour sur investissement, le marché de l'IA est en expansion, offrant de nombreuses opportunités de développement de nouvelles applications et modèles. Le taux de rendement prévu du modèle H100 est de 60 à 70 %, tandis que BTCMining est plus complexe, avec une production limitée et un gagnant emporte tout.
Les entreprises de minage de BTC telles que Iris Energy, Core Scientific et Bitdeer commencent également à soutenir le réseau GPU, à fournir des services d'IA et à acheter activement des GPU conçus spécifiquement pour l'IA, tels que le H100.
Recommandation: pour les développeurs Web2 qui ne prêtent pas trop d'attention à l'ALD, io.net offre une expérience simple et facile à utiliser, ce qui en fait un choix très rentable.
C'est le cœur de l'infrastructure native de chiffrement. Il prendra en charge des milliards d'opérations d'inférence IA à l'avenir. De nombreux couches AI layer1 ou layer2 offrent aux développeurs la capacité d'appeler nativement l'inférence IA hors chaîne. Les leaders du marché comprennent Ritual, Valence et Fetch.ai.
Ces réseaux diffèrent dans les aspects suivants: performance (latence, temps de calcul), modèles supportés, vérifiabilité, prix (coûts hors chaîne, coûts d'inférence), expérience de développement.
3.1 Objectif
L'idéal serait que les développeurs puissent accéder facilement aux services d'inférence IA personnalisés partout et sous n'importe quelle forme de preuve, sans pratiquement aucune entrave. Le réseau d'inférence fournit tout le support de base dont les développeurs ont besoin, notamment la génération à la demande et la preuve de validation, le calcul d'inférence, les relais et la vérification des données d'inférence, les interfaces Web2 et Web3, le déploiement de modèles en un clic, la surveillance du système, les opérations de cross-chain d'interaction, l'intégration synchrone et l'exécution programmée, etc.
À l'aide de ces fonctionnalités, les développeurs peuvent intégrer de manière transparente les services d'inférence dans leurs smart contracts existants. Par exemple, lors de la création de robots de trading pour la finance décentralisée, ces robots utiliseront des modèles d'apprentissage automatique pour rechercher des opportunités d'achat et de vente sur des paires de transactions spécifiques, et exécuteront les stratégies de transaction correspondantes sur la plateforme de trading sous-jacente.
Dans un état parfait, toute l'infrastructure est hébergée dans le cloud. Les développeurs n'ont qu'à télécharger leurs modèles de stratégie de trading dans un format commun tel que torch, et le réseau d'inférence stockera et fournira des modèles pour les requêtes Web2 et Web3.
Une fois que toutes les étapes de déploiement du modèle sont terminées, les développeurs peuvent appeler directement l'inférence de modèle via l'API Web3 ou le contrat intelligent. Le réseau d'inférence continuera d'exécuter ces stratégies de transaction et fournira des résultats au contrat intelligent sous-jacent. Si la communauté de gestion des développeurs dispose d'un montant important de fonds, une vérification des résultats d'inférence doit également être fournie. Une fois les résultats d'inférence reçus, le contrat intelligent effectuera des transactions en fonction de ces résultats.
3.1.1 Asynchronisme et synchronisme
En théorie, l'exécution asynchrone des opérations de raisonnement peut améliorer les performances ; cependant, ce mode de fonctionnement peut être inconfortable en termes d'expérience de développement. Lors de l'utilisation du mode asynchrone, les développeurs doivent d'abord soumettre les tâches au contrat intelligent du réseau de raisonnement. Une fois la tâche de raisonnement terminée, le contrat intelligent du réseau de raisonnement renverra les résultats. Dans ce mode de programmation, la logique est divisée en deux parties : l'appel au raisonnement et le traitement des résultats du raisonnement.
Si les développeurs ont des appels d'inférence imbriqués et beaucoup de logique de contrôle, la situation deviendra encore pire.
Le mode de programmation asynchrone rend difficile son intégration avec les smart contracts existants. Cela nécessite que les développeurs écrivent beaucoup de code supplémentaire, gèrent les erreurs et la gestion des dépendances. En revanche, la programmation synchrone est plus intuitive pour les développeurs, mais elle pose des problèmes en termes de temps de réponse et de conception de blocs. Par exemple, si les données d'entrée sont des données à évolution rapide telles que le temps du bloc ou le prix, une fois le raisonnement terminé, les données ne sont plus fraîches, ce qui peut entraîner un rollback de l'exécution du smart contract dans des cas particuliers. Imaginez que vous effectuez une transaction avec un prix obsolète.
La plupart des infrastructures d'IA utilisent un traitement asynchrone, mais Valence essaie de résoudre ces problèmes.
3.2 Situation réelle
En réalité, de nombreux nouveaux réseaux de raisonnement sont encore en phase de test, tels que le réseau Ritual. Selon leurs documents publics, ces réseaux ont actuellement des fonctionnalités limitées (comme la vérification, les preuves, etc.) qui ne sont pas encore disponibles. Ils ne fournissent pas actuellement une infrastructure cloud pour prendre en charge le calcul d'IA hors chaîne, mais ils proposent un cadre pour l'auto-hébergement du calcul d'IA et la transmission des résultats hors chaîne. Il s'agit d'une architecture qui exécute le jeton non fongible AIGC Jeton. Le modèle de diffusion génère un jeton non fongible et le télécharge sur Arweave. Le réseau de raisonnement utilisera cette Adresse Arweave pour effectuer la frappe hors chaîne de ce jeton non fongible.
Ce processus est très complexe, les développeurs doivent déployer et entretenir la plupart des infrastructures, telles que le Nœud Ritual personnalisé avec une logique de service, le Nœud Diffusion Stable et le Contrat intelligent Jeton non fongible. Recommandation : Les réseaux de raisonnement actuels sont assez complexes en ce qui concerne l'intégration et le déploiement de modèles personnalisés, et à ce stade, la plupart des réseaux ne prennent pas en charge la fonction de vérification. L'application de la technologie AI en front-end offrira aux développeurs une option relativement simple. Si vous avez vraiment besoin de la fonction de vérification, Giza, le fournisseur de ZKML, est un bon choix.
Le réseau de proxy permet aux utilisateurs de personnaliser facilement les mandataires. Ce réseau est composé d'entités ou de contrats intelligents capables d'exécuter des tâches de manière autonome, d'interagir entre elles et d'interagir avec le réseau de blocs, le tout sans intervention directe de l'homme. Il est principalement axé sur la technologie LLM. Par exemple, il peut fournir un robot de chat GPT qui permet de mieux comprendre Ethereum. Les outils actuels pour ce type de robot de chat sont limités et les développeurs ne peuvent pas encore développer d'applications complexes sur cette base.
Cependant, à l'avenir, le réseau de proxy fournira aux agents plus d'outils à utiliser, non seulement des connaissances, mais aussi la capacité d'appeler des API externes, d'exécuter des tâches spécifiques, etc. Les développeurs pourront connecter plusieurs agents pour construire des flux de travail. Par exemple, écrire un contrat intelligent Solidity impliquera plusieurs agents spécialisés, y compris le protocole de conception des agents, l'agent de développement Solidity, l'agent d'examen de sécurité du code et l'agent de déploiement Solidity.
Nous coordonnons la collaboration de ces agents en utilisant des indices et des scénarios. Des exemples de réseaux d'agents incluent Flock.ai, Myshell, Theoriq. Recommandations : La plupart des agents actuels ont des fonctionnalités relativement limitées. Pour certains cas d'utilisation, les agents Web2 peuvent mieux répondre aux besoins et disposent d'outils de composition avancés tels que Langchain et Llamaindex.
Les différences entre le réseau mandataire et le réseau de raisonnement de la 5e génération
Le réseau de proxy est plus axé sur LLM, offrant des outils tels que Langchain pour intégrer plusieurs procurations. En général, les développeurs n'ont pas besoin de développer personnellement des modèles d'apprentissage automatique, le réseau de proxy a déjà simplifié le processus de développement et de déploiement des modèles. Ils ont juste besoin de lier les procurations et les outils nécessaires. Dans la plupart des cas, les utilisateurs finaux utiliseront directement ces procurations.
Le réseau de raisonnement est l'infrastructure de support du réseau d'agents. Il fournit aux développeurs un accès de niveau inférieur. En règle générale, les utilisateurs finaux n'utilisent pas directement le réseau de raisonnement. Les développeurs doivent déployer leurs propres modèles, ce qui n'est pas limité à LLM, et ils peuvent les utiliser via des points d'accès off-chain ou off-chain. Le réseau d'agents et le réseau de raisonnement ne sont pas des produits totalement indépendants. Nous commençons à voir des produits d'intégration verticale, car ils offrent simultanément des capacités d'agent et de raisonnement en raison de la similitude de l'infrastructure de support pour ces deux fonctions.
Données : Comment transformer les données de la blockchain en ensembles de données utilisables pour l'apprentissage automatique ? Les développeurs d'apprentissage automatique ont besoin de données plus concrètes et spécialisées. Par exemple, Giza fournit des ensembles de données de haute qualité sur la finance décentralisée, spécifiquement conçus pour l'entraînement en apprentissage automatique. Les données idéales ne devraient pas se limiter à des données tabulaires simples, mais devraient également inclure des données graphiques décrivant les interactions dans le monde de la blockchain. Actuellement, nous manquons de telles données. Certains projets tentent actuellement de résoudre ce problème en récompensant les individus qui créent de nouveaux ensembles de données, tels que Bagel et Sahara, qui s'engagent à protéger la vie privée des données personnelles.
Stockage des modèles : La question de stocker, distribuer et contrôler les versions de ces modèles, qui peuvent être volumineux, est essentielle pour les performances et les coûts de l'apprentissage automatique hors chaîne. Dans ce domaine, des projets pionniers tels que FIL, AR et 0g ont déjà fait des avancées.
Entraînement de modèles: l'entraînement de modèles distribués et vérifiables est un défi. Gensyn, Bittensor, Flock et Allora ont tous réalisé des progrès significatifs. Surveillance: Comme l'inférence de modèle se produit à la fois hors chaîne et dans la chaîne, nous avons besoin d'une nouvelle infrastructure pour aider les développeurs Web3 à suivre l'utilisation du modèle, détecter rapidement les problèmes et les écarts possibles. Avec les bons outils de surveillance, les développeurs de machine learning Web3 peuvent ajuster en temps opportun et améliorer continuellement la précision du modèle.
Infrastructure de base RAG : la RAG distribuée nécessite un tout nouvel environnement d'infrastructure, avec des besoins élevés en matière de stockage, de calcul intégré et de bases de données vectorielles, tout en garantissant la confidentialité des données. Cela diffère considérablement de l'infrastructure Web3 AI actuelle, qui dépend largement de tiers pour réaliser la RAG, tels que Firstbatch et Bagel.
Modèles conçus spécifiquement pour le Web3 : tous les modèles ne conviennent pas aux scénarios Web3. Dans la plupart des cas, il est nécessaire de re-entraîner les modèles pour les adapter à des applications spécifiques telles que la prédiction des prix et les recommandations. Avec le développement prospère de l'infrastructure IA, nous espérons qu'à l'avenir, il y aura plus de modèles locaux Web3 pour servir les applications IA. Par exemple, Pond développe actuellement un GNN basé sur la blockchain pour la prédiction des prix, les recommandations, la détection de la fraude et le blanchiment d'argent, entre autres scénarios.
Évaluation du réseau: évaluer les mandataires en l'absence de rétroaction humaine n'est pas facile. Avec la popularité des outils de création de mandataires, il y aura de nombreux mandataires sur le marché. Cela nécessite un système pour montrer les capacités de ces mandataires et aider les utilisateurs à déterminer lequel fonctionne le mieux dans des circonstances particulières. Par exemple, Neuronets est un acteur de ce domaine.
Mécanisme de consensus: Pour les tâches liées à l'IA, la preuve d'enjeu (PoS) n'est pas nécessairement le meilleur choix. La complexité des calculs, la difficulté de la validation et l'absence de certitude sont les principaux défis auxquels le PoS est confronté. Bittensor a créé un nouveau Mécanisme de consensus intelligent, récompensant les Nœuds contribuant aux modèles d'apprentissage automatique et à leurs résultats dans le réseau.
Nous observons actuellement une tendance au développement de l'intégration verticale. En construisant une couche de calcul de base, le réseau peut prendre en charge diverses tâches d'apprentissage automatique, y compris la formation, l'inférence et les services de réseau d'agents. Ce modèle vise à fournir une solution tout-en-un complète pour les développeurs d'apprentissage automatique Web3. Actuellement, bien que l'inférence off-chain soit coûteuse et lente, elle offre une excellente vérifiabilité et s'intègre parfaitement aux systèmes backend (par exemple les smart contracts). Je pense que l'avenir se dirige vers des applications hybrides. Une partie du traitement d'inférence se fera en frontal ou off-chain, tandis que les inférences critiques et décisionnelles seront effectuées off-chain. Ce modèle est déjà appliqué sur les appareils mobiles. En exploitant la nature des appareils mobiles, il peut exécuter rapidement localement de petits modèles et déplacer des tâches plus complexes vers le cloud, en utilisant des capacités de traitement LLM plus importantes.