a16z : 5 façons dont la blockchain aide à l'infrastructure des agents IA

Auteur : a16z

Traducteur : Hu Tao, ChainCatcher

Les agents d’intelligence artificielle passent rapidement du rôle de « copilote » à celui d’acteurs économiques, leur vitesse dépassant même celle des infrastructures environnantes.

Bien que les agents puissent désormais exécuter des tâches et effectuer des transactions, ils manquent d’une méthode standardisée pour prouver leur identité, leurs permissions et leur mode de rémunération à travers différents environnements. Les informations d’identification ne peuvent pas être partagées entre plateformes, les modes de paiement ne sont pas encore programmables par défaut, et la coordination des tâches se fait de manière indépendante.

La blockchain résout ce problème au niveau de l’infrastructure. Un registre public fournit un reçu pour chaque transaction, accessible à tous pour audit. Les portefeuilles offrent une identité portable aux utilisateurs. Les stablecoins proposent une alternative pour le règlement. Ces technologies ne relèvent pas d’un futur lointain. Elles sont déjà opérationnelles et peuvent aider les utilisateurs à fonctionner comme de véritables acteurs économiques, sans permission préalable.

1. Identité non humaine

Le principal obstacle à l’économie des agents n’est plus l’intelligence, mais l’identité.

Dans le secteur des services financiers, le nombre d’identités non humaines (systèmes de trading automatisés, moteurs de risque, modèles de fraude) dépasse déjà d’environ 100 fois celui des employés humains. Avec le déploiement massif de cadres d’agents modernes (LLM utilisant des outils, flux de travail autonomes, orchestration multi-agents), ce ratio continuera à augmenter dans tous les secteurs.

Cependant, ces agents n’ont en réalité toujours pas de comptes bancaires. Ils peuvent interagir avec le système financier, mais de manière peu portable, non vérifiable, et pas par défaut fiable. Ils manquent de méthodes standardisées pour prouver leurs permissions, ne peuvent pas fonctionner de façon indépendante entre plateformes, et ne peuvent pas assumer la responsabilité de leurs actions.

Ce qui manque aujourd’hui, c’est une couche d’identité universelle — l’équivalent d’un protocole SSL pour les agents, permettant une coordination standardisée entre plateformes. Bien que des tentatives significatives existent, la fragmentation persiste : d’un côté, des stacks verticalement intégrés, centrés sur la monnaie fiat ; de l’autre, des standards ouverts natifs de la cryptographie (comme x402 et les propositions émergentes pour l’identité d’agent) ; et enfin, des frameworks pour développeurs comme l’extension du protocole MCP (Modèle de Contexte) visant à faire le pont au niveau applicatif.

Aucune méthode largement adoptée et interopérable n’existe encore pour qu’un agent puisse prouver à un autre : qui il représente, ce qu’il est autorisé à faire, et comment il est rémunéré. C’est là que réside le cœur de KYA (Know Your Agent, Connaître votre agent).

Tout comme l’humain dépend de l’historique de crédit et du KYC (Know Your Customer), un agent doit disposer de preuves cryptographiques, liant l’agent à son mandant, ses permissions, ses contraintes et sa réputation. La blockchain fournit une couche de coordination neutre : identité portable, portefeuilles programmables, et preuves vérifiables pouvant être analysées dans des applications de messagerie, API ou marchés.

Nous voyons déjà émerger des premières implémentations : registres d’agents sur la chaîne, portefeuilles natifs utilisant USDC, standards ERC pour les « agents à confiance minimale », et outils de développement combinant identité, paiements intégrés et contrôle antifraude.

Mais tant qu’un standard universel d’identité n’est pas adopté, les commerçants continueront à bloquer les agents derrière leurs pare-feux.

2. Gouvernance des systèmes d’exécution de l’IA

Les agents commencent à opérer de véritables systèmes, ce qui soulève de nouvelles questions.

L’enjeu clé est de savoir qui contrôle réellement tout. Imaginez une communauté ou une entreprise où un système d’IA coordonne des ressources clés, qu’il s’agisse de répartition de fonds ou de gestion de la chaîne d’approvisionnement. Même si la majorité vote pour changer la politique, si la couche sous-jacente d’IA est contrôlée par un fournisseur unique, capable de pousser des mises à jour de modèles, d’ajuster des contraintes ou d’annuler des décisions, ce pouvoir reste fragile. La gouvernance formelle pourrait être décentralisée, mais la couche d’exécution reste concentrée ; celui qui contrôle le modèle contrôle en fin de compte le résultat.

Lorsque des agents jouent un rôle de gouvernance, ils introduisent une nouvelle couche de dépendance. Théoriquement, cela pourrait faciliter la mise en œuvre de la démocratie directe : chaque individu pourrait avoir un représentant IA, chargé de comprendre des propositions complexes, de peser le pour et le contre, et de voter selon ses préférences déclarées.

Mais cette vision ne peut se réaliser que si ces agents sont réellement responsables devant leurs représentants, qu’ils peuvent fonctionner de manière universelle entre différents fournisseurs, et qu’ils sont techniquement limités à suivre strictement les instructions humaines. Sinon, le système final pourrait sembler démocratique en surface, mais être en réalité piloté par des comportements de modèles opaques, incontrôlables.

Si la réalité actuelle est que ces agents sont construits à partir de quelques modèles fondamentaux, nous devons trouver des moyens de prouver que leur comportement sert les intérêts des utilisateurs, et non ceux des entreprises de modèles. Cela pourrait nécessiter des garanties cryptographiques à plusieurs niveaux : (1) la provenance des données d’entraînement, de la fine-tuning ou du renforcement ; (2) les prompts et instructions précis contrôlant chaque agent ; (3) l’enregistrement de leurs actions dans le monde réel ; et (4) des garanties fiables, empêchant le fournisseur de modifier les instructions ou de réentraîner l’agent une fois déployé, pour qu’il ne puisse pas opérer à l’insu de l’utilisateur. Sans ces garanties, la gouvernance des agents se résumera à un contrôle par celui qui détient les poids du modèle.

C’est là que la cryptomonnaie joue un rôle. Si la prise de décision collective est enregistrée sur la chaîne et automatisée, le système d’IA peut être contraint à exécuter des résultats vérifiés. Si l’agent possède une identité cryptographique et un journal d’exécution transparent, il est possible de vérifier qu’il respecte les règles. Et si la couche IA appartient à l’utilisateur et est portable, plutôt que verrouillée sur une plateforme unique, aucune entreprise ne pourra modifier ses règles par simple mise à jour du modèle.

En fin de compte, la gouvernance des systèmes d’IA est une question d’infrastructure, pas de politique. La véritable autorité repose sur la capacité à construire dans le système des garanties exécutables.

3. Combler le vide dans le paiement pour les entreprises natives de l’IA

Les agents IA commencent à acheter — crawling web, sessions de navigateur, génération d’images — et les stablecoins deviennent une couche de règlement alternative pour ces transactions. Parallèlement, un nouveau marché orienté agents se forme. Par exemple, le marché MPP de Stripe et Tempo, qui rassemble plus de 60 services conçus pour les agents IA. En une semaine, il a traité plus de 34 000 transactions, avec des frais aussi bas que 0,003 dollar, et les stablecoins comme mode de paiement par défaut.

Ce qui change, c’est la façon d’accéder à ces services. Pas de page de paiement. L’agent lit le schéma, envoie la requête, paie, et reçoit la sortie en une seule transaction. Il représente une nouvelle catégorie de « commerçants sans tête » : un seul serveur, un ensemble d’API, et un prix par appel. Pas d’interface utilisateur — ni boutique, ni équipe de vente.

Les rails de paiement pour cela sont déjà en place. Coinbase avec x402 et MPP adoptent des approches différentes, mais intègrent tous deux le paiement directement dans les requêtes HTTP. Visa étend aussi cette direction, avec un outil CLI permettant aux développeurs de dépenser depuis leur terminal, et aux commerçants de recevoir instantanément des stablecoins en arrière-plan.

Les données sont encore en phase initiale. Après filtrage des activités non organiques comme le wash trading, x402 traite environ 1,6 million de dollars par mois en paiements agentiques, bien en dessous des 24 millions de dollars récemment rapportés par Bloomberg (données de x402.org). Mais l’écosystème infrastructurel se développe rapidement : Stripe, Cloudflare, Vercel et Google ont déjà intégré x402 à leurs plateformes.

Le domaine des outils pour développeurs recèle d’énormes opportunités. La montée de Vibe Coding a élargi la communauté des développeurs logiciels, tout en étendant le marché potentiel des outils. Des entreprises comme Merit Systems construisent des solutions pour l’avenir, avec AgentCash, un portefeuille CLI et une plateforme de marché connectant le protocole MPP et x402. Ces produits permettent aux agents d’utiliser un seul compte en stablecoin pour acheter les données, outils et fonctionnalités dont ils ont besoin. Par exemple, un agent commercial peut invoquer un seul endpoint pour enrichir ses prospects avec des données d’Apollo, Google Maps ou Whitepages, sans quitter l’interface en ligne de commande.

Ce modèle, où les agents privilégient le paiement en cryptomonnaie (ou via de nouvelles solutions par carte), s’explique par plusieurs raisons. D’abord, la souscription. Lorsqu’un processeur de paiement intervient chez un commerçant, il assume le risque. Un commerçant sans site web ni entité légale est difficile à assurer par un processeur traditionnel. Ensuite, la stabilité des stablecoins permet une programmation sans permission sur le réseau ouvert : tout développeur peut faire supporter le paiement par un endpoint, sans intégrer un processeur de paiement ou signer un contrat commercial.

Ce modèle n’est pas nouveau. Chaque transformation du modèle économique engendre une nouvelle vague de commerçants, et les systèmes existants ont initialement du mal à les servir. Les entreprises qui construisent cette infrastructure ne parient pas sur 160 000 dollars de revenus mensuels, mais sur le potentiel que représente la monétisation lorsque les agents deviennent les acheteurs par défaut.

4. Redéfinir la confiance dans l’économie des agents

Depuis 300 000 ans, la cognition humaine limite le progrès. Aujourd’hui, l’IA pousse le coût marginal de l’exécution vers zéro. Quand la rareté devient abondance, les contraintes se déplacent. Quand l’intelligence devient bon marché, qu’est-ce qui devient cher ? La vérification.

Dans l’économie des agents, la véritable limite à l’expansion réside dans nos instincts biologiques : notre capacité à auditer et évaluer les décisions des machines. La capacité de traitement des agents dépasse largement celle de la supervision humaine. Étant coûteux à surveiller et à corriger, le marché tend à réduire l’investissement dans la supervision. La « collaboration homme-machine » devient rapidement une impossibilité pratique.

Mais déployer des agents non vérifiés comporte des risques cumulatifs. Le système peut optimiser impitoyablement certains indicateurs d’« agents », tout en s’éloignant discrètement des intentions humaines, créant une fausse impression de productivité et accumulant une dette IA énorme. Pour confier l’économie en toute sécurité aux machines, la confiance ne peut plus reposer uniquement sur la vérification humaine — elle doit être intégrée dans l’architecture elle-même.

Lorsque tout le monde peut générer du contenu gratuitement, la provenance vérifiable devient essentielle — connaître l’origine et la fiabilité du contenu. La blockchain, la certification on-chain et les systèmes d’identité décentralisés modifient la frontière économique du déploiement sécurisé. L’IA n’est plus une boîte noire, mais une entité avec un historique clair et auditable.

À mesure que de plus en plus d’agents IA commencent à échanger entre eux, les mécanismes de règlement et de traçabilité deviennent indissociables. Les systèmes de transfert de fonds — comme les stablecoins et les contrats intelligents — peuvent aussi transporter des reçus cryptographiques, enregistrant qui a fait quoi, et qui doit répondre en cas de problème.

Les humains conservent un avantage comparatif : détecter de petites erreurs, élaborer des stratégies, et assumer la responsabilité en cas de défaillance. La véritable supériorité appartient à ceux qui peuvent certifier cryptographiquement leurs résultats, les assurer, et en assumer la responsabilité en cas d’échec.

L’expansion sans vérification constitue un risque cumulatif qui ne cesse de croître avec le temps.

5. Maintenir le contrôle utilisateur

Depuis des décennies, les couches d’abstraction ont transformé la façon dont les utilisateurs interagissent avec la technologie. Les langages de programmation abstraient le code machine. Les interfaces graphiques ont remplacé la ligne de commande, puis les applications mobiles et les API. Chaque étape dissimule davantage la complexité sous-jacente tout en laissant l’utilisateur garder une vue d’ensemble.

Dans le monde des agents, l’utilisateur spécifie le résultat, pas l’action ; le système décide comment l’atteindre. Les agents abstraient non seulement la manière d’accomplir une tâche, mais aussi l’entité qui l’exécute. Après avoir défini les paramètres initiaux, l’utilisateur se retire, laissant le système fonctionner de lui-même. Son rôle devient celui de superviseur ; sauf intervention, le système reste en mode « actif ».

À mesure que les utilisateurs délèguent davantage de tâches, de nouveaux risques apparaissent : des entrées floues peuvent conduire l’agent à agir sur des hypothèses erronées, à leur insu ; des défaillances peuvent ne pas être détectées, sans diagnostic clair ; une seule approbation peut déclencher des workflows complexes imprévus.

Les technologies cryptographiques jouent ici un rôle crucial. L’essence de la cryptographie est de réduire au maximum la confiance aveugle. À mesure que les utilisateurs confient davantage de décisions aux logiciels, les systèmes d’agents rendent ce problème plus visible, et exigent une conception rigoureuse — définir des limites claires, renforcer la transparence, et garantir la conformité des fonctionnalités.

Pour relever ce défi, de nouveaux outils cryptographiques natifs apparaissent. Par exemple, le Delegation Toolkit de MetaMask, AgentKit de Coinbase, ou AgentCash de Merit Systems, qui permettent aux utilisateurs de définir au niveau des contrats intelligents ce que les agents peuvent ou ne peuvent pas faire. Des architectures basées sur l’intention, comme NEAR Intents (dont le volume de transactions sur le DEX décentralisé (DEX) a dépassé 15 milliards de dollars depuis Q4 2024), permettent aux utilisateurs de spécifier des résultats attendus — par exemple, « bridge et staker des tokens » — sans préciser la méthode.


L’IA réduit le coût de la mise à l’échelle, mais complique la confiance. La cryptomonnaie peut reconstruire la confiance à grande échelle.

L’infrastructure internet est en construction, permettant à chaque individu de participer directement à l’économie. La question est de savoir si cette infrastructure sera conçue pour maximiser la transparence, la responsabilité et le contrôle utilisateur, ou si elle reposera sur des systèmes initialement inadaptés aux acteurs non humains.

USDC0,01%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler