Dans un monde où l'IA générative prospère, nous avons toujours du mal à résoudre un problème fondamental : l'IA peut parfois raconter des mensonges de manière très sérieuse. Ce phénomène est connu dans l'industrie sous le nom de « hallucination ». Mira, un protocole décentralisé conçu pour la vérification des sorties de l'IA, tente d'ajouter une « crédibilité factuelle » à l'IA par le biais d'un mécanisme de consensus multi-modèles et d'audits de chiffrement. Voyons comment Mira fonctionne, pourquoi il est plus efficace que les méthodes traditionnelles, et quels sont ses résultats dans des applications réelles. Ce rapport est basé sur une étude publiée par Messari, et le texte complet peut être consulté ici : Understanding AI Verification: A Use Case for Mira.
Protocole de vérification des faits décentralisé : les principes de fonctionnement de Mira
Mira n'est pas un modèle d'IA, mais une couche de validation intégrée. Lorsque un modèle d'IA génère une réponse (comme les réponses de chatbot, des résumés, des rapports automatisés, etc.), Mira décompose la sortie en une série d'assertions indépendantes. Ces assertions sont envoyées à son réseau de validation décentralisé, où chaque nœud (c'est-à-dire le validateur) exécute des modèles d'IA de différentes architectures pour évaluer si ces assertions sont vraies.
Chaque nœud donnera un jugement de "correct", "incorrect" ou "incertain" concernant une affirmation, et finalement, le système prendra une décision globale basée sur le consensus majoritaire. Si la majorité des modèles reconnaissent une affirmation comme vraie, cette affirmation sera approuvée ; sinon, elle sera marquée, rejetée ou signalée avec un avertissement.
Ce processus est complètement transparent et auditables. Chaque validation génère un certificat de chiffrement, indiquant les modèles participants au processus de validation, les résultats des votes, les horodatages, etc., pour vérification par des tiers.
Pourquoi l'IA a-t-elle besoin de systèmes de validation comme Mira ?
Les modèles d'IA générative (comme GPT, Claude) ne sont pas des outils déterministes, ils prédisent le prochain caractère en fonction des probabilités et n'ont pas de « perception des faits » intégrée. Ce design leur permet d'écrire des poèmes, de raconter des blagues, mais cela signifie aussi : ils peuvent sérieusement produire des informations fausses.
Le mécanisme de validation proposé par Mira vise à résoudre les quatre problèmes clés actuels de l'IA :
Illusions omniprésentes : les cas d'IA fabriquant des politiques, inventant des événements historiques et citant de manière erronée des documents se multiplient.
Boîte noire : l'utilisateur ne sait pas d'où proviennent les réponses de l'IA et ne peut pas les retracer.
Sortie non cohérente : pour la même question, l'IA peut donner des réponses différentes.
Contrôle centralisé : Actuellement, la plupart des modèles d'IA sont monopolisés par quelques entreprises, et les utilisateurs ne peuvent pas vérifier leur logique ou demander un second avis.
Limitations des méthodes de validation traditionnelles
Les solutions alternatives actuelles, telles que la révision humaine (Human-in-the-loop), les filtres basés sur des règles, l'auto-vérification des modèles, etc., présentent toutes des insuffisances :
La révision manuelle est difficile à mettre à l'échelle, lente et coûteuse.
Le filtrage basé sur des règles est limité à des scénarios prédéfinis et ne peut rien faire contre les erreurs créatives.
Le modèle a de mauvaises performances en auto-évaluation, l'IA est souvent trop confiante dans les réponses incorrectes.
Bien que le modèle centralisé Ensemble puisse effectuer des vérifications croisées, il manque de diversité des modèles et est susceptible de créer des "angles morts collectifs".
Mécanisme innovant de Mira : combinaison de Mécanisme de consensus et de la répartition par IA
L'innovation clé de Mira est d'introduire le concept de consensus de la blockchain dans la vérification de l'IA. Chaque sortie d'IA, après être passée par Mira, se transforme en plusieurs déclarations de faits indépendants, soumises à un « vote » par divers modèles d'IA. Ce n'est que lorsqu'un certain pourcentage de modèles parvient à un consensus que ce contenu est considéré comme fiable.
Les avantages de la conception de base de Mira incluent :
Diversité des modèles : Modèles provenant de différentes architectures et de différents contextes de données, réduisant le biais collectif.
Tolérance aux erreurs : même si certains nœuds échouent, cela n'affectera pas le résultat global.
Transparence de la chaîne complète : les enregistrements de vérification sont inscrits sur la chaîne et peuvent être audités.
Scalabilité élevée : plus de 3 milliards de tokens peuvent être vérifiés par jour (ce qui équivaut à des millions de segments de texte).
Pas besoin d'intervention humaine : automatisation en cours, pas de vérification manuelle nécessaire.
Infrastructure décentralisée : qui fournit les nœuds et les ressources de calcul ?
Les nœuds de validation de Mira sont fournis par des contributeurs décentralisés à l'échelle mondiale. Ces contributeurs sont appelés Node Delegators (Délégateurs de nœuds), qui ne gèrent pas directement les nœuds, mais louent des ressources de calcul GPU à des opérateurs de nœuds certifiés. Ce modèle de « calcul en tant que service » a considérablement élargi l'échelle que Mira peut traiter.
Les principaux fournisseurs de nœuds de collaboration incluent :
Io.Net : fournit un réseau de calcul GPU basé sur l'architecture DePIN.
Aethir : se concentre sur le GPU cloud décentralisé pour l'IA et les jeux.
Hyperbolic, Exabits, Spheron : plusieurs plateformes de calcul blockchain, qui fournissent également des infrastructures pour les nœuds Mira.
Les participants au nœud doivent passer par un processus de vérification vidéo KYC pour garantir l'unicité et la sécurité du réseau.
Mira vérifie que le taux de précision de l'IA atteint 96%
Selon les données de l'équipe Mira dans le rapport de Messari, le taux de précision des faits des grands modèles de langage a été amélioré de 70 % à 96 % après filtrage via sa couche de validation. Dans des scénarios pratiques tels que l'éducation, la finance et le service client, la fréquence d'apparition de contenus illusoires a diminué de 90 %. Il est important de noter que ces améliorations n'ont nécessité aucun réentraînement du modèle d'IA, mais ont été réalisées uniquement par le biais de "filtrage".
Actuellement, Mira a été intégré dans plusieurs plateformes d'application, y compris :
Outil éducatif
Produit d'analyse financière
chatbot IA
Service API Généré Vérifié par un Tiers
L'ensemble de l'écosystème Mira couvre plus de 4,5 millions d'utilisateurs, avec plus de 500 000 utilisateurs actifs quotidiennement. Bien que la plupart des gens n'aient pas directement interagi avec Mira, leurs réponses AI ont déjà été discrètement validées par le mécanisme de vérification qui se cache derrière.
Mira construit une couche de base fiable pour l’IA
Dans une industrie de l'IA de plus en plus axée sur l'échelle et l'efficacité, Mira propose une nouvelle direction : ne pas s'appuyer sur une seule IA pour décider de la réponse, mais plutôt sur un groupe de modèles indépendants pour "voter sur la vérité". Cette architecture rend non seulement les résultats de sortie plus fiables, mais établit également un "mécanisme de confiance vérifiable" et possède une grande évolutivité.
Avec l'expansion de la base d'utilisateurs et la généralisation des audits par des tiers, Mira a le potentiel de devenir une infrastructure indispensable dans l'écosystème de l'IA. Pour tout développeur ou entreprise souhaitant que son IA puisse se tenir debout dans des applications du monde réel, la "couche de validation décentralisée" représentée par Mira pourrait être l'un des éléments clés.
Cet article est une analyse de Messari : comment le protocole Mira utilise le mécanisme de consensus décentralisé pour rendre l'IA plus honnête ? Publié pour la première fois sur Chaîne d'actualités ABMedia.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Analyse spécialisée de Messari : comment le protocole Mira utilise le mécanisme de consensus décentralisé pour rendre l'IA plus honnête ?
Dans un monde où l'IA générative prospère, nous avons toujours du mal à résoudre un problème fondamental : l'IA peut parfois raconter des mensonges de manière très sérieuse. Ce phénomène est connu dans l'industrie sous le nom de « hallucination ». Mira, un protocole décentralisé conçu pour la vérification des sorties de l'IA, tente d'ajouter une « crédibilité factuelle » à l'IA par le biais d'un mécanisme de consensus multi-modèles et d'audits de chiffrement. Voyons comment Mira fonctionne, pourquoi il est plus efficace que les méthodes traditionnelles, et quels sont ses résultats dans des applications réelles. Ce rapport est basé sur une étude publiée par Messari, et le texte complet peut être consulté ici : Understanding AI Verification: A Use Case for Mira.
Protocole de vérification des faits décentralisé : les principes de fonctionnement de Mira
Mira n'est pas un modèle d'IA, mais une couche de validation intégrée. Lorsque un modèle d'IA génère une réponse (comme les réponses de chatbot, des résumés, des rapports automatisés, etc.), Mira décompose la sortie en une série d'assertions indépendantes. Ces assertions sont envoyées à son réseau de validation décentralisé, où chaque nœud (c'est-à-dire le validateur) exécute des modèles d'IA de différentes architectures pour évaluer si ces assertions sont vraies.
Chaque nœud donnera un jugement de "correct", "incorrect" ou "incertain" concernant une affirmation, et finalement, le système prendra une décision globale basée sur le consensus majoritaire. Si la majorité des modèles reconnaissent une affirmation comme vraie, cette affirmation sera approuvée ; sinon, elle sera marquée, rejetée ou signalée avec un avertissement.
Ce processus est complètement transparent et auditables. Chaque validation génère un certificat de chiffrement, indiquant les modèles participants au processus de validation, les résultats des votes, les horodatages, etc., pour vérification par des tiers.
Pourquoi l'IA a-t-elle besoin de systèmes de validation comme Mira ?
Les modèles d'IA générative (comme GPT, Claude) ne sont pas des outils déterministes, ils prédisent le prochain caractère en fonction des probabilités et n'ont pas de « perception des faits » intégrée. Ce design leur permet d'écrire des poèmes, de raconter des blagues, mais cela signifie aussi : ils peuvent sérieusement produire des informations fausses.
Le mécanisme de validation proposé par Mira vise à résoudre les quatre problèmes clés actuels de l'IA :
Illusions omniprésentes : les cas d'IA fabriquant des politiques, inventant des événements historiques et citant de manière erronée des documents se multiplient.
Boîte noire : l'utilisateur ne sait pas d'où proviennent les réponses de l'IA et ne peut pas les retracer.
Sortie non cohérente : pour la même question, l'IA peut donner des réponses différentes.
Contrôle centralisé : Actuellement, la plupart des modèles d'IA sont monopolisés par quelques entreprises, et les utilisateurs ne peuvent pas vérifier leur logique ou demander un second avis.
Limitations des méthodes de validation traditionnelles
Les solutions alternatives actuelles, telles que la révision humaine (Human-in-the-loop), les filtres basés sur des règles, l'auto-vérification des modèles, etc., présentent toutes des insuffisances :
La révision manuelle est difficile à mettre à l'échelle, lente et coûteuse.
Le filtrage basé sur des règles est limité à des scénarios prédéfinis et ne peut rien faire contre les erreurs créatives.
Le modèle a de mauvaises performances en auto-évaluation, l'IA est souvent trop confiante dans les réponses incorrectes.
Bien que le modèle centralisé Ensemble puisse effectuer des vérifications croisées, il manque de diversité des modèles et est susceptible de créer des "angles morts collectifs".
Mécanisme innovant de Mira : combinaison de Mécanisme de consensus et de la répartition par IA
L'innovation clé de Mira est d'introduire le concept de consensus de la blockchain dans la vérification de l'IA. Chaque sortie d'IA, après être passée par Mira, se transforme en plusieurs déclarations de faits indépendants, soumises à un « vote » par divers modèles d'IA. Ce n'est que lorsqu'un certain pourcentage de modèles parvient à un consensus que ce contenu est considéré comme fiable.
Les avantages de la conception de base de Mira incluent :
Diversité des modèles : Modèles provenant de différentes architectures et de différents contextes de données, réduisant le biais collectif.
Tolérance aux erreurs : même si certains nœuds échouent, cela n'affectera pas le résultat global.
Transparence de la chaîne complète : les enregistrements de vérification sont inscrits sur la chaîne et peuvent être audités.
Scalabilité élevée : plus de 3 milliards de tokens peuvent être vérifiés par jour (ce qui équivaut à des millions de segments de texte).
Pas besoin d'intervention humaine : automatisation en cours, pas de vérification manuelle nécessaire.
Infrastructure décentralisée : qui fournit les nœuds et les ressources de calcul ?
Les nœuds de validation de Mira sont fournis par des contributeurs décentralisés à l'échelle mondiale. Ces contributeurs sont appelés Node Delegators (Délégateurs de nœuds), qui ne gèrent pas directement les nœuds, mais louent des ressources de calcul GPU à des opérateurs de nœuds certifiés. Ce modèle de « calcul en tant que service » a considérablement élargi l'échelle que Mira peut traiter.
Les principaux fournisseurs de nœuds de collaboration incluent :
Io.Net : fournit un réseau de calcul GPU basé sur l'architecture DePIN.
Aethir : se concentre sur le GPU cloud décentralisé pour l'IA et les jeux.
Hyperbolic, Exabits, Spheron : plusieurs plateformes de calcul blockchain, qui fournissent également des infrastructures pour les nœuds Mira.
Les participants au nœud doivent passer par un processus de vérification vidéo KYC pour garantir l'unicité et la sécurité du réseau.
Mira vérifie que le taux de précision de l'IA atteint 96%
Selon les données de l'équipe Mira dans le rapport de Messari, le taux de précision des faits des grands modèles de langage a été amélioré de 70 % à 96 % après filtrage via sa couche de validation. Dans des scénarios pratiques tels que l'éducation, la finance et le service client, la fréquence d'apparition de contenus illusoires a diminué de 90 %. Il est important de noter que ces améliorations n'ont nécessité aucun réentraînement du modèle d'IA, mais ont été réalisées uniquement par le biais de "filtrage".
Actuellement, Mira a été intégré dans plusieurs plateformes d'application, y compris :
Outil éducatif
Produit d'analyse financière
chatbot IA
Service API Généré Vérifié par un Tiers
L'ensemble de l'écosystème Mira couvre plus de 4,5 millions d'utilisateurs, avec plus de 500 000 utilisateurs actifs quotidiennement. Bien que la plupart des gens n'aient pas directement interagi avec Mira, leurs réponses AI ont déjà été discrètement validées par le mécanisme de vérification qui se cache derrière.
Mira construit une couche de base fiable pour l’IA
Dans une industrie de l'IA de plus en plus axée sur l'échelle et l'efficacité, Mira propose une nouvelle direction : ne pas s'appuyer sur une seule IA pour décider de la réponse, mais plutôt sur un groupe de modèles indépendants pour "voter sur la vérité". Cette architecture rend non seulement les résultats de sortie plus fiables, mais établit également un "mécanisme de confiance vérifiable" et possède une grande évolutivité.
Avec l'expansion de la base d'utilisateurs et la généralisation des audits par des tiers, Mira a le potentiel de devenir une infrastructure indispensable dans l'écosystème de l'IA. Pour tout développeur ou entreprise souhaitant que son IA puisse se tenir debout dans des applications du monde réel, la "couche de validation décentralisée" représentée par Mira pourrait être l'un des éléments clés.
Cet article est une analyse de Messari : comment le protocole Mira utilise le mécanisme de consensus décentralisé pour rendre l'IA plus honnête ? Publié pour la première fois sur Chaîne d'actualités ABMedia.