La validation distribuée permet à Mira de filtrer les sorties de l'IA à travers un réseau de modèles indépendants pour améliorer la fiabilité des faits, réduisant ainsi les hallucinations sans nécessiter de réentraînement ou de supervision centralisée.
Le mécanisme de consensus exige que plusieurs modèles fonctionnant de manière indépendante parviennent à un accord avant qu'une réclamation ne soit approuvée, remplaçant ainsi la confiance en un modèle unique.
Mira vérifie 30 milliards de tokens dans les applications intégrées chaque jour, soutenant plus de 4,5 millions d'utilisateurs.
Lorsque la sortie est filtrée dans un environnement de production via le processus de consensus de Mira, la précision des faits passe de 70 % à 96 %.
Mira agit en tant qu'infrastructure plutôt qu'en tant que produit final pour les utilisateurs en intégrant directement la validation dans l'IA d'applications telles que les chatbots, les outils fintech et les plateformes éducatives.
Présentation de Mira
Mira est un protocole conçu pour valider les résultats des systèmes d’IA. Sa fonction principale est similaire à une couche d’audit/confiance décentralisée. Chaque fois qu’un modèle d’IA génère un résultat, qu’il s’agisse d’une réponse ou d’un résumé, Mira évalue si les affirmations « factuelles » de ce résultat sont crédibles avant qu’il n’atteigne l’utilisateur final.
Le fonctionnement de ce système consiste à décomposer chaque sortie d'IA en propositions plus petites. Ces propositions sont évaluées indépendamment par plusieurs nœuds de validation dans le réseau Mira. Chaque nœud exécute son propre modèle d'IA, généralement avec des architectures, des ensembles de données ou des perspectives différentes. Les modèles votent sur la véracité ou la pertinence de chaque proposition par rapport au contexte. Le résultat final est déterminé par un mécanisme de consensus : si la grande majorité des modèles s'accordent sur la validité de la proposition, Mira l'approuve. En cas de désaccord, la proposition sera marquée ou rejetée.
Il n'y a pas d'autorité centrale ou de modèle caché qui prenne la décision finale. Au contraire, la vérité est déterminée collectivement, émergeant de modèles diversifiés et distribués. L'ensemble du processus est transparent et vérifiable. Chaque sortie vérifiée est accompagnée d'un certificat cryptographique : un enregistrement traçable montrant quelles déclarations ont été évaluées, quels modèles ont participé et comment ils ont voté. Les applications, les plateformes et même les régulateurs peuvent utiliser ce certificat pour confirmer que la sortie a passé le niveau de vérification de Mira.
L'inspiration de Mira provient de l'intégration des technologies d'intelligence artificielle et des mécanismes de consensus de la blockchain. Elle n'améliore pas la précision par l'agrégation des prévisions, mais détermine la crédibilité par l'agrégation des évaluations. Elle filtre et rejette les résultats qui n'ont pas réussi le test de véracité distribué.
Pourquoi l'IA a-t-elle besoin d'un système de validation comme celui de Mira ?
Les modèles d'IA ne sont pas déterministes, ce qui signifie qu'ils ne renvoient pas toujours les mêmes résultats pour les mêmes invites et ne garantissent pas l'authenticité des résultats générés. Ce n'est pas un défaut ; cela découle directement de la manière dont les grands modèles de langage sont entraînés : en prédisant le prochain jeton par probabilité plutôt que par déterminisme.
Cette probabilité confère aux systèmes d'intelligence artificielle une flexibilité. Elle leur donne créativité, capacité de perception contextuelle et compétences humanoïdes. Cependant, cela signifie aussi qu'ils peuvent créer des choses naturellement.
Nous avons déjà vu les conséquences. Le chatbot d'Air Canada a inventé une politique de tarif de deuil qui n'existe pas et l'a transmise à un utilisateur. Cet utilisateur a cru le chatbot et a réservé un billet d'avion sur la base d'informations fausses, subissant ainsi une perte financière. Après décision du tribunal, la compagnie aérienne est responsable des illusions du chatbot. En résumé, l'intelligence artificielle a proposé une réclamation avec confiance, et la société en a payé le prix.
Ceci n'est qu'un exemple. Les phénomènes d'illusion sont courants. Ils apparaissent dans des résumés de recherche mal cités, des applications éducatives présentant de faux faits historiques, ainsi que dans des bulletins d'information rédigés par l'intelligence artificielle contenant des déclarations fausses ou trompeuses. Cela est dû au fait que ces sorties sont souvent fluides et autoritaires, les utilisateurs ont tendance à y croire.
En plus des hallucinations, il existe des problèmes plus systémiques :
Biais : Les modèles d'intelligence artificielle peuvent refléter et amplifier les biais présents dans leurs données d'entraînement. Ce biais n'est pas toujours évident. Il peut se manifester de manière subtile à travers des choix de mots, le ton ou les priorités. Par exemple, un assistant de recrutement peut systématiquement favoriser un groupe de personnes particulier. Les outils financiers peuvent générer des évaluations des risques utilisant un langage déformé ou stigmatisant.
Non déterministe : poser deux fois la même question au même modèle peut entraîner deux réponses différentes. Modifiez légèrement l’invite et le résultat peut changer de manière inattendue. Cette incohérence rend les résultats de l’IA difficiles à auditer, à reproduire ou à devenir dépendants à long terme.
Nature boîte noire : Lorsqu’un système d’IA donne une réponse, il ne fournit généralement aucune explication ou raisonnement traçable. Il n’a pas d’indices clairs pour présenter ses conclusions. Par conséquent, lorsqu’un modèle tourne mal, il peut être difficile d’en diagnostiquer la cause ou de la corriger.
Contrôle centralisé : La plupart des systèmes d’IA sont aujourd’hui des modèles fermés contrôlés par une poignée de grandes entreprises. Si le modèle est défectueux, biaisé ou censuré, les options de l’utilisateur sont limitées. L’absence d’un deuxième avis, d’un processus de règlement des griefs transparent ou d’interprétations contradictoires. Il en résulte une structure de contrôle centralisée qui est difficile à contester ou à valider.
Méthodes existantes pour améliorer la fiabilité de la sortie de l'IA et leurs limitations.
Il existe actuellement plusieurs méthodes pour améliorer la fiabilité des sorties de l'IA. Chaque méthode offre une certaine valeur, mais elles ont toutes des limites et ne peuvent pas atteindre le niveau de confiance requis pour les applications critiques.
Collaboration homme-robot (HITL) : Cette approche implique qu’un humain examine et approuve le résultat de l’IA. Il fonctionne efficacement dans les cas d’utilisation à faible volume. Cependant, elle peut rapidement devenir un goulot d’étranglement pour les systèmes qui génèrent des millions de réponses par jour, tels que les moteurs de recherche, les bots d’assistance ou les applications de coaching. Les révisions manuelles sont lentes, coûteuses et sujettes aux biais et aux incohérences. Par exemple, Grok de xAI utilise des tuteurs IA pour évaluer et affiner manuellement les réponses. Il s’agit d’une solution temporaire, et Mira la considère comme une solution à faible effet de levier : elle n’évolue pas et ne résout pas les problèmes sous-jacents qui existent dans la logique de l’IA et qui ne peuvent pas être vérifiés.
Filtres de règles : ces systèmes utilisent des méthodes de vérification fixes, telles que le marquage des termes interdits ou la comparaison des sorties avec des graphes de connaissances structurés. Bien qu'ils soient adaptés à des contextes étroits, ils ne fonctionnent que dans des situations conformes aux attentes des développeurs. Ils ne peuvent pas traiter des requêtes nouvelles ou ouvertes et ont du mal à gérer des erreurs subtiles ou des déclarations ambiguës.
Auto-validation : Certains modèles contiennent des mécanismes permettant d’évaluer leur confiance en soi ou d’évaluer leurs réponses à l’aide d’un modèle secondaire. Cependant, les systèmes d’IA sont notoirement médiocres pour identifier leurs propres erreurs. L’excès de confiance dans la mauvaise réponse est un problème récurrent, et les commentaires internes ne parviennent souvent pas à le corriger.
Modèles intégrés : dans certains systèmes, plusieurs modèles se vérifient mutuellement. Bien que cela puisse améliorer les normes de qualité, les modèles intégrés traditionnels sont généralement centralisés et homogènes. Si tous les modèles partagent des données d'entraînement similaires ou proviennent du même fournisseur, ils peuvent partager les mêmes angles morts. La diversité des architectures et des perspectives sera limitée.
Mira s'engage à résoudre les problèmes de perception. Son objectif est de créer un environnement capable de capturer et d'éliminer les illusions, en minimisant les biais grâce à la diversité des modèles, en rendant les résultats sortants vérifiables de manière répétée, et sans qu'aucune entité unique ne puisse contrôler le processus de vérification de la réalité. Étudier le fonctionnement du système Mira peut résoudre chaque problème susmentionné de manière novatrice.
Mira comment améliorer la fiabilité de l'IA
Les approches actuelles de la fiabilité de l’IA, qui sont centralisées et reposent sur une source unique de vérité, sont différentes. Mira a introduit un modèle différent. Il permet une vérification décentralisée, établit un consensus au niveau du protocole et utilise des incitations économiques pour renforcer le comportement en matière de fiabilité. Mira n’est pas un produit autonome ou un outil de surveillance descendante, mais plutôt une couche d’infrastructure modulaire qui peut être intégrée à n’importe quel système d’IA.
La conception de cet accord est basée sur plusieurs principes fondamentaux :
L'exactitude des faits ne devrait pas dépendre de la sortie d'un modèle.
La validation doit être autonome et ne peut pas dépendre d'une surveillance humaine continue.
La confiance devrait être basée sur des protocoles indépendants, et non sur un contrôle centralisé.
Mira applique les principes de calcul distribué à la vérification de l'IA. Lorsqu'une sortie (comme des recommandations politiques, des résumés financiers ou des réponses de chatbot) est soumise, elle est d'abord décomposée en déclarations factuelles plus petites. Ces déclarations sont construites sous forme de questions ou d'énoncés discrets et sont routées vers un réseau de nœuds de validation.
Chaque nœud exécute un modèle ou une configuration d’IA différent et évalue les revendications qui lui sont attribuées indépendamment. Il renvoie l’un des trois jugements suivants : vrai, faux ou non concluant. Mira transmet ensuite les résultats. Si le seuil de supermajorité configurable est atteint, la revendication est validée. S’il n’est pas satisfait, il est signalé, ignoré ou un avertissement est renvoyé.
La conception distribuée de Mira présente plusieurs avantages structurels :
Redondance et diversité : vérifier les déclarations à l'aide de modèles ayant des architectures, des ensembles de données et des points de vue différents.
Tolérance aux pannes : Une défaillance ou une erreur dans un modèle est peu susceptible de se reproduire dans de nombreux modèles.
Transparence : chaque résultat de validation est enregistré sur la chaîne, fournissant des indices auditable, y compris quels modèles ont participé et comment ils ont voté.
Autonomie : Mira fonctionne en continu sans intervention humaine.
Échelle : Ce système peut traiter des charges de travail massives de plusieurs milliards de jetons par jour.
Les idées de base de Mira sont basées sur des statistiques : alors qu’un seul modèle peut halluciner ou refléter un biais, plusieurs systèmes indépendants ont une probabilité beaucoup plus faible de faire la même erreur de la même manière. Le protocole tire parti de cette diversité pour filtrer les contenus peu fiables. Le principe de Mira est similaire à l’apprentissage d’ensemble, mais il étend l’idée pour en faire un système distribué, vérifiable et crypto-économiquement sécurisé qui peut être intégré dans des processus d’IA du monde réel.
Délégataire de nœud et ressources de calcul
L'infrastructure de validation décentralisée de Mira Network est soutenue par une communauté de contributeurs mondiale qui fournit les ressources informatiques nécessaires à l'exécution des nœuds de validation. Ces contributeurs sont appelés délégués de nœuds et jouent un rôle clé dans l'évolutivité du traitement des protocoles et de la validation de la production des sorties d'IA.
Qu'est-ce qu'un délégataire de nœud ?
Les délégataires de nœuds désignent les individus ou entités qui louent ou fournissent des ressources de calcul GPU à des opérateurs de nœuds vérifiés, plutôt que d'exploiter eux-mêmes un nœud vérificateur. Ce modèle de délégation permet aux participants de contribuer à l'infrastructure de Mira sans avoir à gérer des modèles d'IA complexes ou des logiciels de nœuds. En fournissant un accès aux ressources GPU, les délégataires permettent aux opérateurs de nœuds d'exécuter en parallèle davantage de vérifications, renforçant ainsi la capacité et la robustesse du système.
Les délégataires de nœuds obtiennent des incitations économiques pour leur participation. En retour de leur contribution en puissance de calcul, ils recevront des récompenses liées à la quantité de travail de validation effectuée par le nœud qu'ils soutiennent et à la qualité de ce travail. Cela crée une structure incitative décentralisée, où l'évolutivité du réseau est directement liée à la participation de la communauté, plutôt qu'à des investissements dans une infrastructure centralisée.
Qui fournit les opérateurs de nœuds ?
Les ressources de calcul proviennent des partenaires opérateurs de nœuds fondateurs de Mira, qui sont des acteurs clés de l'écosystème d'infrastructure décentralisée :
Io.Net : un réseau d'infrastructure physique décentralisé pour le calcul GPU (DePIN), offrant des ressources GPU évolutives et rentables.
Aethir : un fournisseur de GPU en tant que service axé sur l'intelligence artificielle et les jeux, offrant une infrastructure de cloud computing décentralisée.
Hyperbolic : une plateforme cloud AI ouverte, fournissant des ressources GPU économiques et cohérentes pour le développement AI.
Exabits : pionnier du cloud computing décentralisé basé sur l'IA, résolvant le problème de pénurie de GPU et optimisant la répartition des ressources.
Spheron : une plateforme décentralisée simplifiant le déploiement d'applications Web, offrant des solutions transparentes et vérifiables.
Chaque partenaire fait fonctionner des nœuds de validation sur le réseau Mira, utilisant la puissance de calcul déléguée pour valider massivement les sorties d'IA. Leur contribution permet à Mira de maintenir un débit de validation élevé, traitant des milliards de jetons chaque jour, tout en conservant la vitesse, la tolérance aux pannes et la décentralisation.
Attention : chaque participant ne peut acheter qu'un seul permis de délégation de nœud. Les utilisateurs doivent passer par le processus KYC de « vérification par vidéo d'assistance » pour prouver leur participation réelle.
Mira dans l'utilisation à grande échelle et le soutien des données dans le domaine de l'IA
Selon les données fournies par l'équipe, le réseau Mira vérifie plus de 3 milliards de tokens chaque jour. Dans les modèles de langage, un token fait référence à de petites unités de texte, généralement un segment de mot, un mot court ou un symbole de ponctuation. Par exemple, la phrase « les sorties de vérification de Mira » serait décomposée en plusieurs tokens. Ce rapport indique que Mira traite une grande quantité de contenu dans diverses intégrations, y compris des assistants de chat, des plateformes éducatives, des produits fintech et des outils internes utilisant des API. En termes de contenu, ce volume correspond à l'évaluation de millions de paragraphes chaque jour.
Selon les rapports, l'écosystème de Mira (y compris les projets partenaires) soutient plus de 4,5 millions d'utilisateurs indépendants, avec environ 500 000 utilisateurs actifs quotidiens. Ces utilisateurs comprennent les utilisateurs directs de Klok, ainsi que les utilisateurs finaux des applications tierces intégrant la couche de vérification de Mira en arrière-plan. Bien que la plupart des utilisateurs n'interagissent peut-être pas directement avec Mira, le système sert de couche de vérification silencieuse, aidant à garantir que le contenu généré par l'IA atteint un certain seuil de précision avant d'atteindre l'utilisateur final.
Selon un document de recherche de l’équipe de Mira, les grands modèles de langage qui étaient auparavant précis dans des domaines tels que l’éducation et la finance avaient un taux de précision factuelle d’environ 70 %, mais ils ont maintenant été validés avec une précision de 96 % après avoir été examinés par le processus de consensus de Mira. Il est important de noter que ces améliorations peuvent être obtenues sans réentraîner le modèle lui-même. Au lieu de cela, ces améliorations découlent de la logique de filtrage de Mira. Le système filtre le contenu non fiable en nécessitant l’accord de plusieurs modèles exécutés indépendamment. Cet effet est particulièrement important pour les hallucinations, qui sont de fausses informations non fondées générées par l’IA, qui ont été signalées comme étant réduites de 90 % dans les applications intégrées. Parce que les hallucinations sont souvent spécifiques et incohérentes, il est peu probable qu’elles passent le mécanisme de consensus de Mira.
En plus d’améliorer la fiabilité factuelle, le protocole Mira est conçu pour soutenir la participation ouverte. La validation n’est pas limitée à une équipe de révision centralisée. Pour aligner les incitations, Mira a adopté un système d’incitations financières et de punitions. Les validateurs qui suivent constamment le consensus seront rémunérés en fonction de leurs performances, tandis que les validateurs qui commettent des jugements manipulés ou inexacts seront sanctionnés. Cette structure encourage un comportement honnête et favorise la concurrence entre les différentes configurations de modèles. En supprimant la dépendance à la gouvernance centralisée et en intégrant des incitations dans la couche protocole, Mira permet une vérification décentralisée évolutive dans des environnements à fort trafic tout en garantissant que les normes de sortie ne sont pas compromises.
Conclusion
Mira apporte une solution structurelle à l’un des défis les plus pressants de l’IA : la capacité de s’appuyer sur la vérification des résultats à grande échelle. Au lieu de s’appuyer sur le niveau de confiance d’un seul modèle ou d’une supervision humaine après coup, Mira introduit une couche de vérification décentralisée qui s’exécute en parallèle avec la génération d’IA. Le système filtre le contenu non pris en charge en décomposant la sortie en déclarations de faits, en les distribuant à des validateurs indépendants et en appliquant un mécanisme de consensus. Il améliore la fiabilité sans qu’il soit nécessaire de réentraîner le modèle ou de centraliser le contrôle.
Les données montrent que le taux d’adoption et l’exactitude des faits ont été considérablement améliorés, et que le phénomène des hallucinations de l’IA a été considérablement réduit. Mira est maintenant intégré dans une variété de domaines, y compris les interfaces de chat, les outils éducatifs et les plateformes financières, et est en train de devenir une couche d’infrastructure pour les applications critiques de précision. À mesure que les protocoles mûrissent et que les audits par des tiers se généralisent, la transparence, la répétabilité et la participation ouverte de Mira fourniront un cadre de confiance évolutif pour les systèmes d’IA fonctionnant dans des environnements réglementés ou à volume élevé.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Mira comment améliorer la crédibilité de l'IA grâce à des Nœuds distribués
Rédigé par : Messari
Résumé
La validation distribuée permet à Mira de filtrer les sorties de l'IA à travers un réseau de modèles indépendants pour améliorer la fiabilité des faits, réduisant ainsi les hallucinations sans nécessiter de réentraînement ou de supervision centralisée.
Le mécanisme de consensus exige que plusieurs modèles fonctionnant de manière indépendante parviennent à un accord avant qu'une réclamation ne soit approuvée, remplaçant ainsi la confiance en un modèle unique.
Mira vérifie 30 milliards de tokens dans les applications intégrées chaque jour, soutenant plus de 4,5 millions d'utilisateurs.
Lorsque la sortie est filtrée dans un environnement de production via le processus de consensus de Mira, la précision des faits passe de 70 % à 96 %.
Mira agit en tant qu'infrastructure plutôt qu'en tant que produit final pour les utilisateurs en intégrant directement la validation dans l'IA d'applications telles que les chatbots, les outils fintech et les plateformes éducatives.
Présentation de Mira
Mira est un protocole conçu pour valider les résultats des systèmes d’IA. Sa fonction principale est similaire à une couche d’audit/confiance décentralisée. Chaque fois qu’un modèle d’IA génère un résultat, qu’il s’agisse d’une réponse ou d’un résumé, Mira évalue si les affirmations « factuelles » de ce résultat sont crédibles avant qu’il n’atteigne l’utilisateur final.
Le fonctionnement de ce système consiste à décomposer chaque sortie d'IA en propositions plus petites. Ces propositions sont évaluées indépendamment par plusieurs nœuds de validation dans le réseau Mira. Chaque nœud exécute son propre modèle d'IA, généralement avec des architectures, des ensembles de données ou des perspectives différentes. Les modèles votent sur la véracité ou la pertinence de chaque proposition par rapport au contexte. Le résultat final est déterminé par un mécanisme de consensus : si la grande majorité des modèles s'accordent sur la validité de la proposition, Mira l'approuve. En cas de désaccord, la proposition sera marquée ou rejetée.
Il n'y a pas d'autorité centrale ou de modèle caché qui prenne la décision finale. Au contraire, la vérité est déterminée collectivement, émergeant de modèles diversifiés et distribués. L'ensemble du processus est transparent et vérifiable. Chaque sortie vérifiée est accompagnée d'un certificat cryptographique : un enregistrement traçable montrant quelles déclarations ont été évaluées, quels modèles ont participé et comment ils ont voté. Les applications, les plateformes et même les régulateurs peuvent utiliser ce certificat pour confirmer que la sortie a passé le niveau de vérification de Mira.
L'inspiration de Mira provient de l'intégration des technologies d'intelligence artificielle et des mécanismes de consensus de la blockchain. Elle n'améliore pas la précision par l'agrégation des prévisions, mais détermine la crédibilité par l'agrégation des évaluations. Elle filtre et rejette les résultats qui n'ont pas réussi le test de véracité distribué.
Pourquoi l'IA a-t-elle besoin d'un système de validation comme celui de Mira ?
Les modèles d'IA ne sont pas déterministes, ce qui signifie qu'ils ne renvoient pas toujours les mêmes résultats pour les mêmes invites et ne garantissent pas l'authenticité des résultats générés. Ce n'est pas un défaut ; cela découle directement de la manière dont les grands modèles de langage sont entraînés : en prédisant le prochain jeton par probabilité plutôt que par déterminisme.
Cette probabilité confère aux systèmes d'intelligence artificielle une flexibilité. Elle leur donne créativité, capacité de perception contextuelle et compétences humanoïdes. Cependant, cela signifie aussi qu'ils peuvent créer des choses naturellement.
Nous avons déjà vu les conséquences. Le chatbot d'Air Canada a inventé une politique de tarif de deuil qui n'existe pas et l'a transmise à un utilisateur. Cet utilisateur a cru le chatbot et a réservé un billet d'avion sur la base d'informations fausses, subissant ainsi une perte financière. Après décision du tribunal, la compagnie aérienne est responsable des illusions du chatbot. En résumé, l'intelligence artificielle a proposé une réclamation avec confiance, et la société en a payé le prix.
Ceci n'est qu'un exemple. Les phénomènes d'illusion sont courants. Ils apparaissent dans des résumés de recherche mal cités, des applications éducatives présentant de faux faits historiques, ainsi que dans des bulletins d'information rédigés par l'intelligence artificielle contenant des déclarations fausses ou trompeuses. Cela est dû au fait que ces sorties sont souvent fluides et autoritaires, les utilisateurs ont tendance à y croire.
En plus des hallucinations, il existe des problèmes plus systémiques :
Biais : Les modèles d'intelligence artificielle peuvent refléter et amplifier les biais présents dans leurs données d'entraînement. Ce biais n'est pas toujours évident. Il peut se manifester de manière subtile à travers des choix de mots, le ton ou les priorités. Par exemple, un assistant de recrutement peut systématiquement favoriser un groupe de personnes particulier. Les outils financiers peuvent générer des évaluations des risques utilisant un langage déformé ou stigmatisant.
Non déterministe : poser deux fois la même question au même modèle peut entraîner deux réponses différentes. Modifiez légèrement l’invite et le résultat peut changer de manière inattendue. Cette incohérence rend les résultats de l’IA difficiles à auditer, à reproduire ou à devenir dépendants à long terme.
Nature boîte noire : Lorsqu’un système d’IA donne une réponse, il ne fournit généralement aucune explication ou raisonnement traçable. Il n’a pas d’indices clairs pour présenter ses conclusions. Par conséquent, lorsqu’un modèle tourne mal, il peut être difficile d’en diagnostiquer la cause ou de la corriger.
Contrôle centralisé : La plupart des systèmes d’IA sont aujourd’hui des modèles fermés contrôlés par une poignée de grandes entreprises. Si le modèle est défectueux, biaisé ou censuré, les options de l’utilisateur sont limitées. L’absence d’un deuxième avis, d’un processus de règlement des griefs transparent ou d’interprétations contradictoires. Il en résulte une structure de contrôle centralisée qui est difficile à contester ou à valider.
Méthodes existantes pour améliorer la fiabilité de la sortie de l'IA et leurs limitations.
Il existe actuellement plusieurs méthodes pour améliorer la fiabilité des sorties de l'IA. Chaque méthode offre une certaine valeur, mais elles ont toutes des limites et ne peuvent pas atteindre le niveau de confiance requis pour les applications critiques.
Collaboration homme-robot (HITL) : Cette approche implique qu’un humain examine et approuve le résultat de l’IA. Il fonctionne efficacement dans les cas d’utilisation à faible volume. Cependant, elle peut rapidement devenir un goulot d’étranglement pour les systèmes qui génèrent des millions de réponses par jour, tels que les moteurs de recherche, les bots d’assistance ou les applications de coaching. Les révisions manuelles sont lentes, coûteuses et sujettes aux biais et aux incohérences. Par exemple, Grok de xAI utilise des tuteurs IA pour évaluer et affiner manuellement les réponses. Il s’agit d’une solution temporaire, et Mira la considère comme une solution à faible effet de levier : elle n’évolue pas et ne résout pas les problèmes sous-jacents qui existent dans la logique de l’IA et qui ne peuvent pas être vérifiés.
Filtres de règles : ces systèmes utilisent des méthodes de vérification fixes, telles que le marquage des termes interdits ou la comparaison des sorties avec des graphes de connaissances structurés. Bien qu'ils soient adaptés à des contextes étroits, ils ne fonctionnent que dans des situations conformes aux attentes des développeurs. Ils ne peuvent pas traiter des requêtes nouvelles ou ouvertes et ont du mal à gérer des erreurs subtiles ou des déclarations ambiguës.
Auto-validation : Certains modèles contiennent des mécanismes permettant d’évaluer leur confiance en soi ou d’évaluer leurs réponses à l’aide d’un modèle secondaire. Cependant, les systèmes d’IA sont notoirement médiocres pour identifier leurs propres erreurs. L’excès de confiance dans la mauvaise réponse est un problème récurrent, et les commentaires internes ne parviennent souvent pas à le corriger.
Modèles intégrés : dans certains systèmes, plusieurs modèles se vérifient mutuellement. Bien que cela puisse améliorer les normes de qualité, les modèles intégrés traditionnels sont généralement centralisés et homogènes. Si tous les modèles partagent des données d'entraînement similaires ou proviennent du même fournisseur, ils peuvent partager les mêmes angles morts. La diversité des architectures et des perspectives sera limitée.
Mira s'engage à résoudre les problèmes de perception. Son objectif est de créer un environnement capable de capturer et d'éliminer les illusions, en minimisant les biais grâce à la diversité des modèles, en rendant les résultats sortants vérifiables de manière répétée, et sans qu'aucune entité unique ne puisse contrôler le processus de vérification de la réalité. Étudier le fonctionnement du système Mira peut résoudre chaque problème susmentionné de manière novatrice.
Mira comment améliorer la fiabilité de l'IA
Les approches actuelles de la fiabilité de l’IA, qui sont centralisées et reposent sur une source unique de vérité, sont différentes. Mira a introduit un modèle différent. Il permet une vérification décentralisée, établit un consensus au niveau du protocole et utilise des incitations économiques pour renforcer le comportement en matière de fiabilité. Mira n’est pas un produit autonome ou un outil de surveillance descendante, mais plutôt une couche d’infrastructure modulaire qui peut être intégrée à n’importe quel système d’IA.
La conception de cet accord est basée sur plusieurs principes fondamentaux :
L'exactitude des faits ne devrait pas dépendre de la sortie d'un modèle.
La validation doit être autonome et ne peut pas dépendre d'une surveillance humaine continue.
La confiance devrait être basée sur des protocoles indépendants, et non sur un contrôle centralisé.
Mira applique les principes de calcul distribué à la vérification de l'IA. Lorsqu'une sortie (comme des recommandations politiques, des résumés financiers ou des réponses de chatbot) est soumise, elle est d'abord décomposée en déclarations factuelles plus petites. Ces déclarations sont construites sous forme de questions ou d'énoncés discrets et sont routées vers un réseau de nœuds de validation.
Chaque nœud exécute un modèle ou une configuration d’IA différent et évalue les revendications qui lui sont attribuées indépendamment. Il renvoie l’un des trois jugements suivants : vrai, faux ou non concluant. Mira transmet ensuite les résultats. Si le seuil de supermajorité configurable est atteint, la revendication est validée. S’il n’est pas satisfait, il est signalé, ignoré ou un avertissement est renvoyé.
La conception distribuée de Mira présente plusieurs avantages structurels :
Redondance et diversité : vérifier les déclarations à l'aide de modèles ayant des architectures, des ensembles de données et des points de vue différents.
Tolérance aux pannes : Une défaillance ou une erreur dans un modèle est peu susceptible de se reproduire dans de nombreux modèles.
Transparence : chaque résultat de validation est enregistré sur la chaîne, fournissant des indices auditable, y compris quels modèles ont participé et comment ils ont voté.
Autonomie : Mira fonctionne en continu sans intervention humaine.
Échelle : Ce système peut traiter des charges de travail massives de plusieurs milliards de jetons par jour.
Les idées de base de Mira sont basées sur des statistiques : alors qu’un seul modèle peut halluciner ou refléter un biais, plusieurs systèmes indépendants ont une probabilité beaucoup plus faible de faire la même erreur de la même manière. Le protocole tire parti de cette diversité pour filtrer les contenus peu fiables. Le principe de Mira est similaire à l’apprentissage d’ensemble, mais il étend l’idée pour en faire un système distribué, vérifiable et crypto-économiquement sécurisé qui peut être intégré dans des processus d’IA du monde réel.
Délégataire de nœud et ressources de calcul
L'infrastructure de validation décentralisée de Mira Network est soutenue par une communauté de contributeurs mondiale qui fournit les ressources informatiques nécessaires à l'exécution des nœuds de validation. Ces contributeurs sont appelés délégués de nœuds et jouent un rôle clé dans l'évolutivité du traitement des protocoles et de la validation de la production des sorties d'IA.
Qu'est-ce qu'un délégataire de nœud ?
Les délégataires de nœuds désignent les individus ou entités qui louent ou fournissent des ressources de calcul GPU à des opérateurs de nœuds vérifiés, plutôt que d'exploiter eux-mêmes un nœud vérificateur. Ce modèle de délégation permet aux participants de contribuer à l'infrastructure de Mira sans avoir à gérer des modèles d'IA complexes ou des logiciels de nœuds. En fournissant un accès aux ressources GPU, les délégataires permettent aux opérateurs de nœuds d'exécuter en parallèle davantage de vérifications, renforçant ainsi la capacité et la robustesse du système.
Les délégataires de nœuds obtiennent des incitations économiques pour leur participation. En retour de leur contribution en puissance de calcul, ils recevront des récompenses liées à la quantité de travail de validation effectuée par le nœud qu'ils soutiennent et à la qualité de ce travail. Cela crée une structure incitative décentralisée, où l'évolutivité du réseau est directement liée à la participation de la communauté, plutôt qu'à des investissements dans une infrastructure centralisée.
Qui fournit les opérateurs de nœuds ?
Les ressources de calcul proviennent des partenaires opérateurs de nœuds fondateurs de Mira, qui sont des acteurs clés de l'écosystème d'infrastructure décentralisée :
Io.Net : un réseau d'infrastructure physique décentralisé pour le calcul GPU (DePIN), offrant des ressources GPU évolutives et rentables.
Aethir : un fournisseur de GPU en tant que service axé sur l'intelligence artificielle et les jeux, offrant une infrastructure de cloud computing décentralisée.
Hyperbolic : une plateforme cloud AI ouverte, fournissant des ressources GPU économiques et cohérentes pour le développement AI.
Exabits : pionnier du cloud computing décentralisé basé sur l'IA, résolvant le problème de pénurie de GPU et optimisant la répartition des ressources.
Spheron : une plateforme décentralisée simplifiant le déploiement d'applications Web, offrant des solutions transparentes et vérifiables.
Chaque partenaire fait fonctionner des nœuds de validation sur le réseau Mira, utilisant la puissance de calcul déléguée pour valider massivement les sorties d'IA. Leur contribution permet à Mira de maintenir un débit de validation élevé, traitant des milliards de jetons chaque jour, tout en conservant la vitesse, la tolérance aux pannes et la décentralisation.
Attention : chaque participant ne peut acheter qu'un seul permis de délégation de nœud. Les utilisateurs doivent passer par le processus KYC de « vérification par vidéo d'assistance » pour prouver leur participation réelle.
Mira dans l'utilisation à grande échelle et le soutien des données dans le domaine de l'IA
Selon les données fournies par l'équipe, le réseau Mira vérifie plus de 3 milliards de tokens chaque jour. Dans les modèles de langage, un token fait référence à de petites unités de texte, généralement un segment de mot, un mot court ou un symbole de ponctuation. Par exemple, la phrase « les sorties de vérification de Mira » serait décomposée en plusieurs tokens. Ce rapport indique que Mira traite une grande quantité de contenu dans diverses intégrations, y compris des assistants de chat, des plateformes éducatives, des produits fintech et des outils internes utilisant des API. En termes de contenu, ce volume correspond à l'évaluation de millions de paragraphes chaque jour.
Selon les rapports, l'écosystème de Mira (y compris les projets partenaires) soutient plus de 4,5 millions d'utilisateurs indépendants, avec environ 500 000 utilisateurs actifs quotidiens. Ces utilisateurs comprennent les utilisateurs directs de Klok, ainsi que les utilisateurs finaux des applications tierces intégrant la couche de vérification de Mira en arrière-plan. Bien que la plupart des utilisateurs n'interagissent peut-être pas directement avec Mira, le système sert de couche de vérification silencieuse, aidant à garantir que le contenu généré par l'IA atteint un certain seuil de précision avant d'atteindre l'utilisateur final.
Selon un document de recherche de l’équipe de Mira, les grands modèles de langage qui étaient auparavant précis dans des domaines tels que l’éducation et la finance avaient un taux de précision factuelle d’environ 70 %, mais ils ont maintenant été validés avec une précision de 96 % après avoir été examinés par le processus de consensus de Mira. Il est important de noter que ces améliorations peuvent être obtenues sans réentraîner le modèle lui-même. Au lieu de cela, ces améliorations découlent de la logique de filtrage de Mira. Le système filtre le contenu non fiable en nécessitant l’accord de plusieurs modèles exécutés indépendamment. Cet effet est particulièrement important pour les hallucinations, qui sont de fausses informations non fondées générées par l’IA, qui ont été signalées comme étant réduites de 90 % dans les applications intégrées. Parce que les hallucinations sont souvent spécifiques et incohérentes, il est peu probable qu’elles passent le mécanisme de consensus de Mira.
En plus d’améliorer la fiabilité factuelle, le protocole Mira est conçu pour soutenir la participation ouverte. La validation n’est pas limitée à une équipe de révision centralisée. Pour aligner les incitations, Mira a adopté un système d’incitations financières et de punitions. Les validateurs qui suivent constamment le consensus seront rémunérés en fonction de leurs performances, tandis que les validateurs qui commettent des jugements manipulés ou inexacts seront sanctionnés. Cette structure encourage un comportement honnête et favorise la concurrence entre les différentes configurations de modèles. En supprimant la dépendance à la gouvernance centralisée et en intégrant des incitations dans la couche protocole, Mira permet une vérification décentralisée évolutive dans des environnements à fort trafic tout en garantissant que les normes de sortie ne sont pas compromises.
Conclusion
Mira apporte une solution structurelle à l’un des défis les plus pressants de l’IA : la capacité de s’appuyer sur la vérification des résultats à grande échelle. Au lieu de s’appuyer sur le niveau de confiance d’un seul modèle ou d’une supervision humaine après coup, Mira introduit une couche de vérification décentralisée qui s’exécute en parallèle avec la génération d’IA. Le système filtre le contenu non pris en charge en décomposant la sortie en déclarations de faits, en les distribuant à des validateurs indépendants et en appliquant un mécanisme de consensus. Il améliore la fiabilité sans qu’il soit nécessaire de réentraîner le modèle ou de centraliser le contrôle.
Les données montrent que le taux d’adoption et l’exactitude des faits ont été considérablement améliorés, et que le phénomène des hallucinations de l’IA a été considérablement réduit. Mira est maintenant intégré dans une variété de domaines, y compris les interfaces de chat, les outils éducatifs et les plateformes financières, et est en train de devenir une couche d’infrastructure pour les applications critiques de précision. À mesure que les protocoles mûrissent et que les audits par des tiers se généralisent, la transparence, la répétabilité et la participation ouverte de Mira fourniront un cadre de confiance évolutif pour les systèmes d’IA fonctionnant dans des environnements réglementés ou à volume élevé.