文:メッサリ 概要 分散検証により、Miraは独立したモデルネットワークを通じてAI出力をフィルタリングし、事実の信頼性を高め、再訓練や集中監視なしに幻想を減少させることができます。 コンセンサスメカニズムは、複数の独立して動作するモデルが、いかなる請求が承認される前に合意に達することを要求し、単一のモデルの信頼を置き換えます。 Miraは、毎日統合アプリケーションで30億のトークンを検証し、450万人以上のユーザーをサポートしています。 Miraのコンセンサスプロセスを通じてフィルタリングされた場合、実際の正確性は70%から96%に上昇します。 Miraは、チャットボット、フィンテックツール、教育プラットフォームなどのアプリケーションのAIに検証を直接組み込むことで、最終ユーザープロダクトではなくインフラストラクチャとして機能します。ミラ紹介 MiraはAIシステムの出力を検証することを目的としたプロトコルです。そのコア機能は、分散型の監査/信頼レイヤーに似ています。AIモデルが出力を生成するたびに(回答でも要約でも)、Miraはその出力が最終ユーザーに届く前に、その中の「事実」声明が信頼できるかどうかを評価します。このシステムは、各AI出力をより小さなクレームに分割することで機能します。 これらのクレームは、Miraネットワーク内の複数のバリデーターによって個別に評価されます。 各ノードは、多くの場合、異なるアーキテクチャ、データセット、またはパースペクティブを使用して、独自の AI モデルを実行します。 モデルは各主張に投票し、それが真実か文脈依存かを決定します。 最終的な結果はコンセンサスメカニズムによって決定されます:大多数のモデルがクレームの有効性に同意した場合、Miraはクレームを承認します。 意見の相違がある場合、請求にはフラグが立てられるか、拒否されます。 最終決定を下すための中央集権的な権威や隠れたモデルはありません。 それどころか、真実は集合的に決定され、分散した多様なモデルから生まれます。 プロセス全体が透明で監査可能です。 検証された各出力には、どのクレームが評価されたか、どのモデルが参加したか、どのように投票されたかを示す追跡可能なレコードである暗号化証明書が付属しています。 アプリケーション、プラットフォーム、さらには規制当局も、この証明書を使用して、出力がMiraの検証レイヤーを通過したことを確認できます。 Miraのインスピレーションは、人工知能の統合技術とブロックチェーンのコンセンサスメカニズムに由来しています。それは予測の集約によって精度を向上させるのではなく、評価の集約によって信頼性を確定します。分散型の真実性テストを通過しなかった出力は、フィルタリングされて拒否されます。 なぜ AI は Mira の検証システムを必要とするのですか? AIモデルは決定論的ではありません。これは、同じプロンプトに対して常に同じ出力を返すわけではなく、生成された結果の真実性を保証することもできないことを意味します。これは欠陥ではなく、大規模言語モデルのトレーニング方法から直接生じるもので、次のトークンを決定論的ではなく確率的に予測します。 この確率的な特性は、人工知能システムに柔軟性を与えます。それは彼らに創造性、状況認識能力、そして人間に似た能力を与えます。しかし、これはまた、彼らが自然に物事を創造できることも意味します。 私たちはすでにその結果を目の当たりにしています。 エア・カナダのチャットボットは、まったく存在しない死別運賃ポリシーを作成し、それをユーザーに転送しました。 ユーザーはチャットボットを信頼するほどだまされやすく、虚偽の情報に基づいてチケットを予約し、金銭的損失を被りました。 裁判所は、チャットボットの幻覚は航空会社に責任があると裁定しました。 要するに、AIは自信を持って主張し、会社はそれに対して支払いました。 これは一例にすぎません。 幻覚が蔓延しています。 これらは、不正確に引用されている研究サマリー、誤った歴史的事実を提示する教育アプリ、虚偽または誤解を招く記述を含むAIが作成したニュースブリーフに表示されます。 これは、通常、これらの出力はスムーズで信頼できるものであり、ユーザーはそれらを真実として信じる傾向があるためです。 幻覚を除けば、他にも多くのシステム的な問題があります: バイアス: AI モデルは、トレーニング データにバイアスを反映し、増幅する可能性があります。 このバイアスは必ずしも明白ではありません。 それは、言い回し、トーン、優先順位などによって微妙になるかもしれません。 たとえば、採用アシスタントは、特定の人口統計に対して体系的に偏っている可能性があります。 金融商品は、歪曲された言葉や汚名を着せる言葉を使ったリスク評価を生成することがあります。 非決定性:同じモデルに同じ質問を2回すると、異なる2つの答えが得られる可能性があります。プロンプトを少し変更するだけで、結果が予期しない変化を見せることがあります。この不一致性は、AIの出力を監査、再現、または長期的に依存することを難しくします。 ブラックボックスの性質:AIシステムが答えを出しても、通常、説明や追跡可能な推論は提供されません。 結論を提示する明確な手がかりはありません。 その結果、モデルがうまくいかなくなった場合、原因の診断や修正が難しくなる可能性があります。 集中管理:今日のほとんどのAIシステムは、一握りの大企業によって制御されるクローズドモデルです。 モデルに欠陥がある場合、偏見がある場合、または検閲されている場合、ユーザーの選択肢は限られます。 セカンドオピニオンの欠如、透明性のある苦情処理プロセス、または矛盾する解釈。 これにより、一元的な制御構造が実現し、異議申し立てや検証が困難になります。AIの出力信頼性を向上させる既存の方法とその限界 現在、AIの出力の信頼性を向上させるためのさまざまな方法があります。各方法は部分的な価値を提供しますが、重要なアプリケーションに必要な信頼レベルには達していません。 人間とロボットのコラボレーション(HITL): このアプローチでは、人間が AI の出力をレビューして承認します。 これは、少量のユースケースで効果的に機能します。 しかし、検索エンジン、サポートボット、コーチングアプリケーションなど、1日に数百万件の回答を生成するシステムでは、すぐにボトルネックになる可能性があります。 手動レビューは時間がかかり、コストがかかり、バイアスや不整合が発生しやすくなります。 たとえば、xAI の Grok は AI チューターを使用して、回答を手動で評価し、絞り込んでいます。 これは一時的な解決策であり、Mira はこれを低レバレッジのソリューションと見なしており、拡張性がなく、AI ロジックに存在する検証できない根本的な問題を解決しません。 ルールフィルター:これらのシステムは、無効な用語をマークしたり、出力を構造化されたナレッジグラフと比較したりするなど、固定されたチェック方法を採用しています。 これらはより狭いコンテキストに適していますが、開発者の期待を満たす状況にのみ適しています。 彼らは斬新なクエリやオープンエンドのクエリを処理できず、微妙なエラーや曖昧な主張に苦労しています。 自己検証: 一部のモデルには、自信を評価したり、セカンダリ モデルを使用して答えを評価したりするメカニズムが含まれています。 しかし、AIシステムは自身のエラーを特定するのが苦手なことで有名です。 間違った答えを過信することは永遠の問題であり、内部フィードバックはしばしばそれを修正できません。 アンサンブル モデル: 一部のシステムでは、複数のモデルが相互にクロスチェックされます。 これにより品質基準が引き上げられる一方で、従来の統合モデルは多くの場合、中央集権的で均質です。 すべてのモデルが同様のトレーニング データを共有している場合、または同じベンダーから提供されている場合は、同じ盲点を共有している可能性があります。 アーキテクチャと視点の多様性は限られています。 Miraは、知覚の問題を解決することに尽力しています。 その目標は、錯覚を捉えて排除し、多様なモデルを通じてバイアスを最小限に抑え、出力を再現可能に検証可能にし、単一のエンティティが真正性検証プロセスを制御できない環境を作り出すことです。 Miraシステムの仕組みを研究することで、これらの問題をそれぞれ新しい方法で解決することができます。 Mira が AI の信頼性を向上させる方法 AIの信頼性に対する現在のアプローチは、一元化され、信頼できる唯一の情報源に依存しているため、異なります。 ミラは別のモデルを紹介しました。 分散型の検証を可能にし、プロトコルレベルでのコンセンサスを構築し、経済的インセンティブを使用して信頼性の動作を強化します。 Miraは、スタンドアロンの製品やトップダウンの監視ツールではなく、あらゆるAIシステムに統合できるモジュール式のインフラストラクチャレイヤーです。 この協定の設計は、いくつかの核心的な原則に基づいています: 事実の正確性は、モデルの出力に依存すべきではない。検証は自主的でなければならず、継続的な人的監視に依存してはならない。信頼は集中管理ではなく、独立したプロトコルの上に築かれるべきである。Miraは、分散コンピューティングの原則をAI検証に適用します。 ポリシーの推奨事項、財務サマリー、チャットボットの応答などの出力が送信されると、最初に小さな事実のステートメントに分割されます。 これらのクレームは、個別の質問またはステートメントとして構築され、バリデーターノードのネットワークにルーティングされます。 各ノードは異なるAIモデルまたは設定を実行し、割り当てられた声明を独立して評価します。それは次の3つの判断のいずれかを返します:真、偽、または不確実。次に、Miraは結果をフィードバックします。設定可能な絶対多数の閾値が満たされる場合、声明は検証されます。満たされない場合は、それにマークを付けたり、廃棄したり、警告を返したりします。 Miraの分散設計は、さまざまな構造的利点を持っています: 冗長性と多様性:異なるアーキテクチャ、データセット、視点を持つモデルを通じて声明をクロスチェックする。フォールトトレランス:モデル内の障害やエラーが多くのモデルで再現される可能性は低い。透明性:各検証結果はチェーン上に記録され、どのモデルが参加し、どのように投票したかを含む監査可能な手がかりを提供します。自律性:Miraは継続的に並行して動作し、人間の介入を必要としません。スケーラビリティ:このシステムは、毎日数十億のトークンの大量のワークロードを処理できます。 Miraの核となる洞察は統計学に基づいており、単一のモデルが幻覚を見たり、バイアスを反映したりする一方で、複数の独立したシステムは同じ間違いを同じように犯す確率ははるかに低くなります。 このプロトコルは、この多様性を利用して、信頼性の低いコンテンツをフィルタリングします。 Miraの原理はアンサンブル学習と似ていますが、現実世界のAIプロセスに組み込むことができる、分散型で検証可能で暗号経済的に安全なシステムへの考え方を拡張しています。ノード委託者と計算リソース Mira Networkの分散型検証インフラストラクチャは、バリデータノードの実行に必要なコンピューティングリソースを提供するコントリビューターのグローバルコミュニティによって支えられています。 ノードデリゲーターと呼ばれるこれらのコントリビューターは、プロトコル処理の本番環境のスケールを拡大し、AI出力を検証する上で重要な役割を果たします。 ノード委任者とは何ですか? ノードプリンシパルとは、バリデータノードを単独で運用するのではなく、検証済みのノードオペレーターにGPUコンピューティングリソースをレンタルまたは提供する個人またはエンティティです。 この委任モデルにより、参加者は複雑なAIモデルやノードソフトウェアを管理することなく、Miraのインフラストラクチャに貢献できます。 プリンシパルは、GPUリソースへのアクセスを提供することで、ノードオペレーターがより多くの検証を並行して実行できるようにし、システムの容量と堅牢性を向上させます。 ノードデリゲートは、その参加に対して金銭的なインセンティブが与えられます。 コンピューティングパワーを提供する見返りとして、サポートするノードによって実行され、品質に結び付けられた検証作業の量に対して報酬が与えられます。 これにより、ネットワークのスケーラビリティが分散型インフラストラクチャへの投資ではなく、コミュニティの参加に直接関連する分散型インセンティブ構造が生まれます。 ノードオペレーターは誰が提供しますか? 計算リソースは、去中心化インフラストラクチャエコシステムの重要な参加者であるMiraの創設ノードオペレーターパートナーから提供されます: Io.Net:GPU計算のための分散型物理インフラネットワーク (DePIN)、スケーラブルで経済的に効率的なGPUリソースを提供します。Aethir:企業向けの人工知能とゲームに特化したGPUサービスプロバイダーで、分散型クラウドコンピューティングインフラを提供しています。Hyperbolic:オープンAIクラウドプラットフォームで、AI開発に経済的で一貫性のあるGPUリソースを提供します。Exabits:AIの分散型クラウドコンピューティングの先駆者であり、GPU不足の問題を解決し、資源の最適化を図ります。Spheron:ウェブアプリケーションのデプロイを簡素化するための分散型プラットフォームで、透明性があり検証可能なソリューションを提供します。 各パートナーはMiraネットワーク上でバリデータノードを運営し、委託された計算能力を利用してAI出力を大規模に検証しています。彼らの貢献により、Miraは高い検証スループットを維持し、毎日数十億のトークンを処理しながら、速度、フォールトトレランス、分散化を保つことができています。 注意:各参加者は1つのノード委託者ライセンスのみ購入できます。ユーザーは「補助ビデオ認証」のKYCプロセスを通じて、真の参加を証明する必要があります。 MiraのAI分野における大規模な使用状況とデータサポート チームから提供されたデータによると、Miraネットワークは毎日30億以上のトークンを検証しています。 言語モデルでは、トークンはテキストの小さな単位 (通常は単語のスニペット、短い単語、句読点) を指します。 たとえば、「Mira 検証出力」というフレーズは、複数のトークンに分割されます。 このレポートの量は、Miraがチャットアシスタント、教育プラットフォーム、フィンテック製品、APIを使用する内部ツールなど、さまざまな統合で多くのコンテンツに取り組んでいることを示しています。 コンテンツレベルでは、このスループットは 1 日あたり数百万段落を評価することに相当します。 パートナープログラムを含むMiraのエコシステムは、450万人以上のユニークユーザーをサポートしており、毎日約50万人のアクティブユーザーがいると報告されています。 これらのユーザーには、Klokの直接ユーザーだけでなく、Miraの検証レイヤーをバックグラウンドで統合するサードパーティアプリケーションのエンドユーザーも含まれます。 ほとんどのユーザーはMiraと直接やり取りしないかもしれませんが、このシステムはサイレント検証レイヤーとして機能し、AIが生成したコンテンツがエンドユーザーに到達する前に一定の精度しきい値を満たしていることを確認するのに役立ちます。 Mira氏のチームの研究論文によると、教育や金融などの分野で以前は事実として正確だった大規模言語モデルは、約70%の事実精度を持っていましたが、現在ではMiraのコンセンサスプロセスによってスクリーニングされた後、96%の精度で検証されています。 これらの改善は、モデル自体を再トレーニングしなくても達成できることに注意することが重要です。 むしろ、これらの改善はMiraのフィルタリングロジックに起因しています。 システムは、独立して実行される複数のモデルが一致するように要求することで、信頼性の低いコンテンツを除外します。 この効果は、AIが生成した根拠のない虚偽の情報である幻覚にとって特に重要であり、統合アプリケーションでは90%減少すると報告されています。 幻覚はしばしば特異的で一貫性がないため、ミラのコンセンサスメカニズムを通過する可能性は低いです。 事実の信頼性を向上させるだけでなく、Miraプロトコルはオープンな参加をサポートするように設計されています。 検証は、一元化されたレビューチームに限定されません。 インセンティブを調整するために、Miraは金銭的なインセンティブと罰則のシステムを採用しています。 コンセンサスに一貫して従うバリデーターにはパフォーマンスベースの報酬が支払われますが、操作された判断や不正確な判断を行ったバリデーターには罰則が科せられます。 この構造は、誠実な行動を促し、異なるモデル構成間の競争を促進します。 中央集権的なガバナンスへの依存を排除し、プロトコルレイヤーにインセンティブを埋め込むことで、Miraは、出力基準が損なわれないようにしながら、トラフィックの多い環境でのスケーラブルな分散型検証を可能にします。結論Mira は、AI における最も差し迫った課題の 1 つである、大規模な出力結果の検証に依存する能力に対する構造的なソリューションを提供します。 Miraは、単一のモデルの信頼度や事後の人間の監督に頼るのではなく、AI生成と並行して実行される分散型の検証レイヤーを導入しています。 システムは、出力を事実のステートメントに分割し、それらを独立したバリデーターに配布し、コンセンサスメカニズムを適用することにより、サポートされていないコンテンツをフィルタリングします。 モデルの再トレーニングや制御の一元化を必要とせずに、信頼性が向上します。データは、採用率と事実精度が大幅に向上し、AI幻覚の現象が大幅に減少したことを示しています。 Miraは現在、チャットインターフェース、教育ツール、金融プラットフォームなど、さまざまな分野に統合されており、精度が重要なアプリケーションのインフラストラクチャレイヤーとして台頭しています。 プロトコルが成熟し、第三者による監査が普及するにつれて、Miraの透明性、再現性、およびオープンな参加は、大量または規制された環境で動作するAIシステムにスケーラブルな信頼性フレームワークを提供します。
Mira はどのように分散ノードを通じて AI の信頼性を高めるか
文:メッサリ
概要
分散検証により、Miraは独立したモデルネットワークを通じてAI出力をフィルタリングし、事実の信頼性を高め、再訓練や集中監視なしに幻想を減少させることができます。
コンセンサスメカニズムは、複数の独立して動作するモデルが、いかなる請求が承認される前に合意に達することを要求し、単一のモデルの信頼を置き換えます。
Miraは、毎日統合アプリケーションで30億のトークンを検証し、450万人以上のユーザーをサポートしています。
Miraのコンセンサスプロセスを通じてフィルタリングされた場合、実際の正確性は70%から96%に上昇します。
Miraは、チャットボット、フィンテックツール、教育プラットフォームなどのアプリケーションのAIに検証を直接組み込むことで、最終ユーザープロダクトではなくインフラストラクチャとして機能します。
ミラ紹介
MiraはAIシステムの出力を検証することを目的としたプロトコルです。そのコア機能は、分散型の監査/信頼レイヤーに似ています。AIモデルが出力を生成するたびに(回答でも要約でも)、Miraはその出力が最終ユーザーに届く前に、その中の「事実」声明が信頼できるかどうかを評価します。
このシステムは、各AI出力をより小さなクレームに分割することで機能します。 これらのクレームは、Miraネットワーク内の複数のバリデーターによって個別に評価されます。 各ノードは、多くの場合、異なるアーキテクチャ、データセット、またはパースペクティブを使用して、独自の AI モデルを実行します。 モデルは各主張に投票し、それが真実か文脈依存かを決定します。 最終的な結果はコンセンサスメカニズムによって決定されます:大多数のモデルがクレームの有効性に同意した場合、Miraはクレームを承認します。 意見の相違がある場合、請求にはフラグが立てられるか、拒否されます。
最終決定を下すための中央集権的な権威や隠れたモデルはありません。 それどころか、真実は集合的に決定され、分散した多様なモデルから生まれます。 プロセス全体が透明で監査可能です。 検証された各出力には、どのクレームが評価されたか、どのモデルが参加したか、どのように投票されたかを示す追跡可能なレコードである暗号化証明書が付属しています。 アプリケーション、プラットフォーム、さらには規制当局も、この証明書を使用して、出力がMiraの検証レイヤーを通過したことを確認できます。
Miraのインスピレーションは、人工知能の統合技術とブロックチェーンのコンセンサスメカニズムに由来しています。それは予測の集約によって精度を向上させるのではなく、評価の集約によって信頼性を確定します。分散型の真実性テストを通過しなかった出力は、フィルタリングされて拒否されます。
なぜ AI は Mira の検証システムを必要とするのですか?
AIモデルは決定論的ではありません。これは、同じプロンプトに対して常に同じ出力を返すわけではなく、生成された結果の真実性を保証することもできないことを意味します。これは欠陥ではなく、大規模言語モデルのトレーニング方法から直接生じるもので、次のトークンを決定論的ではなく確率的に予測します。
この確率的な特性は、人工知能システムに柔軟性を与えます。それは彼らに創造性、状況認識能力、そして人間に似た能力を与えます。しかし、これはまた、彼らが自然に物事を創造できることも意味します。
私たちはすでにその結果を目の当たりにしています。 エア・カナダのチャットボットは、まったく存在しない死別運賃ポリシーを作成し、それをユーザーに転送しました。 ユーザーはチャットボットを信頼するほどだまされやすく、虚偽の情報に基づいてチケットを予約し、金銭的損失を被りました。 裁判所は、チャットボットの幻覚は航空会社に責任があると裁定しました。 要するに、AIは自信を持って主張し、会社はそれに対して支払いました。
これは一例にすぎません。 幻覚が蔓延しています。 これらは、不正確に引用されている研究サマリー、誤った歴史的事実を提示する教育アプリ、虚偽または誤解を招く記述を含むAIが作成したニュースブリーフに表示されます。 これは、通常、これらの出力はスムーズで信頼できるものであり、ユーザーはそれらを真実として信じる傾向があるためです。
幻覚を除けば、他にも多くのシステム的な問題があります:
バイアス: AI モデルは、トレーニング データにバイアスを反映し、増幅する可能性があります。 このバイアスは必ずしも明白ではありません。 それは、言い回し、トーン、優先順位などによって微妙になるかもしれません。 たとえば、採用アシスタントは、特定の人口統計に対して体系的に偏っている可能性があります。 金融商品は、歪曲された言葉や汚名を着せる言葉を使ったリスク評価を生成することがあります。
非決定性:同じモデルに同じ質問を2回すると、異なる2つの答えが得られる可能性があります。プロンプトを少し変更するだけで、結果が予期しない変化を見せることがあります。この不一致性は、AIの出力を監査、再現、または長期的に依存することを難しくします。
ブラックボックスの性質:AIシステムが答えを出しても、通常、説明や追跡可能な推論は提供されません。 結論を提示する明確な手がかりはありません。 その結果、モデルがうまくいかなくなった場合、原因の診断や修正が難しくなる可能性があります。
集中管理:今日のほとんどのAIシステムは、一握りの大企業によって制御されるクローズドモデルです。 モデルに欠陥がある場合、偏見がある場合、または検閲されている場合、ユーザーの選択肢は限られます。 セカンドオピニオンの欠如、透明性のある苦情処理プロセス、または矛盾する解釈。 これにより、一元的な制御構造が実現し、異議申し立てや検証が困難になります。
AIの出力信頼性を向上させる既存の方法とその限界
現在、AIの出力の信頼性を向上させるためのさまざまな方法があります。各方法は部分的な価値を提供しますが、重要なアプリケーションに必要な信頼レベルには達していません。
人間とロボットのコラボレーション(HITL): このアプローチでは、人間が AI の出力をレビューして承認します。 これは、少量のユースケースで効果的に機能します。 しかし、検索エンジン、サポートボット、コーチングアプリケーションなど、1日に数百万件の回答を生成するシステムでは、すぐにボトルネックになる可能性があります。 手動レビューは時間がかかり、コストがかかり、バイアスや不整合が発生しやすくなります。 たとえば、xAI の Grok は AI チューターを使用して、回答を手動で評価し、絞り込んでいます。 これは一時的な解決策であり、Mira はこれを低レバレッジのソリューションと見なしており、拡張性がなく、AI ロジックに存在する検証できない根本的な問題を解決しません。
ルールフィルター:これらのシステムは、無効な用語をマークしたり、出力を構造化されたナレッジグラフと比較したりするなど、固定されたチェック方法を採用しています。 これらはより狭いコンテキストに適していますが、開発者の期待を満たす状況にのみ適しています。 彼らは斬新なクエリやオープンエンドのクエリを処理できず、微妙なエラーや曖昧な主張に苦労しています。
自己検証: 一部のモデルには、自信を評価したり、セカンダリ モデルを使用して答えを評価したりするメカニズムが含まれています。 しかし、AIシステムは自身のエラーを特定するのが苦手なことで有名です。 間違った答えを過信することは永遠の問題であり、内部フィードバックはしばしばそれを修正できません。
アンサンブル モデル: 一部のシステムでは、複数のモデルが相互にクロスチェックされます。 これにより品質基準が引き上げられる一方で、従来の統合モデルは多くの場合、中央集権的で均質です。 すべてのモデルが同様のトレーニング データを共有している場合、または同じベンダーから提供されている場合は、同じ盲点を共有している可能性があります。 アーキテクチャと視点の多様性は限られています。
Miraは、知覚の問題を解決することに尽力しています。 その目標は、錯覚を捉えて排除し、多様なモデルを通じてバイアスを最小限に抑え、出力を再現可能に検証可能にし、単一のエンティティが真正性検証プロセスを制御できない環境を作り出すことです。 Miraシステムの仕組みを研究することで、これらの問題をそれぞれ新しい方法で解決することができます。
Mira が AI の信頼性を向上させる方法
AIの信頼性に対する現在のアプローチは、一元化され、信頼できる唯一の情報源に依存しているため、異なります。 ミラは別のモデルを紹介しました。 分散型の検証を可能にし、プロトコルレベルでのコンセンサスを構築し、経済的インセンティブを使用して信頼性の動作を強化します。 Miraは、スタンドアロンの製品やトップダウンの監視ツールではなく、あらゆるAIシステムに統合できるモジュール式のインフラストラクチャレイヤーです。
この協定の設計は、いくつかの核心的な原則に基づいています:
事実の正確性は、モデルの出力に依存すべきではない。
検証は自主的でなければならず、継続的な人的監視に依存してはならない。
信頼は集中管理ではなく、独立したプロトコルの上に築かれるべきである。
Miraは、分散コンピューティングの原則をAI検証に適用します。 ポリシーの推奨事項、財務サマリー、チャットボットの応答などの出力が送信されると、最初に小さな事実のステートメントに分割されます。 これらのクレームは、個別の質問またはステートメントとして構築され、バリデーターノードのネットワークにルーティングされます。
各ノードは異なるAIモデルまたは設定を実行し、割り当てられた声明を独立して評価します。それは次の3つの判断のいずれかを返します:真、偽、または不確実。次に、Miraは結果をフィードバックします。設定可能な絶対多数の閾値が満たされる場合、声明は検証されます。満たされない場合は、それにマークを付けたり、廃棄したり、警告を返したりします。
Miraの分散設計は、さまざまな構造的利点を持っています:
冗長性と多様性:異なるアーキテクチャ、データセット、視点を持つモデルを通じて声明をクロスチェックする。
フォールトトレランス:モデル内の障害やエラーが多くのモデルで再現される可能性は低い。
透明性:各検証結果はチェーン上に記録され、どのモデルが参加し、どのように投票したかを含む監査可能な手がかりを提供します。
自律性:Miraは継続的に並行して動作し、人間の介入を必要としません。
スケーラビリティ:このシステムは、毎日数十億のトークンの大量のワークロードを処理できます。
Miraの核となる洞察は統計学に基づいており、単一のモデルが幻覚を見たり、バイアスを反映したりする一方で、複数の独立したシステムは同じ間違いを同じように犯す確率ははるかに低くなります。 このプロトコルは、この多様性を利用して、信頼性の低いコンテンツをフィルタリングします。 Miraの原理はアンサンブル学習と似ていますが、現実世界のAIプロセスに組み込むことができる、分散型で検証可能で暗号経済的に安全なシステムへの考え方を拡張しています。
ノード委託者と計算リソース
Mira Networkの分散型検証インフラストラクチャは、バリデータノードの実行に必要なコンピューティングリソースを提供するコントリビューターのグローバルコミュニティによって支えられています。 ノードデリゲーターと呼ばれるこれらのコントリビューターは、プロトコル処理の本番環境のスケールを拡大し、AI出力を検証する上で重要な役割を果たします。
ノード委任者とは何ですか?
ノードプリンシパルとは、バリデータノードを単独で運用するのではなく、検証済みのノードオペレーターにGPUコンピューティングリソースをレンタルまたは提供する個人またはエンティティです。 この委任モデルにより、参加者は複雑なAIモデルやノードソフトウェアを管理することなく、Miraのインフラストラクチャに貢献できます。 プリンシパルは、GPUリソースへのアクセスを提供することで、ノードオペレーターがより多くの検証を並行して実行できるようにし、システムの容量と堅牢性を向上させます。
ノードデリゲートは、その参加に対して金銭的なインセンティブが与えられます。 コンピューティングパワーを提供する見返りとして、サポートするノードによって実行され、品質に結び付けられた検証作業の量に対して報酬が与えられます。 これにより、ネットワークのスケーラビリティが分散型インフラストラクチャへの投資ではなく、コミュニティの参加に直接関連する分散型インセンティブ構造が生まれます。
ノードオペレーターは誰が提供しますか?
計算リソースは、去中心化インフラストラクチャエコシステムの重要な参加者であるMiraの創設ノードオペレーターパートナーから提供されます:
Io.Net:GPU計算のための分散型物理インフラネットワーク (DePIN)、スケーラブルで経済的に効率的なGPUリソースを提供します。
Aethir:企業向けの人工知能とゲームに特化したGPUサービスプロバイダーで、分散型クラウドコンピューティングインフラを提供しています。
Hyperbolic:オープンAIクラウドプラットフォームで、AI開発に経済的で一貫性のあるGPUリソースを提供します。
Exabits:AIの分散型クラウドコンピューティングの先駆者であり、GPU不足の問題を解決し、資源の最適化を図ります。
Spheron:ウェブアプリケーションのデプロイを簡素化するための分散型プラットフォームで、透明性があり検証可能なソリューションを提供します。
各パートナーはMiraネットワーク上でバリデータノードを運営し、委託された計算能力を利用してAI出力を大規模に検証しています。彼らの貢献により、Miraは高い検証スループットを維持し、毎日数十億のトークンを処理しながら、速度、フォールトトレランス、分散化を保つことができています。
注意:各参加者は1つのノード委託者ライセンスのみ購入できます。ユーザーは「補助ビデオ認証」のKYCプロセスを通じて、真の参加を証明する必要があります。
MiraのAI分野における大規模な使用状況とデータサポート
チームから提供されたデータによると、Miraネットワークは毎日30億以上のトークンを検証しています。 言語モデルでは、トークンはテキストの小さな単位 (通常は単語のスニペット、短い単語、句読点) を指します。 たとえば、「Mira 検証出力」というフレーズは、複数のトークンに分割されます。 このレポートの量は、Miraがチャットアシスタント、教育プラットフォーム、フィンテック製品、APIを使用する内部ツールなど、さまざまな統合で多くのコンテンツに取り組んでいることを示しています。 コンテンツレベルでは、このスループットは 1 日あたり数百万段落を評価することに相当します。
パートナープログラムを含むMiraのエコシステムは、450万人以上のユニークユーザーをサポートしており、毎日約50万人のアクティブユーザーがいると報告されています。 これらのユーザーには、Klokの直接ユーザーだけでなく、Miraの検証レイヤーをバックグラウンドで統合するサードパーティアプリケーションのエンドユーザーも含まれます。 ほとんどのユーザーはMiraと直接やり取りしないかもしれませんが、このシステムはサイレント検証レイヤーとして機能し、AIが生成したコンテンツがエンドユーザーに到達する前に一定の精度しきい値を満たしていることを確認するのに役立ちます。
Mira氏のチームの研究論文によると、教育や金融などの分野で以前は事実として正確だった大規模言語モデルは、約70%の事実精度を持っていましたが、現在ではMiraのコンセンサスプロセスによってスクリーニングされた後、96%の精度で検証されています。 これらの改善は、モデル自体を再トレーニングしなくても達成できることに注意することが重要です。 むしろ、これらの改善はMiraのフィルタリングロジックに起因しています。 システムは、独立して実行される複数のモデルが一致するように要求することで、信頼性の低いコンテンツを除外します。 この効果は、AIが生成した根拠のない虚偽の情報である幻覚にとって特に重要であり、統合アプリケーションでは90%減少すると報告されています。 幻覚はしばしば特異的で一貫性がないため、ミラのコンセンサスメカニズムを通過する可能性は低いです。
事実の信頼性を向上させるだけでなく、Miraプロトコルはオープンな参加をサポートするように設計されています。 検証は、一元化されたレビューチームに限定されません。 インセンティブを調整するために、Miraは金銭的なインセンティブと罰則のシステムを採用しています。 コンセンサスに一貫して従うバリデーターにはパフォーマンスベースの報酬が支払われますが、操作された判断や不正確な判断を行ったバリデーターには罰則が科せられます。 この構造は、誠実な行動を促し、異なるモデル構成間の競争を促進します。 中央集権的なガバナンスへの依存を排除し、プロトコルレイヤーにインセンティブを埋め込むことで、Miraは、出力基準が損なわれないようにしながら、トラフィックの多い環境でのスケーラブルな分散型検証を可能にします。
結論
Mira は、AI における最も差し迫った課題の 1 つである、大規模な出力結果の検証に依存する能力に対する構造的なソリューションを提供します。 Miraは、単一のモデルの信頼度や事後の人間の監督に頼るのではなく、AI生成と並行して実行される分散型の検証レイヤーを導入しています。 システムは、出力を事実のステートメントに分割し、それらを独立したバリデーターに配布し、コンセンサスメカニズムを適用することにより、サポートされていないコンテンツをフィルタリングします。 モデルの再トレーニングや制御の一元化を必要とせずに、信頼性が向上します。
データは、採用率と事実精度が大幅に向上し、AI幻覚の現象が大幅に減少したことを示しています。 Miraは現在、チャットインターフェース、教育ツール、金融プラットフォームなど、さまざまな分野に統合されており、精度が重要なアプリケーションのインフラストラクチャレイヤーとして台頭しています。 プロトコルが成熟し、第三者による監査が普及するにつれて、Miraの透明性、再現性、およびオープンな参加は、大量または規制された環境で動作するAIシステムにスケーラブルな信頼性フレームワークを提供します。