Messari 専門解析:Mira プロトコルはどのように分散化コンセンサスメカニズムを通じて、AIをより誠実にするのか?

今日のジェネレーティブAIブームの中で、私たちはまだ根本的な問題を解決するのに苦労しています:AIは時に深刻なナンセンスです。 この現象は、業界では「幻覚」として知られています。 AI出力検証用に設計された分散型プロトコルであるMiraは、マルチモデルコンセンサスメカニズムと暗号化監査を通じてAIに「事実の信頼性」を追加しようとしています。 ここでは、Mira がどのように機能するか、従来の手法よりも効果的である理由、および現在実際のアプリケーションでどのように使用されているかについて説明します。 この記事は、Messariが発行した調査レポートに基づいており、全文は「AI検証を理解する:Miraのユースケース」でご覧いただけます。

分散型ファクト検証プロトコル:Miraの基本

MiraはAIモデルではなく、組み込みの検証層です。AIモデルが応答を生成した後(例えば、チャットボットの回答、要約、自動化レポートなど)、Miraは出力を一連の独立した事実主張に分解します。これらの主張はその分散型検証ネットワークに送信され、各ノード(すなわち検証者)はそれぞれ異なる構造のAIモデルを実行して、これらの主張が真であるかどうかを評価します。

各ノードは主張に対して「正しい」、「間違い」または「不確定」という判断を行い、最終的にシステムは多数のコンセンサスに基づいて全体の決定を下します。もし大多数のモデルがある主張を真と認めれば、その主張は承認されます。そうでなければ、ラベル付けされ、却下されるか、警告が提示されます。

このプロセスは完全に透明で、監査可能です。各検証は、検証プロセスに参加したモデル、投票結果、タイムスタンプなどを示す暗号化証明書を生成し、第三者が確認できるようにします。

なぜ AI は Mira のような検証システムを必要とするのか?

生成型AIモデル(GPT、Claudeなど)は決定論的なツールではなく、次の文字を確率に基づいて予測するもので、「事実認識」を内蔵していません。このような設計により、詩を作成したり、ジョークを言ったりすることができますが、同時に:彼らは真面目に虚偽の情報を作り出す可能性があります。

Miraが提案した検証メカニズムは、現在のAIの四大コア問題を解決することを目的としています:

幻覚の氾濫:AIが政策を捏造し、虚構の歴史的事件を作り出し、文献を乱引きする事例が次々と現れている。

ブラックボックスの運用:ユーザーはAIの回答がどこから来たのかを知らず、追跡することができない。

非一貫性出力:同じ問題に対して、AIは異なる回答を出す可能性があります。

中央集権的な制御:現在、ほとんどのAIモデルは少数の企業によって独占されており、ユーザーは自分のロジックを検証したり、セカンドオピニオンを得たりする方法がありません。

従来の検証方法の限界

現在の代替策、例えばヒューマン・イン・ザ・ループ、人間のレビュー、ルールベースのフィルター、モデルの自己検証などは、それぞれに欠点があります。

人工審査はスケール化が難しく、速度が遅く、コストが高い。

ルールベースのフィルタリングは、特定のシナリオに限定され、創造的なエラーには無力です。

モデルの自己審査効果が低く、AIは間違った回答に対して過度に自信を持つことがよくあります。

集中型のアンサンブルは交差検証が可能ですが、モデルの多様性に欠け、「集団的盲点」が生じやすいです。

Mira の革新的なメカニズム:コンセンサスメカニズムと AI の分業を組み合わせる

Miraの重要な革新は、ブロックチェーンのコンセンサスの概念をAI検証に取り入れることです。各AIの出力は、Miraを経た後、複数の独立した事実の陳述に変わり、さまざまなAIモデルによって「投票」が行われます。一定の割合を超えるモデルが一致した場合のみ、その内容は信頼できると見なされます。

Miraのコア設計の利点には、以下が含まれます:

モデルの多様性:異なるアーキテクチャとデータ背景からのモデルが集団的バイアスを低減します。

エラー耐性:一部のノードがエラーを起こしても、全体の結果には影響しません。

全体の透明性:検証記録がブロックチェーンに記録され、監査可能です。

スケーラビリティが高い:毎日30億以上のトークン(約数百万の文章に相当)を検証できます。

人的干渉は不要:自動化で行われ、手動確認は必要ありません。

分散化基礎インフラ:ノードと計算リソースは誰が提供するのか?

Miraの検証ノードは、世界中の分散化計算貢献者によって提供されています。これらの貢献者はNode Delegators (ノード委任者)と呼ばれ、ノードを直接操作するのではなく、認証されたノードオペレーターにGPU計算リソースを貸し出します。この「計算即サービス」モデルは、Miraの処理可能な規模を大幅に拡大しました。

主要な協力ノード供給業者には、

Io.Net:DePINアーキテクチャのGPU計算ネットワークを提供します。

Aethir:AI とゲームに特化した分散化クラウドGPU。

ハイパーボリック、エクサビット、スフェロン:複数のブロックチェーン計算プラットフォームがあり、Miraノードにインフラを提供しています。

ノード参加者は、ネットワークのユニーク性と安全性を確保するために、KYCビデオ認証プロセスを通過する必要があります。

Miraによる検証でAIの正確率が96%に向上

Messari のレポートにある Mira チームのデータによると、検証レイヤーによるフィルタリングにより、大規模言語モデルの事実精度が 70% から 96% に向上しました。 教育、金融、カスタマーサービスなどの現実世界のシナリオでは、幻覚コンテンツの頻度が90%減少しました。 重要なのは、これらの改善にはAIモデルの再トレーニングがまったく必要なく、「フィルタリング」だけで実現できることです。

現在、Miraは複数のアプリケーションプラットフォームに統合されています。

教育ツール

財務分析製品

AIチャットボット

サードパーティの検証済み生成APIサービス

Mira エコシステムは、450 万人以上のユーザーを抱え、毎日のアクティブユーザーは 50 万人を超えています。多くの人が Mira に直接触れていないものの、彼らの AI 応答は、その背後にある検証メカニズムを通過していることがすでに静かに行われています。

MiraはAIの信頼できる基盤を構築します

AI産業が規模と効率をますます追求する中、Miraは新しい方向性を提供しています:単一のAIに答えを決定させるのではなく、一群の独立したモデルに「投票して真実を決定させる」ことです。このような構造は、出力結果をより信頼できるものにするだけでなく、「検証可能な信頼メカニズム」を構築し、高度なスケーラビリティを持っています。

ユーザーが増え、サードパーティによるモデレーションが一般的になるにつれて、MiraはAIエコシステムに不可欠なインフラストラクチャになる可能性を秘めています。 AIを実世界のアプリケーションで自立させたいと考えている開発者や企業にとって、Miraに代表される「分散検証レイヤー」は、パズルの重要なピースの1つかもしれません。

この記事は、Messariの専門的な分析:Miraプロトコルがどのように分散化コンセンサスメカニズムを通じてAIをより誠実にするかを解説しています。最初に登場したのは、チェーンニュースABMediaです。

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)