Messari 專文解析:Mira 協議如何透過去中心化共識機制,讓 AI 更誠實?

在生成式 AI 蓬勃發展的今天,我們仍難以解決一個根本問題:AI 有時會一本正經地胡說八道。這種現象在業界被稱為「幻覺」(hallucination)。而 Mira,一個專為 AI 輸出驗證而設計的去中心化協議,正試圖透過多模型共識機制與加密審計,為 AI 增加「事實可信度」。以下,我們來看 Mira 是如何運作的、為什麼它比傳統做法更有效,以及它目前在真實應用中的成果。本報導內容根據 Messari 發布的研究報告整理撰寫,完整原文可參見:Understanding AI Verification: A Use Case for Mira

去中心化的事實驗證協議:Mira 的基本運作原理

Mira 並不是一個 AI 模型,而是一個嵌入式的驗證層。當一個 AI 模型產出回應後(例如 chatbot 回答、摘要、自動化報告等),Mira 會將輸出拆解成一連串獨立的事實主張。這些主張會被送往其分散式驗證網路,每個節點(即驗證者)各自運行不同架構的 AI 模型,來評估這些主張是否為真。

每個節點都會針對主張給出「正確」、「錯誤」或「不確定」的判斷,最後系統依據多數共識來做出總體決策。若大多數模型認可某個主張為真,該主張就會被核准;否則就會被標註、駁回,或提示警告。

這個過程完全透明、可審計。每一筆驗證都會產生一個加密證書,標明驗證過程中參與的模型、投票結果、時間戳記等,供第三方查驗。

為什麼 AI 需要像 Mira 這樣的驗證系統?

生成式 AI 模型(如 GPT、Claude)並不是決定論式的工具,它們是依照機率預測下一個字元,並不具備內建的「事實感知」。這樣的設計讓它們可以寫詩、講笑話,但也意味著:它們可能一本正經地製造虛假資訊。

Mira 提出的驗證機制,正是要解決 AI 目前的四大核心問題:

幻覺泛濫:AI 編造政策、虛構歷史事件、亂引文獻的案例層出不窮。

黑箱運作:使用者不知道 AI 的答案從何而來,無法追溯。

非一致性輸出:同樣的問題,AI 可能給出不同答案。

中心化控制:目前大多數 AI 模型由少數幾家公司壟斷,用戶無法查證其邏輯或爭取第二意見。

傳統驗證方法的侷限

目前的替代方案,例如人類審查(Human-in-the-loop)、規則式過濾器、模型自我校驗等,都各有不足:

人工審查難以規模化,速度慢且成本高。

規則式過濾侷限於預定場景,對創造性錯誤無能為力。

模型自審效果差,AI 經常對錯誤答案過度自信。

集中式 Ensemble 雖然能交叉檢查,但缺乏模型多樣性,容易形成「集體盲點」。

Mira 的創新機制:結合共識機制與 AI 分工

Mira 的關鍵創新是將區塊鏈共識概念引入 AI 驗證。每一筆 AI 輸出,在經過 Mira 後,會變成多個獨立的事實陳述,由各式 AI 模型進行「投票」。只有在超過一定比例模型達成一致時,該內容才會被視為可信。

Mira 核心設計優勢包括:

模型多樣性:來自不同架構與數據背景的模型,降低集體偏誤。

錯誤容忍:即使部分節點出錯,也不會影響整體結果。

全鏈透明:驗證紀錄上鏈,可供審計。

可擴展性強:每日可驗證超過 30 億 tokens(約等於數百萬段文字)。

無需人為干預:自動化進行,不需人工驗證。

去中心化基礎建設:節點與計算資源由誰提供?

Mira 的驗證節點由全球去中心化計算貢獻者提供。這些貢獻者被稱為 Node Delegators (節點委任者),他們不直接操作節點,而是將 GPU 運算資源出租給經過認證的節點營運者。這種「計算即服務」模式大幅擴展了 Mira 的可處理規模。

主要合作節點供應商包括:

Io.Net:提供 DePIN 架構 GPU 計算網。

Aethir:專注於 AI 與遊戲的分散式雲端 GPU。

Hyperbolic、Exabits、Spheron:多家區塊鏈計算平台,也為 Mira 節點提供基礎設施。

節點參與者需通過一項 KYC 視訊驗證程序,以確保網路唯一性與安全性。

Mira 驗證讓 AI 正確率提升至 96%

根據 Messari 報告中的 Mira 團隊數據,透過其驗證層過濾後,大型語言模型的事實正確率從 70% 提升至 96%。在教育、金融、客服等實際場景中,幻覺內容的出現頻率下降了 90%。重要的是,這些改進完全不需重新訓練 AI 模型,僅透過「過濾」就能達成。

目前 Mira 已整合至多個應用平台中,包括:

教育工具

金融分析產品

AI chatbot

第三方 Verified Generate API 服務

整個 Mira 生態系涵蓋超過 450 萬名用戶,每日活躍使用者達 50 萬人以上。雖多數人未直接接觸 Mira,但他們的 AI 回應,早已悄悄經過其背後的驗證機制。

Mira 打造 AI 的可信任基礎層

在 AI 產業日益追求規模與效率的同時,Mira 提供了一個新方向:不靠單一 AI 決定答案,而是靠一群獨立模型來「投票定真」。這樣的架構不僅讓輸出結果更可信,也建立起一種「可驗證的信任機制」,並且具備高度可擴展性。

隨著用戶規模擴大與第三方審核漸趨普及,Mira 有潛力成為 AI 生態中不可或缺的基礎設施。對於任何希望其 AI 能在真實世界應用中站得住腳的開發者與企業,Mira 所代表的「分散式驗證層」或許正是關鍵拼圖之一。

這篇文章 Messari 專文解析:Mira 協議如何透過去中心化共識機制,讓 AI 更誠實? 最早出現於 鏈新聞 ABMedia。

本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)