📢 Gate廣場 #NERO发帖挑战# 秀觀點贏大獎活動火熱開啓!
Gate NERO生態周來襲!發帖秀出NERO項目洞察和活動實用攻略,瓜分30,000NERO!
💰️ 15位優質發帖用戶 * 2,000枚NERO每人
如何參與:
1️⃣ 調研NERO項目
對NERO的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與NERO生態周相關活動,並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
NERO熱門活動(帖文需附以下活動連結):
NERO Chain (NERO) 生態周:Gate 已上線 NERO 現貨交易,爲回饋平台用戶,HODLer Airdrop、Launchpool、CandyDrop、餘幣寶已上線 NERO,邀您體驗。參與攻略見公告:https://www.gate.com/announcements/article/46284
高質量帖子Tips:
教程越詳細、圖片越直觀、互動量越高,獲獎幾率越大!
市場見解獨到、真實參與經歷、有帶新互動者,評選將優先考慮。
帖子需原創,字數不少於250字,且需獲得至少3條有效互動
多模型共識+去中心化驗證:Mira Network如何構建AI信任層對抗幻覺與偏見?
看到Mira網絡的公共測試網於昨天推出。它試圖要構建AI的信任層。那麼,為什麼AI需要被信任?Mira又是如何來解決這個問題的?
人們在討論AI時,關注AI能力的強大方面更多些。不過,有意思的是,AI存在“幻覺”或偏見。人們對這個事情關注並不多。什麼是AI的“幻覺”,簡單來說,就是AI有時候會“瞎編”,一本正經地胡說八道。比如,你問AI月亮為什麼是粉色的?它可能會一本正經給你很多看似合理的解釋。
AI存在“幻覺”或偏見跟目前一些AI技術路徑有一定關係,比如生成式AI會通過預測“最可能”來進行內容輸出,以實現連貫以及合理,但有時候無法驗證真偽;此外,訓練數據本身也包含錯誤、偏見甚至虛構內容,這也會影響到AI的輸出。也就是說AI本身學習的人類語言模式而不是事實本身
總言之,目前的概率生成機制+數據驅動的模式幾乎不可避免帶來AI 幻覺的可能性。
這種帶有偏見或幻覺輸出的內容如果只是普通知識或娛樂內容,暫時還不會有直接後果,而如果發生在醫療、法律、航空、金融等高度嚴謹的領域,會直接產生重大後果。因此關於如何解決AI幻覺和偏見,是AI演化過程中核心問題之一。有的採用檢索增強生成技術(跟實時數據庫結合,優先輸出已驗證事實)、有的引入人類反饋,通過人工標註人類監督來糾正模型的錯誤等。
Mira項目也在試圖解決AI偏見和幻覺的問題,也就是,Mira試圖要構建AI的信任層,減少AI偏見和幻覺,提升AI的可靠性。那麼,從整體框架來說,Mira是如何來減少AI的偏見和幻覺,並最終實現可信任的AI?
Mira實現這一點的核心是通過多個AI模型共識來驗證AI輸出。也就是,Mira本身是一個驗證網絡,它驗證AI輸出的可靠性,而它借力的是多個AI模型的共識。此外,還有一點很重要,就是去中心化共識來進行驗證。
由此Mira網絡的關鍵是去中心化的共識驗證。去中心化的共識驗證是加密領域擅長的,同時它也利用了多模型的協同這一點,通過集體驗證模式來減少偏見和幻覺。
驗證架構方面,它需要有一種可獨立驗證聲明,Mira協議支持將複雜內容轉換為獨立驗證聲明。這些聲明需要節點運營商參與驗證,為了確保節點運營商的誠實,這裡會利用到加密經濟激勵/懲罰來實現,不同AI模型+分散的節點運營商參與,以保證驗證結果的可靠性。
Mira的網絡架構包括了內容轉換、分佈式驗證、以及共識機制,以此實現驗證的可靠性。在這個架構中,內容轉換是重要一環。Mira網絡首先會將候選內容(一般由客戶提交)分解成為不同的可驗證聲明(以確保模型可以按相同背景下來理解),這些聲明由系統分發給節點進行驗證,以確定聲明的有效性,並彙總結果達成共識。這些結果和共識會返回給客戶。此外,為了保護客戶隱私,候選內容轉換分解為聲明對,它們會以隨機分片的方式給到不同節點,防止驗證過程中產生信息洩漏。
節點運營商負責運行驗證器模型,處理聲明以及提交驗證結果。為什麼節點運營商願意參與聲明的驗證中來?因為可以獲得收益。收益從哪裡來?從為客戶創造的價值中來。Mira網絡的目的是為了降低AI的錯誤率(幻覺和偏見),一旦可以達成目的,就可以產生價值,比如在醫療、法律、航空、金融等領域降低錯誤率,這會產生巨大價值。因此,客戶就有意願付費。當然,至於付費的可持續性和規模則取決於Mira網絡能否持續為客戶帶來價值(降低AI錯誤率)。此外,為了防止節點隨機響應的投機取巧的行為,持續偏離共識的節點會被消減質押代幣。總言之,就是通過經濟機制的博弈來確保節點運營商誠實地參與驗證。
總體來說,Mira為實現AI的可靠性,提供了一種新的解決思路,就是在多AI模型基礎上,構建出去中心化共識驗證網絡,為客戶的AI服務帶來更高的可靠性,降低AI偏見和幻覺,以滿足客戶更高準確度和精確率的需求。並在為客戶提供價值基礎上,為Mira網絡的參與者帶來收益。如果用一句話來概括,就是Mira試圖構建AI的信任層。這對於提升AI應用深入起到推動作用。
目前Mira合作的AI agent框架就包括ai16z、ARC等。Mira網絡的公共測試網於昨日推出,用戶參與Mira公共測試網,可通過使用Klok即可,它是基於Mira的LLM聊天應用,使用Klok應用可以體驗經過驗證的AI輸出(可以去比較跟沒有經過驗證的AI輸出有什麼區別),也可以賺取Mira積分。至於積分未來用途是什麼,暫時還沒透露。