📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
使用全同態(FHE)解決LLM的隱私問題
來源: Antalpha Labs
導讀
人工智慧的崛起令人驚歎。 從基本的演算法,到如ChatGPT和Copilot這樣的語言學習模型(LLMs),人工智慧已處於技術演進的前沿。 隨著這些模型與用戶互動並處理大量數據和提示,數據隱私問題變得尤為重要。 其中亞馬遜和蘋果等大公司已經限制員工訪問ChatGPT等公共API,來防止可能因AI交互而導致的數據洩露。 此外,可以合理地預測,相關法規將很快出臺,以強制要求一定程度的使用者隱私保護。
我們如何確保與這些模型的交互、提問和共享的數據保持隱私呢?
-全同態加密(FHE)
簡介
在密碼學領域,全同態加密是一個開創性的概念。 它的魅力在於其擁有的一種獨特能力:它允許直接對加密的數據進行計算,而不需要先對數據解密,從而實現了對敏感信息的隱私推理。
借助這種特性可以確保兩個重要的事情:數據在處理過程中保持安全,以及對模型智慧財產權(IP)的完全保護。
** 隱私推理與知識產權保護 **
如今,「隱私 」和 「用戶體驗 」似乎是魚和熊掌的關係,二者不可得兼。 人們往往為了更好的用戶體驗,信任第三方去處理他們的資訊。 我們相信,這些第三方公司能夠在用戶隱私與優質的使用者服務之間找到一個平衡點,而不必在隱私性更高但缺少功能的本地解決方案或犧牲隱私以獲得豐富功能的服務之間做出選擇。
全同態加密能夠在完全保護模型知識產權的情況下實現隱私推理。 通過對加密數據進行計算,它可以確保提示詞完全保密,同時還能保護大語言模型的智慧財產權。
傳統加密方法 VS FHE
在傳統的加密方案中,如果要對加密形式下的數據進行有意義的運算,首先需要對其進行解密。 但是解密就會暴露數據明文,這意味著數據將變得脆弱,易受到攻擊,哪怕只是一瞬間的解密。
相比之下,全同態加密可以直接對密文進行運算,確保敏感資訊在整個運算過程中處於“不可見”的狀態。
為什麼FHE很重要
全同態加密的重要性不僅限於理論。 想像一下在雲計算服務中,可以在不解密數據的情況下進行數據處理,或者醫療資料庫可以在不獲取敏感患者詳細信息的情況下進行分析。 全同態加密的潛在應用非常廣泛且多樣化,包括安全投票系統和對加密資料庫進行隱私搜索等。
FHE的數學基礎
全同態加密基於容錯學習(LWE)問題,這是一種格密碼學技術,具有抗量子性。 在LWE中,利用隨機雜訊使數據變得不可讀,除非擁有密鑰。 對加密數據進行算術運算是可能的,但這通常會增加雜訊水準。 如果連續進行過多的運算,任何人都無法讀取數據,包括持有密鑰的人。 這就是部分同態加密(SHE)。
而要將部分同態加密轉換為全同態加密,需要一種能降低噪音水準的操作。 這種操作被稱為 「自舉」(Bootstrapping),多種全同態加密方案都採用了自舉操作。 在本文中,我們將重點討論環面上的全同態加密方案(Torus FHE),它利用數學環面的代數結構來實現全同態加密。
TFHE的優點
儘管每種全同態加密方案都有自己的優缺點,但在實際場景中,TFHE目前擁有更高效的實現。 TFHE的另一個重要優勢在於其可程式設計自舉(Programmable Bootstrapping,PBS),它將通常的自舉操作擴展到包括對單變數函數的計算,例如在機器學習領域中至關重要的啟動函數。
TFHE 的一個劣勢是在計算中每執行一次算術運算都需要執行一次 PBS 操作,而其他方案則允許在自舉操作之間批量執行一些操作。
假設與近似****
為了估計使用全同態加密進行大語言模型(LLM)推理所需的時間,我們做出一些假設來評估:
LLM和FHE的挑戰****
隨著最新技術的進展,目前最好的全同態加密實現可以在僅需35微秒的時間內執行一次算術操作。 然而,當考慮到像GPT2這樣複雜的模型時,單個Token需要進行驚人的15億次操作。 這意味著每個Token的處理時間約為52,000秒。
為了更好地理解,對於語言模型來說,一個Token可以表示一個字元或一個完整的單詞等內容。 想像一下與一個語言模型進行交互,其中回應時間需要一兩個星期! 這是不可接受的,這樣的延遲顯然對於即時通信或模型的任何實際應用都是不可行的。
這顯示了在當前的全同態加密技術下,對於大規模的語言模型來說,實現即時推理仍然是一個巨大的挑戰。 儘管全同態加密在數據保護方面具有重要意義,但在需要高度計算密集型的任務中,其性能限制可能使其難以應用於實際場景。 對於即時交互和快速回應的需求,可能需要探索其他的安全計算和隱私保護解決方案。
潛在的解決方案****
為了使全同態加密應用到大語言模型中,以下是一個可能的路線圖:
2 過渡到先進的硬體:
正如圖所示,使用現有的數據加速技術,通過全同態加密可以實現大語言模型的私有推理。 通過在足夠大的數據中心中進行大規模但可行的初始投資,可以支援這一點。 然而,這種可能性仍然是微乎極微的,並且對於更大的大語言模型,如Copilot(120億參數)或GPT3(1750億參數),仍存在差距需要彌補。
對於Copilot來說,較小的Token輸送量就足夠了,因為它生成的是代碼輸出,通常比人類語言更簡潔。 如果我們將輸送量要求降低8倍,那麼Copilot也能達到可行性的目標。
最後的差距可以通過組合更大規模的並行化、更好的實現以及在全同態加密中進行引導的更高效演演算法來彌補。 在Ingonyama,我們相信演算法是彌合這一差距的重要組成部分,我們的團隊目前正專注於相關演算法的研究和開發。
總結****
全同態加密的安全性和大語言模型的計算能力的結合可以重新定義人工智慧交互,確保效率和隱私兩者兼顧。 雖然存在一些挑戰,但通過持續的研究和創新,我們可以實現與AI模型(如ChatGPT)的交互既具有即時性又具有隱私性的未來。 這將為使用者提供更高效和安全的體驗,並推動人工智慧技術在各個領域的廣泛應用