✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
Vitalik分享本地私有LLM方案,強調隱私與安全優先
ME News 消息,4 月 2 日(UTC+8), Vitalik Buterin 發文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目標是將隱私、安全與自主可控作為前提,盡量減少遠程模型及外部服務接觸個人數據的機會,並通過本地推理、文件本地存儲及沙箱隔離等方式降低數據洩露、模型越獄及惡意內容利用風險。 在硬體方面,其測試了搭載 NVIDIA 5090 GPU 的筆記本、AMD Ryzen AI Max Pro 128 GB 統一內存設備及 DGX Spark 等方案,並使用 Qwen3.5 35B 與 122B 模型進行本地推理。其中,5090 筆記本在 35B 模型下可達約 90 tokens/s,AMD 方案約 51 tokens/s,DGX Spark 約 60 tokens/s。Vitalik 表示,其更傾向於基於高性能筆記本構建本地 AI 環境,同時使用 llama-server、llama-swap 及 NixOS 等工具搭建整體工作流程。(來源:ODAILY)