VitalikはローカルプライベートLLMソリューションを共有し、プライバシーとセキュリティを最優先することを強調しました。

robot
概要作成中

MEニュース メッセージ、4月2日(UTC+8)、Vitalik Buterin が投稿し、2026年4月時点までのローカル化・プライベート化したLLMデプロイの方針を共有しました。主な目的は、プライバシー、安全、自律的なコントロールを前提とし、できる限り遠隔のモデルや外部サービスが個人データに接触する機会を減らすことです。そして、ローカル推論、ファイルのローカル保存、サンドボックス分離などの手段によって、データ漏えい、モデルの脱獄、悪意のあるコンテンツの悪用リスクを低減します。 ハードウェア面では、NVIDIA 5090 GPU を搭載したノートPC、AMD Ryzen AI Max Pro の128GB ユニファイドメモリ機、DGX Spark などの方案をテストし、Qwen3.5 35B と 122B のモデルでローカル推論を行いました。そのうち、5090 ノートPCは 35B モデルで約 90 tokens/s、AMD の方案は約 51 tokens/s、DGX Spark は約 60 tokens/s でした。Vitalik は、高性能ノートPCをベースにローカルAI環境を構築することをより好むと述べており、また llama-server、llama-swap、NixOS などのツールを使って全体のワークフローを組み立てています。(出典:ODAILY)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン