MEニュース メッセージ、4月2日(UTC+8)、Vitalik Buterin が投稿し、2026年4月時点までのローカル化・プライベート化したLLMデプロイの方針を共有しました。主な目的は、プライバシー、安全、自律的なコントロールを前提とし、できる限り遠隔のモデルや外部サービスが個人データに接触する機会を減らすことです。そして、ローカル推論、ファイルのローカル保存、サンドボックス分離などの手段によって、データ漏えい、モデルの脱獄、悪意のあるコンテンツの悪用リスクを低減します。 ハードウェア面では、NVIDIA 5090 GPU を搭載したノートPC、AMD Ryzen AI Max Pro の128GB ユニファイドメモリ機、DGX Spark などの方案をテストし、Qwen3.5 35B と 122B のモデルでローカル推論を行いました。そのうち、5090 ノートPCは 35B モデルで約 90 tokens/s、AMD の方案は約 51 tokens/s、DGX Spark は約 60 tokens/s でした。Vitalik は、高性能ノートPCをベースにローカルAI環境を構築することをより好むと述べており、また llama-server、llama-swap、NixOS などのツールを使って全体のワークフローを組み立てています。(出典:ODAILY)
VitalikはローカルプライベートLLMソリューションを共有し、プライバシーとセキュリティを最優先することを強調しました。
MEニュース メッセージ、4月2日(UTC+8)、Vitalik Buterin が投稿し、2026年4月時点までのローカル化・プライベート化したLLMデプロイの方針を共有しました。主な目的は、プライバシー、安全、自律的なコントロールを前提とし、できる限り遠隔のモデルや外部サービスが個人データに接触する機会を減らすことです。そして、ローカル推論、ファイルのローカル保存、サンドボックス分離などの手段によって、データ漏えい、モデルの脱獄、悪意のあるコンテンツの悪用リスクを低減します。 ハードウェア面では、NVIDIA 5090 GPU を搭載したノートPC、AMD Ryzen AI Max Pro の128GB ユニファイドメモリ機、DGX Spark などの方案をテストし、Qwen3.5 35B と 122B のモデルでローカル推論を行いました。そのうち、5090 ノートPCは 35B モデルで約 90 tokens/s、AMD の方案は約 51 tokens/s、DGX Spark は約 60 tokens/s でした。Vitalik は、高性能ノートPCをベースにローカルAI環境を構築することをより好むと述べており、また llama-server、llama-swap、NixOS などのツールを使って全体のワークフローを組み立てています。(出典:ODAILY)