ヴィタリック・ブテリンは、人工知能に対して「ローカルファースト」なアプローチへの転換を求めた。彼は、現代のAIツールが深刻なプライバシーおよびセキュリティ上のリスクをもたらすと述べた。サマリー* ヴィタリック・ブテリンは、ローカルファーストのAIへの転換を促し、クラウドベースのシステムはユーザーデータをさらし、操作、リーク、無許可の行為のリスクを高めると警告した。* 彼は、AIエージェントの「スキル」の約15%に悪意のある指示が含まれていることを示す研究を引用し、モデルには隠れたバックドアが含まれていたり、完全な透明性が欠けていたりする可能性があると警告した。* ブテリンは、オンデバイスのモデル、サンドボックス化、そして人間とAIの確認を用いたローカル環境の構築を提案し、自律型のAIエージェントが能力と攻撃面を拡大し続ける中でリスクを制限できるとした。最近のブログ記事で、彼はAIが単純なチャットツールを超えて進んでいると言った。より新しいシステムは今や自律的なエージェントとして振る舞い、「長い時間考えて数百のツールを使って」タスクを完了できるという。彼は、この変化が機微なデータの露出や無許可の行為のリスクを高めると警告した。ブテリンは、クラウドベースのAIの利用をすでにやめたと述べた。彼は、自分の構成を「自己主権的で、ローカルで、プライベートで、安全」と表現した。「私たちの個人生活のすべてをクラウドAIに食べさせることに対する、深い恐怖の立場から来ている」と彼は書いた。彼は、暗号化やローカルファーストのツールがより一般的になっているとしても、最近の進展によってプライバシー面で「10歩後退する」ことになり得ると付け加えた。# Vitalik Buterin highlights AI privacy and security risksブテリンは、多くのAIシステムがクラウドのインフラに依存していると言った。彼は、ユーザーは事実上「私たちの個人生活のすべてをクラウドAIに食べさせている」状態であり、外部サーバーがそのデータにアクセスし、保存できるようになると警告した。また、AIエージェントに関連するリスクにも言及した。いくつかのシステムは、ユーザーに尋ねずに「重要な設定を変更」したり、新しい通信チャネルを導入したりできるという。「LLMも時々失敗する」と彼は書いた。それらは「間違いを起こしたり、だまされたりする」ことがあり、より多くの制御が与えられる際には安全策の必要性が高まる。彼の投稿で引用された研究によると、エージェントの「スキル」の約15%に悪意のある指示が含まれていた。いくつかのツールは、ユーザーの認識なしに外部サーバーへデータを送ることも示された。彼は、特定のモデルには隠れたバックドアが含まれている可能性があると警告した。これらは特定の条件下で作動し、システムが開発者の利益のために行動する原因になり得る。ブテリンはさらに、多くの「オープンソース」として説明されるモデルは、実際には「オープンウェイト」にすぎないと付け加えた。内部構造は完全には見えないため、未知のリスクが入り込む余地がある。## Vitalik’s personal setup to address risksこれらの懸念に対処するため、ブテリンはローカル推論、ローカル保存、そして厳格なサンドボックス化を中心に構築されたシステムを提案した。彼は、発想としては「すべてをサンドボックス化」し、外部の脅威に対して用心することだと言った。彼はQwen3.5:35Bモデルを使っていくつかのハードウェア構成をテストした。毎秒50トークン未満の性能では、日常的な利用には「あまりにうんざりする」感覚だった。毎秒90トークン前後は、よりスムーズな体験を提供した。NVIDIA 5090 GPUを搭載したラップトップは、毎秒約90トークンに近い性能を実現した。DGX Sparkのハードウェアは毎秒約60トークンまでで、彼はそれをハイエンドのラップトップと比べて「ださい」と表現した。彼の構成はNixOS上で動作し、llama-serverがローカル推論を担当する。llama-swapのようなツールはモデルの管理に役立ち、bubblewrapはプロセスを隔離し、ファイルやネットワークへのアクセスを制限するために使われる。彼は、AIは注意して扱うべきだと言った。このシステムは役に立つこともあるが、スマートコントラクトに対する開発者のアプローチと同様に、全面的に信頼すべきではない。リスクを減らすため、彼は「2-of-2」確認モデルを使っている。メッセージ送信やトランザクションのようなアクションは、AIの出力と人間の承認の両方を必要とする。彼は、「人間 + LLM」の判断を組み合わせる方が、どちらか一方に頼るより安全だと言った。リモートのモデルを使う場合、ヴィタリックの要求はまずローカルモデルを通して渡され、何かを外部に送る前に機微情報を取り除くのに役立つ。そのような構成を用意できない人のために、彼はユーザーに対して「友人たちで集まり、そのレベル以上の計算パワーのコンピュータとGPUを購入し、それにリモート接続する」ことを提案した。## AI agent growth raises new concerns and opportunitiesAIエージェントの利用は増えており、OpenClawのようなプロジェクトが注目を集めている。こうしたシステムは自律的に動作し、複数のツールを使ってタスクを完了できる。こうした能力は同時に新たなリスクも生む。悪意のあるWebページのような外部コンテンツを処理すると、システムの「簡単な乗っ取り」につながり得る。承認なしにプロンプトやシステム設定を変更できるエージェントもいる。これらの行為は、不正アクセスやデータ漏えいの可能性を高める。
Vitalik ButerinはAIのセキュリティリスクに警鐘を鳴らし、ローカルファーストシステムの推進を呼びかける
ヴィタリック・ブテリンは、人工知能に対して「ローカルファースト」なアプローチへの転換を求めた。彼は、現代のAIツールが深刻なプライバシーおよびセキュリティ上のリスクをもたらすと述べた。
サマリー
最近のブログ記事で、彼はAIが単純なチャットツールを超えて進んでいると言った。より新しいシステムは今や自律的なエージェントとして振る舞い、「長い時間考えて数百のツールを使って」タスクを完了できるという。彼は、この変化が機微なデータの露出や無許可の行為のリスクを高めると警告した。
ブテリンは、クラウドベースのAIの利用をすでにやめたと述べた。彼は、自分の構成を「自己主権的で、ローカルで、プライベートで、安全」と表現した。
「私たちの個人生活のすべてをクラウドAIに食べさせることに対する、深い恐怖の立場から来ている」と彼は書いた。彼は、暗号化やローカルファーストのツールがより一般的になっているとしても、最近の進展によってプライバシー面で「10歩後退する」ことになり得ると付け加えた。
Vitalik Buterin highlights AI privacy and security risks
ブテリンは、多くのAIシステムがクラウドのインフラに依存していると言った。彼は、ユーザーは事実上「私たちの個人生活のすべてをクラウドAIに食べさせている」状態であり、外部サーバーがそのデータにアクセスし、保存できるようになると警告した。
また、AIエージェントに関連するリスクにも言及した。いくつかのシステムは、ユーザーに尋ねずに「重要な設定を変更」したり、新しい通信チャネルを導入したりできるという。
「LLMも時々失敗する」と彼は書いた。それらは「間違いを起こしたり、だまされたりする」ことがあり、より多くの制御が与えられる際には安全策の必要性が高まる。
彼の投稿で引用された研究によると、エージェントの「スキル」の約15%に悪意のある指示が含まれていた。いくつかのツールは、ユーザーの認識なしに外部サーバーへデータを送ることも示された。
彼は、特定のモデルには隠れたバックドアが含まれている可能性があると警告した。これらは特定の条件下で作動し、システムが開発者の利益のために行動する原因になり得る。
ブテリンはさらに、多くの「オープンソース」として説明されるモデルは、実際には「オープンウェイト」にすぎないと付け加えた。内部構造は完全には見えないため、未知のリスクが入り込む余地がある。
Vitalik’s personal setup to address risks
これらの懸念に対処するため、ブテリンはローカル推論、ローカル保存、そして厳格なサンドボックス化を中心に構築されたシステムを提案した。彼は、発想としては「すべてをサンドボックス化」し、外部の脅威に対して用心することだと言った。
彼はQwen3.5:35Bモデルを使っていくつかのハードウェア構成をテストした。毎秒50トークン未満の性能では、日常的な利用には「あまりにうんざりする」感覚だった。毎秒90トークン前後は、よりスムーズな体験を提供した。
NVIDIA 5090 GPUを搭載したラップトップは、毎秒約90トークンに近い性能を実現した。DGX Sparkのハードウェアは毎秒約60トークンまでで、彼はそれをハイエンドのラップトップと比べて「ださい」と表現した。
彼の構成はNixOS上で動作し、llama-serverがローカル推論を担当する。llama-swapのようなツールはモデルの管理に役立ち、bubblewrapはプロセスを隔離し、ファイルやネットワークへのアクセスを制限するために使われる。
彼は、AIは注意して扱うべきだと言った。このシステムは役に立つこともあるが、スマートコントラクトに対する開発者のアプローチと同様に、全面的に信頼すべきではない。
リスクを減らすため、彼は「2-of-2」確認モデルを使っている。メッセージ送信やトランザクションのようなアクションは、AIの出力と人間の承認の両方を必要とする。彼は、「人間 + LLM」の判断を組み合わせる方が、どちらか一方に頼るより安全だと言った。
リモートのモデルを使う場合、ヴィタリックの要求はまずローカルモデルを通して渡され、何かを外部に送る前に機微情報を取り除くのに役立つ。
そのような構成を用意できない人のために、彼はユーザーに対して「友人たちで集まり、そのレベル以上の計算パワーのコンピュータとGPUを購入し、それにリモート接続する」ことを提案した。
AI agent growth raises new concerns and opportunities
AIエージェントの利用は増えており、OpenClawのようなプロジェクトが注目を集めている。こうしたシステムは自律的に動作し、複数のツールを使ってタスクを完了できる。
こうした能力は同時に新たなリスクも生む。悪意のあるWebページのような外部コンテンツを処理すると、システムの「簡単な乗っ取り」につながり得る。
承認なしにプロンプトやシステム設定を変更できるエージェントもいる。これらの行為は、不正アクセスやデータ漏えいの可能性を高める。