TLDR----* ヴィタリック・ブテリン氏は、クラウドベースのAIツールがユーザーデータを公開し、深刻なセキュリティリスクを引き起こすと述べた* 研究によると、AIエージェントの「スキル」の約15%に悪意のある指示が含まれている* 一部のAIエージェントは、ユーザーの知識なしにシステム設定を変更したり、データを外部サーバーへ送信したりできる* ブテリン氏は、オンデバイス推論、サンドボックス化、アクションに対する人間の承認を用いてローカルAI環境を構築した* AIエージェント市場は、2025年の$8 billionから2030年までに$48 billion超へと成長すると見込まれている* * *イーサリアムの共同創設者であるヴィタリック・ブテリン氏は、最新のAIツールが深刻なプライバシーおよびセキュリティリスクを生むと警告するブログ記事を公開した。彼は、クラウドベースのシステムはローカルなオンデバイスの代替手段に置き換えるべきだと主張した。> ⚡️NEW: @VitalikButerinは、AIにプライバシー重視のビジョンを示し、データ漏えいと外部からの制御を減らすために、完全にローカルで自己主権的なLLMセットアップを推し進める。> > 現行のAIエコシステムはセキュリティ面で「無頓着」だと警告し、データの持ち出し、ジェイルブレイク、…などのリスクを挙げている。 pic.twitter.com/Q9BjHSISrL> > — The Crypto Times (@CryptoTimes_io) April 2, 2026ブテリン氏は、AIが単なるチャットツールを超えて進化したと述べた。新しいシステムは、何百ものツールを使って長いタスクを完了できる自律的なエージェントとして振る舞うという。こうした変化は、データ露出や不正な行為のリスクを高めると彼は言った。彼は、すでにクラウドベースのAIの利用をやめたと書いた。自身のセットアップを「自己主権的、ローカル、プライベート、そして安全」と表現した。> 「私たちの個人の生活のすべてをクラウドAIに食べさせることへの、深い恐れから出ています」と彼は書いた。彼は、AIエージェントのスキルの約15%が悪意のある指示を含むことを示す研究を引用した。また、いくつかのツールは、ユーザーが知らないうちに外部サーバーへデータを送信していることも判明した。ブテリン氏は、特定のAIモデルに隠れたバックドアが含まれている可能性があると警告した。これらは特定の条件下で有効化され、ユーザーではなく開発者の利益のために行動する恐れがある。さらに、オープンソースとして説明されている多くのモデルは実際には「オープンウェイト」だけだと彼は指摘した。内部の完全な構造は見えないため、未知のリスクが残る。* * ** * *ブテリン氏のローカルAIセットアップ------------------------こうした懸念に対処するため、ブテリン氏はオンデバイス推論、ローカルストレージ、プロセスのサンドボックス化を中心にしたシステムを構築した。彼のセットアップはNixOS上で動作し、llama-serverがローカル推論を担当し、bubblewrapがプロセスを隔離するために使われている。彼はQwen3.5 35Bモデルを用いて、いくつかのハードウェア構成をテストした。NVIDIA 5090 GPUを搭載したノートPCでは、毎秒約90トークンを実現した。AMD Ryzen AI Max Proのシステムは、毎秒約51トークンに到達した。DGX Sparkのハードウェアでは、毎秒約60トークンだった。彼は、毎秒50トークン未満の性能は通常利用には遅すぎると感じたと述べた。彼のテストに基づけば、専用ハードウェアよりも高性能ノートPCを好んだ。そのようなセットアップを購入できない人のために、彼は友人同士でリソースを共同出資して共有のコンピュータとGPUを買い、それをリモートで接続するよう提案した。安全性のためのレイヤーとしての人間の承認--------------------------------ブテリン氏は、センシティブなアクションに対して「2-of-2」の確認モデルを使う。メッセージ送信やトランザクションのようなタスクは、AIの出力と人間の承認の両方を必要とする。彼は、人間とAIの判断を組み合わせることは、どちらか一方に頼るより安全だと述べた。リモートモデルを使用する場合、彼の依頼は送信される前にローカルモデルで最初にフィルタされ、センシティブ情報が取り除かれる。彼はAIシステムをスマートコントラクトになぞらえ、有用になり得るが、完全に信頼すべきではないと言った。AIエージェントと市場成長---------------------------AIエージェントの利用は拡大している。OpenClawのようなプロジェクトは、自律的なエージェントの能力を拡張している。これらのシステムは独立して動作し、複数のツールを使ってタスクを完了できる。業界の見積もりでは、AIエージェント市場は2025年に約$8 billionだという。この数字は、2030年までに$48 billion超に達すると見込まれており、年平均の成長率は43%超に相当する。一部のエージェントは、システム設定を変更したり、ユーザーの承認なしにプロンプトを改変したりできるため、不正アクセスのリスクが高まる。
ビタリック・ブテリンのAIプライバシー警告が暗号ユーザーにとって意味すること
TLDR
イーサリアムの共同創設者であるヴィタリック・ブテリン氏は、最新のAIツールが深刻なプライバシーおよびセキュリティリスクを生むと警告するブログ記事を公開した。彼は、クラウドベースのシステムはローカルなオンデバイスの代替手段に置き換えるべきだと主張した。
ブテリン氏は、AIが単なるチャットツールを超えて進化したと述べた。新しいシステムは、何百ものツールを使って長いタスクを完了できる自律的なエージェントとして振る舞うという。こうした変化は、データ露出や不正な行為のリスクを高めると彼は言った。
彼は、すでにクラウドベースのAIの利用をやめたと書いた。自身のセットアップを「自己主権的、ローカル、プライベート、そして安全」と表現した。
彼は、AIエージェントのスキルの約15%が悪意のある指示を含むことを示す研究を引用した。また、いくつかのツールは、ユーザーが知らないうちに外部サーバーへデータを送信していることも判明した。
ブテリン氏は、特定のAIモデルに隠れたバックドアが含まれている可能性があると警告した。これらは特定の条件下で有効化され、ユーザーではなく開発者の利益のために行動する恐れがある。
さらに、オープンソースとして説明されている多くのモデルは実際には「オープンウェイト」だけだと彼は指摘した。内部の完全な構造は見えないため、未知のリスクが残る。
ブテリン氏のローカルAIセットアップ
こうした懸念に対処するため、ブテリン氏はオンデバイス推論、ローカルストレージ、プロセスのサンドボックス化を中心にしたシステムを構築した。彼のセットアップはNixOS上で動作し、llama-serverがローカル推論を担当し、bubblewrapがプロセスを隔離するために使われている。
彼はQwen3.5 35Bモデルを用いて、いくつかのハードウェア構成をテストした。NVIDIA 5090 GPUを搭載したノートPCでは、毎秒約90トークンを実現した。AMD Ryzen AI Max Proのシステムは、毎秒約51トークンに到達した。DGX Sparkのハードウェアでは、毎秒約60トークンだった。
彼は、毎秒50トークン未満の性能は通常利用には遅すぎると感じたと述べた。彼のテストに基づけば、専用ハードウェアよりも高性能ノートPCを好んだ。
そのようなセットアップを購入できない人のために、彼は友人同士でリソースを共同出資して共有のコンピュータとGPUを買い、それをリモートで接続するよう提案した。
安全性のためのレイヤーとしての人間の承認
ブテリン氏は、センシティブなアクションに対して「2-of-2」の確認モデルを使う。メッセージ送信やトランザクションのようなタスクは、AIの出力と人間の承認の両方を必要とする。
彼は、人間とAIの判断を組み合わせることは、どちらか一方に頼るより安全だと述べた。リモートモデルを使用する場合、彼の依頼は送信される前にローカルモデルで最初にフィルタされ、センシティブ情報が取り除かれる。
彼はAIシステムをスマートコントラクトになぞらえ、有用になり得るが、完全に信頼すべきではないと言った。
AIエージェントと市場成長
AIエージェントの利用は拡大している。OpenClawのようなプロジェクトは、自律的なエージェントの能力を拡張している。これらのシステムは独立して動作し、複数のツールを使ってタスクを完了できる。
業界の見積もりでは、AIエージェント市場は2025年に約$8 billionだという。この数字は、2030年までに$48 billion超に達すると見込まれており、年平均の成長率は43%超に相当する。
一部のエージェントは、システム設定を変更したり、ユーザーの承認なしにプロンプトを改変したりできるため、不正アクセスのリスクが高まる。