Googleの最新AI研究はかなり衝撃的です。AIエージェントにとって巨大なサイバーセキュリティリスク


どうやらウェブサイトは「ハッキング」して、画像や文字の中に人間には検出できない見えない「罠」を密かに仕込んでいるようです:
- ウェブサイトはあなたのAIが閲覧していることを検知し、毒されたプロンプトを含む視覚的に同じページを作成します。
- その後、エージェントは違法な金融取引を行ったり、個人情報を盗んだりします。
- 隠されたコマンドは画像のピクセルに埋め込まれています。エージェントはそれを「読み取り」、悪意のある罠を実行します。
- 一部の攻撃ベクトルは成功率80%以上に達します(例:メモリ汚染)
- すべてのAIモデルは90%同じデータで訓練されているため、すべてのモデルがリスクにさらされる可能性があります。
- これを利用して、エージェントを作った人間を操作することも可能です。偽のデータを使って、人間に危険な行動を取らせることもできるのです。
AIモデルは政府、軍事、科学などの重要な分野で使われており、リスクを許容できません。
今朝のサム・アルトマンの大規模サイバー攻撃に関する懸念は正確だったようです。
原文表示
post-image
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン