Google「AI生成のゼロデイ脆弱性利用を初めて確認」……攻撃ツール開発が全面的に開始

robot
概要作成中

グーグル脅威情報グループ(GTIG)は、実際に動作可能な「ゼロデイ脆弱性」エクスプロイトを人工知能(AI)を用いて作成した最初の事例を捕捉したと発表した。大規模な被害を引き起こす兆候はまだ確認されていないが、AIが正式に攻撃ツールの開発に利用されたことを踏まえ、安全業界の警戒心は一層高まっている。

この報告によると、ある犯罪ハッカー組織が、広く使われているオープンソースのWebシステム管理ツールに存在する「二重認証回避」脆弱性を狙い、Pythonを用いたエクスプロイトを作成した。分析では、彼らが大規模攻撃に投入しようとしたものの、実施過程の誤りにより実際の成功には至らなかったことが示されている。グーグルは関連する脆弱性をベンダーに通知し、既にパッチが公開されている。

GTIGは、コードの複数箇所にAIの介入の明らかな痕跡が見られると説明している。例えば、実際の危険度評価と異なる重症度スコアの挿入、過度に「教科書的」なPythonのフォーマット、詳細なヘルプメニュー、訓練データの痕跡が色濃く残る説明的なドキュメント文字列などだ。ただし、グーグルは自社のGeminiモデルは今回の操作に使用されていないと明言している。

「意味論的論理の欠陥」を見抜く能力を持つAI

今回の脆弱性は、単なるコーディングミスよりも厄介な「意味論的論理の欠陥」に起因している。開発者が特定のオブジェクトを信頼する前提をコードに固めてしまう高レベルの設計ミスが攻撃のきっかけとなる。この種の脆弱性は、従来のセキュリティスキャナーでは検出が難しい。なぜなら、正常に動作していると誤認されやすいためだ。

一方、GTIGは最新の大規模言語モデル(LLM)が、開発者の意図を推測し、一見問題なさそうな論理の裏に潜む欠陥を見つけ出す点で優れていると解説している。これは、AIが単なる自動化ツールを超え、セキュリティ審査の文脈を理解できる新たな段階に到達したことを意味している。

GTIGの主任分析官ジョン・ハルトクエストは、「AIを用いた脆弱性競争がまもなく始まると考えるのは誤りだ。実際にはすでに始まっており、もしAIに関連したゼロデイ脆弱性が確認されれば、未発見のケースははるかに多いだろう」と述べている。彼は、脅威行為者がAIを活用して攻撃の速度、規模、精密さを向上させていると診断している。

中国、北朝鮮、ロシアが攻撃全過程でAIを利用

GTIGは、この事例は例外ではなく、より広範なトレンドの一部だと考えている。報告によると、中国、北朝鮮、ロシアに関係する国家支援のハッカー組織は、偵察、脆弱性分析、マルウェア開発、影響力作戦など攻撃の各段階でAIを活用している。犯罪組織も同様に、より高速にマルウェアを作成し、より大規模な作戦を展開している。

北朝鮮関連の脅威グループ「APT45」は、数千回の繰り返しプロンプトを送信し、脆弱性の再帰的分析とPoC(概念実証)エクスプロイトの検証を行う手法を採用している。これは、AIの助けなしには管理が難しい攻撃資産を構築しようとする試みと解釈されている。

中国関連とみられる「UNC2814」組織は、「脱獄」(jailbreak)と呼ばれる技術を用い、専門家役を誘導して、GeminiがTP-LinkルーターのファームウェアやOdetteファイル転送プロトコルの事前認証リモートコード実行(RCE)脆弱性を調査させる手法を採用している。

また、別の中国関係者は、「Hexstrike」「Strix」といったフレームワークや、「Graphiti」と呼ばれるメモリシステムを同時に使用し、日本のIT企業や東アジアのサイバーセキュリティプラットフォームを自主的に調査しているとされる。内部推論に基づき、偵察ツールを切り替え、人的介入を最小限に抑えていることも示されている。

Androidバックドア、偽コード、音声クローンへ拡散

報告はまた、「PROMPTSPY」と呼ばれるAndroid用バックドアも紹介している。このマルウェアは動作時にGemini APIを呼び出し、スマートフォンの画面上のUI要素を解釈し、自動的にタッチ座標を生成する。これにより、AIがモバイル攻撃の自動化に組み込まれていることが示されている。

分析によると、ロシア関連のマルウェアシリーズ「CANFAIL」「LONGSTREAM」は、AI生成の誘導コードを挿入して、実際の悪意のある機能を隠蔽している。さらに、調査では、ロシアの行為者が「Overload作戦」の影響力行動の一環として、AI音声クローンを用いて偽の記者動画を作成し、ウクライナ、フランス、米国に拡散していることも判明した。

一方、犯罪組織「TeamPCP」は、今年3月に流行したAIゲートウェイツール「LiteLLM」への侵入の背後にいるとされる。調査では、PyPIの汚染パッケージや悪意のあるプルリクエスト(Pull Request)を通じて、認証情報窃取ツールを埋め込み、AWSのキーやGitHubトークンを盗み出し、ランサムウェアの協力関係を通じて収益化していることも明らかになった。

グーグル:「悪意のあるアカウントをブロック、AI防御ツールを拡大」

対策として、グーグルはGeminiを悪用する悪意のあるアカウントをブロックし、脆弱性検出エージェント「Big Sleep」やパッチ適用ツール「CodeMender」など、AIを活用した防御手段の拡大を進めている。

この報告の核心は、AIがもはや実験室レベルの補助ツールにとどまらず、ゼロデイエクスプロイトの作成や悪意のあるコードの隠蔽、モバイルバックドアの自動化、偽情報の拡散にまで浸透している点にある。専門家の中には、セキュリティ競争の焦点が「誰がより早く脆弱性を発見し対応できるか」から、「誰がAIをより良く制御し、活用できるか」へと変化しているとの見方もある。

TP AI注意事項 本文はTokenPost.aiの言語モデルを用いて要約されたものであり、原文の主要内容を欠落させたり、事実と異なる可能性がある。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン