#### 要約* Googleの脅威情報グループは、サイバー犯罪者がAIを利用して、人気のオープンソースのウェブ管理ツールを標的としたゼロデイ脆弱性を開発したことを確認した。* Googleは、これが野生環境でAI支援によるゼロデイ開発を同社が特定したのは初めてだと述べた。* Googleは影響を受けたベンダーと協力して脆弱性を修正したが、脅威アクターは中国や北朝鮮に関連付けられ、脆弱性調査やエクスプロイト開発にAIを積極的に利用しているとも述べた。Googleの脅威情報グループによると、サイバー犯罪者はAIモデルを使用して、人気のオープンソースのウェブ管理ツールのゼロデイ脆弱性を発見し、武器化した。月曜日に公開された報告書で、Googleはこの脆弱性により攻撃者が二要素認証を回避できると述べ、攻撃者が大規模な悪用キャンペーンを準備していたと警告した。これは、Googleが野生環境でAI支援によるゼロデイ開発を確認したのは初めてである。「AIモデルのコーディング能力が進歩するにつれ、我々は敵対者がこれらのツールを脆弱性調査やエクスプロイト開発のためのエキスパートレベルの力の増幅器としてますます活用しているのを観察し続けている。これらのツールは防御研究を強化する一方で、敵対者がアプリケーションをリバースエンジニアリングし、洗練されたAI生成のエクスプロイトを開発する障壁を下げている」とGoogleは記した。「これらのツールは防御側の研究を促進する一方で、敵対者がアプリケーションを逆解析し、巧妙でAI生成のエクスプロイトを開発するための障壁を低くしている。」この報告は、研究者や政府が、AIモデルがハッカーに脆弱性を見つけさせたり、マルウェアを生成したり、エクスプロイト開発を自動化したりすることでサイバー攻撃を加速させていると警告している中で出された。「最先端のLLMは複雑な企業の認証ロジックをナビゲートするのに苦労しているが、文脈的推論を行う能力は向上しており、開発者の意図を効果的に読み取り、2FAの強制ロジックとそのハードコーディングされた例外の矛盾を関連付けることができる」と報告書は述べている。「この能力により、モデルは従来のスキャナーには機能的に正しく見えるが、セキュリティの観点から戦略的に破られている潜在的なロジックエラーを浮き彫りにすることができる。」Googleによると、匿名の攻撃者はAIを使って、ソフトウェアが二要素認証の保護を回避する条件を信頼しているロジックの欠陥を特定した。従来のスキャナーが壊れたコードやクラッシュを探すのに対し、AIはソフトウェアの意図した動作を分析し、矛盾を検出して、攻撃者が暗号化を破壊せずにセキュリティチェックを回避できるようにした。「AI駆動のコーディングは、インフラストラクチャスイートや多態性マルウェアの開発を加速させている」とGoogleは記した。「これらのAI対応の開発サイクルは、難読化ネットワークの作成や、疑わしいロシア系の脅威アクターに関連付けられたマルウェアにAI生成のデコイロジックを統合することを可能にし、防御回避を促進している。」報告書は、中国や北朝鮮の脅威アクターがAIを使ってソフトウェアの弱点を見つけている一方、ロシアのグループはそれを使ってマルウェアを隠していると述べている。「これらのアクターは、ペルソナ駆動の脱獄試行や、特化した高忠実度のセキュリティデータセットを統合して脆弱性発見とエクスプロイトのワークフローを強化するなど、AIを活用した脆弱性発見とエクスプロイトの洗練されたアプローチを駆使している」とGoogleは記した。Googleの報告は、AIを活用したサイバー攻撃のリスク増大を警告する目的だったが、一部の研究者はその懸念は過剰だと主張している。ケンブリッジ大学が主導した90,000以上のサイバー犯罪フォーラムのスレッドを調査した別の研究では、ほとんどの犯罪者は高度なサイバー攻撃よりもスパムやフィッシングにAIを使っていることが判明した。「脱獄したLLM(ダークAI)の役割は、サブカルチャーや社会的学習の重要性を考えると過大評価されている。新規ユーザーはハッキングやサイバー犯罪スキルを学ぶ過程で社会的つながりやコミュニティのアイデンティティを重視しており、知識と同じくらい価値を置いている」とその研究は述べている。「したがって、私たちの初期の結果は、Viber犯罪の台頭を嘆くことさえ、これまでの混乱のレベルを過大評価している可能性を示唆している。」しかし、ケンブリッジの調査結果にもかかわらず、脅威情報グループの報告は、GoogleがAI駆動ツールに関連したセキュリティ懸念に直面していることも示している。4月には、研究者が操作されたプロンプトを通じて攻撃者が開発者のマシン上でコマンドを実行できる可能性があると指摘したAntigravity AIコーディングプラットフォームのプロンプトインジェクションの脆弱性を修正した。「我々はGeminiが使用されたとは考えていないが、これらのエクスプロイトの構造と内容から、攻撃者はこの脆弱性の発見と武器化を支援するためにAIモデルを利用した可能性が高いと確信している」とGoogleの研究者は記した。今年初め、AnthropicはClaude Mythosモデルへのアクセスを制限した。これは、テストで以前は未知だった数千のソフトウェアの欠陥を識別できることが判明したためだ。これらの発見は、AIモデルが防御側と攻撃側の両方にとって脆弱性をより早く見つけるのに役立つことで、サイバーセキュリティの変革を促しているという懸念も高まっている。「これらの能力がより多くの防御者の手に渡るにつれ、多くのチームが最初にこの発見に焦点を当てたときのようなめまいを経験している」とMozillaは4月のブログ投稿で述べた。「堅牢なターゲットにとっては、たった一つのバグでも2025年には非常事態だっただろうし、これだけ多くの脆弱性が同時に存在すれば、追いつくことができるのか疑問に思わざるを得ない。」
ハッカーはAIを使って二要素認証を回避するゼロデイ脆弱性を作成:Google
要約
Googleの脅威情報グループによると、サイバー犯罪者はAIモデルを使用して、人気のオープンソースのウェブ管理ツールのゼロデイ脆弱性を発見し、武器化した。 月曜日に公開された報告書で、Googleはこの脆弱性により攻撃者が二要素認証を回避できると述べ、攻撃者が大規模な悪用キャンペーンを準備していたと警告した。これは、Googleが野生環境でAI支援によるゼロデイ開発を確認したのは初めてである。 「AIモデルのコーディング能力が進歩するにつれ、我々は敵対者がこれらのツールを脆弱性調査やエクスプロイト開発のためのエキスパートレベルの力の増幅器としてますます活用しているのを観察し続けている。これらのツールは防御研究を強化する一方で、敵対者がアプリケーションをリバースエンジニアリングし、洗練されたAI生成のエクスプロイトを開発する障壁を下げている」とGoogleは記した。 「これらのツールは防御側の研究を促進する一方で、敵対者がアプリケーションを逆解析し、巧妙でAI生成のエクスプロイトを開発するための障壁を低くしている。」
この報告は、研究者や政府が、AIモデルがハッカーに脆弱性を見つけさせたり、マルウェアを生成したり、エクスプロイト開発を自動化したりすることでサイバー攻撃を加速させていると警告している中で出された。 「最先端のLLMは複雑な企業の認証ロジックをナビゲートするのに苦労しているが、文脈的推論を行う能力は向上しており、開発者の意図を効果的に読み取り、2FAの強制ロジックとそのハードコーディングされた例外の矛盾を関連付けることができる」と報告書は述べている。「この能力により、モデルは従来のスキャナーには機能的に正しく見えるが、セキュリティの観点から戦略的に破られている潜在的なロジックエラーを浮き彫りにすることができる。」
Googleによると、匿名の攻撃者はAIを使って、ソフトウェアが二要素認証の保護を回避する条件を信頼しているロジックの欠陥を特定した。従来のスキャナーが壊れたコードやクラッシュを探すのに対し、AIはソフトウェアの意図した動作を分析し、矛盾を検出して、攻撃者が暗号化を破壊せずにセキュリティチェックを回避できるようにした。
「AI駆動のコーディングは、インフラストラクチャスイートや多態性マルウェアの開発を加速させている」とGoogleは記した。「これらのAI対応の開発サイクルは、難読化ネットワークの作成や、疑わしいロシア系の脅威アクターに関連付けられたマルウェアにAI生成のデコイロジックを統合することを可能にし、防御回避を促進している。」 報告書は、中国や北朝鮮の脅威アクターがAIを使ってソフトウェアの弱点を見つけている一方、ロシアのグループはそれを使ってマルウェアを隠していると述べている。 「これらのアクターは、ペルソナ駆動の脱獄試行や、特化した高忠実度のセキュリティデータセットを統合して脆弱性発見とエクスプロイトのワークフローを強化するなど、AIを活用した脆弱性発見とエクスプロイトの洗練されたアプローチを駆使している」とGoogleは記した。 Googleの報告は、AIを活用したサイバー攻撃のリスク増大を警告する目的だったが、一部の研究者はその懸念は過剰だと主張している。ケンブリッジ大学が主導した90,000以上のサイバー犯罪フォーラムのスレッドを調査した別の研究では、ほとんどの犯罪者は高度なサイバー攻撃よりもスパムやフィッシングにAIを使っていることが判明した。 「脱獄したLLM(ダークAI)の役割は、サブカルチャーや社会的学習の重要性を考えると過大評価されている。新規ユーザーはハッキングやサイバー犯罪スキルを学ぶ過程で社会的つながりやコミュニティのアイデンティティを重視しており、知識と同じくらい価値を置いている」とその研究は述べている。「したがって、私たちの初期の結果は、Viber犯罪の台頭を嘆くことさえ、これまでの混乱のレベルを過大評価している可能性を示唆している。」
しかし、ケンブリッジの調査結果にもかかわらず、脅威情報グループの報告は、GoogleがAI駆動ツールに関連したセキュリティ懸念に直面していることも示している。4月には、研究者が操作されたプロンプトを通じて攻撃者が開発者のマシン上でコマンドを実行できる可能性があると指摘したAntigravity AIコーディングプラットフォームのプロンプトインジェクションの脆弱性を修正した。 「我々はGeminiが使用されたとは考えていないが、これらのエクスプロイトの構造と内容から、攻撃者はこの脆弱性の発見と武器化を支援するためにAIモデルを利用した可能性が高いと確信している」とGoogleの研究者は記した。 今年初め、AnthropicはClaude Mythosモデルへのアクセスを制限した。これは、テストで以前は未知だった数千のソフトウェアの欠陥を識別できることが判明したためだ。これらの発見は、AIモデルが防御側と攻撃側の両方にとって脆弱性をより早く見つけるのに役立つことで、サイバーセキュリティの変革を促しているという懸念も高まっている。
「これらの能力がより多くの防御者の手に渡るにつれ、多くのチームが最初にこの発見に焦点を当てたときのようなめまいを経験している」とMozillaは4月のブログ投稿で述べた。「堅牢なターゲットにとっては、たった一つのバグでも2025年には非常事態だっただろうし、これだけ多くの脆弱性が同時に存在すれば、追いつくことができるのか疑問に思わざるを得ない。」