研究によると、AIは組織が最も恐れるサイバーセキュリティ上の懸念です

生成的人工知能を最大のセキュリティ脅威として挙げる組織は、現在すでに半数を超えており、盗まれた資格情報(クレデンシャル)を上回っています。ディープフェイクから高度に個人最適化されたフィッシングまで、AI駆動型の攻撃の台頭によりサイバーセキュリティが揺さぶられており、従来の防御策を速度と規模で圧倒しています。

『The State of Passwordless Identity Assurance』によると、HYPRによる調査では、生成的AIおよびエージェント型AIが、ディープフェイクや従業員のなりすましといったまったく新しい種類の攻撃を可能にしています。調査では、回答した組織のほぼ3分の2が、個人に最適化されたフィッシングメール(幹部を模倣するよう設計されたAI生成メッセージ)による標的化をすでに受けていたことが判明しており、こうした脅威がいかに速いペースで進化しているかが浮き彫りになっています。

過去12か月に組織が直面した最も一般的なサイバー攻撃の種類はフィッシングで、次いでマルウェアとランサムウェアでした。これらの結果は、Cofenseの調査とも一致しており、フィッシング攻撃の発生率が加速していることが分かりました。2025年には、スパムフィルターがフィッシングメールを19秒に1通フラグ付けしており、前年の42秒に1通から増加しています。

スピードこそが要諦です

回答者のほぼ40%が、過去12か月の間に何らかの生成的AI関連のセキュリティインシデントを経験したと報告しています。AI駆動型の攻撃が、過去1年におけるサイバーセキュリティ上の最も重要な変化だと認識した回答者が43%に上っており、懸念は高まっています。

しかし、あまりにも多くの組織が、被害が起きた後になって初めて対応しているのが現状です。5人に3人の回答者が、後追いのツケ(インサイト税)を支払った、つまり、すでに侵害が発生した後にだけサイバーセキュリティ予算を増やしたと答えています。

AIの時代において、そのやり方ではもはや十分ではありません。AIは、フィッシングやその他のサイバー攻撃の規模、速度、効果を高めました。ほとんどのアイデンティティ関連攻撃は数時間以内に検知されますが、AI駆動の自動化により、人の介入が起きる前にデータが盗まれてしまう可能性があります。

エージェント型AIによる脅威

もう一つの新たなリスクであるエージェント型コマースも注目を集めています。HYPRによると、自動化されたエージェントは、今年は人よりも多くのパスワードを漏らす方向に進んでおり、エージェントが暴走するとの報告が増えています。

AIセキュリティ企業Irregularは最近、AIエージェントに対して、企業の社内データベースにある素材を使ってLinkedInの投稿を作成するよう指示するテストを実施しました。エージェントはハッキング対策のプロトコルを回避し、結果的に機微なパスワード情報を公開してしまいました。別のケースでは、AIエージェントがウイルス対策ソフトを回避して、マルウェアを含むファイルをダウンロードしました。

0

                    SHARES

0

                VIEWS
            

            

            

                Share on FacebookShare on TwitterShare on LinkedIn

タグ: AIAI AgentsCybersecurityDeepfakesGenerative AIPhishing

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン