現在、半数を超える組織が、盗まれた認証情報を上回って、生成型人工知能を最大のセキュリティ脅威としてランク付けしています。ディープフェイクから超個別化されたフィッシングまで広がるAI主導の攻撃の台頭が、サイバーセキュリティを揺るがし、速度と規模が従来の防御を圧倒しています。_The State of Passwordless Identity Assurance_(HYPRによる調査)によると、生成型AIとエージェント型AIが、ディープフェイクや従業員の成りすましといった、まったく新しい種類の攻撃を可能にしています。この調査では、調査対象の組織のほぼ3分の2が、個別化されたフィッシングメールの標的になっていたことが判明しました。これは、幹部を模倣するように設計されたAI生成メッセージであり、これらの脅威がいかに急速に進化しているかを浮き彫りにしています。過去12か月に組織が直面したサイバー攻撃で最も一般的だったのはフィッシングで、次いでマルウェア、ランサムウェアでした。これらの結果は、Cofenseの調査とも一致しています。同調査では、フィッシング攻撃の発生率が加速しており、2025年にはスパムフィルターが19秒ごとに1通のフィッシングメールを検知していることが分かりました。これは前年の42秒ごとに1通から増加しています。スピードが要(ESSENCE)-----------------------回答者の約40%が、過去12か月で何らかの生成型AI関連のセキュリティ事故を経験したと報告しました。懸念は高まっており、回答者の43%が、過去1年のサイバーセキュリティにおける最も重大な変化としてAI主導の攻撃を挙げています。しかし、あまりにも多くの組織が被害が出た後にしか対応できていません。5人に3人の回答者が、後から生じたツケ(=失敗後の負担)を負ったと答え、すでに侵害が起きた後になってからだけサイバーセキュリティ予算を増やしたと述べました。AIの時代では、このやり方はもはや十分ではありません。AIはフィッシングやその他のサイバー攻撃の規模、速度、効果を押し上げました。多くのアイデンティティベースの攻撃は数時間以内に検知される一方で、AI主導の自動化により、人間の介入が起きる前にデータを盗み出すことが可能になります。エージェント型AIからの脅威-----------------------もう一つの新たなリスクであるエージェント・コマースも、見出しをにぎわせています。HYPRによれば、自動化されたエージェントは、今年、人間よりも多くのパスワードを漏えいさせる見通しで、さらにエージェントが暴走するという報告が増えています。AIセキュリティ企業Irregularは最近、AIエージェントに対して、企業の社内データベースにある素材を使ってLinkedInの投稿を作成するよう指示するテストを実施しました。エージェントは不正アクセス対策のプロトコルを回避し、結果として機密のパスワード情報を公開してしまいました。別のケースでは、AIエージェントがウイルス対策ソフトを回避して、マルウェアを含むファイルをダウンロードしました。 0 シェア 0 閲覧 Facebookで共有Twitterで共有LinkedInで共有 タグ: AIAIエージェントサイバーセキュリティディープフェイク生成型AIフィッシング
研究によると、AIは組織が最も恐れるサイバーセキュリティ上の懸念です
現在、半数を超える組織が、盗まれた認証情報を上回って、生成型人工知能を最大のセキュリティ脅威としてランク付けしています。ディープフェイクから超個別化されたフィッシングまで広がるAI主導の攻撃の台頭が、サイバーセキュリティを揺るがし、速度と規模が従来の防御を圧倒しています。
The State of Passwordless Identity Assurance(HYPRによる調査)によると、生成型AIとエージェント型AIが、ディープフェイクや従業員の成りすましといった、まったく新しい種類の攻撃を可能にしています。この調査では、調査対象の組織のほぼ3分の2が、個別化されたフィッシングメールの標的になっていたことが判明しました。これは、幹部を模倣するように設計されたAI生成メッセージであり、これらの脅威がいかに急速に進化しているかを浮き彫りにしています。
過去12か月に組織が直面したサイバー攻撃で最も一般的だったのはフィッシングで、次いでマルウェア、ランサムウェアでした。これらの結果は、Cofenseの調査とも一致しています。同調査では、フィッシング攻撃の発生率が加速しており、2025年にはスパムフィルターが19秒ごとに1通のフィッシングメールを検知していることが分かりました。これは前年の42秒ごとに1通から増加しています。
スピードが要(ESSENCE)
回答者の約40%が、過去12か月で何らかの生成型AI関連のセキュリティ事故を経験したと報告しました。懸念は高まっており、回答者の43%が、過去1年のサイバーセキュリティにおける最も重大な変化としてAI主導の攻撃を挙げています。
しかし、あまりにも多くの組織が被害が出た後にしか対応できていません。5人に3人の回答者が、後から生じたツケ(=失敗後の負担)を負ったと答え、すでに侵害が起きた後になってからだけサイバーセキュリティ予算を増やしたと述べました。
AIの時代では、このやり方はもはや十分ではありません。AIはフィッシングやその他のサイバー攻撃の規模、速度、効果を押し上げました。多くのアイデンティティベースの攻撃は数時間以内に検知される一方で、AI主導の自動化により、人間の介入が起きる前にデータを盗み出すことが可能になります。
エージェント型AIからの脅威
もう一つの新たなリスクであるエージェント・コマースも、見出しをにぎわせています。HYPRによれば、自動化されたエージェントは、今年、人間よりも多くのパスワードを漏えいさせる見通しで、さらにエージェントが暴走するという報告が増えています。
AIセキュリティ企業Irregularは最近、AIエージェントに対して、企業の社内データベースにある素材を使ってLinkedInの投稿を作成するよう指示するテストを実施しました。エージェントは不正アクセス対策のプロトコルを回避し、結果として機密のパスワード情報を公開してしまいました。別のケースでは、AIエージェントがウイルス対策ソフトを回避して、マルウェアを含むファイルをダウンロードしました。
0
0
タグ: AIAIエージェントサイバーセキュリティディープフェイク生成型AIフィッシング