企業が人工知能(AI)の導入を加速する中、作業効率を向上させる「自主型エージェント」も新たなセキュリティリスクとなっています。特に注目すべきは、多くの企業がAIエージェントを内部システムに展開しているにもかかわらず、それを管理するための信頼とガバナンス体制を構築できていない点であり、これが核心的なリスクと指摘されています。KnowBe4のCEO、ブライアン・パルマはKB4-CON 2026のイベントで次のように述べました。「現在のセキュリティ分野の根本的な問題は、導入速度とガバナンス体制の構築速度のギャップにあります。」彼は、企業はまずシステム内で稼働しているAIエージェントを「識別」し「理解」する必要があると強調しました。彼は、AIエージェントに対しては、過去のセキュリティ業界が人間の従業員に対して行ってきたのと同じアプローチを採用すべきだと説明しました。つまり、十分に訓練されていない資産として扱い、その行動を理解し、保護を行うということです。パルマはAIエージェントを小学生の段階に例えました。彼は、「これらは悪意のある指示を区別できず、誤った命令や悪意のあるコードに誘導されやすい」と説明しました。彼は、「信頼を築くための核心は『透明性』にある」と述べ、どのエージェントが存在し、どのシステムに接続しているのか、どのリソースにアクセスできるのかを明確に理解する必要性を強調しました。「人」から「AIエージェント」へ…… セキュリティ管理範囲の拡大この変化に対応し、KnowBe4は既存の人間リスク管理プラットフォームをAIエージェントのセキュリティ分野に拡張しています。同社のAIDAは、従業員の安全意識向上のための自動化・個別化されたトレーニングツールですが、新たにリリースされた「エージェントリスクマネージャー」は、企業環境内で稼働するAIエージェントのリスト化管理に特化し、その接続経路やアクセス権を識別し、適切なポリシーや制限メカニズムを設定します。パルマによると、このツールはまず企業内のAIエージェントの現状をリスト形式で整理します。次に、それぞれのエージェントがどのプロセスを使用しているか、どこに接続しているか(例:メールシステムや財務システムなど)を追跡します。最後に、「エージェントができること」と「できないこと」を区別するための「バリケード」を設定します。これは、最近の企業のセキュリティ戦略が「二重脅威」構造へと再編されつつあることを示しています。なぜなら、同じAIエージェントは一方で生産性を向上させる一方、攻撃者にとっての侵入口ともなり得るからです。最終的には、企業は防御と攻撃の両面を設計する必要に迫られています。AI脅威はますます高度化…… 「今後1年でエージェントによる事故が増加」KnowBe4は、同社のAIモデルが過去15年間に7万の組織、1億を超えるユーザーから蓄積された行動データを基に学習していると述べています。パルマはこれが同社の競合他社との差別化ポイントだと指摘しました。同社が発表した「2025年の人間リスク現状報告書」によると、ネットワークセキュリティのリーダーの45%が「絶えず進化するAI駆動の脅威」を最大の課題と見なしています。彼はまた、AIDAプラットフォーム上では、手動操作と比較して個人リスクスコアが約4ポイント低下したと付け加えました。これは、AIを活用したカスタマイズされたセキュリティトレーニングが、ユーザーの実際の行動改善に積極的な効果をもたらしていることを示しています。さらに、KnowBe4はMicrosoft Copilotを起点に、Gemini、Claude、ChatGPTなどの複数の大規模言語モデル(LLM)に対応範囲を拡大しています。彼らは、企業が特定の大規模言語モデルだけに依存しないため、AIエージェントのリスク管理も複数のモデルを同時に扱える必要があると考えています。パルマは警告し、今後1年以内にAIエージェントが直接的な脆弱性として企業のセキュリティ事故を引き起こすケースが大幅に増加する可能性があると述べました。彼は、「エージェントは攻撃面を拡大する。導入自体は非常に重要で効果的だが、同時に大きなリスクももたらす」と語っています。企業のAIセキュリティの焦点は、もはや「導入の是非」という単純な問題を超え、「誰がどのAIエージェントを使い、どこに接続しているのか」に移行しています。生産性とイノベーションを優先するAI戦略の成功には、まず信頼とコントロールの体制を確立する必要があり、この考え方はますます支持を集めています。TP AI注意事項 本文はTokenPost.aiの言語モデルを用いて要約されたものです。本文の主要内容は省略されている場合や事実と異なる場合があります。
企業AIエージェント、生産性の背後にある安全の盲点……ガバナンスのギャップ拡大
企業が人工知能(AI)の導入を加速する中、作業効率を向上させる「自主型エージェント」も新たなセキュリティリスクとなっています。特に注目すべきは、多くの企業がAIエージェントを内部システムに展開しているにもかかわらず、それを管理するための信頼とガバナンス体制を構築できていない点であり、これが核心的なリスクと指摘されています。
KnowBe4のCEO、ブライアン・パルマはKB4-CON 2026のイベントで次のように述べました。「現在のセキュリティ分野の根本的な問題は、導入速度とガバナンス体制の構築速度のギャップにあります。」彼は、企業はまずシステム内で稼働しているAIエージェントを「識別」し「理解」する必要があると強調しました。彼は、AIエージェントに対しては、過去のセキュリティ業界が人間の従業員に対して行ってきたのと同じアプローチを採用すべきだと説明しました。つまり、十分に訓練されていない資産として扱い、その行動を理解し、保護を行うということです。
パルマはAIエージェントを小学生の段階に例えました。彼は、「これらは悪意のある指示を区別できず、誤った命令や悪意のあるコードに誘導されやすい」と説明しました。彼は、「信頼を築くための核心は『透明性』にある」と述べ、どのエージェントが存在し、どのシステムに接続しているのか、どのリソースにアクセスできるのかを明確に理解する必要性を強調しました。
「人」から「AIエージェント」へ…… セキュリティ管理範囲の拡大
この変化に対応し、KnowBe4は既存の人間リスク管理プラットフォームをAIエージェントのセキュリティ分野に拡張しています。同社のAIDAは、従業員の安全意識向上のための自動化・個別化されたトレーニングツールですが、新たにリリースされた「エージェントリスクマネージャー」は、企業環境内で稼働するAIエージェントのリスト化管理に特化し、その接続経路やアクセス権を識別し、適切なポリシーや制限メカニズムを設定します。
パルマによると、このツールはまず企業内のAIエージェントの現状をリスト形式で整理します。次に、それぞれのエージェントがどのプロセスを使用しているか、どこに接続しているか(例:メールシステムや財務システムなど)を追跡します。最後に、「エージェントができること」と「できないこと」を区別するための「バリケード」を設定します。
これは、最近の企業のセキュリティ戦略が「二重脅威」構造へと再編されつつあることを示しています。なぜなら、同じAIエージェントは一方で生産性を向上させる一方、攻撃者にとっての侵入口ともなり得るからです。最終的には、企業は防御と攻撃の両面を設計する必要に迫られています。
AI脅威はますます高度化…… 「今後1年でエージェントによる事故が増加」
KnowBe4は、同社のAIモデルが過去15年間に7万の組織、1億を超えるユーザーから蓄積された行動データを基に学習していると述べています。パルマはこれが同社の競合他社との差別化ポイントだと指摘しました。同社が発表した「2025年の人間リスク現状報告書」によると、ネットワークセキュリティのリーダーの45%が「絶えず進化するAI駆動の脅威」を最大の課題と見なしています。
彼はまた、AIDAプラットフォーム上では、手動操作と比較して個人リスクスコアが約4ポイント低下したと付け加えました。これは、AIを活用したカスタマイズされたセキュリティトレーニングが、ユーザーの実際の行動改善に積極的な効果をもたらしていることを示しています。
さらに、KnowBe4はMicrosoft Copilotを起点に、Gemini、Claude、ChatGPTなどの複数の大規模言語モデル(LLM)に対応範囲を拡大しています。彼らは、企業が特定の大規模言語モデルだけに依存しないため、AIエージェントのリスク管理も複数のモデルを同時に扱える必要があると考えています。
パルマは警告し、今後1年以内にAIエージェントが直接的な脆弱性として企業のセキュリティ事故を引き起こすケースが大幅に増加する可能性があると述べました。彼は、「エージェントは攻撃面を拡大する。導入自体は非常に重要で効果的だが、同時に大きなリスクももたらす」と語っています。
企業のAIセキュリティの焦点は、もはや「導入の是非」という単純な問題を超え、「誰がどのAIエージェントを使い、どこに接続しているのか」に移行しています。生産性とイノベーションを優先するAI戦略の成功には、まず信頼とコントロールの体制を確立する必要があり、この考え方はますます支持を集めています。
TP AI注意事項 本文はTokenPost.aiの言語モデルを用いて要約されたものです。本文の主要内容は省略されている場合や事実と異なる場合があります。