وكيل الذكاء الاصطناعي للشركات، الثغرات الأمنية وراء الإنتاجية... تزايد فجوات الحوكمة

في ظل تسريع الشركات لاعتماد الذكاء الاصطناعي (AI)، أصبح “الوكيل المستقل” الذي يعزز كفاءة العمل أيضًا ثغرة أمنية جديدة. من الجدير بالذكر أن العديد من الشركات على الرغم من نشرها لوكلاء AI في أنظمتها الداخلية، إلا أنها لم تتمكن من بناء نظام ثقة وحوكمة لمراقبتها، وهو ما يُعتبر الخطر الأساسي.

قال الرئيس التنفيذي لشركة KnowBe4، براين بارما، في فعاليات KB4-CON 2026: “المشكلة الأساسية في مجال الأمن الآن تكمن في الفجوة بين سرعة الإدخال وبناء نظام الحوكمة.” وأكد على ضرورة أن تقوم الشركات أولاً بـ"التعرف" و"فهم" وكلاء AI العاملين في أنظمتها. وشرح أن التعامل مع وكلاء AI يجب أن يكون كما كان الحال مع العاملين البشريين في صناعة الأمن سابقًا. وهذا يعني اعتبارهم أصولًا غير مدربة بشكل كافٍ، وفهم سلوكهم أولاً، ثم حمايتهم.

يشبه بارما وكلاء AI بحالة الطلاب في المرحلة الابتدائية. وشرح أنهم غير قادرين على التمييز بين الأوامر الخبيثة، ويكونون عرضة للتوجيه بأوامر خاطئة أو برمجيات خبيثة. وقال: “بناء الثقة يعتمد على ‘الشفافية’.” ويجب أن يكون واضحًا ما هي الوكلاء الموجودة، وما الأنظمة التي يتصلون بها، وما الموارد التي يمكنهم الوصول إليها.

من “الإنسان” إلى “وكيل AI”… توسيع نطاق إدارة الأمن

ردًا على هذا التغيير، تعمل KnowBe4 على توسيع منصتها لإدارة مخاطر البشر الحالية لتشمل مجال أمان وكلاء AI. أداة الشركة AIDA هي أداة لتلقائية وتخصيص تدريب الوعي الأمني للموظفين، بينما أداة “مدير مخاطر الوكيل” الجديدة تركز على إدارة قائمة لوكلاء AI العاملين في بيئة الشركات، وتحديد مسارات الاتصال وحقوق الوصول، وتعيين السياسات وآليات القيود.

وفقًا لبارما، تبدأ الأداة في تنظيم حالة وكلاء AI الداخليين في الشركة عبر قائمة. ثم تتبع كل وكيل يستخدم أي العمليات، وإلى أين يتصل، مثل أنظمة البريد الإلكتروني أو المالية. والخطوة الأخيرة هي إعداد “حواجز” تميز بين ما يمكن للوكيل “فعله” وما لا يمكنه فعله.

وهذا يدل على أن استراتيجيات الأمان في الشركات تتجه مؤخرًا نحو إعادة هيكلة “التهديد المزدوج”. إذ يمكن لوكيل AI أن يعزز الإنتاجية من جهة، ويصبح من جهة أخرى قناة يُستغلها المهاجمون. وفي النهاية، تواجه الشركات وضعًا يتطلب تصميم استراتيجيات دفاعية واستغلالية في آنٍ واحد.

تهديدات AI تتطور بشكل متزايد… “خلال العام القادم، ستزداد الحوادث الناتجة عن الوكلاء”

ذكرت KnowBe4 أن نماذج AI الخاصة بها تتعلم من بيانات سلوك تم جمعها على مدى 15 عامًا من 70 ألف منظمة وأكثر من مليار مستخدم. وأشار بارما إلى أن هذا هو ما يميز الشركة عن المنافسين. ووفقًا لتقرير الشركة “الوضع الحالي للمخاطر البشرية لعام 2025”، يعتبر 45% من قادة الأمن السيبراني “التهديدات المدفوعة بالذكاء الاصطناعي المتطورة باستمرار” أكبر تحدٍ.

وأضاف أن منصة AIDA أدت إلى تقليل تقييم المخاطر الشخصية بنسبة حوالي 4 نقاط مئوية مقارنة بالطرق اليدوية. مما يدل على أن التدريب الأمني المخصص باستخدام AI يلعب دورًا إيجابيًا في تحسين سلوك المستخدمين الفعلي.

بالإضافة إلى ذلك، توسع KnowBe4 من دعمها ليشمل أنظمة مثل Microsoft Copilot، وGemini، وClaude، وChatGPT، لمواجهة بيئة “العديد من نماذج اللغة الكبيرة”. ويعتقدون أنه نظرًا لعدم اعتماد الشركات على نموذج لغة كبير واحد فقط، فإن إدارة مخاطر وكلاء AI يجب أن تكون قادرة على التعامل مع نماذج متعددة في آنٍ واحد.

وحذر بارما من أن العام القادم قد يشهد زيادة كبيرة في حالات الحوادث الأمنية التي يسببها وكلاء AI كمصدر ثغرة مباشرة. وقال: “الوكيل يوسع سطح الهجوم. إن نشره مهم وفعال جدًا، لكنه يحمل مخاطر كبيرة أيضًا.”

لقد تجاوز تركيز أمان AI في الشركات الآن مسألة “هل سيتم الاعتماد عليه أم لا”، ليصبح “من يستخدم أي نوع من وكلاء AI وأين يتصل”. وتشير بعض الآراء إلى أنه إذا كانت استراتيجية AI التي تركز على الإنتاجية والابتكار ستنجح، فإن الشرط المسبق هو بناء نظام ثقة وتحكم، وهو ما يحظى بمزيد من الاعتراف والقبول.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • مُثبت