جوجل "تؤكد لأول مرة استغلال ثغرة يوم صفر التي تم إنشاؤها بواسطة الذكاء الاصطناعي" ... بدأ تطوير أدوات الهجوم بشكل كامل

robot
إنشاء الملخص قيد التقدم

مجموعة معلومات التهديدات من جوجل (GTIG) أعلنت أنها رصدت أول حالة مؤكدة لاستخدام الذكاء الاصطناعي (AI) في صناعة برامج استغلال “ثغرات يوم الصفر” القابلة للتشغيل الفعلي. على الرغم من عدم وجود علامات على حدوث أضرار واسعة النطاق بعد، إلا أن الاستخدام الرسمي للذكاء الاصطناعي في تطوير أدوات الهجوم يزيد من يقظة صناعة الأمن.

وفقًا لهذا التقرير، أنشأ تنظيم إجرامي هاكر برنامج استغلال يعتمد على بايثون لاستغلال ثغرة “تجاوز المصادقة الثنائية” في أدوات إدارة الأنظمة المستندة إلى الويب مفتوحة المصدر المستخدمة على نطاق واسع. أظهرت التحليلات أنهم حاولوا تنفيذ هجمات واسعة النطاق، لكن بسبب أخطاء في التنفيذ، لم ينجحوا في الاستغلال بشكل فعال. قامت جوجل بإبلاغ الموردين عن الثغرة، وتم إصدار تصحيح لها الآن.

توضح GTIG أن هناك علامات واضحة على تدخل الذكاء الاصطناعي في الكود، مثل إدراج تقييم خطورة غير متطابق مع الواقع، واستخدام تنسيق بايثون “تعليمي” بشكل مفرط، وقوائم مساعدة مفصلة، ووثائق شرح تحتوي على آثار واضحة لبيانات تدريب. ومع ذلك، أكدت جوجل أن نموذج Gemini الخاص بها لم يُستخدم في هذه العملية.

موجهة نحو “العيوب المنطقية الدلالية” التي يصعب اكتشافها بواسطة أدوات الأمان التقليدية

تنشأ الثغرة من نوع أكثر تعقيدًا من الأخطاء البرمجية البسيطة، وهو “العيوب المنطقية الدلالية”. حيث يثبت المطور فرضية الاعتماد على كائن معين في الكود، ويصبح هذا الخطأ التصميمي العالي المستوى نقطة هجوم. يصعب على أدوات الفحص الأمني التقليدية اكتشاف مثل هذه الثغرات لأنها غالبًا ما تعتبر أن الوظيفة تعمل بشكل طبيعي.

على العكس، تشرح GTIG أن أحدث نماذج اللغة الكبيرة (LLM) تظهر تفوقًا في استنتاج نوايا المطورين، واكتشاف العيوب الخفية في المنطق الظاهر أنه لا مشكلة فيه. هذا يعني أن الذكاء الاصطناعي قد تجاوز أدوات الأتمتة البسيطة، ودخل مرحلة جديدة من الفهم السياقي للمراجعة الأمنية.

قال جون هيلتكوستر، كبير محللي GTIG: “الفكرة أن سباق الثغرات المعتمد على الذكاء الاصطناعي على وشك البدء هو سوء فهم. الواقع أنه قد بدأ بالفعل، وإذا ثبت وجود ثغرة يوم صفر مرتبطة بالذكاء الاصطناعي، فهناك حالات غير مكتشفة أكثر بكثير.” وذكر أن المهاجمين يرفعون من سرعة، وحجم، ودقة هجماتهم باستخدام الذكاء الاصطناعي.

الصين، كوريا الشمالية، وروسيا يستخدمون الذكاء الاصطناعي في جميع مراحل الهجوم

تعتقد GTIG أن هذه الحالة ليست استثناء، بل جزء من اتجاه أوسع. يُظهر التقرير أن مجموعات الهاكر المدعومة من دول مثل الصين، كوريا الشمالية، وروسيا تستخدم الذكاء الاصطناعي في جميع مراحل الهجوم، من الاستطلاع، وتحليل الثغرات، وتطوير البرمجيات الخبيثة، وحتى عمليات التأثير. كما تعتمد الجماعات الإجرامية على نفس الأساليب لإنتاج برمجيات خبيثة بسرعة أكبر، وتشغيل عمليات أكبر.

تم رصد أن مجموعة التهديد المرتبطة بكوريا الشمالية “APT45” تتبع أسلوبًا معينًا: عبر إرسال آلاف الطلبات المتكررة (prompt)، لتحليل الثغرات بشكل تكراري والتحقق من صحة نماذج إثبات المفهوم (PoC)، وهو ما يُفهم على أنه محاولة لبناء أصول هجوم يصعب إدارتها بدون مساعدة الذكاء الاصطناعي.

ويُقال إن مجموعة “UNC2814”، المرتبطة بالصين، تستخدم تقنية “الاختراق” (jailbreak)، وهي استدراج خبراء عبر التظاهر بدورهم، لتحفيز Gemini على فحص ثغرات تنفيذ التعليمات البرمجية عن بعد (RCE) في برامج تشغيل أجهزة التوجيه TP-Link وبروتوكول نقل الملفات Odette قبل المصادقة.

كما اكتُشف أن جهة فاعلة مرتبطة بالصين تستخدم إطار عمل “Hexstrike” و"Strix" بالإضافة إلى نظام الذاكرة “Graphiti”، لاستكشاف شركة تكنولوجيا يابانية ومنصة أمن شبكات في شرق آسيا بشكل مستقل. ويُذكر أنهم يغيرون أدوات الاستطلاع بناءً على استنتاجاتهم الداخلية، مع تقليل التدخل البشري إلى أدنى حد.

انتشار خلفيات أندرويد، وبرمجيات خبيثة مزيفة، وتقنيات استنساخ الصوت

كما تطرق التقرير إلى وجود خلفية أندرويد خبيثة تسمى “PROMPTSPY”، والتي عند التشغيل، تستدعي واجهة برمجة التطبيقات (API) الخاصة بـ Gemini لشرح عناصر واجهة المستخدم على شاشة الهاتف الذكي، وتوليد إحداثيات اللمس تلقائيًا. مما يدل على أن الذكاء الاصطناعي يُدمج في أتمتة الهجمات على الأجهزة المحمولة.

أظهرت التحليلات أن برمجيات خبيثة مرتبطة بروسيا، مثل “CANFAIL” و"LONGSTREAM"، تستخدم رموزًا مغرية مولدة بواسطة الذكاء الاصطناعي لإخفاء الوظائف الخبيثة الحقيقية. بالإضافة إلى ذلك، وُجد أن الجهات الفاعلة الروسية في إطار عملية “Overload” للتأثير، تستخدم استنساخ الصوت بواسطة الذكاء الاصطناعي لإنشاء فيديوهات مزيفة تدعي أنها لصحفيين حقيقيين، وتنتشر عبر أوكرانيا وفرنسا والولايات المتحدة.

وفي الوقت نفسه، يُقال إن الجماعة الإجرامية “TeamPCP” هي من وراء اختراق أداة “LiteLLM”، وهي أداة بوابة ذكاء اصطناعي شهيرة، في مارس من هذا العام. وُجد أنهم أدخلوا أدوات سرقة بيانات عبر حزم PyPI الملوثة وطلبات السحب (Pull Requests) الخبيثة، وسرقوا مفاتيح AWS ورموز GitHub، وحققوا أرباحًا من خلال علاقات الفدية.

جوجل: “تم حظر الحسابات الخبيثة وتوسيع أدوات الدفاع المعتمدة على الذكاء الاصطناعي”

كإجراء مضاد، أعلنت جوجل أنها ستقوم بحظر الحسابات الخبيثة التي تسيء استخدام Gemini، وتوسيع استخدام أدوات الدفاع المعتمدة على الذكاء الاصطناعي، مثل وكيل اكتشاف الثغرات “Big Sleep” وأداة التصحيح “CodeMender”.

يركز هذا التقرير على أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة في المختبرات، بل أصبح جزءًا لا يتجزأ من صناعة الثغرات، من صناعة استغلالات يوم الصفر، وإخفاء البرمجيات الخبيثة، إلى أتمتة الخلفيات على الأجهزة المحمولة، ونشر المعلومات المزيفة. ويُعتقد أن جوهر المنافسة الأمنية يتحول من “من يكتشف الثغرات بسرعة أكبر ويعالجها” إلى “من يسيطر ويستغل الذكاء الاصطناعي بشكل أفضل”.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت