باحث أنثروبيك يعرض: استخدام نماذج اللغة الكبيرة لاستخراج 500 ثغرة يوم صفر بشكل جماعي

robot
إنشاء الملخص قيد التقدم

العنوان

باحثو Anthropic في عرض [un]prompted 2026: LLM تستخرج 500 ثغرة صفراء بشكل جماعي

الملخص

شارك روهان بول فيديو خطاب نيكولاس كارليني في [un]prompted 2026 بعنوان “LLMs ذات القبعة السوداء”. كارليني هو باحث في أمان الذكاء الاصطناعي في Anthropic، وقد عرض كيف يمكن للمهاجمين استخدام نماذج اللغة الكبيرة لتحديد واستغلال ثغرات البرمجيات. الرقم الرئيسي: 500 استغلال صفراء تم توليدها تلقائيًا. والأكثر مدعاة للقلق: مع تعزيز قدرات LLM في أبحاث الثغرات، فإن نموذج التهديد ينتقل - من “كيف يمكن مهاجمة نماذج الذكاء الاصطناعي” إلى “ماذا سيحدث إذا بدأت الذكاء الاصطناعي في مهاجمة أنظمة أخرى”.

التحليل

هذه ليست مجرد فرضيات نظرية، بل هي تجارب قابلة للتكرار. سجل كارليني LLM وهي تستخرج عيوب حقيقية تجاوزتها اختبارات الضباب التقليدية والتحليل الثابت، بما في ذلك مشاكل تجاوز المصادقة. أكد مرارًا في مدونته على الكفاءة:

  • LLM لا تُنشئ أنواع جديدة تمامًا من الهجمات، لكنها ستقلل بشكل كبير من تكلفة ونقطة دخول الهجمات الحالية
  • تشمل المكاسب النموذجية: إنشاء عمليات تصيد على نطاق واسع، عمليات استقصاء تلقائية، تجميع سلسلة الاستغلال بشكل مبرمج
  • هذه الأنشطة التي كانت تتطلب تمويلًا أو خبرة متقدمة، تم “تعميمها” بواسطة النموذج ويمكن توسيعها بشكل متوازي

تشير ردود فعل المجتمع (نقاشات المؤتمر وسلسلة Hacker News) إلى أن الصناعة تأخذ هذا التغيير على محمل الجد. هناك وجهة نظر عكسية معقولة: قد يكون اكتشاف الثغرات المدعوم بالذكاء الاصطناعي أكثر فائدة للجهات الدفاعية، حيث يمكن للشركات دمجه بشكل منهجي في CI/CD وقواعد الأصول، مما يغطي نطاقًا أوسع ويكتشف المشكلات في وقت أبكر. لكن كارليني أوضح أن النتائج لا تزال غير مؤكدة - لا أحد يمكنه أن يحدد ما إذا كانت الدفاعات أو الهجمات ستستفيد أكثر في الوقت الحالي.

السؤال المقلق هو بُعد الزمن: ماذا سيحدث إذا استمرت القدرات في التحسين خلال 6-12 شهرًا القادمة؟ تظهر أعمال كارليني أننا لا نزال بعيدين عن “السقف”.

نظرة سريعة على تأثير الهجوم والدفاع

البعد ما يمكن أن يحصل عليه المهاجم ما يمكن أن يحصل عليه المدافع
التكلفة والسرعة تقليل التكاليف وزيادة السرعة، تصيد/استقصاء/استغلال جماعي مسح شامل للكود والتكوين، اكتشاف العيوب في وقت مبكر
نطاق التغطية استهداف الأهداف الطويلة والتقنيات النادرة ضمن الهجوم تغطية أصول وسلسلة إمداد بشكل متكرر
عتبة المهارة تقليل متطلبات المهارات، رفع مستوى قدرة المخترقين الصغار تنفيذ منصة، دمج مزايا البنية التحتية والعمليات
عدم اليقين التأثير يتأثر بالبيانات/المواءمة/التداخل الوقائي يجب حل تكلفة الإنذارات الكاذبة، الامتثال وتكاليف التعاون بين الإنسان والآلة

الاستنتاج:

  • LLM تقوم بتوسيع نطاق “الهجمات المعروفة القابلة للتنفيذ” وتجعلها منهجية، وليس من خلال ابتكار أنماط جديدة من العدم
  • في المدى القصير، تعتمد لعبة الهجوم والدفاع على من يتمكن من دمج النموذج في خط الإنتاج بشكل أسرع (البيانات، القدرة الحاسوبية، تقييمات وقدرات ردود الفعل)

تقييم التأثير

  • الأهمية: عالية
  • النطاق: أمان الذكاء الاصطناعي، أبحاث الذكاء الاصطناعي، رؤى تقنية

التقييم: نحن في نقطة تحول “مبكرة ولكن متسارعة”. الفرق الدفاعية التي تمتلك قدرات هندسية ومنهجية، والموردون الأمنيون، والشركات الكبرى، بالإضافة إلى الجهات التمويلية القادرة على تخصيص الأموال والموارد لتطوير أدوات، هي الأكثر ميزة. سيستفيد الأفراد في فرق الهجوم، لكن أولئك الذين يتمكنون من تنفيذ ذلك بشكل منهجي سيحققون عائدات أكبر أولاً.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.14%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • تثبيت