CertiK تطلق المدقق الآلي للذكاء الاصطناعي: يوازن بين انخفاض معدل الإنذارات الكاذبة وارتفاع الدقة، مع اختبار فعلي يحدد 88.6% من الثغرات الحقيقية

robot
إنشاء الملخص قيد التقدم

أخبار ME، في 7 أبريل (بتوقيت UTC+8)، أعلنت شركة CertiK، المختصة بأمان Web3، عن إطلاق أداة التدقيق بالذكاء الاصطناعي AI Auditor، وأصدرت في ذات الوقت مجموعة من حلول التكامل المفتوحة المصدر لوكلاء البرمجة بالذكاء الاصطناعي (AI Coding Agents). تم تصميم هذا النظام في البداية كمساعد لمختصي الأمان الداخليين لديها، وبعد أكثر من ستة أشهر من التحقق في سيناريوهات حقيقية، أصبح الآن متاحًا للجمهور رسميًا. ووفقًا للمعلومات، في تقييمها لـ 35 حادثة أمنية حقيقية في Web3 بحلول عام 2026 (لم يتم استخدام بيانات الاختبار في تدريب النموذج أو بناء قاعدة المعرفة)، تمكن CertiK AI Auditor من تحديد أسباب الثغرات الحقيقية بدقة بلغت 88.6%. يركز تصميم النظام على “نسبة إشارة إلى ضوضاء عالية”، أي الحفاظ على قدرة كشف عالية مع تقليل الضوضاء الناتجة عن الإنذارات الكاذبة بشكل كبير. مع تحول أدوات وتوكيلات الذكاء الاصطناعي إلى معيار أساسي لفرق تطوير Web3، تتسارع عملية تطور منطق الحماية الأمنية من “الكشف بعد الحدث” إلى “الدمج في كامل عملية التطوير”. سيقوم CertiK AI Auditor بتحويل التدقيق الأمني الذي كان يُجرى في مراحل متأخرة من المشروع إلى وظيفة مساعدة مستمرة ضمن سير العمل؛ مما يتيح للمطورين الحصول على رؤى أمنية على السلسلة دون الحاجة لتغيير بيئتهم، ويقلل من زمن الاستجابة للتهديدات الناشئة. ووفقًا للمعلومات، تم دمج AI Auditor في خطة العمل طويلة المدى لأعمال CertiK في مجال الذكاء الاصطناعي. وأكدت CertiK أن فريقها يعمل حاليًا على تطوير مزيد من الوظائف الجديدة، ويخطط لدمج قدرات الأمان بشكل أوسع في أدوات المطورين، وعمليات الامتثال، وأنظمة المراقبة على مستوى المؤسسات. (المصدر: PANews)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت