CertiK تطلق المدقق الآلي: يوازن بين انخفاض معدل الإنذارات الكاذبة وارتفاع الدقة، مع اختبار فعلي يحدد 88.6% من الثغرات الحقيقية

robot
إنشاء الملخص قيد التقدم

أخبار ME، في 7 أبريل (بتوقيت UTC+8)، أعلنت شركة CertiK، المختصة بأمان Web3، عن إطلاق أداة التدقيق بالذكاء الاصطناعي AI Auditor، وأصدرت بالتزامن مجموعة من حلول التكامل المفتوحة المصدر لوكلاء البرمجة بالذكاء الاصطناعي (AI Coding Agents). تم تصميم هذا النظام في البداية كمساعد لمختصي الأمان الداخليين لديها، وبعد أكثر من ستة أشهر من التحقق في سيناريوهات حقيقية، أصبح الآن متاحًا للجمهور رسميًا. ووفقًا للمعلومات، في تقييمها لـ 35 حادثة أمنية حقيقية في Web3 بحلول عام 2026 (لم يتم استخدام بيانات الاختبار في تدريب النموذج أو بناء قاعدة المعرفة)، تمكن CertiK AI Auditor من تحديد أسباب الثغرات الحقيقية بدقة تصل إلى 88.6%. يركز تصميم النظام على “نسبة إشارة إلى ضوضاء عالية”، أي الحفاظ على قدرة كشف عالية مع تقليل الضوضاء الناتجة عن الإنذارات الكاذبة بشكل كبير. مع تحول أدوات التطوير والوكالات الذكية إلى معايير أساسية لفريق تطوير Web3، تتسارع عملية تطور منطق الأمان الصناعي من “الكشف بعد الحدث” إلى “الدمج في كامل العملية”. سيقوم CertiK AI Auditor بتحويل التدقيق الأمني الذي كان يُجرى بشكل مستقل في مراحل المشروع النهائية إلى وظيفة مساعدة مستمرة ضمن سير العمل؛ مما يتيح للمطورين الحصول على رؤى أمنية على السلسلة دون الحاجة لتغيير بيئتهم، ويقلل من زمن الاستجابة للتهديدات الناشئة. ووفقًا للمعلومات، تم دمج AI Auditor في خطة العمل طويلة المدى لأعمال CertiK في مجال الذكاء الاصطناعي. وأكدت CertiK أن فريقها يعمل حاليًا على تطوير مزيد من الوظائف الجديدة، ويخطط لدمج قدرات الأمان بشكل أوسع في أدوات المطورين، وعمليات الامتثال، ونظام المراقبة على مستوى المؤسسات. (المصدر: PANews)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت