CertiK تطلق المدقق الذكي: يوازن بين انخفاض معدل الإنذارات الكاذبة وارتفاع الدقة، مع اختبار يحدد 88.6% من الثغرات الحقيقية

robot
إنشاء الملخص قيد التقدم

أخبار ME، في 7 أبريل (بتوقيت UTC+8)، أعلنت شركة CertiK، المختصة بأمان Web3، عن إطلاق أداة التدقيق بالذكاء الاصطناعي AI Auditor، وأصدرت في ذات الوقت مجموعة من حلول التكامل مفتوحة المصدر لوكلاء البرمجة بالذكاء الاصطناعي (AI Coding Agents). تم تصميم هذا النظام في البداية كمساعد لمختصي الأمان الداخليين لديها، وبعد أكثر من ستة أشهر من التحقق في سيناريوهات حقيقية، أصبح الآن متاحًا للجمهور بشكل رسمي. ووفقًا للمعلومات، في تقييمها لـ 35 حادثة أمنية حقيقية في Web3 بحلول عام 2026 (لم يتم استخدام بيانات الاختبار في تدريب النموذج أو بناء قاعدة المعرفة)، تمكن CertiK AI Auditor من تحديد أسباب الثغرات الحقيقية بدقة تصل إلى 88.6%. يركز تصميم النظام على “نسبة إشارة إلى ضوضاء عالية”، أي الحفاظ على قدرة كشف عالية مع تقليل الضوضاء الناتجة عن الإنذارات الكاذبة بشكل كبير. مع تحول أدوات التطوير والوكالة الذكية إلى معيار أساسي لفرق تطوير Web3، تتسارع عملية تطور منطق الحماية الأمنية من “الكشف بعد الحدث” إلى “الدمج الكامل في جميع مراحل العملية”. سيقوم CertiK AI Auditor بتحويل التدقيق الأمني الذي كان يُجرى في مراحل متأخرة من المشروع إلى وظيفة مساعدة مستمرة في سير العمل؛ مما يمكن المطورين من الحصول على رؤى أمنية على السلسلة دون الحاجة لتغيير بيئتهم، ويقلل من زمن الاستجابة للتهديدات الجديدة. ووفقًا للمعلومات، تم دمج AI Auditor في خطة العمل طويلة المدى لأعمال CertiK في مجال الذكاء الاصطناعي. وأكدت CertiK أن فريقها يعمل حاليًا على تطوير مزيد من الوظائف الجديدة، ويخطط لدمج قدرات الأمان بشكل أوسع في أدوات المطورين، وعمليات الامتثال، وأنظمة المراقبة على مستوى المؤسسات. (المصدر: PANews)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت