CertiK تطلق المدقق الذكي: يوازن بين انخفاض معدل الإنذارات الكاذبة وارتفاع الدقة، مع اختبار فعلي يحدد 88.6% من الثغرات الحقيقية

robot
إنشاء الملخص قيد التقدم

أخبار ME، في 7 أبريل (بتوقيت UTC+8)، أعلنت شركة الأمن Web3 CertiK عن إطلاق أداة التدقيق بالذكاء الاصطناعي AI Auditor، وأطلقت بالتزامن مجموعة من حلول التكامل المفتوحة المصدر لوكلاء البرمجة الذكية (AI Coding Agents). تم تصميم هذا النظام في البداية كمساعد لمختصي الأمان الداخليين لديها، وبعد أكثر من ستة أشهر من التحقق في سيناريوهات حقيقية، أصبح الآن متاحًا للجمهور رسميًا. ووفقًا للمعلومات، في تقييم 35 حادثة أمنية حقيقية لـ Web3 في عام 2026 (لم يتم استخدام بيانات الاختبار في تدريب النموذج أو بناء قاعدة المعرفة)، تمكن CertiK AI Auditor من تحديد أسباب الثغرات الحقيقية بدقة تصل إلى 88.6%. يركز تصميم النظام على “نسبة إشارة إلى ضوضاء عالية”، أي الحفاظ على قدرة كشف عالية مع تقليل الضوضاء الناتجة عن الإنذارات الكاذبة بشكل كبير. مع تحول أدوات التطوير الذكية ووكلاء الذكاء الاصطناعي إلى معيار أساسي لفرق تطوير Web3، يتسارع تطور منطق الحماية الأمنية من “الكشف بعد الحدث” إلى “الدمج الكامل في سير العمل”. سيقوم CertiK AI Auditor بتحويل التدقيق الأمني الذي كان يُجرى بشكل مستقل في مراحل المشروع النهائية إلى وظيفة مساعدة مستمرة في سير العمل؛ مما يتيح للمطورين الحصول على رؤى أمنية على السلسلة دون الحاجة لتغيير بيئتهم، ويقلل من زمن الاستجابة للتهديدات الناشئة. ووفقًا للمعلومات، تم دمج AI Auditor في خطة العمل طويلة المدى لأعمال CertiK في مجال الذكاء الاصطناعي. وأكدت CertiK أن فريقها يعمل حاليًا على تطوير مزيد من الوظائف الجديدة، ويخطط لدمج قدرات الأمان بشكل أوسع في أدوات المطورين، وعمليات الامتثال، ونظام المراقبة على مستوى المؤسسات. (المصدر: PANews)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت