إطار أمان الذكاء الاصطناعي مفتوح المصدر Vercel deepsec: تشغيل كامل محليًا لمنع تسرب المعلومات، يدعم مئات المستويات من الحاويات المتزامنة

robot
إنشاء الملخص قيد التقدم

وفقًا لمراقبة Beating، ولحل مخاطر الأمان الناتجة عن فحص شفرة الذكاء الاصطناعي على السحابة، أعلنت Vercel عن إصدار إطار عمل فحص الأمان المدعوم بواسطة وكيل الذكاء الاصطناعي deepsec كمصدر مفتوح. يتيح هذا الأداة للمطورين استدعاء مفاتيح Claude أو Codex مباشرة في البنية التحتية المحلية، لفحص ثغرات قواعد البيانات الكبيرة دون الحاجة لمنح صلاحيات الشفرة المصدرية للخدمات السحابية الخارجية.

اعتمد deepsec على استدعاء Opus 4.7 و GPT 5.5 في الأساس، وصمم سير عمل للتحقق المتبادل متعدد المراحل: بعد الفحص الأولي باستخدام التعبيرات النمطية، يتدخل الوكيل لتتبع تدفق البيانات وإعداد التقارير؛ ثم تقوم مجموعة أخرى من الوكلاء بإجراء التحقق الثانوي لاستبعاد الإيجابيات الكاذبة، مع الحفاظ على معدل الإنذارات الخاطئة النهائية بين 10% و 20%؛ وأخيرًا، يدمج النظام بيانات Git الوصفية لتحديد المساهم المسؤول عن الثغرة، وتصدير تذكرة الإصلاح تلقائيًا.

بالنسبة للمستودعات الكبيرة التي تستغرق أيامًا للتحليل على جهاز واحد، يدعم deepsec توزيع مهام الفحص على Sandboxes الخاصة بـ Vercel. كشفت Vercel أن اختباراتها على مستودعاتها الخاصة أظهرت أن القدرة على المعالجة المتزامنة يمكن أن تصل إلى الآلاف من Sandboxes. وللخطوط التجارية المعقدة، يوفر النظام أيضًا آلية الإضافات، التي تدعم كتابة مطابقة نمطية مباشرة لوكيل الذكاء الاصطناعي لآليات التوثيق أو طبقات البيانات الخاصة بالمشروع.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت