باحثو UC يحذرون من أن موجهات الذكاء الاصطناعي من طرف ثالث تسرق العملات الرقمية والمفاتيح الخاصة

خدمات التوجيه الذكية من طرف ثالث تعرض المستخدمين لثغرات أمنية كبيرة قد تؤدي إلى سرقة العملات الرقمية وبيانات الاعتماد السحابية.

ملخص

  • وجد الباحثون أن 26 من موجهات LLM من طرف ثالث تقوم بنشاط بحقن رمز خبيث وسرقة بيانات الاعتماد من خلال استغلال وصولها إلى البيانات النصية الواضحة.
  • كشفت الدراسة أن الوسيطين يمكنهم اعتراض المفاتيح الخاصة وبيانات الاعتماد السحابية لأنها تنهي التشفير الآمن لجمع طلبات الذكاء الاصطناعي.

وفقًا لورقة بحثية نُشرت يوم الخميس من قبل باحثي جامعة كاليفورنيا، فإن سلسلة التوريد لنماذج اللغة الكبيرة (LLM) تحتوي على عدة ثغرات تسمح بحقن رمز خبيث واستخراج بيانات الاعتماد

هذه الوسائط، التي يستخدمها المطورون لإدارة الوصول إلى مزودين مثل جوجل أو أوبن إيه آي، تعمل بشكل أساسي كـ “وسيط” ينهي التشفير الآمن

لأنها تملك وصولاً كاملاً إلى النصوص الواضحة لكل رسالة تمر عبرها، يمكن اعتراض بيانات حساسة مثل عبارات التهيئة أو المفاتيح الخاصة من قبل بنية تحتية غير موثوقة.

تكتيكات التهرب وخطر “YOLO”

اختبر الباحثون 400 موجه مجاني و28 موجه مدفوع لقياس مدى هذه المخاطر. قامت تسعة من هذه الخدمات بحقن رمز خبيث بنشاط، بينما تم القبض على 17 موجهًا آخرين وهم يصلون إلى بيانات اعتماد أمازون ويب سيرفيس التي يملكها الفريق

خلال التجربة، نجح موجه واحد في تصريف إيثير من محفظة وهمية بعد أن زود الباحثون بمفتاح خاص مموّل مسبقًا

على الرغم من أن الفريق حافظ على الأرصدة منخفضة لضمان أن الخسارة الإجمالية تبقى أقل من 50 دولارًا، إلا أن النتيجة أكدت مدى سهولة أن ي siphon وسيط مخترق الأموال.

“26 موجه LLM يحقن بشكل سري أوامر أدوات خبيثة ويسرق بيانات الاعتماد،” قال المؤلف المشارك تشوفان شو على إكس.

تحديد موجه خبيث مهمة صعبة للمستخدم العادي. أشار الباحثون إلى أنه نظرًا لضرورة قراءة هذه الخدمات للبيانات لإعادة توجيهها، لا يوجد فرق مرئي بين المعالجة الشرعية والسرقة النشطة

يزداد الخطر عندما يقوم المطورون بتمكين “وضع YOLO”، وهو إعداد في العديد من أطر الذكاء الاصطناعي يسمح لوكيل بتنفيذ الأوامر تلقائيًا دون تأكيد بشري

هذا يسمح للمهاجم بإرسال تعليمات ستنفذها نظام المستخدم على الفور، غالبًا بدون علم المشغل.

“الحد الفاصل بين ‘معالجة بيانات الاعتماد’ و’سرقة بيانات الاعتماد’ غير مرئي للعميل لأن الموجهات تقرأ الأسرار بالفعل كنص واضح كجزء من التوجيه العادي،” أوضحت الدراسة.

يمكن أن تصبح الموجهات التي كانت موثوقة سابقًا خطرة إذا أعادت استخدام بيانات الاعتماد المسربة عبر وسطاء ضعفاء. ولمنع هذه الهجمات، اقترحت فريق البحث أن لا يسمح المطورون أبدًا بمرور المفاتيح الخاصة أو العبارات الحساسة عبر جلسة وكيل الذكاء الاصطناعي

الحل الدائم يتطلب من شركات الذكاء الاصطناعي استخدام توقيعات التشفير. مثل هذا النظام سيمكن الوكيل من إثبات رياضيًا أن التعليمات جاءت من النموذج الحقيقي وليس من مصدر طرف ثالث معدل.

“موجهات واجهة برمجة التطبيقات لنماذج اللغة الكبيرة تقع على حدود ثقة حاسمة يعاملها النظام البيئي حاليًا كوسيلة نقل شفافة،” خلصت الورقة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت