صندوق النقد الدولي يرفع التحذير مع تهديد أدوات الذكاء الاصطناعي المتقدمة للاستقرار المالي العالمي

صندوق النقد الدولي (IMF) أصدر تحذيراً بشأن الخطر الذي تشكله الطبيعة المتطورة للذكاء الاصطناعي. في مدونة صندوق النقد الدولي بتاريخ 7 مايو 2026، تقدم نماذج الذكاء الاصطناعي الأحدث مساراً لتجاوز أي حواجز مالية وضعت.

بالنسبة لهم، سيكون ذلك كارثياً للأسواق المالية. أوضح صندوق النقد الدولي أنه على الرغم من أن التكنولوجيا توفر آليات دفاع لمواجهة مثل هذه الهجمات، فإن قدراتها الهجومية تفوق قوتها الدفاعية.

يسلط صندوق النقد الدولي الضوء على تصاعد التهديدات السيبرانية للذكاء الاصطناعي على الاستقرار المالي

يأتي هذا التحذير في ظل الاعتماد المتزايد على التكنولوجيا مثل البنية التحتية المشتركة، بما في ذلك البرمجيات والشبكات، التي تدير المدفوعات ونقل المعلومات عبر العالم. في تقريره، حذر صندوق النقد الدولي من أن هذه المخاطر لا يمكن النظر إليها بشكل معزول، بل هي نظامية ويمكن أن تنتشر من المالية إلى صناعات أخرى، مثل الطاقة والاتصالات.

مثال مهم تم ذكره هو معاينة كلاود ميثوس من أنثروبيك، وهو نموذج ذكاء اصطناعي قوي تم تقديمه في بيئة مراقبة بعناية. أوضح صندوق النقد الدولي أن ميثوس يمكنه اكتشاف واستغلال نقاط الضعف في جميع أنظمة التشغيل والمتصفحات الرئيسية، بغض النظر عما إذا كان المشغلون يمتلكون خبرة محددة.

هذه التكنولوجيا تمهد لمستقبل تكون فيه الثغرات “صفر يوم” — التي كانت صعبة الإنشاء والاستغلال في الماضي — شائعة. كما ذكر المدونة النموذج الفريد GPT-5.5 الخاص بـ OpenAI.

إمكانية العدوى النظامية والاضطرابات في السوق العالمية

كما يقول صندوق النقد الدولي، فإن الترابط في التمويل العالمي يخلق تأثير مضاعف أسي للتهديدات المالية العالمية. وفقاً لصندوق النقد، “المخاطر السيبرانية تتزايد بسبب الأعطال المرتبطة التي قد تهدد الوساطة المالية، والمدفوعات، والثقة على المستوى النظامي.”

وذلك لأن بعض المنصات الرئيسية تُستخدم في الحوسبة السحابية، وتطوير البرمجيات، والتعلم الآلي. يجادل التقرير بأن الذكاء الاصطناعي يمكن أن يخلق مزيداً من التركيز والفشل من خلال ثغرة تؤثر على العديد من المؤسسات. الدول النامية عرضة للهجمات السيبرانية بسبب محدودية الموارد وإجراءات الحماية السيبرانية غير الكافية.

على الرغم من أن صندوق النقد الدولي لم يقدم أرقام خسائر محددة في آخر تحديث له، إلا أنه أشار إلى دراسات سابقة أبرزت إمكانية تصاعد مثل هذه الأحداث إلى مشاكل في الملاءة المالية وتأثيرات أوسع.

دعوات عاجلة للتعاون العالمي بشأن مخاطر الذكاء الاصطناعي المالية

كإجراء مضاد، يروج صندوق النقد الدولي الآن لإطار سياسة “المرونة أولاً” الذي يعتبر الأمن السيبراني مكوناً أساسياً للاستقرار المالي. “الدفاعات ستُخترق دائماً في مرحلة ما، ولذلك فإن المرونة مهمة أيضاً، خاصة لمنع انتشار الضرر وضمان التعافي”، أوضح المدونة.

عززت المديرة العامة لصندوق النقد الدولي كريستالينا جورجيفا الرسالة الشهر الماضي، قائلة في مقابلة: “نحن حريصون جداً على رؤية مزيد من الاهتمام بالحواجز الضرورية لحماية الاستقرار المالي في عالم الذكاء الاصطناعي.”

البيت الأبيض يسرع استجابة شاملة لمخاطر الذكاء الاصطناعي المتقدمة

تبذل إدارة ترامب جهوداً لضمان حماية الشركات الأمريكية والمؤسسات الحكومية من مخاطر الأمن السيبراني الناشئة عن برامج الذكاء الاصطناعي الجديدة، وفقاً لمدير المجلس الاقتصادي الوطني كيفن هاسيت، في مقابلة مع فوكس بيزنس يوم الأربعاء، 6 مايو 2026.

ظهر هاسيت على برنامج ماريا بارتيرومو “صباح الخير مع ماريا” وذكر أن البيت الأبيض يعمل مع الشركات الخاصة لإجراء اختبارات موسعة لنماذج الذكاء الاصطناعي الجديدة قبل نشرها. تأتي هذه التصريحات بعد مخاوف بشأن قدرات ميثوس، وهو نموذج ذكاء اصطناعي رفيع المستوى طورته أنثروبيك.

“لكننا قمنا بتنسيق جهد شامل من جميع قطاعات الحكومة والقطاع الخاص لضمان أنه قبل إصدار هذا النموذج للعالم، يتم اختباره من جميع الجهات للتأكد من أنه لا يسبب ضرراً للأعمال الأمريكية أو للحكومة الأمريكية”، قال هاسيت.

“نحن ندرس احتمال إصدار أمر تنفيذي لتقديم خارطة طريق واضحة للجميع حول كيفية سير الأمور، وكيفية مرور الذكاءات الاصطناعية المستقبلية التي قد تخلق ثغرات عبر عملية، بحيث يتم إصدارها في العالم بعد إثبات سلامتها، تماماً مثل دواء FDA”، أوضح.

أذكى عقول العملات الرقمية قرأوا بالفعل نشراتنا الإخبارية. هل تريد الانضمام؟ انضم إليهم.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت