استخدم "وكيل الكركند" بحذر - تلقت عدة بنوك تنبيهات رقابية

robot
إنشاء الملخص قيد التقدم

◎ الصحفيون: ونتينغ، هوانغ كون

مع استمرار ارتفاع شعبية OpenClaw (المعروف أيضًا باسم “الروبيان”)، تزداد المخاوف بشأن أمانه. في 15 مارس، أصدرت جمعية التمويل عبر الإنترنت في الصين تحذيرًا من مخاطر تطبيق OpenClaw في صناعة التمويل عبر الإنترنت. وأفاد مراسل Shanghai Securities من عدة مؤسسات أن البنوك تلقت بالفعل تحذيرات من الجهات التنظيمية ذات الصلة.

بالإضافة إلى ذلك، قامت بعض البنوك بإجراء فحوصات ذاتية وتذكير بالمخاطر ذات الصلة، مع اتخاذ موقف حذر تجاه OpenClaw. وأكد العديد من الخبراء الذين تم مقابلتهم أن OpenClaw غير مناسب حاليًا لسوق خدمات الشركات التي تتطلب معايير عالية للأمان والامتثال، ومن المتوقع ألا يتم تطبيقه على نطاق واسع في الأعمال الأساسية المالية في المدى القصير.

تلقت عدة بنوك تحذيرات من الجهات التنظيمية

“الروبيان” هو الاسم المستعار لوكيل الذكاء الاصطناعي المفتوح المصدر OpenClaw، لأنه يُرمز إليه برمز الروبيان الأحمر. يستخدم من خلال دمج استدعاء برامج التواصل والذكاء الاصطناعي الكبير، ويقوم بتنفيذ مهام معقدة على الكمبيوتر المحلي للمستخدم بشكل مستقل، مثل إدارة الملفات، وإرسال واستقبال البريد الإلكتروني، ومعالجة البيانات.

بعد ظهور “الروبيان”، حظي باهتمام واسع من قبل الصناعة والمستخدمين في الصين، وأدى ذلك أيضًا إلى تحديات أمنية.

في مساء 11 مارس، أصدر منصة مشاركة معلومات التهديدات والثغرات الأمنية في وزارة الصناعة وتكنولوجيا المعلومات الصينية، نصيحة بعنوان “ستة أمور يجب فعلها وستة أمور لا يجب فعلها” بشأن مخاطر أمان الذكاء الاصطناعي المفتوح OpenClaw (الروبيان)، مع تحديد أربعة سيناريوهات تطبيقية رئيسية لمخاطر الأمان. وأكدت بشكل خاص أن سيناريوهات المعاملات المالية تحمل مخاطر واضحة، مثل حدوث معاملات خاطئة أو استيلاء على الحسابات.

وفي 15 مارس، أصدرت جمعية التمويل عبر الإنترنت في الصين تحذيرًا يفيد بأن: على الرغم من أن الذكاء الاصطناعي OpenClaw يمكن أن يعزز كفاءة العمل، فإن صلاحيات النظام العالية بشكل افتراضي وتكوينات الأمان الضعيفة تجعله عرضة للهجمات، مما قد يؤدي إلى سرقة البيانات الحساسة أو التحكم غير القانوني في المعاملات، مما يهدد الصناعة بمخاطر جسيمة.

قال مصدر داخلي في أحد البنوك المساهمة إنهم تلقوا بالفعل تحذيرًا من الجهات التنظيمية. وأفاد مصدر من بنك حكومي كبير آخر أن الشركة أصدرت تحذيرًا داخليًا، يمنع الموظفين من إنشاء أو نشر OpenClaw أثناء أداء مهامهم.

وبحسب مصدر من قسم التكنولوجيا في أحد البنوك، فإن الجهات التنظيمية أصدرت مؤخرًا تحذيرات ذات صلة، وأن البنك يجري دراسات وتخطيط لضمان أمان البيانات، وأن “المقر الرئيسي سيصدر لاحقًا تحذيرات ذات صلة للموظفين داخل البنك”.

المخاطر الناتجة لا يمكن تجاهلها أيضًا

قال Zhang Xiaoming، نائب رئيس مساعد لشركة Xinghuan Technology، إن “OpenClaw غير مناسب حاليًا لسوق خدمات الشركات التي تتطلب معايير عالية للأمان والامتثال”. وأوضح أن العملاء الماليين، خاصة البنوك، يخضعون لرقابة صارمة ومتطلبات عمليات قوية، وأن معظم الأنظمة والتطبيقات معزولة ماديًا أو صلاحياتها محدودة، مما يجعل من الصعب على OpenClaw أن يستفيد بشكل كامل من مزاياه في تنفيذ المهام المستقلة، والتكامل عبر منصات متعددة، والتوسع الديناميكي للمهارات. لذلك، لا يُنصح حاليًا بنشره مباشرة في بيئة الإنتاج.

قال Dong Ximiao، كبير الاقتصاديين في Zhilian Technology ومدير معهد التمويل والاقتصاد في شنغهاي، إن القطاع المالي، خاصة البنوك، يحمل كميات هائلة من معلومات العملاء وبيانات المعاملات، وأن الأمان والامتثال لا يمكن التهاون فيهما في أي مجال يتعامل مع الأموال، وبيانات العملاء، والمعاملات الأساسية. “لذا، في المدى القصير، لن نرى تطبيق OpenClaw على نطاق واسع في الأعمال الأساسية المالية.”

وأوصت جمعية التمويل عبر الإنترنت في الصين: يجب على المستهلكين الماليين توخي الحذر عند استخدام أجهزة الصراف الآلي، والتداول عبر الإنترنت، والدفع، وعدم تثبيت OpenClaw على الأجهزة التي تتعامل مع معلومات العملاء، أو في عمليات إدارة الأموال، أو مراجعة المخاطر، أو تنفيذ المعاملات، وعدم إدخال البيانات الحساسة مثل معلومات العملاء، وبيانات المعاملات، ومواد الموافقة على القروض، أو ربطها مع هذا الذكاء الاصطناعي.

وفي رأي الخبراء الذين تم مقابلتهم، فإن قرار نشر OpenClaw هو مسألة فردية، والمشكلة الأساسية تكمن في حدود تطبيق الذكاء الاصطناعي. في 11 مارس، عقد البنك الشعبي الصيني مؤتمرًا حول التكنولوجيا لعام 2026، وأكد على ضرورة تعميق تكامل التكنولوجيا والصناعة، والتقدم بحذر وأمان في تطبيقات الذكاء الاصطناعي في المجال المالي، وإطلاق طاقات التطور الرقمي والذكاء الاصطناعي.

قال Qi Xiangdong، رئيس مجلس إدارة Qi An Xin، إن “الذكاء الاصطناعي يثير تناقضًا بين ‘زيادة الكفاءة’ و’إعادة تشكيل السيناريوهات’: السيناريوهات تتطور بسرعة، لكن الامتثال لا يُسمح فيه بأي خطأ”. وأوضح أن “السرعة” تعني أن تطبيقات الذكاء الاصطناعي في المجال المالي تتطور بسرعة، مما يسبق تنفيذ السيناريوهات وكشف المخاطر. و"عدم التسامح مع الأخطاء" يعني أن المؤسسات المالية، مثل البنوك والتداول والتأمين، تتطلب معايير أعلى من حيث الرقابة والامتثال. “انتشار النماذج الكبيرة في القطاع المالي يتطلب من المؤسسات المالية ترقية أنظمة الأمان الشبكية وبياناتها بشكل أكبر، لتجنب تجاوز الحدود التنظيمية.”

ورأى Dong Ximiao أن الاتجاه المستقبلي لتطبيق الذكاء الاصطناعي هو أن تبدأ البنوك في اختبار سيناريوهات منخفضة المخاطر وغير أساسية، مثل دعم خدمة العملاء، ومعالجة المستندات، واسترجاع المعرفة الداخلية، ثم تقوم بتعديل النماذج بشكل عميق ونشرها بشكل خاص، وبناء نظام حوكمة شامل للذكاء الاصطناعي، للسيطرة على المخاطر من المصدر، ثم تقرر ما إذا كانت ستنشرها في الأعمال الأساسية والسيناريوهات الأساسية بناءً على الحالة.

بالإضافة إلى التحديات والمخاطر التي تفرضها المؤسسات المالية عند نشر الذكاء الاصطناعي، فإن الذكاء الاصطناعي يوفر أيضًا أدوات “احتيال جديدة” للمجرمين، مع مخاطر مشتقة لا يمكن تجاهلها.

أوضحت جمعية التمويل عبر الإنترنت في الصين أن المجرمين قد يستخدمون عبارات مثل “الاستثمار عبر الذكاء الاصطناعي” و"ضمان الربح" لتنفيذ عمليات احتيال، ويستغلون شعبية “الروبيان” لنسخ معلومات مزيفة من المؤسسات المالية بشكل جماعي، وتحريض الجمهور على تحميل تطبيقات مزيفة أو تحويل الأموال إلى حسابات معينة. بالإضافة إلى ذلك، قد يستخدم المجرمون عبارات مثل “تثبيت عن بعد” و"تصحيح عن بعد" للحصول على السيطرة على أجهزة المستخدمين، وزرع برامج خبيثة أو سرقة معلومات مالية حساسة. وأظهرت تقارير أن حالات الاحتيال المالي المرتبطة بالذكاء الاصطناعي تتزايد بسرعة، ويحتاج الجمهور إلى تحسين قدرته على التعرف على هذه الأساليب الجديدة من الاحتيال.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت