AI Bias in Banking - الأخطار التي لا يمكن لأحد تجاهلها

تُظهر الدراسات أن صناعة الخدمات المالية من المتوقع أن تستفيد أكثر من الذكاء الاصطناعي، بعد شركات التكنولوجيا الكبرى مباشرة. ومن غير المفاجئ أن يتم استثمار مبالغ هائلة في القطاع، من روبوتات الدردشة التي تحسن خدمة العملاء إلى نماذج متقدمة لـ KYC، AML، كشف الاحتيال، تقييم مخاطر الائتمان، ومعالجة مطالبات التأمين. بالإضافة إلى ذلك، يدفع الذكاء الاصطناعي نحو تقديم خدمات أكثر تخصيصًا، مثل النصائح الاستثمارية، التسعير، وتوصيات الإجراء أو المنتج التالي الأفضل.

لكن مع هذا الانتشار الواسع للتقنيات الجديدة، تظهر فئة جديدة من المخاطر. يقدم الذكاء الاصطناعي تهديدات فريدة، بما في ذلك هجمات حقن الأوامر، مخاطر كشف البيانات الشخصية والسرية، ونتائج معيبة بسبب الهلوسة أو التحيز الكامن.
يركز هذا المقال على آخر مخاطر “التحيز”.

نماذج الذكاء الاصطناعي ليست أنظمة بسيطة تعتمد على قواعد ثابتة. فمعظمها مبني على هياكل معقدة من التعلم الآلي أو التعلم العميق، وهي “صناديق سوداء” إحصائية تتكون من مصفوفات هائلة من الأوزان والمعلمات. تجعل هذه التعقيدات من المستحيل التنبؤ أو اختبار جميع النتائج المحتملة بشكل كامل. كما يصعب اكتشاف التحيز وتفسيره أو تصحيحه.

التحيز في الذكاء الاصطناعي ليس خللًا سطحيًا. إنه نابع من قضايا عميقة الجذور في البيانات، الافتراضات، تصميم النموذج، والسياق الاجتماعي والثقافي الذي يُطوّر فيه الذكاء الاصطناعي.

في الخدمات المالية، يمكن أن يكون للانحياز عواقب حقيقية. ليست مجرد مسألة عدالة، بل هي مسألة إدارة مخاطر. يمكن أن يؤدي إلى تلف السمعة، التعرض للتنظيم، المسؤولية القانونية، تآكل ثقة العملاء، وفي النهاية، معاملة غير عادلة للأفراد الذين يستحقون الوصول المتساوي إلى الخدمات المالية.

معظم نماذج الذكاء الاصطناعي المالية تُدرّب على بيانات تاريخية — طلبات القروض السابقة، درجات الائتمان، سجلات المعاملات، الأنماط الديموغرافية. لكن غالبًا ما تعكس هذه البيانات عدم مساواة هيكلية: تقليل الإقراض لمجموعات معينة، التفاوتات الاجتماعية والاقتصادية، التمييز التاريخي…​ عندما يتعلم النموذج من مثل هذه البيانات، يمكن أن يواصل أو حتى يعزز تلك الأنماط.

كما أن مصادر البيانات الأحدث، مثل سلوك المعاملات أو استخدام التطبيقات المحمولة، ليست خالية من التحيز أيضًا. قد تتعلق هذه الميزات بصفات محمية مثل الجنس، العرق، أو العمر حتى لو لم تُدرج صراحة. بمعنى آخر، يمكن أن يتسرب التحيز من خلال متغيرات تبدو “محايدة”.

نظرًا لأن النماذج لا تتعلم فقط من البيانات، بل تمتص الرؤية العالمية المضمنة في كيفية جمع البيانات وتصنيفها، فإن التحيز يصبح متجذرًا بعمق.

تُظهر دراسة حديثة من هارفارد ذلك. قارن الباحثون بين قيم ChatGPT والبيانات البشرية الحقيقية، ووجدوا أن توافقه الثقافي يعكس بشكل وثيق أوروبا الغربية أو ما يُطلق عليه “WEIRD”، أي الغربية، المتعلمة، الصناعية، الغنية والديمقراطية.
وهذا منطقي: معظم البيانات التي تُدرّب عليها هذه النماذج، ومعظم الأشخاص الذين يبنونها، ينتمون إلى مجتمعات “WEIRD”. لذلك، حتى لو “تحدث” النموذج بعدة لغات، فإنه لا يفكر إلا بلغة واحدة. الذكاء الاصطناعي لا يحمل فقط التحيز، بل يحمل رؤية عالمية، مع افتراضات مدمجة حول ما هو “طبيعي”، “عقلاني” أو “أخلاقي”.

وينطبق الأمر نفسه على الخدمات المالية. نموذج تقييم الائتمان المدرب على مستخدمين من أوروبا الغربية ذوي الدخل العالي قد يسيء فهم سلوكيات المجتمعات غير المصرفية أو المهاجرة. فالمعيار لـ “الطبيعي” ببساطة لا ينطبق.

ولم يكن مفاجئًا أن العديد من تطبيقات الذكاء الاصطناعي المالي، مثل نماذج تقييم الائتمان، تُصنف الآن على أنها عالية المخاطر بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي. وهذا يعني أن المزودين يجب أن:

  • يستخدموا مجموعات بيانات عالية الجودة وتمثيلية
  • يوثقوا التصميم الفني والافتراضات
  • يطبقوا الشفافية والتسجيل
  • يضمنوا الرقابة والمسؤولية البشرية

بالطبع، قد لا يكون من الممكن القضاء تمامًا على التحيز. لكن يمكن ويجب على المؤسسات المالية اتخاذ خطوات فعالة لتقليله:

  • التدريب باستخدام بيانات تمثيلية: التأكد من أن مجموعات البيانات تعكس السكان الذين سيخدمهم النموذج عبر المناطق الجغرافية، الخلفيات الاجتماعية والاقتصادية، الجنس، وغير ذلك.
  • المراجعة والاختبار للعدالة: تطبيق تدقيقات العدالة، تحليل أداء المجموعات الفرعية، وأدوات كشف التحيز. النظر في التخفيف في جميع المراحل: قبل المعالجة، أثناء المعالجة، وبعدها.
  • بناء فرق متنوعة: إشراك علماء البيانات، خبراء المخاطر، موظفي الامتثال، العلماء الاجتماعيين، وممثلي المجتمعات المتأثرة. تنوع وجهات النظر يساعد على كشف النقاط العمياء.
  • الحفاظ على العنصر البشري في الحلقة: في القرارات ذات المخاطر العالية (مثل الموافقة على القروض)، يجب أن تدعم النماذج الآلية القرارات البشرية، وليس أن تحل محلها.
  • تبني الشرحية: حيثما أمكن، استخدم نماذج قابلة للتفسير أو هجينة، حتى لو زاد ذلك من التعقيد.
  • المراقبة المستمرة: يمكن أن يتغير مفهوم العدالة مع تغير البيانات في العالم الحقيقي. يجب أن يكون إعادة التدريب، التدقيق، والرقابة مستمرين.

تقليل التحيز (مثل عبر البيانات المتوازنة، قيود النموذج، أو تدابير الشرح) غالبًا ما يأتي بتكلفة. ليس فقط من حيث تعقيد النموذج ووقت التنفيذ، بل أيضًا من حيث أداء النموذج. ومع ذلك، في الخدمات المالية، هو توازن ضروري.
يجب على المؤسسات المالية موازنة الأداء، العدالة، الامتثال، والشمول. لا توجد إجابة مثالية، لكن هذا لا يعني أنه لا ينبغي علينا المحاولة. في النهاية، يتطلب الطريق إلى الأمام الاعتراف بأن الذكاء الاصطناعي ليس مجرد تقنية، بل هو مرآة لنا، أي لقيمنا، بياناتنا، وأنظمتنا.

للمزيد من الرؤى، زوروا مدونتي على

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.01%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت