طبقة الحكم: لماذا الذكاء الاصطناعي لا يكون ذكيًا حتى يكون القادة أذكى

غيليورمو ديلغادو أباريسيو هو القائد العالمي للذكاء الاصطناعي في Nisum.


اكتشف أهم أخبار وفعاليات التكنولوجيا المالية!

اشترك في النشرة الإخبارية لـ FinTech Weekly

يقرأها التنفيذيون في JP Morgan، Coinbase، Blackrock، Klarna وغيرهم


يمتد الذكاء الاصطناعي في التكنولوجيا المالية عبر مجموعة من الاستخدامات، من كشف الاحتيال والتداول الخوارزمي إلى تقييم الائتمان الديناميكي وتوصيات المنتجات الشخصية. ومع ذلك، وجدت تقرير هيئة السلوك المالي أن من بين 75% من الشركات التي تستخدم الذكاء الاصطناعي، فقط 34% تعرف كيف يعمل.

المشكلة ليست فقط نقص الوعي. إنها فهم عميق خاطئ لقوة ونطاق تحليلات البيانات، وهو التخصص الذي ينبثق منه الذكاء الاصطناعي. لقد جلب الاعتماد الجماعي على أدوات الذكاء الاصطناعي التوليدية الموضوع إلى قمة الإدارة. لكن العديد من من يختارون كيفية تنفيذ الذكاء الاصطناعي لا يفهمون مبادئه الأساسية من حساب التفاضل والتكامل، والإحصاء، والخوارزميات المتقدمة.

خذ قانون بنفورد، مبدأ إحصائي بسيط يكتشف الاحتيال من خلال رصد أنماط في الأرقام. يبني الذكاء الاصطناعي على نفس نوع الرياضيات، ولكن على مقياس ملايين المعاملات في آن واحد. إذا أزلت الضجيج، فإن الأساس لا يزال إحصائيات وخوارزميات.

لهذا السبب، تعتبر معرفة الذكاء الاصطناعي على مستوى الإدارة العليا مهمة. القادة الذين لا يستطيعون التمييز بين نهاية التحليلات وبداية الذكاء الاصطناعي يواجهون خطر الاعتماد المفرط على أنظمة لا يفهمونها أو التقليل من استخدامها خوفًا. وتُظهر التاريخ ما يحدث عندما يسيء صانعو القرار فهم التكنولوجيا: حاولت الجهات التنظيمية سابقًا حظر المكالمات الدولية عبر الإنترنت، فقط لمشاهدة تفوق التكنولوجيا على القواعد. نفس الديناميكية تتكرر مع الذكاء الاصطناعي. لا يمكنك منعه أو اعتماده بشكل أعمى؛ بل تحتاج إلى الحكمة، والسياق، والقدرة على توجيهه بمسؤولية.

يجب على قادة التكنولوجيا المالية سد هذه الفجوات لاستخدام الذكاء الاصطناعي بمسؤولية وفعالية. وهذا يتطلب فهم أين تنتهي التحليلات وأين يبدأ الذكاء الاصطناعي، وبناء المهارات لتوجيه هذه الأنظمة، وتطبيق الحكم السليم لتحديد متى وكيف تثق في مخرجاتها.

حدود، نقاط عمياء، وأوهام الذكاء الاصطناعي

تحلل التحليلات البيانات الماضية والحالية لشرح ما حدث ولماذا. ينمو الذكاء الاصطناعي من هذا الأساس، باستخدام تحليلات متقدمة للتنبؤ بما سيحدث بعد ذلك، وبشكل متزايد، لاتخاذ القرارات أو التصرف تلقائيًا بناءً على ذلك.

مع قدراته الاستثنائية في معالجة البيانات، من السهل أن يرى قادة التكنولوجيا المالية أن الذكاء الاصطناعي هو الحل السحري. لكنه لا يمكنه حل كل مشكلة. لا يزال للبشر ميزة فطرية في التعرف على الأنماط، خاصة عندما تكون البيانات غير مكتملة أو “مشوشة”. قد يواجه الذكاء الاصطناعي صعوبة في تفسير الفروق السياقية التي يمكن للبشر فهمها بسرعة.

ومع ذلك، من الخطأ الاعتقاد أن البيانات غير المثالية تجعل الذكاء الاصطناعي عديم الفائدة. يمكن لنماذج التحليل العمل مع بيانات غير مكتملة. لكن التحدي الحقيقي هو معرفة متى تستخدم الذكاء الاصطناعي ومتى تعتمد على الحكم البشري لملء الفجوات. بدون هذا الإشراف الدقيق، يمكن أن يُدخل الذكاء الاصطناعي مخاطر كبيرة.

إحدى هذه المشكلات هي التحيز. عندما تدرب الشركات المالية على مجموعات بيانات قديمة، غالبًا ما ترث الأعباء المرتبطة بها. على سبيل المثال، قد يُستخدم الاسم الأول للعميل بشكل غير مقصود كمؤشر للجنس، أو يُستدل على العرق من اسم العائلة، مما يوجه درجات الائتمان بطرق لا يوافق عليها أي تنظيم. هذه التحيزات، التي تكون مخفية بسهولة في الرياضيات، غالبًا ما تتطلب إشرافًا بشريًا للكشف عنها وتصحيحها.

عندما تتعرض نماذج الذكاء الاصطناعي لمواقف لم تتدرب عليها، يمكن أن يتسبب ذلك في انحراف النموذج. يمكن أن تؤثر تقلبات السوق، والتغييرات التنظيمية، وتغير سلوك العملاء، والتحولات الاقتصادية الكلية على فعالية النموذج دون مراقبة وإعادة ضبط من قبل البشر.

تزداد صعوبة إعادة ضبط الخوارزميات بشكل حاد عندما تستخدم الشركات المالية “صناديق سوداء” لا تسمح برؤية العلاقة بين المتغيرات. في ظل هذه الظروف، يفقدون القدرة على نقل تلك المعرفة إلى صانعي القرار في الإدارة. بالإضافة إلى ذلك، تظل الأخطاء والتحيزات مخفية في النماذج غير الشفافة، مما يقوض الثقة والامتثال.

ما يحتاج قادة التكنولوجيا المالية لمعرفته

وجد استطلاع Deloitte أن 80% منهم يقولون إن مجالس إدارتهم تفتقر إلى الخبرة في الذكاء الاصطناعي. لكن لا يمكن للمديرين التنفيذيين في الإدارة العليا أن يتعاملوا مع الذكاء الاصطناعي كمشكلة تقنية فقط. فالمساءلة عن الذكاء الاصطناعي تقع على عاتق القيادة، مما يعني أن قادة التكنولوجيا المالية بحاجة إلى تطوير مهاراتهم.

الطلاقة عبر التحليلات

قبل تطبيق الذكاء الاصطناعي، يحتاج القادة إلى القدرة على التبديل بين الأدوار—مراجعة الأرقام، الحالة التجارية، العمليات، والأخلاقيات—ورؤية كيف تتداخل هذه العوامل وتشكل نتائج الذكاء الاصطناعي. يجب أن يفهموا كيف ترتبط دقة النموذج الإحصائية بمخاطر الائتمان. وأن يدركوا متى قد يُدخل متغير يبدو ماليًا سليمًا (مثل سجل السداد) مخاطر اجتماعية أو تنظيمية من خلال ارتباطه بفئة محمية، مثل العمر أو العرق.

تأتي هذه الطلاقة في فهم الذكاء الاصطناعي من الجلوس مع مسؤولي الامتثال لفهم اللوائح، والتحدث مع مديري المنتجات حول تجربة المستخدم، ومراجعة نتائج النماذج مع علماء البيانات للكشف عن علامات الانحراف أو التحيز.

في التكنولوجيا المالية، استبعاد المخاطر بنسبة 100% غير ممكن، لكن مع الطلاقة التحليلية، يمكن للقادة تحديد المخاطر التي تستحق المخاطرة وتلك التي ستقوض قيمة المساهمين. كما تعزز هذه المهارة قدرة القائد على اكتشاف والتحرك ضد التحيز، ليس فقط من منظور الامتثال، بل من منظور استراتيجي وأخلاقي.

على سبيل المثال، إذا كان نموذج تقييم الائتمان المدفوع بالذكاء الاصطناعي يميل بشكل كبير نحو مجموعة معينة من العملاء، فإن تصحيح هذا الاختلال ليس مجرد مهمة علم بيانات؛ بل يحمي سمعة الشركة. بالنسبة للشركات المالية الملتزمة بالشمول المالي أو التي تواجه تدقيق ESG، فإن الامتثال القانوني وحده لا يكفي. فالحكم يعني معرفة ما هو صحيح، وليس فقط ما هو مسموح.

محو الأمية في الشرح

الشفافية هي أساس الثقة. بدونها، يظل صانعو القرار والعملاء والمنظمون يتساءلون عن سبب وصول النموذج إلى استنتاج معين.

هذا يعني أن التنفيذيين يجب أن يكونوا قادرين على التمييز بين النماذج التي يمكن تفسيرها وتلك التي تحتاج إلى تفسيرات لاحقة (مثل قيم SHAP أو LIME). ويجب أن يطرحوا أسئلة عندما يكون من غير الواضح منطق النموذج، وأن يدركوا أن “الدقة” وحدها لا تبرر قرار الصندوق الأسود.

التحيز لا يظهر من العدم؛ إنه يظهر عندما يتم تدريب النماذج ونشرها بدون إشراف كافٍ. توفر الشفافية الرؤية اللازمة للقادة لاكتشاف تلك المشكلات مبكرًا والتصرف قبل أن تتسبب في ضرر.

الذكاء الاصطناعي يشبه الطيار الآلي في الطائرة. في معظم الأوقات، يعمل بسلاسة، ولكن عندما تضرب عاصفة، يتعين على الطيار أن يتولى السيطرة. في المالية، ينطبق نفس المبدأ. تحتاج الفرق إلى القدرة على إيقاف التداول، وتعديل استراتيجية، أو حتى سحب منتج عندما تتغير الظروف. تعمل الشفافية جنبًا إلى جنب مع جاهزية التدخل، التي تضمن أن يفهم قادة الإدارة العليا الذكاء الاصطناعي ويظلوا مسيطرين، حتى عند العمل على نطاق واسع.

التفكير في النماذج الاحتمالية

يعتاد التنفيذيون على القرارات الحتمية، مثل إذا كان تقييم الائتمان أقل من 650، يتم رفض الطلب. لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة، وهذا يمثل تحولًا كبيرًا في النموذج العقلي.

بالنسبة للقادة، يتطلب التفكير الاحتمالي ثلاث قدرات:

* تفسير نطاقات المخاطر بدلاً من النتائج الثنائية نعم/لا.
* وزن مستوى الثقة في التنبؤ مقابل اعتبارات تجارية أو تنظيمية أخرى.
* معرفة متى يتعين تجاوز الأتمتة وتطبيق الحكمة البشرية.

على سبيل المثال، قد يُصنف نموذج الذكاء الاصطناعي التابع لشركة مالية عميلًا على أنه عالي المخاطر، لكن ذلك لا يعني بالضرورة “رفض”. قد يعني “التحقيق أكثر” أو “تعديل شروط القرض”. بدون هذا التمييز، قد تصبح الأتمتة أداة خشنة، مما يقلل من ثقة العملاء ويعرض الشركات لردود فعل تنظيمية.

لماذا ستحدد طبقة الحكم الفائزين في التكنولوجيا المالية

لن يُحسم مستقبل التكنولوجيا المالية بواسطة من لديه أقوى نماذج الذكاء الاصطناعي؛ بل بواسطة من يستخدمها بحكمة حادة. مع تسييس الذكاء الاصطناعي، تصبح مكاسب الكفاءة أساسية. ما يميز الفائزين هو القدرة على التدخل عندما تواجه الخوارزميات عدم اليقين، والمخاطر، والمناطق الرمادية الأخلاقية.

طبقة الحكم ليست فكرة مجردة. تظهر عندما يقرر التنفيذيون إيقاف التداول الآلي، أو تأخير إطلاق منتج، أو تجاوز تقييم المخاطر الذي لا يعكس السياق الحقيقي. هذه اللحظات ليست فشلًا في الذكاء الاصطناعي؛ بل دليل على أن الإشراف البشري هو الخط النهائي لإضافة القيمة.

الانسجام الاستراتيجي هو المكان الذي يتم فيه ترسيخ الحكم. لا يقتصر استراتيجية الذكاء الاصطناعي القوية على وضع خرائط طريق تقنية فقط؛ بل تضمن أن تعيد المؤسسة النظر في المبادرات، وترقي قدرات الفرق في الذكاء الاصطناعي، وتضمن وجود بنية بيانات مناسبة، وتربط كل عملية نشر بنتيجة تجارية واضحة. من هذا المنطلق، فإن الحكم ليس حدثًا عارضًا، بل جزء من نمط التشغيل، ويسمح للقادة بقيادة نهج قيادي قائم على القيمة.

تحتاج الشركات المالية إلى قادة يعرفون كيف يوازنوا بين الذكاء الاصطناعي للسرعة والنطاق والبشر للسياق، والفروق الدقيقة، والرؤية طويلة المدى. يمكن للذكاء الاصطناعي اكتشاف الشذوذ في ثوانٍ، لكن فقط البشر هم من يمكنهم اتخاذ قرار بالتصدي للرياضيات، وإعادة التفكير في الافتراضات، أو اتخاذ مخاطرة جريئة تفتح أبواب النمو. تلك الطبقة من الحكم هي ما يحول الذكاء الاصطناعي من أداة إلى ميزة تنافسية.

عن الكاتب:

غيليورمو ديلغادو هو القائد العالمي للذكاء الاصطناعي في Nisum ورئيس العمليات في Deep Space Biology. بخبرة تزيد عن 25 عامًا في الكيمياء الحيوية، والذكاء الاصطناعي، وعلوم الفضاء، وريادة الأعمال، يطور حلولًا مبتكرة لرفاهية الإنسان على الأرض وفي الفضاء.

كمستشار استراتيجي للشركات، ساهم في رؤية ناسا للذكاء الاصطناعي في علم الأحياء الفضائي وحصل على جوائز ابتكار. ويحمل درجة الماجستير في العلوم في الذكاء الاصطناعي من جامعة جورجيا تك، بتقدير امتياز. بالإضافة إلى ذلك، كأستاذ جامعي، قام بتدريس دورات في التعلم الآلي، والبيانات الضخمة، والعلوم الجينومية.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.39Kعدد الحائزين:2
    0.58%
  • القيمة السوقية:$2.32Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.38Kعدد الحائزين:1
    0.24%
  • تثبيت