طبقة الحكم: لماذا الذكاء الاصطناعي ليس ذكيًا حتى يكون القادة أذكى

غييرمو ديلغادو أباريسيو هو القائد العالمي للذكاء الاصطناعي في Nisum.


اكتشف أفضل أخبار وتقنيات وفعاليات التكنولوجيا المالية!

اشترك في النشرة الإخبارية FinTech Weekly

يقرأها التنفيذيون في JP Morgan وCoinbase وBlackrock وKlarna وغيرهم


يمتد دور الذكاء الاصطناعي في التكنولوجيا المالية عبر مجموعة واسعة من حالات الاستخدام، من كشف الاحتيال إلى التداول الخوارزمي، وصولاً إلى تقييم الائتمان الديناميكي وتوصيات المنتجات الشخصية. ومع ذلك، وجدت دراسة صادرة عن هيئة السلوك المالي أن 75% من الشركات التي تستخدم الذكاء الاصطناعي لا تعرف سوى 34% فقط كيف يعمل.

المشكلة ليست مجرد نقص الوعي. بل هو سوء فهم عميق لقوة ونطاق تحليل البيانات، وهو الانضباط الذي ينشأ منه الذكاء الاصطناعي. وقد أدت عملية التبني الواسع لأدوات الذكاء الاصطناعي التوليدي إلى وصول الموضوع إلى مجلس الإدارة العليا (C-suite). لكن كثيراً ممن يقررون كيفية تطبيق الذكاء الاصطناعي لا يفهمون مبادئه الأساسية في التفاضل والتكامل والإحصاء والخوارزميات المتقدمة.

خذ قانون بنفورد (Benford’s Law)، وهو مبدأ إحصائي بسيط يحدد الاحتيال عبر رصد الأنماط في الأرقام. يبني الذكاء الاصطناعي على نوع الرياضيات نفسه، لكن على نطاق واسع ليغطي ملايين العمليات في الوقت نفسه. أزل الضجيج التسويقي، وستبقى الأساسيات هي الإحصاء والخوارزميات.

ولهذا السبب تكتسب محو أمية الذكاء الاصطناعي على مستوى الإدارة أهمية حاسمة. فالقادة الذين لا يستطيعون التمييز بين نهاية التحليلات وبداية ما يقوم به الذكاء الاصطناعي يواجهون خطر الإفراط في الثقة بالأنظمة التي لا يفهمونها أو الإفادة منها بأقل من اللازم بسبب الخوف. وتُظهر لنا الخبرة التاريخية ما يحدث عندما يقرأ صانعو القرار التكنولوجيا بشكل خاطئ: فقد حاول المنظمون في السابق حظر المكالمات الدولية المتعلقة بملكية فكرية (IP)، ثم وجدوا أنفسهم أمام واقع تتقدم فيه التكنولوجيا على القواعد. ويتكرر الشيء نفسه مع الذكاء الاصطناعي. لا يمكنك منعه أو تبنيه بشكل أعمى؛ بل تحتاج إلى حكم وتقييم وسياق والقدرة على توجيهه بمسؤولية.

يجب على قادة التكنولوجيا المالية سد هذه الفجوات لاستخدام الذكاء الاصطناعي بشكل مسؤول وفعّال. وهذا يعني فهم أين تنتهي التحليلات وأين يبدأ الذكاء الاصطناعي، وبناء المهارات اللازمة لتوجيه هذه الأنظمة، وتطبيق حكم سليم لتحديد متى وكيف تثق في مخرجاتها.

حدود الذكاء الاصطناعي والعمى والأوهام

تحلل التحليلات البيانات الماضية والحالية لتفسير ما حدث ولماذا. ينشأ الذكاء الاصطناعي من هذا الأساس، باستخدام تحليلات متقدمة للتنبؤ بما سيحدث لاحقاً، وبشكل متزايد لاتخاذ قرار أو تنفيذ إجراء تلقائياً بناءً عليه.

وبفضل مهاراته الاستثنائية في معالجة البيانات، من السهل فهم سبب رؤية قادة التكنولوجيا المالية للذكاء الاصطناعي بوصفه الحل السحري. لكنّه لا يستطيع حل كل مشكلة. ما زال للبشر ميزة فطرية في التعرف على الأنماط، خصوصاً عندما تكون البيانات ناقصة أو “غير نظيفة” (“dirty”). قد يواجه الذكاء الاصطناعي صعوبة في تفسير الفروق الدقيقة المتعلقة بالسياق والتي يمكن للبشر فهمها بسرعة.

ومع ذلك، من الخطأ الاعتقاد بأن البيانات غير الكاملة تجعل الذكاء الاصطناعي عديم الفائدة. يمكن للنماذج التحليلية العمل مع بيانات ناقصة. لكن التحدي الحقيقي هو معرفة متى يتم نشر الذكاء الاصطناعي ومتى الاعتماد على حكم بشري لسد الفجوات. وبدون هذا الإشراف الدقيق، يمكن للذكاء الاصطناعي أن يخلق مخاطر كبيرة.

إحدى هذه المشكلات هي الانحياز (bias). عندما تقوم شركات التكنولوجيا المالية بتدريب الذكاء الاصطناعي على مجموعات بيانات قديمة، فإنها غالباً ما ترث “الأمتعة” التي تأتي معها. على سبيل المثال، قد يكون اسم العميل الأول (forename) مؤشراً بشكل غير مقصود على الجنس، أو قد تحمل القرائن الناتجة عن اللقب (surname) إشارات حول العِرق، مما يميل درجات الائتمان بطريقة لن يوافق عليها أي مُنظم. وغالباً ما تكون هذه الانحيازات مخفية بسهولة داخل الرياضيات، وتتطلب إشرافاً بشرياً للالتقاط والتصحيح.

عندما تتعرض نماذج الذكاء الاصطناعي إلى مواقف لم يتم تدريبها عليها، قد يسبب ذلك انجراف النموذج (model drift). يمكن للتقلبات في السوق، والتغيرات التنظيمية، وتطور سلوك العملاء، والتحولات في الاقتصاد الكلي (macroeconomic shifts) أن تؤثر جميعها في فعالية النموذج دون مراقبة بشرية وإعادة معايرة.

يزداد صعوبة إعادة معايرة الخوارزميات بشكل حاد عندما تستخدم شركات التكنولوجيا المالية “الصناديق السوداء” التي لا تتيح رؤية العلاقة بين المتغيرات. في ظل هذه الظروف، يفقدون إمكانية نقل تلك المعرفة إلى صناع القرار لدى الإدارة. بالإضافة إلى ذلك، تبقى الأخطاء والانحيازات مخفية داخل النماذج الغامضة، مما يقوض الثقة والامتثال.

ما الذي يحتاجه قادة التكنولوجيا المالية إلى معرفته

وجدت دراسة من Deloitte أن 80% يقولون إن مجالس إدارتهم لديها خبرة قليلة جداً أو لا خبرة على الإطلاق مع الذكاء الاصطناعي. لكن لا يستطيع التنفيذيون في الإدارة العليا (C-suite) تحمل اعتبار الذكاء الاصطناعي “مشكلة فريق تقني”. تقع مسؤولية الذكاء الاصطناعي على عاتق القيادة، ما يعني أن قادة التكنولوجيا المالية بحاجة إلى الارتقاء بمهاراتهم (upskill).

الطلاقة في التحليل المتقاطع

قبل طرح الذكاء الاصطناعي، يحتاج قادة التكنولوجيا المالية إلى القدرة على تغيير طريقة تفكيرهم—النظر إلى الأرقام، وحالة الأعمال (business case)، والعمليات، والأخلاقيات—ورؤية كيف تتقاطع هذه العوامل وتشكّل نتائج الذكاء الاصطناعي. يجب أن يفهموا كيف ترتبط الدقة الإحصائية لنموذج ما بتعرض مخاطر الائتمان. وأن يتعرفوا على متغير يبدو سليماً مالياً (مثل سجل السداد) قد يفضي إلى مخاطر اجتماعية أو تنظيمية عبر الارتباط (correlation) مع فئة محمية (protected class)، مثل العمر أو العِرق.

تنبع هذه الطلاقة في الذكاء الاصطناعي من العمل جنباً إلى جنب مع ضباط الامتثال لفك اللوائح، والتحدث مع مديري المنتجات حول تجربة المستخدم، ومراجعة نتائج النماذج مع علماء البيانات لاكتشاف علامات الانجراف أو الانحياز.

في مجال التكنولوجيا المالية، يستحيل تجنب 100% من المخاطر، لكن مع الطلاقة في التحليل المتقاطع يستطيع القادة تحديد أي المخاطر يستحق تحملها وأيها سيؤدي إلى تآكل قيمة المساهمين. وتُحسن هذه المهارة أيضاً قدرة القائد على اكتشاف الانحياز والتصرف بشأنه، ليس فقط من منظور الامتثال، بل من منظور استراتيجي وأخلاقي أيضاً.

على سبيل المثال، إذا كان نموذج تسجيل ائتماني مدفوع بالذكاء الاصطناعي يميل بشدة نحو فئة معينة من العملاء. فإن معالجة هذا الخلل ليست مجرد مهمة تخص علوم البيانات؛ بل إنها تحمي سمعة الشركة. وبالنسبة لشركات التكنولوجيا المالية الملتزمة بالشمول المالي أو التي تواجه تدقيقاً بشأن ESG، فإن الامتثال القانوني وحده لا يكفي. يعني الحكم معرفة ما هو صحيح، لا مجرد ما هو مسموح.

محو أمية قابلية تفسير النماذج (Explainability)

تُعد قابلية التفسير أساس الثقة. وبدونها، يظل صناع القرار والعملاء والمنظمون يتساءلون عن سبب توصّل نموذج ما إلى استنتاج محدد.

وهذا يعني أنه يجب على التنفيذيين أن يكونوا قادرين على التمييز بين النماذج القابلة للتفسير وتلك التي تحتاج إلى تفسيرات لاحقة (post-hoc) (مثل قيم SHAP أو LIME). يحتاجون إلى طرح أسئلة عندما تكون منطقية النموذج غير واضحة، وأن يدركوا أنه لا يمكن أن تبرر “الدقة” وحدها قراراً في صندوق أسود.

لا يظهر الانحياز من فراغ؛ بل يتولد عندما تُدرّب النماذج وتُنفَّذ دون إشراف كافٍ. تمنح قابلية التفسير القادة رؤية لاكتشاف تلك المشكلات مبكراً واتخاذ إجراء قبل أن تسبب ضرراً.

الذكاء الاصطناعي مثل نظام الطيار الآلي (autopilot) في الطائرة. غالباً ما يعمل بسلاسة، لكن عندما تضرب عاصفة، يجب على الطيار أن يتولى السيطرة. وفي التمويل، ينطبق المبدأ نفسه. تحتاج الفرق إلى القدرة على إيقاف التداول، أو تعديل استراتيجية، أو حتى سحب/إلغاء (pull the plug) إطلاق منتج عندما تتغير الظروف. تعمل قابلية التفسير جنباً إلى جنب مع الجاهزية للتجاوز (override readiness)، والتي تضمن أن قادة الإدارة العليا يفهمون الذكاء الاصطناعي ويظلون تحت السيطرة، حتى عندما يعمل على نطاق واسع.

التفكير بنماذج احتمالية

اعتاد التنفيذيون على القرارات الحتمية (deterministic)، مثل رفض طلب التقديم إذا كانت درجة الائتمان أقل من 650. لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة، وهذه نقطة تحول ذهنية كبيرة (mental paradigm shift).

بالنسبة للقادة، يتطلب التفكير الاحتمالي ثلاث قدرات:

*   تفسير نطاقات المخاطر بدلاً من نتائج ثنائية بنعم/لا.
*   موازنة مستوى الثقة في التنبؤ مقابل اعتبارات أعمال أو تنظيمية أخرى.
*   معرفة متى يمكن تجاوز الأتمتة وتطبيق تقدير بشري.

على سبيل المثال، قد يقوم نموذج ذكاء اصطناعي احتمالي لدى شركة ما بتصنيف عميل على أنه عالي المخاطر، لكن هذا لا يعني بالضرورة “الرفض”. قد يعني “التحقق أكثر” أو “تعديل شروط القرض”. وبدون هذه الدقة، قد تتحول الأتمتة إلى أداة حادة وغير مرنة، مما يضعف ثقة العملاء بينما يعرض الشركات لارتداد تنظيمي.

لماذا ستحدد طبقة الحكم الفائزين في التكنولوجيا المالية

لن يُحسم مستقبل التكنولوجيا المالية بناءً على من يمتلك أقوى نماذج الذكاء الاصطناعي؛ بل بناءً على من يستخدمها بأدق حكم. ومع تحوّل الذكاء الاصطناعي إلى سلعة (commoditizes)، تصبح مكاسب الكفاءة متطلبات أساسية (table stakes). ما يميز الفائزين هو القدرة على التدخل عندما تصطدم الخوارزميات بعدم اليقين والمخاطر والمناطق الرمادية الأخلاقية.

ليست طبقة الحكم فكرة مجردة. تظهر عندما يقرر التنفيذيون إيقاف التداول الآلي، أو تأجيل إطلاق منتج، أو تجاوز درجة مخاطر لا تعكس السياق الحقيقي. وليست هذه اللحظات إخفاقات في الذكاء الاصطناعي؛ بل هي دليل على أن الإشراف البشري هو الخط الأخير لصناعة القيمة.

يحدث المواءمة الاستراتيجية (Strategic alignment) حيث يصبح الحكم مُؤسساً. لا تقتصر استراتيجية ذكاء اصطناعي قوية على إعداد خارطة طريق تقنية فحسب؛ بل تضمن أن يعيد التنظيم مراجعة المبادرات، ويقوم بترقية قدرات الفرق في مجال الذكاء الاصطناعي، ويضمن امتلاك الشركة بنية بيانات (data architecture) مطلوبة، ويربط كل عملية نشر (deployment) بنتيجة أعمال واضحة. وبهذا المعنى، ليس الحكم أمراً طارئاً، بل يتم بناؤه داخل نمط التشغيل، ويتيح للتنفيذيين تبني نهج قيادة قائم على القيمة.

تحتاج شركات التكنولوجيا المالية إلى قادة يعرفون كيفية الموازنة بين الذكاء الاصطناعي للسرعة والحجم، وبين البشر للسياق والفروق الدقيقة والرؤية طويلة الأمد. يمكن للذكاء الاصطناعي رصد الشذوذات في ثوانٍ، لكن لا يستطيع إلا البشر أن يقرروا متى يجب كبح/دفع (push back) “الرياضيات”، وإعادة التفكير في الافتراضات، أو تحمل مخاطرة جريئة تفتح الباب أمام النمو. إن طبقة الحكم هذه هي التي تحول الذكاء الاصطناعي من مجرد أداة إلى ميزة.

نبذة عن المؤلف:

غييرمو ديلغادو هو القائد العالمي للذكاء الاصطناعي في Nisum والمدير التنفيذي للعمليات (COO) في Deep Space Biology. وبخبرة تزيد عن 25 عاماً في الكيمياء الحيوية والذكاء الاصطناعي وبيولوجيا الفضاء وريادة الأعمال، يقوم بتطوير حلول مبتكرة لرفاه الإنسان على الأرض وفي الفضاء.

بصفته مستشاراً لاستراتيجية الشركات، ساهم في رؤية NASA للذكاء الاصطناعي لبيولوجيا الفضاء، وقد حصل على جوائز للابتكار. ويحمل درجة الماجستير في علوم الذكاء الاصطناعي من Georgia Tech، حصل عليها مع مرتبة الشرف. بالإضافة إلى ذلك، وبصفته أستاذاً جامعياً، قام بتدريس دورات في تعلم الآلة وعلوم البيانات الضخمة وعلوم الجينوم.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • تثبيت