العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
طبقة الحكم: لماذا الذكاء الاصطناعي ليس ذكيًا حتى يكون القادة أذكى
غييرمو ديلغادو أباريسيو هو القائد العالمي للذكاء الاصطناعي في Nisum.
اكتشف أبرز أخبار وفعاليات التكنولوجيا المالية!
اشترك في النشرة الإخبارية FinTech Weekly
يقرأها التنفيذيون لدى JP Morgan وCoinbase وBlackrock وKlarna وغيرهم
يمتد استخدام الذكاء الاصطناعي في مجال التكنولوجيا المالية عبر طيف من حالات الاستخدام، من كشف الاحتيال والتداول الخوارزمي إلى التصنيف الائتماني الديناميكي وتوصيات المنتجات المخصصة. ومع ذلك، وجدت دراسة صادرة عن هيئة السلوك المالي (Financial Conduct Authority) أنه من بين 75% من الشركات التي تستخدم الذكاء الاصطناعي، لا يعرف كيفية عمله سوى 34%.
المشكلة ليست مجرد نقص الوعي. بل هي سوء فهم عميق لقوة ونطاق تحليلات البيانات، وهي الانضباط الذي ينشأ منه الذكاء الاصطناعي. لقد أدت عملية التبني الجماعي لأدوات الذكاء الاصطناعي التوليدي إلى وصول الموضوع إلى مستوى الإدارة العليا (C-suite). لكن كثيرًا ممن يقررون كيفية تطبيق الذكاء الاصطناعي لا يفهمون مبادئه الأساسية في حساب التفاضل والتكامل والإحصاء والخوارزميات المتقدمة.
خذ قانون بنفورد (Benford’s Law)، وهو مبدأ إحصائي بسيط يحدد الاحتيال عبر ملاحظة الأنماط في الأرقام. يبني الذكاء الاصطناعي على نوع الرياضيات نفسه، لكن على نطاق واسع لمالا يقل عن ملايين المعاملات في الوقت نفسه. احذف الضجيج التسويقي، وستظل الأساسيات هي الإحصاء والخوارزميات.
ولهذا السبب تبرز أهمية محو أمية الذكاء الاصطناعي على مستوى C-level. إذ يواجه القادة الذين لا يستطيعون التمييز بين مكان انتهاء التحليلات ومكان بدء الذكاء الاصطناعي خطر الإفراط في الثقة بأنظمة لا يفهمونها، أو التقليل من استخدامها بدافع الخوف. وتُظهر لنا الخبرة التاريخية ما يحدث عندما يقرأ صانعو القرار التكنولوجيا بشكل خاطئ: فقد حاول المنظمون سابقًا حظر مكالمات IP الدولية، لكنهم رأوا أن التكنولوجيا تفوقت على القواعد. الديناميكية نفسها تتكرر مع الذكاء الاصطناعي. لا يمكنك حظره أو تبنيه بشكل أعمى؛ بل تحتاج إلى حكمٍ رشيد وسياق والقدرة على توجيهه بمسؤولية.
يجب على قادة التكنولوجيا المالية سد هذه الفجوات لاستخدام الذكاء الاصطناعي بشكل مسؤول وفعّال. وهذا يعني فهم مكان انتهاء التحليلات ومكان بدء الذكاء الاصطناعي، وبناء المهارات لتوجيه هذه الأنظمة، وتطبيق حكمٍ سليم لتحديد متى وكيف يمكن الوثوق بمخرجاته.
حدود الذكاء الاصطناعي ونقاطه العمياء وأوهامه
تحلل التحليلات البيانات الماضية والحالية لتفسير ما حدث ولماذا. ينمو الذكاء الاصطناعي من هذا الأساس، باستخدام تحليلات متقدمة للتنبؤ بما سيحدث بعد ذلك و، بشكل متزايد، لاتخاذ قرار أو تنفيذ إجراء تلقائيًا بناءً عليه.
وبفضل مهاراته الاستثنائية في معالجة البيانات، من السهل فهم لماذا قد يرى قادة التكنولوجيا المالية الذكاء الاصطناعي كحلهم السحري. لكنّه لا يستطيع حل كل مشكلة. لا يزال لدى البشر ميزة فطرية في التعرف على الأنماط، خصوصًا عندما تكون البيانات ناقصة أو “غير نظيفة”. وقد يواجه الذكاء الاصطناعي صعوبة في تفسير الفروق السياقية الدقيقة التي يستطيع البشر إدراكها بسرعة.
ومع ذلك، من الخطأ الاعتقاد بأن البيانات غير الكاملة تجعل الذكاء الاصطناعي غير مفيد. يمكن للنماذج التحليلية العمل مع بيانات ناقصة. لكن معرفة متى يتم نشر الذكاء الاصطناعي ومتى نعتمد على حكم الإنسان لملء الفجوات هي التحدي الحقيقي. وبدون هذا الإشراف الدقيق، قد يُدخل الذكاء الاصطناعي مخاطر كبيرة.
إحدى هذه المشكلات هي الانحياز. عندما تُدرّب شركات التكنولوجيا المالية الذكاء الاصطناعي على مجموعات بيانات قديمة، فإنها غالبًا ما ترث الأعباء التي تأتي معها. على سبيل المثال، قد يكون اسم العميل الأول (forename) قد يؤدي دون قصد دور بديل للجنس، أو قد تستنتج cues في اللقب (surname) العِرق، مما يميل درجات الائتمان بطرق لن يوافق عليها أي منظم. وغالبًا ما تكون هذه الانحيازات مخفية بسهولة داخل المعادلات، لكنها تتطلب إشرافًا بشريًا لالتقاطها وتصحيحها.
عندما تتعرض نماذج الذكاء الاصطناعي لحالات لم يتم تدريبها عليها، فقد يتسبب ذلك في انجراف النموذج (model drift). يمكن لتقلبات السوق والتغيرات التنظيمية وسلوكيات العملاء المتطورة والتحولات الاقتصادية الكلية أن تؤثر جميعها على فعالية النموذج دون مراقبة بشرية وإعادة معايرة.
تزداد صعوبة إعادة معايرة الخوارزميات بشكل حاد عندما تستخدم شركات التكنولوجيا المالية “الصناديق السوداء” التي لا تسمح برؤية العلاقة بين المتغيرات. في ظل هذه الظروف، يفقدون إمكانية نقل تلك المعرفة إلى صناع القرار في الإدارة. بالإضافة إلى ذلك، تبقى الأخطاء والانحيازات مخفية داخل النماذج غير الشفافة، مما يقوض الثقة والامتثال.
ما يحتاج قادة التكنولوجيا المالية إلى معرفته
وجدت دراسة استقصائية لدى Deloitte أن 80% يقولون إن مجالس إدارتهم لديهم خبرة قليلة أو معدومة في الذكاء الاصطناعي. لكن لا يمكن للتنفيذيين في الإدارة العليا (C-suite) أن يعاملوا الذكاء الاصطناعي كـ"مشكلة فريق تقني". تقع مسؤولية الذكاء الاصطناعي على عاتق القيادة، ما يعني أن قادة التكنولوجيا المالية يحتاجون إلى رفع مهاراتهم.
الإتقان عبر التحليل المتقاطع (Cross-analytical fluency)
قبل طرح الذكاء الاصطناعي، يحتاج قادة التكنولوجيا المالية إلى القدرة على تبديل طريقة التفكير—النظر إلى الأرقام وحجة العمل والعمليات والأخلاقيات—ورؤية كيف تتداخل هذه العوامل وتشكّل نتائج الذكاء الاصطناعي. عليهم فهم كيف ترتبط الدقة الإحصائية للنموذج بتعرض مخاطر الائتمان. كما يجب أن يميزوا متى قد يُدخل متغير يبدو سليمًا ماليًا (مثل سجل السداد) مخاطر اجتماعية أو تنظيمية عبر الارتباط بفئة محمية، مثل العمر أو العِرق.
تأتي هذه الكفاءة في الذكاء الاصطناعي من العمل جنبًا إلى جنب مع مسؤولي الامتثال لفك اللوائح، والتحدث مع مديري المنتجات حول تجربة المستخدم، ومراجعة نتائج النماذج مع علماء البيانات لالتقاط علامات الانجراف أو الانحياز.
في التكنولوجيا المالية، لا يمكن تحقيق تجنب 100% للمخاطر، لكن مع كفاءة التحليل المتقاطع، يستطيع القادة تحديد أي المخاطر يستحق أخذها وأيها سيؤدي إلى تآكل قيمة المساهمين. كما تصقل هذه المهارة قدرة القائد على اكتشاف الانحياز والتصرف بناءً عليه، ليس فقط من منظور الامتثال، بل أيضًا من منظور استراتيجي وأخلاقي.
على سبيل المثال، افترض أن نموذجًا لتقييم الائتمان مدفوعًا بالذكاء الاصطناعي يميل بشكل كبير نحو فئة واحدة من العملاء. إن إصلاح هذا الخلل ليس مجرد مهمة في علوم البيانات؛ بل يحمي سمعة الشركة. وبالنسبة لشركات التكنولوجيا المالية الملتزمة بالشمول المالي أو التي تواجه تدقيق ESG، فإن الامتثال القانوني وحده ليس كافيًا. تعني الأحكام أن تعرف ما هو صحيح، وليس مجرد ما هو مسموح.
محو أمية القابلية للتفسير (Explainability Literacy)
القابلية للتفسير هي أساس الثقة. وبدونها، يبقى صانعو القرار والعملاء والمنظمون يتساءلون لماذا توصل نموذج ما إلى نتيجة محددة.
وهذا يعني أنه يجب على التنفيذيين أن يكونوا قادرين على التمييز بين النماذج القابلة للتفسير وتلك التي تحتاج إلى تفسيرات لاحقة (مثل قيم SHAP أو LIME). عليهم طرح الأسئلة عندما تكون منطقية النموذج غير واضحة، والاعتراف بأن “الدقة” وحدها لا يمكنها تبرير قرار صندوق أسود.
لا يظهر الانحياز من فراغ؛ بل ينشأ عندما تُدرّب النماذج وتُنشر دون إشراف كافٍ. تمنح القابلية للتفسير القادة رؤية لاكتشاف تلك المشكلات مبكرًا واتخاذ إجراء قبل أن تسبب ضررًا.
الذكاء الاصطناعي مثل نظام الطيار الآلي على متن طائرة. غالبًا ما يعمل بسلاسة، لكن عندما تضرب عاصفة، يجب على الطيار تولي السيطرة. وفي التمويل، ينطبق المبدأ نفسه. تحتاج الفرق إلى القدرة على إيقاف التداول، أو تعديل استراتيجية، أو حتى سحب البساط من إطلاق منتج عندما تتغير الظروف. تعمل القابلية للتفسير جنبًا إلى جنب مع جاهزية التدخل (override readiness)، والتي تضمن أن يفهم قادة الإدارة العليا الذكاء الاصطناعي ويظلون على السيطرة، حتى عندما يعمل على نطاق واسع.
التفكير في النماذج الاحتمالية (Probabilistic Model Thinking)
اعتاد التنفيذيون على اتخاذ قرارات حتمية، مثل: إذا كانت درجة الائتمان أقل من 650، فرفض الطلب. لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة، وهذا تحول كبير في المنظور الذهني.
بالنسبة للقادة، يتطلب التفكير الاحتمالي ثلاث قدرات:
على سبيل المثال، قد يحدد نموذج ذكاء اصطناعي احتمالي لدى شركة تكنولوجيا مالية أحد العملاء باعتباره ذا مخاطر مرتفعة، لكن هذا لا يعني بالضرورة “الرفض”. قد يعني “إجراء تحقيق إضافي” أو “تعديل شروط القرض”. وبدون هذا التمييز الدقيق، قد تتحول الأتمتة إلى أداة حادة، مما يضعف ثقة العملاء مع تعريض الشركات لرد فعل تنظيمي سلبي.
لماذا ستُحدِّد طبقة الحكم الفائزين في التكنولوجيا المالية
لن يُحسم مستقبل التكنولوجيا المالية بناءً على من يمتلك أقوى نماذج ذكاء اصطناعي؛ بل بالأحرى بناءً على من يستخدمها بأشد حكمٍ رشيد. ومع تحوّل الذكاء الاصطناعي إلى سلعة (commoditizes)، تصبح مكاسب الكفاءة متطلبات أساسية. ما يميز الفائزين هو القدرة على التدخل عندما تصطدم الخوارزميات بعدم اليقين والمخاطر والمناطق الرمادية الأخلاقية.
ليست طبقة الحكم فكرة مجردة. تظهر عندما يقرر التنفيذيون إيقاف التداول الآلي مؤقتًا، أو تأجيل إطلاق منتج، أو تجاوز درجة مخاطر لا تعكس السياق الواقعي. وهذه اللحظات ليست إخفاقات للذكاء الاصطناعي؛ بل هي دليل على أن الإشراف البشري هو الخط الأخير في خلق القيمة.
تتجسد المواءمة الاستراتيجية حيث يصبح الحكم مؤسسيًا. لا تقتصر استراتيجية ذكاء اصطناعي قوية على وضع خرائط طريق تقنية فحسب؛ بل تضمن أن تعيد المؤسسة النظر في المبادرات، وتطور قدرات الفرق في الذكاء الاصطناعي، وتضمن أن لدى الشركة بنية بيانات مطلوبة، وتربط كل عملية نشر بنتيجة أعمال واضحة. وبهذا المعنى، لا تكون الأحكام مقتصرة على مواقف بعينها؛ بل تُبنى في وضع التشغيل وتُمكّن التنفيذيين من تبني نهج قيادة قائم على القيمة.
تحتاج شركات التكنولوجيا المالية إلى قادة يعرفون كيفية الموازنة بين الذكاء الاصطناعي من أجل السرعة والحجم، وبين البشر من أجل السياق والتفاصيل والرؤية طويلة الأجل. يمكن للذكاء الاصطناعي اكتشاف الشذوذات خلال ثوانٍ، لكن لا يستطيع أحد غير البشر أن يقرر متى يدفع باتجاه عكس ما تقوله الحسابات، أو يعيد التفكير في الافتراضات، أو يتحمل مخاطرة جريئة تفتح الباب أمام النمو. طبقة الحكم هذه هي التي تحول الذكاء الاصطناعي من مجرد أداة إلى ميزة.
عن المؤلف:
غييرمو ديلغادو هو القائد العالمي للذكاء الاصطناعي في Nisum والمدير التنفيذي للعمليات (COO) في Deep Space Biology. ومع خبرة تزيد عن 25 عامًا في الكيمياء الحيوية والذكاء الاصطناعي وعلم الأحياء الفضائي وريادة الأعمال، يقوم بتطوير حلول مبتكرة لرفاه الإنسان على الأرض وفي الفضاء.
بصفته مستشارًا لاستراتيجيات الشركات، ساهم في رؤية NASA للذكاء الاصطناعي لعلم الأحياء الفضائي، وتلقى جوائز للابتكار. يحمل درجة ماجستير في علوم الذكاء الاصطناعي من Georgia Tech، وحصل عليها بتفوق. بالإضافة إلى ذلك، بصفته أستاذًا جامعيًا، قام بتدريس دورات في التعلم الآلي والبيانات الضخمة وعلوم الجينوم.