العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
طبقة الحكم: لماذا لا تكون الذكاء الاصطناعي ذكيًا حتى يكون القادة أذكى
غيليورمو ديلغادو أباريسيو هو القائد العالمي للذكاء الاصطناعي في نيسوم.
اكتشف أهم أخبار وفعاليات التكنولوجيا المالية!
اشترك في النشرة الإخبارية لـ FinTech Weekly
يقرأها التنفيذيون في جي بي مورغان، كوين بيس، بلاك روك، كلارنا والمزيد
يمتد الذكاء الاصطناعي في التكنولوجيا المالية عبر مجموعة من حالات الاستخدام، من كشف الاحتيال والتداول الخوارزمي إلى تقييم الائتمان الديناميكي وتوصيات المنتجات الشخصية. ومع ذلك، وجدت تقرير هيئة السلوك المالي أن من بين 75% من الشركات التي تستخدم الذكاء الاصطناعي، فقط 34% تعرف كيف يعمل.
المشكلة ليست فقط نقص الوعي. إنها فهم عميق خاطئ لقوة ونطاق تحليلات البيانات، وهو المجال الذي ينشأ منه الذكاء الاصطناعي. لقد جلب الاعتماد الجماعي على أدوات الذكاء الاصطناعي التوليدية الموضوع إلى قمة الإدارة. لكن العديد من الذين يختارون كيفية تنفيذ الذكاء الاصطناعي لا يفهمون مبادئه الأساسية من حساب التفاضل والتكامل، والإحصاء، والخوارزميات المتقدمة.
خذ قانون بنفورد، مبدأ إحصائي بسيط يحدد الاحتيال من خلال رصد أنماط في الأرقام. يبني الذكاء الاصطناعي على نفس نوع الرياضيات، ولكن على مقياس ملايين المعاملات في آن واحد. إذا أزلت الضجيج، فإن الأساس لا يزال الإحصاء والخوارزميات.
لهذا السبب، فإن معرفة الذكاء الاصطناعي على مستوى الإدارة العليا مهمة. القادة الذين لا يستطيعون التمييز بين نهاية التحليلات وبداية الذكاء الاصطناعي يواجهون خطر الثقة المفرطة في أنظمة لا يفهمونها أو التقليل من استخدامها خوفًا. وتُظهر التاريخ ما يحدث عندما يسيء صانعو القرار فهم التكنولوجيا: حاول المنظمون ذات مرة حظر المكالمات الدولية عبر الإنترنت، فقط لمشاهدة تفوق التكنولوجيا على القواعد. نفس الديناميكية تتكرر مع الذكاء الاصطناعي. لا يمكنك حظره أو اعتماده بشكل أعمى؛ بل تحتاج إلى الحكمة، والسياق، والقدرة على توجيهه بمسؤولية.
يجب على قادة التكنولوجيا المالية سد هذه الفجوات لاستخدام الذكاء الاصطناعي بمسؤولية وفعالية. وهذا يعني فهم أين تنتهي التحليلات وأين يبدأ الذكاء الاصطناعي، وبناء المهارات لتوجيه هذه الأنظمة، وتطبيق الحكم السليم لتحديد متى وكيف تثق في مخرجاتها.
الحدود، النقاط العمياء، والأوهام للذكاء الاصطناعي
تحلل التحليلات البيانات الماضية والحالية لشرح ما حدث ولماذا. ينشأ الذكاء الاصطناعي من هذا الأساس، باستخدام التحليلات المتقدمة للتنبؤ بما سيحدث بعد ذلك، وبشكل متزايد، لاتخاذ القرارات أو التصرف تلقائيًا.
مع مهاراته الاستثنائية في معالجة البيانات، من السهل أن يرى قادة التكنولوجيا المالية أن الذكاء الاصطناعي هو الحل السحري. لكنه لا يمكنه حل كل مشكلة. لا يزال للبشر ميزة فطرية في التعرف على الأنماط، خاصة عندما تكون البيانات غير مكتملة أو “قذرة”. قد يواجه الذكاء الاصطناعي صعوبة في تفسير الفروق السياقية التي يمكن للبشر فهمها بسرعة.
ومع ذلك، من الخطأ الاعتقاد أن البيانات غير الكاملة تجعل الذكاء الاصطناعي عديم الفائدة. يمكن لنماذج التحليل العمل مع البيانات غير المكتملة. لكن التحدي الحقيقي هو معرفة متى تستخدم الذكاء الاصطناعي ومتى تعتمد على الحكم البشري لملء الفجوات. بدون هذا الإشراف الدقيق، يمكن أن يُدخل الذكاء الاصطناعي مخاطر كبيرة.
إحدى هذه المشكلات هي التحيز. عندما تدرب الشركات المالية على مجموعات بيانات قديمة، غالبًا ما ترث الأعباء المرتبطة بها. على سبيل المثال، قد يُستخدم اسم العميل بشكل غير مقصود كبديل للجنس، أو يُستدل على العرق من خلال اللقب، مما يوجه درجات الائتمان بطرق لا يوافق عليها أي منظم. هذه التحيزات، التي تكون مخفية بسهولة في الرياضيات، غالبًا ما تتطلب إشرافًا بشريًا للكشف عنها وتصحيحها.
عندما تتعرض نماذج الذكاء الاصطناعي لمواقف لم تتدرب عليها، يمكن أن يتسبب ذلك في انحراف النموذج. يمكن أن تؤثر تقلبات السوق، والتغييرات التنظيمية، وتطور سلوك العملاء، والتغيرات الاقتصادية الكلية على فعالية النموذج بدون مراقبة وإعادة ضبط بشرية.
تزداد صعوبة إعادة ضبط الخوارزميات بشكل حاد عندما تستخدم الشركات المالية صناديق سوداء لا تسمح برؤية العلاقة بين المتغيرات. في ظل هذه الظروف، يفقدون القدرة على نقل تلك المعرفة إلى صانعي القرار في الإدارة. بالإضافة إلى ذلك، تظل الأخطاء والتحيزات مخفية في النماذج غير الشفافة، مما يقوض الثقة والامتثال.
ما يحتاج قادة التكنولوجيا المالية إلى معرفته
وجد استطلاع لشركة Deloitte أن 80% يقولون إن مجالس إدارتهم تفتقر إلى الخبرة في الذكاء الاصطناعي. لكن لا يمكن للمديرين التنفيذيين أن يتعاملوا مع الذكاء الاصطناعي كمشكلة تقنية فحسب. فالمساءلة عن الذكاء الاصطناعي تقع على عاتق القيادة، مما يعني أن قادة التكنولوجيا المالية بحاجة إلى تطوير مهاراتهم.
الطلاقة عبر التحليلات المتقاطعة
قبل تطبيق الذكاء الاصطناعي، يحتاج قادة التكنولوجيا المالية إلى القدرة على التبديل بين الأدوار — النظر إلى الأرقام، والحالة التجارية، والعمليات، والأخلاقيات — ورؤية كيف تتداخل هذه العوامل وتشكل نتائج الذكاء الاصطناعي. يحتاجون إلى فهم كيف ترتبط دقة النموذج الإحصائية بمخاطر الائتمان. والتعرف على متى قد يُدخل متغير يبدو ماليًا سليمًا (مثل سجل السداد) مخاطر اجتماعية أو تنظيمية من خلال الارتباط بفئة محمية، مثل العمر أو العرق.
تأتي هذه الطلاقة في الذكاء الاصطناعي من الجلوس مع مسؤولي الامتثال لفهم اللوائح، والتحدث مع مديري المنتجات حول تجربة المستخدم، ومراجعة نتائج النماذج مع علماء البيانات للكشف عن علامات الانحراف أو التحيز.
في التكنولوجيا المالية، استبعاد المخاطر بنسبة 100% مستحيل، لكن مع الطلاقة عبر التحليلات المتقاطعة، يمكن للقادة تحديد المخاطر التي تستحق المخاطرة وتلك التي ستقوض قيمة المساهمين. كما تعزز هذه المهارة قدرة القائد على اكتشاف والتصرف بناءً على التحيز، ليس فقط من منظور الامتثال، بل من منظور استراتيجي وأخلاقي.
على سبيل المثال، إذا كان نموذج تقييم الائتمان المدفوع بالذكاء الاصطناعي يميل بشكل كبير نحو مجموعة عملاء واحدة، فإن تصحيح هذا الاختلال ليس مجرد مهمة علم بيانات؛ بل يحمي سمعة الشركة. بالنسبة للشركات المالية الملتزمة بالشمول المالي أو التي تواجه تدقيق ESG، فإن الامتثال القانوني وحده لا يكفي. الحكمة تعني معرفة ما هو صحيح، وليس فقط ما هو مسموح.
محو الأمية في الشرح
الشفافية هي أساس الثقة. بدونها، يظل صانعو القرار والعملاء والمنظمون يتساءلون عن سبب وصول النموذج إلى استنتاج معين.
هذا يعني أن التنفيذيين يجب أن يكونوا قادرين على التمييز بين النماذج التي يمكن تفسيرها وتلك التي تحتاج إلى تفسيرات لاحقة (مثل قيم SHAP أو LIME). يجب عليهم طرح الأسئلة عندما يكون من غير الواضح منطق النموذج، والتعرف على متى لا يمكن لـ"الدقة" وحدها تبرير قرار الصندوق الأسود.
لا يظهر التحيز من فراغ؛ بل يظهر عندما يتم تدريب النماذج ونشرها بدون إشراف كافٍ. توفر الشفافية الرؤية للقادة لاكتشاف تلك المشكلات مبكرًا والتصرف قبل أن تتسبب في ضرر.
الذكاء الاصطناعي يشبه الطيار الآلي في الطائرة. في معظم الأوقات، يعمل بسلاسة، ولكن عندما تضرب عاصفة، يتعين على الطيار أن يتولى السيطرة. في التمويل، ينطبق نفس المبدأ. تحتاج الفرق إلى القدرة على إيقاف التداول، وتعديل استراتيجية، أو حتى سحب المنتج عند تغير الظروف. تعمل الشفافية جنبًا إلى جنب مع جاهزية التدخل، التي تضمن أن يفهم قادة الإدارة العليا الذكاء الاصطناعي ويظلوا مسيطرين، حتى عند العمل على نطاق واسع.
التفكير في النماذج الاحتمالية
يعتاد التنفيذيون على القرارات الحتمية، مثل إذا كان درجة الائتمان أقل من 650، يتم رفض الطلب. لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة، وهذا يمثل تحولًا كبيرًا في النموذج العقلي.
بالنسبة للقادة، يتطلب التفكير الاحتمالي ثلاث قدرات:
على سبيل المثال، قد يُصنف نموذج الذكاء الاصطناعي التابع لشركة تكنولوجيا مالية عميلًا على أنه عالي المخاطر، لكن ذلك لا يعني بالضرورة “رفض”. قد يعني “التحقيق أكثر” أو “تعديل شروط القرض”. بدون هذا التمييز، قد تصبح الأتمتة أداة خشنة، مما يقلل من ثقة العملاء ويعرض الشركات لردود فعل تنظيمية.
لماذا ستحدد طبقة الحكم الفائزين في التكنولوجيا المالية
لن يُحسم مستقبل التكنولوجيا المالية بواسطة من يمتلك أقوى نماذج الذكاء الاصطناعي؛ بل بواسطة من يستخدمها بحكمة حادة. مع تسييس الذكاء الاصطناعي، تصبح مكاسب الكفاءة أمرًا أساسيًا. ما يميز الفائزين هو القدرة على التدخل عندما تواجه الخوارزميات عدم اليقين، والمخاطر، والمناطق الرمادية الأخلاقية.
طبقة الحكم ليست فكرة مجردة. تظهر عندما يقرر التنفيذيون إيقاف التداول الآلي، أو تأخير إطلاق منتج، أو تجاوز درجة مخاطر لا تعكس السياق الحقيقي. هذه اللحظات ليست فشلًا في الذكاء الاصطناعي؛ بل دليل على أن الإشراف البشري هو الخط النهائي لإضافة القيمة.
الانسجام الاستراتيجي هو المكان الذي يتم فيه ترسيخ الحكم. لا يقتصر استراتيجية الذكاء الاصطناعي القوية على وضع خرائط طريق تقنية فقط؛ بل تضمن أن تعيد المؤسسة النظر في المبادرات، وترقي قدرات الفرق في الذكاء الاصطناعي، وتضمن وجود بنية بيانات مناسبة، وترتبط كل عملية نشر بهدف تجاري واضح. من هذا المنطلق، فإن الحكم ليس حدثًا عارضًا، بل جزء من نمط التشغيل، ويسمح للقادة بقيادة نهج قيادي قائم على القيمة.
تحتاج الشركات المالية إلى قادة يعرفون كيف يوازنوا بين الذكاء الاصطناعي للسرعة والنطاق والبشر للسياق، والفروق الدقيقة، والرؤية طويلة المدى. يمكن للذكاء الاصطناعي اكتشاف الشوائب في ثوانٍ، لكن فقط البشر يمكنهم اتخاذ قرار متى يرفضون الرياضيات، ويعيدون التفكير في الافتراضات، أو يخاطرون بشكل جريء يفتح أبواب النمو. تلك الطبقة من الحكم هي ما يحول الذكاء الاصطناعي من أداة إلى ميزة.
عن الكاتب:
غيليورمو ديلغادو هو القائد العالمي للذكاء الاصطناعي في نيسوم ومدير العمليات في ديب سبيس بيولوجي. بخبرة تزيد عن 25 عامًا في الكيمياء الحيوية، والذكاء الاصطناعي، وعلوم الفضاء، وريادة الأعمال، يطور حلولًا مبتكرة لرفاهية الإنسان على الأرض وفي الفضاء.
كمستشار استراتيجي للشركات، ساهم في رؤية ناسا للذكاء الاصطناعي لعلوم الفضاء، وحصل على جوائز ابتكار. يحمل ماجستير في العلوم في الذكاء الاصطناعي من جامعة جورجيا تك، حصل عليه مع مرتبة الشرف. بالإضافة إلى ذلك، كأستاذ جامعي، قام بتدريس دورات في التعلم الآلي، والبيانات الضخمة، والعلوم الجينومية.