العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
طبقة الحكم: لماذا الذكاء الاصطناعي ليس ذكيًا حتى يكون القادة أذكى
غيليرمو ديلغادو أباريسيو هو قائد الذكاء الاصطناعي العالمي في نيسوم.
اكتشف أحدث أخبار وفعاليات التكنولوجيا المالية!
اشترك في نشرة FinTech Weekly الإخبارية
يقرأها التنفيذيون في JP Morgan وCoinbase وBlackrock وKlarna والمزيد
يمتد استخدام الذكاء الاصطناعي في التكنولوجيا المالية إلى مجموعة من الاستخدامات، من اكتشاف الاحتيال والتداول الآلي إلى تقييم الائتمان الديناميكي وتوصيات المنتجات الشخصية. ومع ذلك، وجدت تقرير هيئة سلوك المالية أن 75% من الشركات التي تستخدم الذكاء الاصطناعي، فقط 34% تعرف كيف يعمل.
المشكلة ليست مجرد نقص في الوعي. إنها سوء فهم عميق لقوة ونطاق تحليل البيانات، وهو المجال الذي ينشأ منه الذكاء الاصطناعي. لقد جلبت الاعتماد الجماعي على أدوات الذكاء الاصطناعي التوليدية الموضوع إلى مستوى الإدارة العليا. ولكن العديد من الذين يختارون كيفية تنفيذ الذكاء الاصطناعي لا يفهمون مبادئه الأساسية في حساب التفاضل والتكامل والإحصاء والخوارزميات المتقدمة.
خذ قانون بنفورد، وهو مبدأ إحصائي بسيط يكتشف الاحتيال من خلال رصد الأنماط في الأرقام. يبني الذكاء الاصطناعي على نفس النوع من الرياضيات، ولكنه مقاس لملايين المعاملات في آن واحد. إذا أزلت الضجيج، فإن الأساس لا يزال هو الإحصاء والخوارزميات.
لهذا السبب، فإن معرفة الذكاء الاصطناعي على مستوى الإدارة العليا لها أهمية. تتعرض القيادة التي لا تستطيع التمييز بين نهاية التحليل ومتى تبدأ أنظمة الذكاء الاصطناعي لخطر الإفراط في الثقة في أنظمة لا تفهمها أو تقليل استخدامها بسبب الخوف. وتظهر التاريخ ما يحدث عندما يسيء صناع القرار قراءة التكنولوجيا: حاول المنظمون في وقت مضى حظر المكالمات الدولية عبر بروتوكول الإنترنت، ليشهدوا كيف تجاوزت التكنولوجيا القوانين. نفس الديناميكية تحدث مع الذكاء الاصطناعي. لا يمكنك حظره أو تبنيه بشكل أعمى؛ تحتاج إلى الحكم والسياق والقدرة على توجيهه بمسؤولية.
يجب على قادة التكنولوجيا المالية سد هذه الفجوات لاستخدام الذكاء الاصطناعي بشكل مسؤول وفعال. وهذا يعني فهم حدود التحليل ونقاط بداية الذكاء الاصطناعي، وبناء المهارات لتوجيه هذه الأنظمة، وتطبيق حكم سليم لتحديد متى وكيف يمكن الوثوق بمخرجاتها.
حدود ونقاط العمى والأوهام في الذكاء الاصطناعي
تحلل التحليلات البيانات السابقة والحالية لشرح ما حدث ولماذا. ينمو الذكاء الاصطناعي من هذا الأساس، باستخدام التحليلات المتقدمة للتنبؤ بما سيحدث بعد ذلك، وزيادةً، لاتخاذ قرارات أو التصرف تلقائيًا.
مع مهاراته الاستثنائية في معالجة البيانات، من السهل أن نفهم لماذا يرى قادة التكنولوجيا المالية الذكاء الاصطناعي كعصا سحرية لهم. لكن لا يمكنه حل كل مشكلة. لا يزال لدى البشر ميزة فطرية في التعرف على الأنماط، خاصة عندما تكون البيانات غير مكتملة أو “مليئة بالأخطاء”. يمكن أن يكافح الذكاء الاصطناعي لتفسير الفروق السياقية التي يمكن للبشر استيعابها بسرعة.
ومع ذلك، فإنه من الخطأ الاعتقاد بأن البيانات غير المكتملة تجعل الذكاء الاصطناعي عديم الفائدة. يمكن للنماذج التحليلية العمل مع بيانات غير مكتملة. لكن معرفة متى يجب نشر الذكاء الاصطناعي ومتى يجب الاعتماد على الحكم البشري لملء الفجوات هو التحدي الحقيقي. بدون هذا الإشراف الدقيق، يمكن أن يقدم الذكاء الاصطناعي مخاطر كبيرة.
إحدى هذه المشكلات هي التحيز. عندما تدرب الشركات المالية الذكاء الاصطناعي على مجموعات بيانات قديمة، فإنها غالبًا ما ترث الأعباء التي تأتي معها. على سبيل المثال، قد يكون اسم الزبون الأول غير مقصود بمثابة معيار للجنس، أو أن اسم العائلة يستنتج دلالات حول العرق، مما يميل درجات الائتمان بطرق لا يوافق عليها أي منظم. هذه التحيزات، التي يمكن أن تكون مخفية بسهولة في الرياضيات، غالبًا ما تتطلب إشرافًا بشريًا لاكتشافها وتصحيحها.
عندما تتعرض نماذج الذكاء الاصطناعي لمواقف لم يتم تدريبها عليها، يمكن أن يسبب ذلك انحراف النموذج. يمكن أن تؤثر تقلبات السوق، والتغييرات التنظيمية، وسلوكيات العملاء المتطورة، والتحولات الاقتصادية الكلية جميعها على فعالية النموذج بدون مراقبة بشرية وإعادة ضبط.
تزداد صعوبة إعادة ضبط الخوارزميات بشكل حاد عندما تستخدم الشركات المالية صناديق سوداء لا تسمح برؤية العلاقة بين المتغيرات. تحت هذه الظروف، تفقد إمكانية نقل تلك المعرفة إلى صناع القرار في الإدارة. بالإضافة إلى ذلك، تبقى الأخطاء والانحيازات مخفية في النماذج غير الشفافة، مما يقوض الثقة والامتثال.
ما يحتاج قادة التكنولوجيا المالية إلى معرفته
وجد استطلاع أجرته ديلويت أن 80% يقولون إن مجالس إدارتهم لديها خبرة قليلة أو معدومة في الذكاء الاصطناعي. لكن التنفيذيين في C-suite لا يمكنهم تحمل معاملة الذكاء الاصطناعي على أنه “مشكلة لفريق التكنولوجيا.” تقع مسؤولية الذكاء الاصطناعي على عاتق القيادة، مما يعني أن قادة التكنولوجيا المالية بحاجة إلى تحسين مهاراتهم.
الطلاقة التحليلية المتقاطعة
قبل طرح الذكاء الاصطناعي، يحتاج قادة التكنولوجيا المالية إلى القدرة على تغيير السرعة - النظر إلى الأرقام، والحالة التجارية، والعمليات، والأخلاق - ورؤية كيف تتداخل تلك العوامل وتشكل نتائج الذكاء الاصطناعي. يحتاجون إلى فهم كيف ترتبط دقة النموذج الإحصائية بتعرض مخاطر الائتمان. والتعرف على متى قد يقدم متغير يبدو سليمًا من الناحية المالية (مثل تاريخ السداد) مخاطر اجتماعية أو تنظيمية من خلال الارتباط بفئة محمية، مثل العمر أو العرق.
تأتي هذه الطلاقة في الذكاء الاصطناعي من الجلوس مع ضباط الامتثال لفهم اللوائح، والتحدث مع مديري المنتجات حول تجربة المستخدم، ومراجعة نتائج النموذج مع علماء البيانات لاكتشاف علامات الانحراف أو الانحياز.
في التكنولوجيا المالية، من المستحيل تجنب المخاطر بنسبة 100%، ولكن مع الطلاقة التحليلية المتقاطعة، يمكن للقادة تحديد أي المخاطر تستحق المخاطرة وأيها ستؤدي إلى تآكل قيمة المساهمين. هذه المهارة أيضًا تعزز قدرة القائد على اكتشاف والتصرف على الانحياز، ليس فقط من منظور الامتثال، ولكن من منظور استراتيجي وأخلاقي.
على سبيل المثال، لنفترض أن نموذج تقييم الائتمان المعتمد على الذكاء الاصطناعي يميل بشدة نحو مجموعة معينة من العملاء. إصلاح هذا الاختلال ليس مجرد مهمة علم بيانات؛ إنه يحمي سمعة الشركة. بالنسبة للشركات المالية الملتزمة بالشمول المالي أو التي تواجه تدقيق ESG، فإن الامتثال القانوني وحده ليس كافيًا. يتطلب الحكم معرفة ما هو صحيح، وليس مجرد ما هو مسموح.
معرفة القابلية للتفسير
تعتبر القابلية للتفسير أساس الثقة. بدونها، يترك صناع القرار والعملاء والمنظمون يتساءلون لماذا توصل نموذج إلى استنتاج معين.
هذا يعني أن التنفيذيين يجب أن يكونوا قادرين على التمييز بين النماذج القابلة للتفسير وتلك التي تحتاج إلى تفسيرات لاحقة (مثل قيم SHAP أو LIME). يحتاجون إلى طرح الأسئلة عندما تكون منطق النموذج غير واضحة والتعرف على متى لا يمكن أن تبرر “الدقة” وحدها قرار صندوق أسود.
لا يظهر التحيز من فراغ؛ بل ينشأ عندما يتم تدريب النماذج ونشرها بدون إشراف كافٍ. توفر القابلية للتفسير للقادة الرؤية لاكتشاف تلك المشكلات مبكرًا والتصرف قبل أن تتسبب في أضرار.
الذكاء الاصطناعي مثل الطيار الآلي في الطائرة. في معظم الأحيان، يعمل بسلاسة، ولكن عندما تضرب عاصفة، يجب على الطيار أن يتولى القيادة. في المالية، ينطبق نفس المبدأ. تحتاج الفرق إلى القدرة على وقف التداول، أو تعديل استراتيجية، أو حتى سحب المنتج عند تغير الظروف. تعمل القابلية للتفسير جنبًا إلى جنب مع الاستعداد للتجاوز، مما يضمن أن قادة C-suite يفهمون الذكاء الاصطناعي ويظلون تحت السيطرة، حتى عندما يعمل على نطاق واسع.
تفكير النموذج الاحتمالي
يعتاد التنفيذيون على اتخاذ قرارات حتمية، مثل إذا كان تقييم الائتمان أقل من 650، رفض الطلب. لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة وهذا يمثل تحولًا عقليًا كبيرًا.
يتطلب التفكير الاحتمالي من القادة ثلاث قدرات:
على سبيل المثال، قد يشير نموذج الذكاء الاصطناعي الاحتمالي لشركة التكنولوجيا المالية إلى أن عميلًا ما عالٍ المخاطر، لكن هذا لا يعني بالضرورة “الرفض.” قد يعني “التحقيق أكثر” أو “تعديل شروط القرض.” بدون هذه الدقة، فإن الأتمتة تخاطر بأن تصبح أداة خشنة، مما يتسبب في تآكل ثقة العملاء بينما تعرض الشركات للعواقب التنظيمية.
لماذا ستحدد طبقة الحكم الفائزين في التكنولوجيا المالية
لن يتم تحديد مستقبل التكنولوجيا المالية من خلال من لديه أقوى نماذج الذكاء الاصطناعي؛ بل من يستخدمها بأفضل حكم. مع تحول الذكاء الاصطناعي إلى سلعة، تصبح مكاسب الكفاءة متطلبات أساسية. ما يفصل الفائزين هو القدرة على التدخل عندما تواجه الخوارزميات عدم اليقين والمخاطر والمناطق الرمادية الأخلاقية.
ليست طبقة الحكم فكرة مجردة. تظهر عندما يقرر التنفيذيون إيقاف التداول الآلي، أو تأجيل إطلاق منتج، أو تجاوز درجة المخاطر التي لا تعكس السياق الواقعي. هذه اللحظات ليست إخفاقات في الذكاء الاصطناعي؛ بل هي دليل على أن الإشراف البشري هو الخط النهائي لخلق القيمة.
التوافق الاستراتيجي هو المكان الذي يصبح فيه الحكم مؤسسيًا. لا تضع استراتيجية الذكاء الاصطناعي القوية مجرد خرائط طريق تقنية؛ بل تضمن أن تعيد المنظمة زيارة المبادرات، وتحديث مهارات فرقها في الذكاء الاصطناعي، وتضمن أن الشركة لديها هندسة البيانات المطلوبة، وتربط كل نشر بنتيجة تجارية واضحة. من هذه الناحية، فإن الحكم ليس عرضيًا بل مُدمج في وضع التشغيل ويسمح للتنفيذيين بدفع نهج قيادة قائم على القيمة.
تحتاج الشركات المالية إلى قادة يعرفون كيفية تحقيق التوازن بين الذكاء الاصطناعي للسرعة والنطاق والبشر للسياق والدقة والرؤية طويلة الأمد. يمكن للذكاء الاصطناعي اكتشاف الشذوذ في ثوانٍ، لكن فقط الأشخاص يمكنهم اتخاذ القرار بشأن متى يجب دفع الحدود، وإعادة التفكير في الافتراضات، أو اتخاذ مخاطرة جريئة تفتح الأبواب للنمو. هذه الطبقة من الحكم هي ما يحول الذكاء الاصطناعي من أداة إلى ميزة.
عن المؤلف:
غيليرمو ديلغادو هو قائد الذكاء الاصطناعي العالمي في نيسوم ومدير العمليات في Deep Space Biology. مع أكثر من 25 عامًا من الخبرة في الكيمياء الحيوية والذكاء الاصطناعي وعلم الأحياء الفضائية وريادة الأعمال، يقوم بتطوير حلول مبتكرة لرفاهية الإنسان على الأرض وفي الفضاء.
بصفته مستشارًا في استراتيجية الشركات، ساهم في رؤية ناسا للذكاء الاصطناعي في علم الأحياء الفضائية وقد حصل على جوائز الابتكار. يحمل درجة الماجستير في الذكاء الاصطناعي من Georgia Tech، التي حصل عليها مع مرتبة الشرف. بالإضافة إلى ذلك، كأستاذ جامعي، قام بتدريس دورات حول التعلم الآلي والبيانات الضخمة وعلم الجينوم.