الذكاء الاصطناعي في الامتثال ليس صندوقًا أسودًا — إنه اختبار للمساءلة: مقابلة مع رومان إلوشفيلي

Roman Eloshvili هو مؤسس شركة ComplyControl، شركة ناشئة تعتمد على الذكاء الاصطناعي للكشف عن الامتثال والاحتيال للمؤسسات المالية.


اكتشف أهم أخبار وفعاليات التكنولوجيا المالية!

اشترك في النشرة الإخبارية لـ FinTech Weekly

يقرأها التنفيذيون في جي بي مورغان، كوين بيس، بلاك روك، كلارنا والمزيد


ما الذي يختبره الذكاء الاصطناعي في الامتثال فعليًا: التكنولوجيا، أم نحن؟

في الخدمات المالية، لم يعد الامتثال مجرد وظيفة. إنه نقطة ضغط نشطة—حيث تتصادم اللوائح والمخاطر والعمليات. مع إدخال تقنيات الذكاء الاصطناعي في هذا المجال، تظل هناك سؤال يتكرر: إلى أي مدى يمكننا حقًا الأتمتة، ومن يظل مسؤولًا عندما تسوء الأمور؟

جاذبية الذكاء الاصطناعي في كشف الاحتيال والامتثال سهلة الفهم. تواجه المؤسسات المالية توقعات متزايدة لمعالجة كميات هائلة من البيانات، والاستجابة للتهديدات المتطورة، والامتثال للتشريعات المتغيرة—كل ذلك دون التضحية بالسرعة أو الدقة. توفر الأتمتة، خاصة عند قيادتها بواسطة التعلم الآلي، وسيلة لتقليل العبء التشغيلي. لكنها تثير أيضًا مخاوف أعمق بشأن الحوكمة، والشرح، والسيطرة.

هذه التوترات ليست نظرية. فهي تتكشف في الوقت الحقيقي، حيث تنشر الشركات المالية نماذج الذكاء الاصطناعي في أدوار كانت تُشغل سابقًا بواسطة محللين بشريين. وراء الكواليس، تظهر مخاطر جديدة: الإيجابيات الكاذبة، النقاط العمياء في التدقيق، والقرارات الخوارزمية التي تظل غامضة للمستخدمين والمنظمين على حد سواء.

في الوقت نفسه، يُطلب من محترفي الامتثال تغيير أدوارهم. بدلاً من فحص كل معاملة يدويًا، أصبحوا الآن يشرفون على الأدوات التي تقوم بذلك. يتطلب هذا إعادة صياغة—من منفذ إلى مقيم—وليس فقط مهارات تقنية جديدة، بل إحساسًا أقوى بالمسؤولية الأخلاقية والإجرائية. يمكن للذكاء الاصطناعي توسيع نطاق تحليل البيانات. يمكنه تمييز التناقضات. لكنه لا يستطيع شرح النية بالكامل، تفسير السياق، أو تحمل اللوم.

فهم هذه الحدود أمر حاسم. وقليل من الناس في وضع أفضل لاستكشافها من Roman Eloshvili، مؤسس شركة ComplyControl، شركة تكنولوجيا الامتثال البريطانية. عمله يقف تمامًا عند تقاطع المخاطر، والأتمتة، والرقابة—حيث تلتقي الكفاءة الخوارزمية بالتدقيق التنظيمي.

مع أكثر من عقد من الخبرة في المجال، رأى Roman عن كثب كيف تتطور فرق الامتثال وكيف يعيد الذكاء الاصطناعي تشكيل سير العمل ومسؤولياتهم. يجادل بأن وعد الذكاء الاصطناعي لا يكمن في القضاء على الأدوار البشرية، بل في إعادة تشكيلها—وإضفاء وضوح جديد على ما يجب أن تتعامل معه الآلات، وما يجب أن يظل البشر مسؤولين عنه.

هذا التحول يتطلب أكثر من ترقية تقنية. إنه يتطلب إعادة تنظيم ثقافية حول المساءلة. الأنظمة الشفافة، والعمليات القابلة للتدقيق، والمسؤولية البشرية المحددة بوضوح لم تعد مجرد ميزات—بل هي الحد الأدنى من المعايير. عندما يُدخل الذكاء الاصطناعي في البنية التحتية الحيوية، فإنه لا يحل المشكلات فقط. بل يُدخل فئة جديدة من القرارات التي تتطلب إدارة نشطة واستراتيجية.

في هذا الحوار مع FinTech Weekly، يقدم Roman نظرة واقعية لما يتطلبه دمج الذكاء الاصطناعي بمسؤولية في الامتثال ومنع الاحتيال. لا يرى أن الأتمتة حتمية، بل خيارًا—يتطلب حكمًا بشريًا مستمرًا، ووضوحًا تشغيليًا، واستعدادًا لطرح أسئلة صعبة حول مكان وجود الثقة حقًا.

يسعدنا أن نشارك رؤاه في وقت يتساءل فيه الكثيرون في مجال التكنولوجيا المالية ليس عما إذا كان ينبغي اعتماد الذكاء الاصطناعي—بل كيف يمكن القيام بذلك دون فقدان المعايير التي جعلت الأنظمة المالية تعمل في المقام الأول.


1. لقد بنيت مسيرتك المهنية عند مفترق طرق الامتثال والتكنولوجيا. هل تتذكر اللحظة التي أدركت فيها أن الذكاء الاصطناعي يمكن أن يغير بشكل جوهري طريقة إدارة المخاطر؟

لن أقول إنه كان لحظة واحدة محددة غيرت كل شيء. بل كان عملية متفرقة. قضيت جزءًا كبيرًا من مسيرتي في العمل مع بنوك أوروبية راسخة، وشيء كنت ألاحظه هو أن العديد منها كان متخلفًا جدًا عندما يتعلق الأمر بحلول البنوك الرقمية. كان التباين واضحًا بشكل خاص مقارنة بمراكز التكنولوجيا المالية الأكثر تقدمًا.

قبل عدة سنوات، عندما بدأ موضوع تطوير الذكاء الاصطناعي في التسخين مرة أخرى، أصبحت فضوليًا بطبيعة الحال ونظرت فيه. ومع دراستي للتقنية وكيفية عملها، أدركت أن الذكاء الاصطناعي لديه القدرة على تغيير جذري في طريقة تعامل البنوك مع الامتثال، مما يجعلها أكثر توافقًا مع اللاعبين الماليين الحديثين والأكثر مرونة.

هذا ما دفعني لإطلاق شركتي في 2023. فتعقيد الامتثال وإدارة المخاطر لا يتوقف عن النمو سنة بعد أخرى. في مواجهة هذا الواقع، مهمتنا بسيطة: تقديم حلول تعتمد على الذكاء الاصطناعي للشركات المالية ومساعدتها على التعامل مع هذه التحديات المتزايدة بشكل أكثر فاعلية.

2. من وجهة نظرك المهنية، كيف تطور دور المتخصصين البشريين مع تقدم أدوات الذكاء الاصطناعي في الامتثال والكشف عن الاحتيال؟

قبل أن أقول أي شيء آخر، دعني أتناول أمرًا واحدًا مباشرة. هناك قلق شائع عبر العديد من المجالات حول ما إذا كان الذكاء الاصطناعي سيحل محل العمال البشريين. وبالنسبة لمحترفي الامتثال والمخاطر، إجابتي هي لا—على الأقل، ليس في الوقت القريب.

بينما يغير الذكاء الاصطناعي صناعتنا بالفعل، فهو بعيد عن أن يكون خاليًا من الأخطاء. لذلك، يظل التدخل البشري عنصرًا أساسيًا. تتغير لوائح الامتثال باستمرار، ويجب أن يكون هناك من يتحمل المسؤولية عندما تفشل الأنظمة أو ترتكب أخطاء. في مستواه الحالي، لا يزال الذكاء الاصطناعي يواجه صعوبة في شرح قراراته بوضوح، لذلك فهو غير جاهز ليُترك بمفرده. خاصة في مجال حيث الثقة والشفافية أمران حاسمان.

ومع ذلك، فإن الذكاء الاصطناعي يجعل عمليات الامتثال أسهل بشكل نشط. على سبيل المثال، وفقًا للتكوين، يمكن لأنظمة الذكاء الاصطناعي الآن تمييز المعاملات المشبوهة أو حتى حظرها مؤقتًا مع طلب مزيد من التحقق. لا حاجة لوجود بشر حقيقيين لفحص كل تفصيل يدويًا، إلا إذا برز شيء غريب حقًا. ومع تطور هذه الأنظمة، ستستمر في تقليل الحاجة للعمل اليدوي، مما يسمح للفرق بالتركيز أكثر على المهام الدقيقة التي تتطلب لمسة بشرية.

أعتقد أننا سنشهد ظهور نموذج هجين، حيث سيصبح خبراء الامتثال أكثر كفاءة في استخدام أدوات الذكاء الاصطناعي. سيكونون هم من يطبقون ويحافظون على أنظمة الذكاء الاصطناعي، بينما يبسط الذكاء الاصطناعي عملهم من خلال فهم البيانات المعقدة وتقديم التوصيات. الحكم النهائي، مع ذلك، سيظل للبشر.

3. عند العمل مع الذكاء الاصطناعي في مجالات حساسة مثل الامتثال المالي، كيف تعاملت شخصيًا مع تحدي الحفاظ على الثقة والمساءلة في اتخاذ القرارات؟

بالطبع. كما ذكرت سابقًا، عندما تستخدم الذكاء الاصطناعي في الامتثال، الثقة أمر حاسم.

لهذا السبب بنينا أنظمتنا على الشفافية الكاملة. فهي لا تعمل كـ “صندوق أسود”—كل توصية تقدمها النظام تستند إلى قواعد وبيانات قابلة للتتبع. نحفظ سجل تدقيق كامل لكيفية اتخاذ كل قرار، بحيث يمكن شرحه بالكامل. أثبتت هذه الممارسة قيمتها بشكل كبير عند التعامل مع المنظمين.

القرار النهائي دائمًا يكون مع مسؤول الامتثال. الذكاء الاصطناعي ببساطة يقدم اقتراحًا مبررًا جيدًا يمكن للبشر فحصه بسهولة واتخاذ قرار بالموافقة أو الرفض.

4. خبرتك تمتد لأكثر من 10 سنوات. كيف تغيرت نظرتك حول الأتمتة والإشراف البشري خلال مسيرتك، خاصة الآن مع تزايد استقلالية الذكاء الاصطناعي؟

بالتأكيد. بشكل أوسع، مع تقدم تقنية الذكاء الاصطناعي، كلما تطورت، زادت استقلاليتها تدريجيًا—طالما تم اختبارها بدقة واستمرت في إثبات موثوقيتها.

لكن ما يتغير أكثر هو دور المتخصص البشري في هذا المعادلة. بدلًا من إدارة كل حالة بشكل دقيق، يلعب الآن ضباط الامتثال دور المشرفين الاستراتيجيين بشكل متزايد. يمكنهم مراجعة دفعات كاملة من الحالات المماثلة بسرعة، والتحقق من أداء النظام، وضبط النماذج بناءً على النتائج.

بمعنى آخر، الدور الفعلي لضباط الامتثال يتحول من أداء العمل يدويًا إلى إدارة أنظمة الذكاء الاصطناعي التي تقوم به نيابة عنهم.

5. العمل في إدارة المخاطر المدفوعة بالذكاء الاصطناعي يتطلب التنقل بين أسئلة أخلاقية معقدة. كيف طورت شخصيًا إطار عمل لاتخاذ قرارات مسؤولة عند تصميم أو تنفيذ حلول تعتمد على الذكاء الاصطناعي؟

بنيت نهجنا حول فكرتين رئيسيتين: الرقابة الواضحة ومبادئ الذكاء الاصطناعي المسؤول. كل نموذج نستخدمه لديه شخص معين مسؤول عنه. يتم إجراء تقييمات المخاطر، ومراجعات الأداء، وفحوصات الامتثال بشكل منتظم.

كما نحرص على أن تكون أنظمتنا قابلة للتدقيق. إذا اتخذ الخوارزم قرارًا، يمكن مراجعة تلك العملية والتحقق منها. هذه الشفافية جزء أساسي من التزامنا بتطوير ذكاء اصطناعي مسؤول.

6. في رحلتك، ما هو الدرس المهني الأصعب الذي تعلمته حول حدود—أو مخاطر—الاعتماد المفرط على الأتمتة في مجالات حاسمة مثل منع الاحتيال؟

درس واحد بالتأكيد يجب أن نضعه في الاعتبار هو أن النماذج المدربة جيدًا يمكن أن “تتوهم”—وترتكب أخطاءً بطريقة دقيقة وخطيرة.

يمكن للذكاء الاصطناعي أن يفوت مخططات احتيال معقدة، أو قد يطلق الكثير من التنبيهات الكاذبة. لهذا السبب، من المهم جدًا الجمع بين الذكاء الاصطناعي والخبرة البشرية—البشر يجلبون حكمًا مرنًا ويكونون أفضل في تقييم الأخلاقيات والسياق العام بطرق لا يستطيع الذكاء الاصطناعي القيام بها.

التوازن بين الاثنين يعد بنتائج أفضل وأكثر موثوقية. يمكن للذكاء الاصطناعي أن يغطي حجم المهام الكبير ويخفف من تعقيدها، بينما يظل البشر للحفاظ على مستوى الدقة والثقة المناسبين.

7. للمحترفين الشباب الذين يدخلون مجالات الامتثال، إدارة المخاطر، أو تطوير الذكاء الاصطناعي اليوم، ما المبادئ أو العادات الشخصية التي تنصحهم بتنميتها للنجاح والتكيف في بيئة تتغير بسرعة كهذه؟

أولاً وقبل كل شيء: لا تتوقف أبدًا عن التعلم. التقدم التكنولوجي لا يوجد لديه زر “إيقاف”، ويجب أن تواكب أو تُترك خلف الركب. لا يوجد خيار وسط هنا.

ثانيًا، فكر بشكل واسع. مع تقدم الذكاء الاصطناعي، تتداخل الأدوار أكثر فأكثر—التكنولوجيا، والمالية، والتنظيم تصبح مزيجًا واحدًا. أنا مقتنع أن امتلاك مجموعة مهارات واسعة وعقل منفتح سيكون من السمات الحاسمة للمحترفين المستقبليين في المجال.

ثالثًا—وهو استمرار طبيعي للنقطتين السابقتين—كن مرنًا. التغيير مستمر، والقدرة على التكيف بسرعة ستكون ميزة كبيرة لك.

وأخيرًا، طور مهارات اتصال قوية وتعلم كيف تكون عضو فريق فعال. كما ناقشنا سابقًا، الامتثال يقف عند مفترق طرق بين الأعمال، والتكنولوجيا، والقانون. لذلك، القدرة على تغيير المسار والتواصل مع أشخاص من جميع هذه المجالات ستكون مهارة قيمة تكتسبها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت