الذكاء الاصطناعي في أوروبا: ماذا قد يعني قانون الذكاء الاصطناعي

تصوير بواسطة مايكو أموريم على أنسبلاش


لا تزال لائحة الذكاء الاصطناعي مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالفعل بالقلق بشأن النتائج المحتملة.

هل ستمنع الاتحاد الأوروبي من أن يكون منافسًا قيمًا في الساحة العالمية؟

وفقًا للمنظمين، الأمر ليس كذلك. لكن دعونا نرى ما يحدث.

اللائحة الخاصة بالذكاء الاصطناعي وتقييم المخاطر

تقسم لائحة الذكاء الاصطناعي المخاطر التي يفرضها الذكاء الاصطناعي إلى فئات مخاطر مختلفة، ولكن قبل ذلك، تضيق التعريف للذكاء الاصطناعي ليشمل فقط الأنظمة المبنية على التعلم الآلي والمنطق.

هذا لا يخدم فقط هدف تمييز أنظمة الذكاء الاصطناعي عن البرمجيات الأبسط، بل يساعدنا أيضًا على فهم لماذا تريد الاتحاد الأوروبي تصنيف المخاطر.

يُصنف الاستخدامات المختلفة للذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، ومخاطر منخفضة أو بسيطة. تعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.

تشمل هذه الممارسات:

*   الممارسات التي تتضمن تقنيات تعمل خارج وعي الشخص،  
*   الممارسات التي ترغب في استغلال أجزاء ضعيفة من السكان،  
*   الأنظمة المبنية على الذكاء الاصطناعي المصممة لتصنيف الأشخاص وفقًا لخصائصهم الشخصية أو سلوكياتهم،  
*   الأنظمة المبنية على الذكاء الاصطناعي التي تستخدم التعريف البيومتري في الأماكن العامة.  

هناك بعض حالات الاستخدام، التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة في الأنشطة المحظورة، وتقع تحت فئة “مخاطر عالية”.

وتشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل جدارة الأشخاص الائتمانية (وقد تكون خطيرة على التكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تنشئ أو تستخدم هذا النوع من الأنظمة إصدار تقارير مفصلة لشرح كيفية عمل النظام والإجراءات المتخذة لتجنب المخاطر على الأشخاص ولتكون بأقصى قدر من الشفافية.

كل شيء يبدو واضحًا وصحيحًا، لكن هناك بعض المشاكل التي يجب على المنظمين معالجتها.

اللائحة تبدو عامة جدًا

واحدة من الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين أكثر هي نقص الاهتمام بالقطاعات المحددة للذكاء الاصطناعي.

على سبيل المثال، يمكن اعتبار الشركات التي تنتج وتستخدم أنظمة الذكاء الاصطناعي للأغراض العامة من تلك التي تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.

وهذا يعني أنه يتعين عليها إصدار تقارير مفصلة تتطلب وقتًا ومالًا. وبما أن الشركات الصغيرة والمتوسطة لا تستثنى، وتشكل أكبر جزء من الاقتصادات الأوروبية، فقد تصبح أقل تنافسية مع مرور الوقت.

والفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية هو ما يثير مخاوف كبيرة: فبالواقع، لا تمتلك أوروبا شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث أن بيئة الذكاء الاصطناعي في أوروبا تتكون بشكل رئيسي من الشركات الصغيرة والمتوسطة والشركات الناشئة.

وفقًا لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين يتجنبون الاستثمار في الشركات الناشئة المصنفة على أنها “عالية المخاطر”، تحديدًا بسبب التعقيدات المرتبطة بهذا التصنيف.

غيرت ChatGPT خطط الاتحاد الأوروبي

كان من المفترض أن يغلق المنظمون الأوروبيون الوثيقة في 19 أبريل، لكن النقاش حول التعريفات المختلفة للأنظمة المبنية على الذكاء الاصطناعي وحالات استخدامها أخر إصدار المسودة النهائية.

علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها توافق على النسخة الحالية من الوثيقة.

أكثر ما تسبب في التأخير هو التمييز بين نماذج الأساس والذكاء الاصطناعي للأغراض العامة.

مثال على نماذج الأساس للذكاء الاصطناعي هو ChatGPT من OpenAI: هذه الأنظمة تُدرّب باستخدام كميات كبيرة من البيانات ويمكنها توليد أي نوع من المخرجات.

يشمل الذكاء الاصطناعي للأغراض العامة تلك الأنظمة التي يمكن تكييفها مع حالات استخدام وقطاعات مختلفة.

يريد المنظمون الأوروبيون تنظيم نماذج الأساس بشكل صارم، لأنها قد تشكل مخاطر أكبر وتؤثر سلبًا على حياة الناس.

كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي

إذا نظرنا إلى كيفية تعامل المنظمين الأوروبيين مع الذكاء الاصطناعي، هناك شيء يبرز: يبدو أن المنظمين أقل رغبة في التعاون.

في الولايات المتحدة، على سبيل المثال، بحثت إدارة بايدن عن تعليقات عامة حول سلامة أنظمة مثل ChatGPT، قبل تصميم إطار تنظيمي محتمل.

في الصين، كانت الحكومة تنظّم الذكاء الاصطناعي وجمع البيانات لسنوات، واهتمامها الرئيسي لا يزال الاستقرار الاجتماعي.

حتى الآن، الدولة التي تبدو في وضع جيد في تنظيم الذكاء الاصطناعي هي المملكة المتحدة، التي فضلت نهجًا “خفيفًا” — لكن من المعروف أن المملكة المتحدة تريد أن تصبح رائدة في اعتماد الذكاء الاصطناعي والتكنولوجيا المالية.

التكنولوجيا المالية ولائحة الذكاء الاصطناعي

عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع أكثر تعقيدًا.

في الواقع، إذا استمرت اللائحة على النسخة الحالية، ستحتاج الشركات المالية إلى الالتزام ليس فقط باللوائح المالية الحالية، بل أيضًا بهذا الإطار التنظيمي الجديد.

حقيقة أن تقييم الجدارة الائتمانية قد يُصنّف على أنه حالة استخدام عالية المخاطر هو مجرد مثال على العبء الذي يجب أن تحمله شركات التكنولوجيا المالية، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات والبقاء تنافسية.

الخلاصة

كما أشار بيتر سارلين، المدير التنفيذي لشركة Silo AI، المشكلة ليست في التنظيم، بل في التنظيم السيئ.

كونه عامًا جدًا قد يضر بالابتكار وبجميع الشركات المشاركة في إنتاج وتوزيع واستخدام المنتجات والخدمات المبنية على الذكاء الاصطناعي.

إذا كان المستثمرون في الاتحاد الأوروبي سيشعرون بالقلق إزاء المخاطر المحتملة التي يفرضها تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فقد يتأثر بيئة الذكاء الاصطناعي في الاتحاد الأوروبي سلبًا، بينما يبحث الأمريكيون عن تعليقات عامة لتحسين تقنيتهم، والصين لديها بالفعل رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.

وفقًا لروبن روم، أحد مؤسسي Apheris، أحد السيناريوهات المحتملة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة — بلد قد يخسر الكثير عندما يتعلق الأمر بسلسلة الكتل والعملات الرقمية، لكنه قد يفوز في سباق الذكاء الاصطناعي.


إذا كنت تريد معرفة المزيد عن التكنولوجيا المالية واكتشاف أخبار وفعاليات وآراء التكنولوجيا المالية، اشترك في النشرة الإخبارية FTW!

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت