الذكاء الاصطناعي في أوروبا: ماذا قد يعني قانون الذكاء الاصطناعي

تصوير بواسطة مايكو أوموريم على Unsplash


لا تزال لائحة الذكاء الاصطناعي مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالقلق بالفعل بشأن النتائج المحتملة.

هل ستمنع الاتحاد الأوروبي من أن يكون منافسًا قيمًا على الساحة العالمية؟

وفقًا للجهات التنظيمية، الأمر ليس كذلك. لكن دعونا نرى ما يحدث.

اللائحة الخاصة بالذكاء الاصطناعي وتقييم المخاطر

تقسم لائحة الذكاء الاصطناعي المخاطر التي يفرضها الذكاء الاصطناعي إلى فئات مختلفة من المخاطر، ولكن قبل ذلك، تضيق التعريف للذكاء الاصطناعي ليشمل فقط الأنظمة المبنية على التعلم الآلي والمنطق.

هذا لا يهدف فقط إلى تمييز أنظمة الذكاء الاصطناعي عن البرمجيات الأبسط، بل يساعدنا أيضًا على فهم سبب رغبة الاتحاد الأوروبي في تصنيف المخاطر.

يُصنف استخدامات الذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، ومخاطر منخفضة أو بسيطة. تعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.

تشمل هذه الممارسات:

  • الممارسات التي تتضمن تقنيات تعمل خارج وعي الإنسان،
  • الممارسات التي تسعى لاستغلال أجزاء ضعيفة من السكان،
  • الأنظمة المبنية على الذكاء الاصطناعي المصممة لتصنيف الأشخاص وفقًا لخصائصهم الشخصية أو سلوكياتهم،
  • الأنظمة المبنية على الذكاء الاصطناعي التي تستخدم التعريف البيومتري في الأماكن العامة.

هناك بعض الحالات التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة ضمن الأنشطة المحظورة، وتقع ضمن فئة “المخاطر العالية”.

وتشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل جدارة الأشخاص الائتمانية (وقد يكون ذلك خطيرًا على التكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تخلق أو تستخدم هذا النوع من الأنظمة إصدار تقارير مفصلة تشرح كيفية عمل النظام والإجراءات المتخذة لتجنب المخاطر على الأشخاص ولتكون شفافة قدر الإمكان.

كل شيء يبدو واضحًا وصحيحًا، لكن هناك بعض المشاكل التي يجب على الجهات التنظيمية معالجتها.

اللائحة تبدو عامة جدًا

واحدة من الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين أكثر هي نقص الاهتمام بالقطاعات المحددة للذكاء الاصطناعي.

على سبيل المثال، يمكن اعتبار الشركات التي تنتج وتستخدم أنظمة الذكاء الاصطناعي للأغراض العامة من تلك التي تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.

وهذا يعني أنه يتعين عليها إصدار تقارير مفصلة تتطلب وقتًا ومالًا. وبما أن الشركات الصغيرة والمتوسطة لا تستثنى، وتشكل الجزء الأكبر من اقتصاديات أوروبا، فقد تصبح أقل تنافسية مع مرور الوقت.

والفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية هو مصدر قلق كبير: فإيط أوروبا لا تمتلك شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث أن بيئة الذكاء الاصطناعي في أوروبا تتكون بشكل رئيسي من الشركات الصغيرة والمتوسطة والشركات الناشئة.

وفقًا لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين يتجنبون الاستثمار في الشركات الناشئة المصنفة على أنها “عالية المخاطر”، تحديدًا بسبب التعقيدات المرتبطة بهذا التصنيف.

تغيرت خطط الاتحاد الأوروبي بسبب ChatGPT

كان من المفترض أن تغلق الجهات التنظيمية في الاتحاد الأوروبي الوثيقة في 19 أبريل، لكن النقاش حول التعريفات المختلفة للأنظمة المبنية على الذكاء الاصطناعي وحالات استخدامها أخر إصدار المسودة النهائية.

علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها يتفق على النسخة الحالية من الوثيقة.

السبب الرئيسي للتأخير هو التمييز بين نماذج الأساس والذكاء الاصطناعي للأغراض العامة.

مثال على نماذج الأساس هو ChatGPT من OpenAI: هذه الأنظمة تُدرّب باستخدام كميات كبيرة من البيانات ويمكنها إنتاج أي نوع من المخرجات.

أما الذكاء الاصطناعي للأغراض العامة فيشمل الأنظمة التي يمكن تكييفها لمختلف الاستخدامات والقطاعات.

يريد منظمو الاتحاد الأوروبي تنظيم نماذج الأساس بشكل صارم، لأنها قد تشكل مخاطر أكبر وتؤثر سلبًا على حياة الناس.

كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي

عند النظر إلى كيفية تعامل منظمي الاتحاد الأوروبي مع الذكاء الاصطناعي، يبرز شيء: يبدو أن المنظمين أقل استعدادًا للتعاون.

على سبيل المثال، في الولايات المتحدة، بحثت إدارة بايدن عن تعليقات عامة حول سلامة أنظمة مثل ChatGPT، قبل وضع إطار تنظيمي محتمل.

وفي الصين، كانت الحكومة تنظّم الذكاء الاصطناعي وجمع البيانات لسنوات، واهتمامها الرئيسي لا يزال الاستقرار الاجتماعي.

حتى الآن، يبدو أن المملكة المتحدة في وضع جيد في تنظيم الذكاء الاصطناعي، حيث اتبعت نهجًا “خفيفًا” — لكن من المعروف أن المملكة تريد أن تصبح رائدة في تبني الذكاء الاصطناعي والتكنولوجيا المالية.

التكنولوجيا المالية وقانون الذكاء الاصطناعي

عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع أكثر تعقيدًا.

في الواقع، إذا بقيت اللائحة على حالها، ستحتاج الشركات المالية إلى الالتزام ليس فقط باللوائح المالية الحالية، بل أيضًا بهذا الإطار التنظيمي الجديد.

وأن يُصنّف تقييم الجدارة الائتمانية كمستخدم عالي المخاطر هو مجرد مثال على العبء الذي يجب أن تحمله شركات التكنولوجيا المالية، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات والبقاء تنافسية.

الخلاصة

كما أشار بيتر سارلين، المدير التنفيذي لشركة Silo AI، المشكلة ليست في التنظيم، بل في التنظيم السيئ.

كونه عامًا جدًا قد يضر بالابتكار وبجميع الشركات المشاركة في إنتاج وتوزيع واستخدام المنتجات والخدمات المبنية على الذكاء الاصطناعي.

إذا كان المستثمرون في الاتحاد الأوروبي قلقين بشأن المخاطر المحتملة من تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فإن بيئة الذكاء الاصطناعي في الاتحاد الأوروبي قد تتأثر سلبًا، بينما تبحث الولايات المتحدة عن تعليقات عامة لتحسين تقنياتها، والصين لديها بالفعل رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.

وفقًا لروبن روم، الشريك المؤسس لشركة Apheris، أحد السيناريوهات المحتملة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة — بلد قد يخسر الكثير فيما يتعلق بالبلوكشين والعملات الرقمية، لكنه قد يفوز في سباق الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.47Kعدد الحائزين:2
    0.19%
  • القيمة السوقية:$2.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • تثبيت