العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الذكاء الاصطناعي في أوروبا: ماذا قد يعني قانون الذكاء الاصطناعي
صورة بواسطة مايكو أموريم على Unsplash
قانون الذكاء الاصطناعي لا يزال مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالتوتر بالفعل بشأن النتائج المحتملة.
هل سيمنع الاتحاد الأوروبي من أن يكون منافساً ذا قيمة في الساحة العالمية؟
وفقاً للمنظمين، ليس الأمر كذلك. لكن دعونا نرى ما يحدث.
قانون الذكاء الاصطناعي وتقييم المخاطر
يقسم قانون الذكاء الاصطناعي المخاطر الناجمة عن الذكاء الاصطناعي إلى فئات مخاطر مختلفة، ولكن قبل القيام بذلك، يحدد تعريف الذكاء الاصطناعي ليشمل فقط الأنظمة المعتمدة على التعلم الآلي والمنطق.
هذا لا يخدم فقط غرض التمييز بين أنظمة الذكاء الاصطناعي وقطع البرمجيات الأبسط، ولكن يساعدنا أيضاً على فهم لماذا يريد الاتحاد الأوروبي تصنيف المخاطر.
تُصنف الاستخدامات المختلفة للذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، و
مخاطر منخفضة أو شبه معدومة. تُعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.
تشمل هذه الأنواع من الممارسات:
هناك بعض حالات الاستخدام، التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة في الأنشطة المحظورة، التي تقع تحت فئة الممارسات “عالية المخاطر”.
تشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل جدارة ائتمان الأشخاص (ويمكن أن يكون هذا خطيراً بالنسبة للتكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تخلق أو تستخدم هذا النوع من الأنظمة إنتاج تقارير مفصلة لشرح كيفية عمل النظام والتدابير المتخذة لتجنب المخاطر على الأشخاص ولتكون شفافة قدر الإمكان.
كل شيء يبدو واضحاً وصحيحاً، لكن هناك بعض المشكلات التي يجب أن يتعامل معها المنظمون.
القانون يبدو عاماً جداً
أحد الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين هو نقص الاهتمام تجاه قطاعات الذكاء الاصطناعي المحددة.
على سبيل المثال، يمكن اعتبار الشركات التي تنتج وتستخدم أنظمة تعتمد على الذكاء الاصطناعي لأغراض عامة كأنها تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.
هذا يعني أنه يجب عليهم إنتاج تقارير مفصلة تكلف وقتاً ومالاً. ونظراً لأن الشركات الصغيرة والمتوسطة لا تشكل استثناءً، ولأنها تشكل أكبر جزء من الاقتصاديات الأوروبية، فقد تصبح أقل تنافسية مع مرور الوقت.
وهو بالضبط الفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية الذي يثير المخاوف الكبرى: في الواقع، لا تمتلك أوروبا شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث يتم إنشاء بيئة الذكاء الاصطناعي في أوروبا بشكل رئيسي من قبل الشركات الصغيرة والمتوسطة وبدء التشغيل.
وفقاً لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين سيتجنبون الاستثمار في الشركات الناشئة التي تُصنف على أنها “عالية المخاطر”، وذلك بسبب التعقيدات المرتبطة بهذا التصنيف.
تغير ChatGPT خطط الاتحاد الأوروبي
كان يجب على المنظمين في الاتحاد الأوروبي إغلاق الوثيقة في 19 أبريل، لكن النقاش المتعلق بالتعريفات المختلفة للأنظمة المعتمدة على الذكاء الاصطناعي وحالات استخدامها أخر تسليم المسودة النهائية.
علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها يتفق على النسخة الحالية من الوثيقة.
النقطة التي تسببت في التأخيرات هي التمييز بين نماذج الأساس والذكاء الاصطناعي العام.
مثال على نماذج الأساس للذكاء الاصطناعي هو ChatGPT من OpenAI: هذه الأنظمة تُدرَّب باستخدام كميات كبيرة من البيانات ويمكن أن تولد أي نوع من الناتج.
يتضمن الذكاء الاصطناعي العام تلك الأنظمة التي يمكن تكييفها مع حالات استخدام وقطاعات مختلفة.
يريد المنظمون في الاتحاد الأوروبي تنظيم نماذج الأساس بشكل صارم، حيث يمكن أن تشكل المزيد من المخاطر وتؤثر سلباً على حياة الناس.
كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي
إذا نظرنا إلى كيفية تعامل المنظمين في الاتحاد الأوروبي مع الذكاء الاصطناعي، هناك شيء يبرز: يبدو أن المنظمين أقل استعدادًا للتعاون.
في الولايات المتحدة، على سبيل المثال، سعت إدارة بايدن للحصول على تعليقات عامة حول سلامة الأنظمة مثل ChatGPT، قبل تصميم إطار تنظيمي محتمل.
في الصين، كانت الحكومة تنظم الذكاء الاصطناعي وجمع البيانات لسنوات، ولا تزال قلقها الرئيسي هو الاستقرار الاجتماعي.
حتى الآن، يبدو أن الدولة التي تتواجد في موقع جيد في تنظيم الذكاء الاصطناعي هي المملكة المتحدة، التي فضلت نهج “خفيف” - لكن ليس سراً أن المملكة المتحدة تريد أن تصبح رائدة في اعتماد الذكاء الاصطناعي والتكنولوجيا المالية.
التكنولوجيا المالية وقانون الذكاء الاصطناعي
عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع يصبح أكثر تعقيداً.
في الواقع، إذا ظل القانون كما هو في النسخة الحالية، فستحتاج الشركات المالية ليس فقط إلى الالتزام بالتنظيمات المالية الحالية، ولكن أيضاً بهذا الإطار التنظيمي الجديد.
حقيقة أن تقييم جدارة الائتمان قد يتم تصنيفه كحالة استخدام عالية المخاطر هي مجرد مثال على العبء الذي يجب أن تتحمله شركات التكنولوجيا المالية، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات وأن تكون تنافسية.
الخاتمة
كما أشار بيتر سارلين، الرئيس التنفيذي لشركة Silo AI، فإن المشكلة ليست في التنظيم، بل في التنظيم السيء.
كونه عاماً جداً قد يضر بالابتكار وجميع الشركات المعنية في إنتاج وتوزيع واستخدام منتجات وخدمات تعتمد على الذكاء الاصطناعي.
إذا كان المستثمرون في الاتحاد الأوروبي سيشعرون بالقلق بشأن المخاطر المحتملة الناجمة عن تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فقد يتأثر بيئة الذكاء الاصطناعي في الاتحاد الأوروبي سلباً، بينما تبحث الولايات المتحدة عن تعليقات عامة لتحسين تقنيتها والصين لديها بالفعل رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.
وفقاً لروبن رهم، المؤسس المشارك لشركة Apheris، أحد السيناريوهات الممكنة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة - دولة قد تكون لديها الكثير لتخسره عندما يتعلق الأمر بالبلوكشين والعملات المشفرة، لكنها قد تربح سباق الذكاء الاصطناعي.
إذا كنت ترغب في معرفة المزيد عن التكنولوجيا المالية واكتشاف أخبار التكنولوجيا المالية، والأحداث، والآراء، اشترك في نشرة FTW!