العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
OpenAI تقدم Model Spec: كيف يتطور النهج المسؤول لسلوك الذكاء الاصطناعي
مؤخرًا كشفت OpenAI للجمهور عن وثيقتها الداخلية “مواصفات النموذج” — وصف تفصيلي لكيفية إدارة الشركة لسلوك نماذج الذكاء الاصطناعي الخاصة بها. يعكس هذا الخطوة سعي OpenAI لتوسيع النقاش حول المبادئ التي يجب أن تستند إليها أنظمة الخوارزميات الحديثة، بما في ذلك الأسئلة المعقدة المتعلقة بتوليد أنواع مختلفة من المحتوى.
بنية القواعد: أساس النظام الجديد
تستند “مواصفات النموذج” إلى ثلاثة أعمدة رئيسية تحدد سلوك جميع أنظمة الذكاء الاصطناعي في الشركة. المبدأ الأول يركز على الفائدة — يجب أن تقدم النماذج إجابات بناءة للمطورين والمستخدمين النهائيين بما يتوافق مع الأهداف المحددة. المبدأ الثاني يركز على رفاهية البشرية، ويتطلب من الخوارزميات مراعاة الفوائد المحتملة والمخاطر المحتملة لأفعالها. المبدأ الثالث يكرس التزام OpenAI بالمعايير الاجتماعية والقوانين السارية.
كما حددت الشركة مجموعة من القيود المحددة للمطورين الذين يستخدمون تقنيات الذكاء الاصطناعي، تشمل الالتزام بهيكلية الأوامر، والامتثال للقوانين المحلية، والامتناع عن إنشاء معلومات مضللة، واحترام حقوق النشر، وحماية البيانات الشخصية للمستخدمين، وتجنب توليد محتوى فاضح بشكل افتراضي.
التوازن بين الحرية والمسؤولية
واحدة من أكثر الأجزاء إثارة للنقاش في “مواصفات النموذج” تتعلق بمحتوى NSFW وإدارته. وفقًا للوثيقة، تجري OpenAI أبحاثًا حول كيفية تقديم الشركة إمكانية توليد هذا النوع من المحتوى بشكل مسؤول في سياقات تتوافق مع قيود العمر — سواء عبر API أو من خلال واجهة ChatGPT. هذا يعني أن الشركة ترى إمكانية في أن يتمكن المستخدمون والمطورون من تنظيم “درجة الحدة” في مساعدي الذكاء الاصطناعي حسب الاستخدام المحدد.
هذا النهج يفترض أن OpenAI لا تفرض حظرًا قاطعًا على العمل مع أنواع معينة من المحتوى، لكنها تؤكد على ضرورة نشره بشكل مسؤول ومراقب. يتطلب ذلك الشفافية، والتحقق من العمر، ووجود قواعد واضحة للاستخدام.
كيف يجب أن يتصرف الذكاء الاصطناعي بشكل افتراضي
تصف “مواصفات النموذج” مجموعة من السلوكيات الموصى بها لمساعدي الذكاء الاصطناعي في تكوينهم الافتراضي. يجب أن تستند النماذج إلى نوايا حسنة من المستخدمين، وطرح أسئلة توضيحية عند الحاجة، والالتزام بالحدود المحددة، والتمسك بموقف موضوعي، ورفض مظاهر الكراهية بشكل قاطع، وتجنب محاولة إقناع الناس بمعتقداتهم. بالإضافة إلى ذلك، يجب أن تعبر الأنظمة عن عدم اليقين بصدق عندما لا تكون واثقة تمامًا من صحة إجاباتها.
أوضحت مديرة المنتجات في OpenAI، جوان جانغ، هدف الوثيقة: تسعى الشركة للحصول على توصيات من المجتمع العلمي والسياسي والجمهور حول كيفية عمل أنظمة الذكاء الاصطناعي. وقالت إن “مواصفات النموذج” تساعد على تمييز السلوك المقصود عن السلوك العرضي للخوارزميات، وهو أمر مهم بشكل خاص عند إصدار نسخ جديدة.
من النظرية إلى التطبيق: ما الذي سيتغير
من المهم ملاحظة أن “مواصفات النموذج” لن تؤثر على المنتجات التي تم إصدارها بالفعل — مثل ChatGPT وGPT-4 وDALL-E 3، التي ستستمر في العمل وفقًا لسياسات الاستخدام الحالية. تم تصميم الوثيقة كنظام حي ومتطور باستمرار من المبادئ التوجيهية، سيتم تحديثه بانتظام استنادًا إلى الملاحظات الواردة.
تدعو OpenAI بنشاط جميع الأطراف المعنية — من السياسيين والمنظمات الخيرية إلى الخبراء المستقلين في مختلف المجالات — للمشاركة في النقاش. الشركة منفتحة على تلقي التوصيات حول التعديلات التي يجب إدخالها على الوثيقة، لكنها لم تكشف بعد عن معايير اتخاذ القرارات أو من سيحدد اتجاهات تطوير “مواصفات النموذج”.
الآفاق والأسئلة التي لم تُجب بعد
يشير ظهور “مواصفات النموذج” إلى أن OpenAI تدرك الحاجة إلى مزيد من الشفافية في نهجها لإدارة أنظمة الذكاء الاصطناعي. ومع ذلك، لا تزال هناك أسئلة مفتوحة: ما هي المقترحات التي ستؤخذ بعين الاعتبار من المجتمع، كيف سيتم حل النزاعات بين وجهات النظر المختلفة، ومتى من المتوقع إصدار النسخة الثانية من الوثيقة. لا توجد حتى الآن معلومات حول هذه التفاصيل المهمة.
سبق أن حاولت OpenAI تعزيز ثقة المستخدمين من خلال إطلاق أدوات لتحديد المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي. تمثل “مواصفات النموذج” المرحلة التالية في هذا الاتجاه — محاولة لوضع معايير عالمية للتنمية المسؤولة لتقنيات الذكاء الاصطناعي.