العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
مايكروسوفت تطلق مجموعة أدوات تشغيل مفتوحة المصدر لتعزيز السيطرة على وكلاء الذكاء الاصطناعي المستقلين
قدّمت مايكروسوفت أداة حزمة مفتوحة المصدر جديدة تركز على أمن وقت التشغيل لفرض حوكمة أشد صرامة على وكلاء الذكاء الاصطناعي داخل المؤسسات.
الملخص
تُبنى الأداة الحزمة على أمن وقت التشغيل، وهو ما يعالج المخاوف من أن نماذج اللغة الحديثة لم تعد مقيدة بعد الآن بأدوار استشارية فقط، بل تقوم فعليًا بتنفيذ كود والتفاعل مع الأنظمة الداخلية. إذ تكافح الإجراءات الوقائية التقليدية مثل فحوصات الكود الثابتة وعمليات المسح قبل النشر لمواكبة هذه السلوكيات الديناميكية.
ركزت عمليات النشر المبكرة للذكاء الاصطناعي إلى حد كبير على المساعدين (copilots) مع صلاحيات مقيّدة وقابلة للقراءة فقط، مع بقاء البشر مسؤولين عن التنفيذ. إن هذا النموذج يتغير. تقوم الشركات الآن بدمج أنظمة وكيلة (agentic) قادرة على اتخاذ إجراءات مستقلة عبر واجهات برمجة التطبيقات وبيئات السحابة وخطوط التطوير.
في مثل هذه الإعدادات، يمكن لوكيل ذكاء اصطناعي أن يقوم بتحليل رسالة بريد إلكتروني، وتوليد سكربت، ثم نشره على خادم دون تدخل بشري. يمكن أن تؤدي تعليمات خاطئة أو حقن في موجه الأوامر (prompt injection) إلى تغييرات غير مقصودة في قاعدة البيانات أو تعريض معلومات حساسة. تعالج الأداة الحزمة الجديدة هذه المخاطرة من خلال مراقبة الإجراءات أثناء حدوثها والتدخل في الوقت الفعلي بدلًا من الاعتماد على ضوابط مُعدّة مسبقًا.
إشراف لحظي على الإجراءات التي يقودها الوكيل
يركز النظام على كيفية تفاعل وكلاء الذكاء الاصطناعي مع الأدوات الخارجية. عندما يحتاج النموذج إلى تنفيذ إجراء يتجاوز معالجته الداخلية، مثل الاستعلام عن نظام مؤسسي، فإنه يولد أمرًا موجهًا إلى تلك الأداة.
تُدخل مايكروسوفت طبقة إنفاذ سياسات بين النموذج والشبكة المؤسسية. يتم اعتراض كل طلب صادر وتقييمه مقابل قواعد حوكمة محددة مسبقًا قبل تنفيذه. إذا انتهكت إحدى الإجراءات السياسة، على سبيل المثال عندما يحاول وكيل بدء عملية معاملة رغم تقييده بإمكانية الوصول للقراءة فقط، فسيتم حظر الطلب وتسجيله للمراجعة.
يؤدي هذا النهج إلى إنشاء مسار قابل للتدقيق لقرارات اتخاذ القرار مع إزالة الحاجة إلى أن يضمّن المطورون قيود الأمان داخل كل موجه أو سير عمل. تنتقل الحوكمة بعيدًا عن منطق التطبيق إلى ضوابط على مستوى البنية التحتية.
تعمل هذه المنظومة أيضًا كعازل للأنظمة القديمة، وكثير منها لم يُصمم للتعامل مع مدخلات تولدها الآلات بشكل غير متوقع. ومن خلال تصفية الطلبات والتحقق منها قبل وصولها إلى الأنظمة الأساسية، فإنها تحد من المخاطر الناتجة عن سلوك ذكاء اصطناعي تم اختراقه أو توجيهه بشكل خاطئ.
يرتبط قرار مايكروسوفت بإصدار الأداة الحزمة كمصدر مفتوح بممارسات التطوير الحالية. غالبًا ما تعتمد الفرق التي تبني سير عمل للذكاء الاصطناعي على مزيج من أدوات ونماذج من جهات خارجية. قد تتمكن حلول مملوكة من الالتفاف عليها لصالح بدائل أسرع. يتيح الإتاحة المفتوحة للضوابط أن تتكامل عبر بيئات متنوعة، بما في ذلك الأنظمة التي تستخدم نماذج من منافسين مثل Anthropic.
كما تفتح الباب أمام شركات الأمن السيبراني لبناء طبقات إضافية للمراقبة والاستجابة فوق المنظومة، بما يساعد على ترسيخ خط أساس مشترك لتأمين العمليات المدفوعة بالذكاء الاصطناعي.
إدخال الانضباط المالي في سير عمل الذكاء الاصطناعي
يُعد الأمن جزءًا واحدًا فقط من التحدي. كما تُدخل الوكلاء المستقلون مخاطر مالية وتشغيلية أيضًا، خصوصًا من خلال استخدام غير خاضع للرقابة لواجهات برمجة التطبيقات.
تعمل هذه الأنظمة في حلقات مستمرة، ما يؤدي إلى تكرار الاستدعاءات لخدمات خارجية. وبدون حدود، قد تؤدي حتى مهمة بسيطة إلى إطلاق آلاف الاستعلامات إلى قواعد بيانات أو واجهات برمجة تطبيقات مدفوعة، ما يرفع التكاليف بسرعة. وفي الحالات القصوى، قد تدخل الوكلاء التي تم تكوينها بشكل غير صحيح في دورات تكرارية تستهلك كميات كبيرة من موارد الحوسبة خلال وقت قصير.
تسمح الأداة الحزمة للمنظمات بتحديد حدود صارمة على استخدام الرموز وتكرار الطلبات. ومن خلال التحكم في مدى تكرار تمكن الوكيل من التصرف ضمن فترة زمنية محددة، تستطيع الشركات إدارة الإنفاق بشكل أفضل ومنع العمليات غير المنضبطة.
يدعم الإشراف على وقت التشغيل أيضًا متطلبات الامتثال من خلال توفير ضوابط قابلة للقياس وسجلات تدقيق واضحة. تتغير المسؤولية بعيدًا عن مقدمي النماذج وإلى الأنظمة التي تنفذ القرارات في بيئات العالم الحقيقي.
يتطلب طرح أطر حوكمة من هذا النوع تنسيقًا بين فرق الهندسة والقانون والأمن. ومع تولي أنظمة الذكاء الاصطناعي أدوارًا أكثر استقلالية، تصبح البنية التحتية التي تدير سلوكها مركزية لتحقيق نشر آمن.
مايكروسوفت توسّع دفع البنية التحتية للذكاء الاصطناعي في اليابان
تأتي هذه الإتاحة إلى جانب استمرار الاستثمار في البنية التحتية للذكاء الاصطناعي. وقد أوضحت مايكروسوفت مؤخرًا خططًا للالتزام بمبلغ 10 مليارات دولار في اليابان خلال السنوات الأربع القادمة، مع التركيز على مراكز البيانات وأنظمة الدعم.
جاء الإعلان عقب محادثات بين رئيس مايكروسوفت براد سميث ورئيسة الوزراء اليابانية ساناي تاكايتشي في طوكيو. وصف سميث الاستثمار بأنه “رد على الحاجة المتزايدة لدى اليابان إلى خدمات الحوسبة السحابية والذكاء الاصطناعي”.
تعمل الشركة مع SoftBank Group وSakura Internet لتوسيع البنية التحتية المحلية. يستند الالتزام الأحدث إلى خطة بقيمة 2.9 مليار دولار تم الإعلان عنها في 2024 بهدف تعزيز قدرات الذكاء الاصطناعي والمرونة في مجال الأمن السيبراني داخل البلاد.