مايكروسوفت تطلق مجموعة أدوات تشغيل مفتوحة المصدر لتعزيز السيطرة على وكلاء الذكاء الاصطناعي المستقلين

قدّمت مايكروسوفت أداة حزمة مفتوحة المصدر جديدة تركز على أمن وقت التشغيل لفرض حوكمة أشد صرامة على وكلاء الذكاء الاصطناعي داخل المؤسسات.

الملخص

  • أطلقت مايكروسوفت أداة حزمة مفتوحة المصدر تركز على أمن وقت التشغيل لحوكمة وكلاء الذكاء الاصطناعي داخل المؤسسات.
  • يقوم النظام بمراقبة إجراءات الوكيل وحظرها في الوقت الفعلي، ما يعالج المخاطر الناشئة عن نماذج مستقلة تقوم بتنفيذ كود. وهو يدرج طبقة سياسات بين نماذج الذكاء الاصطناعي والأنظمة المؤسسية، مكوّنًا مسارات قرارات قابلة للتدقيق.
  • تساعد الأداة الحزمة أيضًا في التحكم في استخدام واجهات برمجة التطبيقات واستهلاك الرموز، ما يقلل مخاطر التشغيل والتكلفة.

تُبنى الأداة الحزمة على أمن وقت التشغيل، وهو ما يعالج المخاوف من أن نماذج اللغة الحديثة لم تعد مقيدة بعد الآن بأدوار استشارية فقط، بل تقوم فعليًا بتنفيذ كود والتفاعل مع الأنظمة الداخلية. إذ تكافح الإجراءات الوقائية التقليدية مثل فحوصات الكود الثابتة وعمليات المسح قبل النشر لمواكبة هذه السلوكيات الديناميكية.

ركزت عمليات النشر المبكرة للذكاء الاصطناعي إلى حد كبير على المساعدين (copilots) مع صلاحيات مقيّدة وقابلة للقراءة فقط، مع بقاء البشر مسؤولين عن التنفيذ. إن هذا النموذج يتغير. تقوم الشركات الآن بدمج أنظمة وكيلة (agentic) قادرة على اتخاذ إجراءات مستقلة عبر واجهات برمجة التطبيقات وبيئات السحابة وخطوط التطوير.

في مثل هذه الإعدادات، يمكن لوكيل ذكاء اصطناعي أن يقوم بتحليل رسالة بريد إلكتروني، وتوليد سكربت، ثم نشره على خادم دون تدخل بشري. يمكن أن تؤدي تعليمات خاطئة أو حقن في موجه الأوامر (prompt injection) إلى تغييرات غير مقصودة في قاعدة البيانات أو تعريض معلومات حساسة. تعالج الأداة الحزمة الجديدة هذه المخاطرة من خلال مراقبة الإجراءات أثناء حدوثها والتدخل في الوقت الفعلي بدلًا من الاعتماد على ضوابط مُعدّة مسبقًا.

إشراف لحظي على الإجراءات التي يقودها الوكيل

يركز النظام على كيفية تفاعل وكلاء الذكاء الاصطناعي مع الأدوات الخارجية. عندما يحتاج النموذج إلى تنفيذ إجراء يتجاوز معالجته الداخلية، مثل الاستعلام عن نظام مؤسسي، فإنه يولد أمرًا موجهًا إلى تلك الأداة.

تُدخل مايكروسوفت طبقة إنفاذ سياسات بين النموذج والشبكة المؤسسية. يتم اعتراض كل طلب صادر وتقييمه مقابل قواعد حوكمة محددة مسبقًا قبل تنفيذه. إذا انتهكت إحدى الإجراءات السياسة، على سبيل المثال عندما يحاول وكيل بدء عملية معاملة رغم تقييده بإمكانية الوصول للقراءة فقط، فسيتم حظر الطلب وتسجيله للمراجعة.

يؤدي هذا النهج إلى إنشاء مسار قابل للتدقيق لقرارات اتخاذ القرار مع إزالة الحاجة إلى أن يضمّن المطورون قيود الأمان داخل كل موجه أو سير عمل. تنتقل الحوكمة بعيدًا عن منطق التطبيق إلى ضوابط على مستوى البنية التحتية.

تعمل هذه المنظومة أيضًا كعازل للأنظمة القديمة، وكثير منها لم يُصمم للتعامل مع مدخلات تولدها الآلات بشكل غير متوقع. ومن خلال تصفية الطلبات والتحقق منها قبل وصولها إلى الأنظمة الأساسية، فإنها تحد من المخاطر الناتجة عن سلوك ذكاء اصطناعي تم اختراقه أو توجيهه بشكل خاطئ.

يرتبط قرار مايكروسوفت بإصدار الأداة الحزمة كمصدر مفتوح بممارسات التطوير الحالية. غالبًا ما تعتمد الفرق التي تبني سير عمل للذكاء الاصطناعي على مزيج من أدوات ونماذج من جهات خارجية. قد تتمكن حلول مملوكة من الالتفاف عليها لصالح بدائل أسرع. يتيح الإتاحة المفتوحة للضوابط أن تتكامل عبر بيئات متنوعة، بما في ذلك الأنظمة التي تستخدم نماذج من منافسين مثل Anthropic.

كما تفتح الباب أمام شركات الأمن السيبراني لبناء طبقات إضافية للمراقبة والاستجابة فوق المنظومة، بما يساعد على ترسيخ خط أساس مشترك لتأمين العمليات المدفوعة بالذكاء الاصطناعي.

إدخال الانضباط المالي في سير عمل الذكاء الاصطناعي

يُعد الأمن جزءًا واحدًا فقط من التحدي. كما تُدخل الوكلاء المستقلون مخاطر مالية وتشغيلية أيضًا، خصوصًا من خلال استخدام غير خاضع للرقابة لواجهات برمجة التطبيقات.

تعمل هذه الأنظمة في حلقات مستمرة، ما يؤدي إلى تكرار الاستدعاءات لخدمات خارجية. وبدون حدود، قد تؤدي حتى مهمة بسيطة إلى إطلاق آلاف الاستعلامات إلى قواعد بيانات أو واجهات برمجة تطبيقات مدفوعة، ما يرفع التكاليف بسرعة. وفي الحالات القصوى، قد تدخل الوكلاء التي تم تكوينها بشكل غير صحيح في دورات تكرارية تستهلك كميات كبيرة من موارد الحوسبة خلال وقت قصير.

تسمح الأداة الحزمة للمنظمات بتحديد حدود صارمة على استخدام الرموز وتكرار الطلبات. ومن خلال التحكم في مدى تكرار تمكن الوكيل من التصرف ضمن فترة زمنية محددة، تستطيع الشركات إدارة الإنفاق بشكل أفضل ومنع العمليات غير المنضبطة.

يدعم الإشراف على وقت التشغيل أيضًا متطلبات الامتثال من خلال توفير ضوابط قابلة للقياس وسجلات تدقيق واضحة. تتغير المسؤولية بعيدًا عن مقدمي النماذج وإلى الأنظمة التي تنفذ القرارات في بيئات العالم الحقيقي.

يتطلب طرح أطر حوكمة من هذا النوع تنسيقًا بين فرق الهندسة والقانون والأمن. ومع تولي أنظمة الذكاء الاصطناعي أدوارًا أكثر استقلالية، تصبح البنية التحتية التي تدير سلوكها مركزية لتحقيق نشر آمن.

مايكروسوفت توسّع دفع البنية التحتية للذكاء الاصطناعي في اليابان

تأتي هذه الإتاحة إلى جانب استمرار الاستثمار في البنية التحتية للذكاء الاصطناعي. وقد أوضحت مايكروسوفت مؤخرًا خططًا للالتزام بمبلغ 10 مليارات دولار في اليابان خلال السنوات الأربع القادمة، مع التركيز على مراكز البيانات وأنظمة الدعم.

جاء الإعلان عقب محادثات بين رئيس مايكروسوفت براد سميث ورئيسة الوزراء اليابانية ساناي تاكايتشي في طوكيو. وصف سميث الاستثمار بأنه “رد على الحاجة المتزايدة لدى اليابان إلى خدمات الحوسبة السحابية والذكاء الاصطناعي”.

تعمل الشركة مع SoftBank Group وSakura Internet لتوسيع البنية التحتية المحلية. يستند الالتزام الأحدث إلى خطة بقيمة 2.9 مليار دولار تم الإعلان عنها في 2024 بهدف تعزيز قدرات الذكاء الاصطناعي والمرونة في مجال الأمن السيبراني داخل البلاد.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت