توسع صلاحيات اتخاذ القرارات الذاتية للذكاء الاصطناعي، Anthropic تقدم الوضع التلقائي لـ Claude Code

robot
إنشاء الملخص قيد التقدم

أنثروبيك يمنح أدوات برمجته الذكية مزيدًا من الاستقلالية، مع سعيه لتحقيق توازن بين الكفاءة والأمان.

في 24 مارس، أعلنت أنثروبيك عن إطلاق “الوضع التلقائي” (auto mode) لClaude Code، السماح للذكاء الاصطناعي بتحديد العمليات التي يمكن تنفيذها مباشرة دون انتظار موافقة المستخدم واحدة تلو الأخرى.

هذه الميزة متاحة حاليًا بنسخة معاينة بحثية لمستخدمي خطط الفرق، ومن المتوقع أن تتوسع خلال الأيام القادمة لتشمل النسخة المؤسسية وواجهة برمجة التطبيقات (API).

الوظيفة الجديدة تعتمد على آلية أمان مدمجة، حيث يتم مراجعة كل عملية قبل تنفيذها بواسطة طبقة أمان الذكاء الاصطناعي، التي تسمح تلقائيًا بتنفيذ العمليات التي تُعتبر آمنة، وتمنع السلوكيات ذات المخاطر.

تقول أنثروبيك إن هذه الطبقة الأمنية يمكنها أيضًا اكتشاف هجمات حقن التعليمات، حيث يتم إخفاء أوامر خبيثة داخل المحتوى الذي يعالجه النموذج، بهدف توجيه النموذج لتنفيذ عمليات غير متوقعة.

نصحت الشركة المستخدمين باستخدام هذه الميزة في بيئة معزولة (sandbox) لمنع انتشار المخاطر المحتملة إلى أنظمة الإنتاج.

تطوير المنتجات استنادًا إلى ألم المطورين

بالنسبة للمطورين الذين يستخدمون أدوات برمجة الذكاء الاصطناعي حاليًا، فإن مشكلة شائعة هي إما مراقبة كل خطوة يخطوها النموذج، أو تركه يعمل بشكل مستقل مع تحمل مخاطر غير متوقعة.

الوضع التلقائي من أنثروبيك هو في جوهره ترقية لميزة “عدم طلب تأكيد المستخدم مجددًا” (dangerously-skip-permissions) الموجودة في Claude Code.

كانت هذه الميزة تمنح القرار النهائي للذكاء الاصطناعي، أما الوضع الجديد فيضيف طبقة من الفلترة الأمنية على ذلك.

من خلال السماح للذكاء الاصطناعي، بدلاً من المستخدم، بتحديد متى يحتاج إلى طلب إذن، تحاول أنثروبيك توفير مستوى أعلى من الأمان للمطورين دون التضحية بكفاءة التنفيذ.

شركة GitHub وOpenAI وغيرها أطلقت أدوات برمجة ذاتية يمكنها أداء مهام بدلاً من المطورين، وتخطو أنثروبيك خطوة إضافية في هذا الاتجاه، من خلال نقل سلطة اتخاذ القرارات المتعلقة بالأذونات من المستخدم إلى الذكاء الاصطناعي نفسه.

إطلاق الوضع التلقائي يأتي بعد سلسلة من تحديثات المنتجات الأخيرة، بما في ذلك Claude Code Review الذي يلتقط العيوب تلقائيًا قبل دمج الكود، وDispatch for Cowork الذي يتيح للمستخدمين تفويض المهام لوكيل الذكاء الاصطناعي.

هذه السلسلة من المبادرات تظهر أن أنثروبيك تبني بشكل منهجي مجموعة منتجات لعمليات تطوير ذاتية تعتمد على الذكاء الاصطناعي موجهة للمؤسسات.

تفاصيل مهمة لا تزال غير واضحة

على الرغم من ذلك، لا تزال هناك بعض النقاط غير المؤكدة التي تستحق الانتباه.

لم تكشف أنثروبيك بعد عن المعايير الدقيقة التي تعتمدها طبقة الأمان في تقييم مخاطر العمليات، وهو الأمر الذي يحتاجه المطورون بشكل أساسي قبل اعتماد هذه الميزة على نطاق واسع.

بالإضافة إلى ذلك، فإن الوضع التلقائي يدعم حاليًا نموذجين فقط هما Claude Sonnet 4.6 وOpus 4.6، ولا يزال في مرحلة المعاينة البحثية، مما يعني أن المنتج لم يُصغ بشكل نهائي بعد.

بالنسبة للشركات التي تفكر في نشر هذه الميزة في بيئة الإنتاج، قد تكون القيود وعدم وضوح المعلومات من العوامل التي تؤثر على قرارها الحذر.

تحذيرات المخاطر وشروط الإعفاء من المسؤولية

        السوق محفوف بالمخاطر، ويجب الحذر عند الاستثمار. لا يُعد هذا المقال نصيحة استثمارية شخصية، ولم يأخذ في الاعتبار الأهداف المالية أو الظروف الخاصة لكل مستخدم. يجب على المستخدمين تقييم مدى توافق الآراء والوجهات النظر الواردة مع ظروفهم الخاصة. يتحمل المستخدمون مسؤولية استثماراتهم.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.01%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت