العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
توسع صلاحيات اتخاذ القرارات الذاتية للذكاء الاصطناعي، Anthropic تقدم الوضع التلقائي لـ Claude Code
أنثروبيك يمنح أدوات برمجته الذكية مزيدًا من الاستقلالية، مع سعيه لتحقيق توازن بين الكفاءة والأمان.
في 24 مارس، أعلنت أنثروبيك عن إطلاق “الوضع التلقائي” (auto mode) لClaude Code، السماح للذكاء الاصطناعي بتحديد العمليات التي يمكن تنفيذها مباشرة دون انتظار موافقة المستخدم واحدة تلو الأخرى.
هذه الميزة متاحة حاليًا بنسخة معاينة بحثية لمستخدمي خطط الفرق، ومن المتوقع أن تتوسع خلال الأيام القادمة لتشمل النسخة المؤسسية وواجهة برمجة التطبيقات (API).
الوظيفة الجديدة تعتمد على آلية أمان مدمجة، حيث يتم مراجعة كل عملية قبل تنفيذها بواسطة طبقة أمان الذكاء الاصطناعي، التي تسمح تلقائيًا بتنفيذ العمليات التي تُعتبر آمنة، وتمنع السلوكيات ذات المخاطر.
تقول أنثروبيك إن هذه الطبقة الأمنية يمكنها أيضًا اكتشاف هجمات حقن التعليمات، حيث يتم إخفاء أوامر خبيثة داخل المحتوى الذي يعالجه النموذج، بهدف توجيه النموذج لتنفيذ عمليات غير متوقعة.
نصحت الشركة المستخدمين باستخدام هذه الميزة في بيئة معزولة (sandbox) لمنع انتشار المخاطر المحتملة إلى أنظمة الإنتاج.
تطوير المنتجات استنادًا إلى ألم المطورين
بالنسبة للمطورين الذين يستخدمون أدوات برمجة الذكاء الاصطناعي حاليًا، فإن مشكلة شائعة هي إما مراقبة كل خطوة يخطوها النموذج، أو تركه يعمل بشكل مستقل مع تحمل مخاطر غير متوقعة.
الوضع التلقائي من أنثروبيك هو في جوهره ترقية لميزة “عدم طلب تأكيد المستخدم مجددًا” (dangerously-skip-permissions) الموجودة في Claude Code.
كانت هذه الميزة تمنح القرار النهائي للذكاء الاصطناعي، أما الوضع الجديد فيضيف طبقة من الفلترة الأمنية على ذلك.
من خلال السماح للذكاء الاصطناعي، بدلاً من المستخدم، بتحديد متى يحتاج إلى طلب إذن، تحاول أنثروبيك توفير مستوى أعلى من الأمان للمطورين دون التضحية بكفاءة التنفيذ.
شركة GitHub وOpenAI وغيرها أطلقت أدوات برمجة ذاتية يمكنها أداء مهام بدلاً من المطورين، وتخطو أنثروبيك خطوة إضافية في هذا الاتجاه، من خلال نقل سلطة اتخاذ القرارات المتعلقة بالأذونات من المستخدم إلى الذكاء الاصطناعي نفسه.
إطلاق الوضع التلقائي يأتي بعد سلسلة من تحديثات المنتجات الأخيرة، بما في ذلك Claude Code Review الذي يلتقط العيوب تلقائيًا قبل دمج الكود، وDispatch for Cowork الذي يتيح للمستخدمين تفويض المهام لوكيل الذكاء الاصطناعي.
هذه السلسلة من المبادرات تظهر أن أنثروبيك تبني بشكل منهجي مجموعة منتجات لعمليات تطوير ذاتية تعتمد على الذكاء الاصطناعي موجهة للمؤسسات.
تفاصيل مهمة لا تزال غير واضحة
على الرغم من ذلك، لا تزال هناك بعض النقاط غير المؤكدة التي تستحق الانتباه.
لم تكشف أنثروبيك بعد عن المعايير الدقيقة التي تعتمدها طبقة الأمان في تقييم مخاطر العمليات، وهو الأمر الذي يحتاجه المطورون بشكل أساسي قبل اعتماد هذه الميزة على نطاق واسع.
بالإضافة إلى ذلك، فإن الوضع التلقائي يدعم حاليًا نموذجين فقط هما Claude Sonnet 4.6 وOpus 4.6، ولا يزال في مرحلة المعاينة البحثية، مما يعني أن المنتج لم يُصغ بشكل نهائي بعد.
بالنسبة للشركات التي تفكر في نشر هذه الميزة في بيئة الإنتاج، قد تكون القيود وعدم وضوح المعلومات من العوامل التي تؤثر على قرارها الحذر.
تحذيرات المخاطر وشروط الإعفاء من المسؤولية