تم اتهام آلية الحظر في Anthropic بأنها "تقوم بالحظر بناءً على الكلمات المفتاحية"، واعترف مسؤول قسم كود Claude بأنها تسببت في إصابة غير مقصودة

robot
إنشاء الملخص قيد التقدم

رسالة من موقع Gate.io: في عطلة نهاية الأسبوع الماضية، قامت Anthropic بحظر استخدام أدوات طرف ثالث مثل OpenClaw بعد أن أفضت آلية كشف سوء الاستخدام لديها إلى إثارة جدل جديد، وذلك عقب استهلاك حصص اشتراك Claude. أثار أسلوب عمل آلية الكشف هذه نقاشًا جديدًا. قام مؤسس OpenClaw Peter Steinberger في 5 أبريل بإجراء تجربة على X: لم يستخدم OpenClaw بالفعل، بل أرسل طلبًا عاديًا باستخدام معامل -p في الأداة الخاصة بسطر الأوامر المدمجة من Claude (وهي واجهة أتمتة مدمجة تتيح للمطورين استدعاء Claude بكميات عبر السكربتات، دون الحاجة إلى إدخال الأوامر يدويًا واحدًا تلو الآخر). لم يكن الانتهاك الوحيد إلا أنه كتب في رسالة تعليمات النظام عبارة: A personal assistant running inside OpenClaw. ونتيجة لذلك، قام Claude باعتراض الطلب فورًا، وذكر أن التطبيقات التابعة لجهات خارجية يجب أن يتم خصم رسوم منها مقابل الاستخدام الإضافي. وبعبارة أخرى، لا يقوم نظام الكشف بتحديد الأداة التي استُخدمت فعليًا لاستدعاء Claude؛ بل يقوم بمسح محتوى رسالة تعليمات النظام، فإذا رأى «OpenClaw» فسيتم الحظر. قام الرئيس التنفيذي لشركة Y Combinator Garry Tan بإعادة نشر التغريدة متسائلًا: متى يمكن للحدود أن تتوقف عن التصعيد؟ هل تسمح Anthropic فقط للّذين هم بشرٌ حقيقيون بالضغط على زر الرجوع (Enter) حتى يُحتسب استخدام الاشتراك؟ وهل سيتعين لاحقًا استخدام FaceID للتحقق؟ ردّ Boris Cherny، المسؤول عن Claude Code، في 7 أبريل، قائلاً إن فريقه يعتقد أن نظام كشف سوء الاستخدام تم تشغيله بشكل مفرط، وأنهم يعملون حاليًا على فحص ذلك وإجراء الإصلاح، بالتوازي مع تحسين شروط استخدام معامل -p.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت