العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
أنثروبيك تفوز بدعم المحكمة، وتمنع أمر حظر ترامب من استخدام أدوات الذكاء الاصطناعي الخاصة بها
تُحرِز المواجهة القانونية بين شركة Anthropic ووزارة الدفاع الأميركية تقدمًا أوليًا.
في 26 مارس/آذار، يوم الخميس، قضت قاضية فيدرالية في كاليفورنيا بأن الإجراءات التأديبية التي اتخذتها الحكومة الأميركية بحق شركة الذكاء الاصطناعي Anthropic يُحتمل أنها تجاوزت صلاحياتها، وأمرت بإيقاف مؤقت لتلك الإجراءات.
وافقت القاضية في محكمة المقاطعة، ريـتا ف. لين، على طلب Anthropic للحصول على أمر قضائي وقتي، طالبةً وقف الإجراءات التأديبية التي تستهدف الشركة من جانب الحكومة لمدة أسبوع، بينما ستواصل المحكمة النظر في القضية. وقالت القاضية:
وفي وقت سابق، جادلت Anthropic بأن وزارة الدفاع الأميركية وإدارة ترامب صنّفتها باعتبارها “خطرًا على سلسلة الإمداد” وأمرت الجهات الحكومية بإيقاف استخدام تقنيتها، وهو ما ينتهك حقوق الشركة في التعديل الأول.
محور الخلاف: قيود الاستخدام في المجال العسكري تثير التباين
تعود هذه المواجهة المستمرة منذ أشهر إلى رفض Anthropic السماح لوزارة الدفاع باستخدام نموذج Claude الخاص بها في أنظمة الأسلحة الفتّاكة ذاتية الحكم بالكامل أو في عمليات المراقبة الجماعية داخل الولايات المتحدة.
قدّمت Anthropic دعوى قضائية في وقت مبكر من هذا الشهر، وادّعت في شكواها أن تصنيف مخاطر سلسلة الإمداد وغيرها من الإجراءات التأديبية قد يسبب للشركة خسائر بمئات الملايين وحتى عشرات المليارات من الدولارات. وذكرت الشركة في شكواها:
في الوقت الراهن، سيستمر الأمر القضائي المؤقت لمدة أسبوع، انتظارًا لمزيد من النظر من قبل المحكمة.
لا تتعلق نتيجة هذه القضية فقط بالمصالح التجارية الخاصة بـ Anthropic، بل ستُحدث أيضًا أثرًا أوسع نطاقًا على حدود صلاحيات الحكومة في شراء خدمات الذكاء الاصطناعي، وكذلك ما إذا كانت شركات التكنولوجيا قادرة على وضع قيود على الاستخدام الأخلاقي في العقود.
إضافةً إلى ذلك، سيشكل هذا الحكم ضربة مباشرة لخطة الحكومة الرامية إلى استبدال Claude لدى الوكالات الفيدرالية. وبالنظر إلى أن تقنيات Anthropic متداخلة بعمق في عمليات الحكومة، فإن عملية الاستبدال كانت في الأصل شديدة الصعوبة.
كانت وزارة الدفاع الأميركية تستخدم Claude على نطاق واسع في العمليات العسكرية سابقًا، بما يشمل مهام مثل اختيار الأهداف وتحليل ضربات الصواريخ.
تشكيك من القاضية في منطق الحكومة، ومساءلة تصريحات وزير الدفاع
أظهرت القاضية لين في سياق جلسة الاستماع شكوكًا واضحة تجاه حجج الحكومة.
وقد سألت محامي الحكومة عما إذا كانت وزارة الدفاع قادرة على إنهاء العلاقة التعاقدية مباشرةً مع Anthropic، فلماذا اللجوء إلى آلية تصنيف مخاطر سلسلة الإمداد، وقالت بصراحة: “يبدو الأمر كأنه أسلوب لقمع متعمّد لـ Anthropic”.
وفيما يتعلق بمسألة وزير الدفاع، بيت هيغسِث، جادل محامي الحكومة بأن هيغسِث نشر على وسائل التواصل الاجتماعي أن أي مقاول لديه أعمال مع القوات المسلحة الأميركية لا يجوز له التعاون مع Anthropic، لكن هذا التصريح لا يملك قوة قانونية، وبالتالي لا يشكل ضررًا لا يمكن تداركه كما تدعي الشركة في شكواها.
وعندما واصلت لين سؤال محامي الحكومة عن سبب صدور تصريح من هيغسِث دون أي أساس قانوني يدعمه، قال إنه لا يمكنه الرد.
كما أشارت لين في الوقت نفسه إلى أن سلسلة الإجراءات التي اتخذتها الحكومة ضد Anthropic، تبدو وكأنها ليست نابعة من اعتبارٍ محدد للأمن القومي. وكتبت لين في نص حكمها: