العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
المحكمة الفيدرالية توقف حظر إدارة ترامب على الذكاء الاصطناعي أنثروبيك بسبب مخاوف تتعلق بالتعديل الأول
النقاط الرئيسية
فهرس المحتويات
تبديل
النقاط الرئيسية
المحكمة تراقب تبرير الحكومة
الحجج المقدمة من كل طرف
قاضية فيدرالية في سان فرانسيسكو منحت أمرًا ابتدائيًا بوقف حظر البنتاغون لنظام Claude AI الخاص بشركة Anthropic
القاضية ريتا لين وصفت إجراءات الحكومة بأنها “انتقام كلاسيكي غير قانوني بموجب التعديل الأول”
نشأ النزاع بعد أن رفضت Anthropic مطالب البنتاغون للسماح باستخدام Claude في الأسلحة الذاتية الفتاكة وعمليات المراقبة الجماعية
استحوذت Anthropic على 32% من حصة سوق الذكاء الاصطناعي المؤسسي في 2025، متجاوزة OpenAI التي تمتلك 25%
فترة التوقف لمدة سبعة أيام على الأمر تتيح للحكومة الفيدرالية الفرصة لتقديم استئناف
تدخلت محكمة فيدرالية لوقف إدارة ترامب من تنفيذ حظرها على استخدام الوكالات الحكومية لمنصة الذكاء الاصطناعي الخاصة بشركة Anthropic، مما أوقف مؤقتًا الإجراءات التي كانت تهدد بإلغاء مليارات من الإيرادات المحتملة للشركة.
منحت القاضية ريتا لين، التي تترأس في المنطقة الشمالية من كاليفورنيا، الأمر الابتدائي يوم الخميس. يشمل الأمر فترة تعليق لمدة سبعة أيام تتيح للسلطات الفيدرالية متابعة الاستئناف.
أصلت المعركة القانونية من اتفاق يوليو 2025 بين Anthropic ووزارة الدفاع. بموجب الترتيب المقترح، كان من المقرر أن يصبح Claude هو النظام الذكي الأول المصرح به للنشر على الشبكات الحكومية المصنفة.
بحلول فبراير 2026، انهارت المفاوضات. سعى مسؤولو البنتاغون لإعادة هيكلة الاتفاق، مُصرين على أن تسمح Anthropic بالنشر العسكري لـ Claude “لجميع الأغراض القانونية” دون قيود تشغيلية.
رفضت Anthropic هذه الشروط. حافظت قيادة الشركة على أن تقنيتها يجب ألا تدعم أنظمة الأسلحة الذاتية الفتاكة أو تمكّن المراقبة الجماعية الواسعة للمواطنين الأمريكيين.
بعد ذلك، صنفت وزارة الدفاع Anthropic كتهديد لسلسلة التوريد للأمن القومي. وردت Anthropic بتقديم دعوى في محكمة فيدرالية في واشنطن العاصمة في 9 مارس، متهمة وزير الدفاع بيت هيغسميث بتجاوز سلطته القانونية.
المحكمة تراقب تبرير الحكومة
عُقدت جلسة قضائية لمدة 90 دقيقة في سان فرانسيسكو في 24 مارس. ضغطت القاضية لين على محامي الحكومة بشأن ما إذا كانت Anthropic تواجه عقوبة بسبب تحديها العلني لمواقف البنتاغون.
خلال الإجراءات، أكد ممثل قانوني عن Anthropic أن مسؤولي البنتاغون يحتفظون بالسلطة لتقييم أي نظام ذكاء اصطناعي قبل النشر التشغيلي. تفتقر Anthropic إلى القدرة التقنية لتعطيل نموذج عن بُعد، أو تغيير وظائفه، أو مراقبة التطبيقات العسكرية.
الحجج المقدمة من كل طرف
ادعى محامي وزارة العدل أن Anthropic أضعفت الثقة خلال مناقشات العقد من خلال محاولة التأثير على سياسات البنتاغون التشغيلية. أعرب محامو الحكومة عن قلقهم بشأن “مخاطر التخريب المستقبلية” المحتملة من Anthropic.
رفضت القاضية لين هذا الادعاء. حكمت بأن وزارة العدل تفتقر إلى “أساس قانوني مشروع” لاستنتاج أن موقف Anthropic بشأن قيود الاستخدام يمكن أن يحول الشركة إلى تهديد أمني.
وفقًا لبيانات Menlo Ventures، كانت Anthropic تتحكم في 32% من سوق الذكاء الاصطناعي المؤسسي في 2025، متجاوزة الحصة البالغة 25% لـ OpenAI. كان الحظر الفيدرالي الشامل يهدد بشدة هذا القيادة في السوق.
معرف القضية هو Anthropic ضد وزارة الحرب الأمريكية، 26-cv-01996، المحكمة الفيدرالية، المنطقة الشمالية من كاليفورنيا.
✨ عرض محدود الوقت
احصل على 3 كتب إلكترونية مجانية عن الأسهم
اعلن هنا