أنثروبيك تفوز بدعم المحكمة، وتمنع أمر حظر ترامب من استخدام أدوات الذكاء الاصطناعي الخاصة بها

robot
إنشاء الملخص قيد التقدم

تُحرِز المواجهة القانونية بين شركة Anthropic ووزارة الدفاع الأميركية تقدمًا أوليًا.

في 26 مارس/آذار، يوم الخميس، قضت قاضية فيدرالية في كاليفورنيا بأن الإجراءات التأديبية التي اتخذتها الحكومة الأميركية بحق شركة الذكاء الاصطناعي Anthropic يُحتمل أنها تجاوزت صلاحياتها، وأمرت بإيقاف مؤقت لتلك الإجراءات.

وافقت القاضية في محكمة المقاطعة، ريـتا ف. لين، على طلب Anthropic للحصول على أمر قضائي وقتي، طالبةً وقف الإجراءات التأديبية التي تستهدف الشركة من جانب الحكومة لمدة أسبوع، بينما ستواصل المحكمة النظر في القضية. وقالت القاضية:

إن أمر ترامب القضائي مقلق، ويبدو كأنه محاولة لتقويض Anthropic.

وفي وقت سابق، جادلت Anthropic بأن وزارة الدفاع الأميركية وإدارة ترامب صنّفتها باعتبارها “خطرًا على سلسلة الإمداد” وأمرت الجهات الحكومية بإيقاف استخدام تقنيتها، وهو ما ينتهك حقوق الشركة في التعديل الأول.

محور الخلاف: قيود الاستخدام في المجال العسكري تثير التباين

تعود هذه المواجهة المستمرة منذ أشهر إلى رفض Anthropic السماح لوزارة الدفاع باستخدام نموذج Claude الخاص بها في أنظمة الأسلحة الفتّاكة ذاتية الحكم بالكامل أو في عمليات المراقبة الجماعية داخل الولايات المتحدة.

قدّمت Anthropic دعوى قضائية في وقت مبكر من هذا الشهر، وادّعت في شكواها أن تصنيف مخاطر سلسلة الإمداد وغيرها من الإجراءات التأديبية قد يسبب للشركة خسائر بمئات الملايين وحتى عشرات المليارات من الدولارات. وذكرت الشركة في شكواها:

إن هذه الإجراءات غير مسبوقة وتنتهك القانون. الدستور لا يسمح للحكومة باستخدام سلطتها القوية لمعاقبة شركة فقط لأنها تمارس حرية التعبير المكفولة.

في الوقت الراهن، سيستمر الأمر القضائي المؤقت لمدة أسبوع، انتظارًا لمزيد من النظر من قبل المحكمة.

لا تتعلق نتيجة هذه القضية فقط بالمصالح التجارية الخاصة بـ Anthropic، بل ستُحدث أيضًا أثرًا أوسع نطاقًا على حدود صلاحيات الحكومة في شراء خدمات الذكاء الاصطناعي، وكذلك ما إذا كانت شركات التكنولوجيا قادرة على وضع قيود على الاستخدام الأخلاقي في العقود.

إضافةً إلى ذلك، سيشكل هذا الحكم ضربة مباشرة لخطة الحكومة الرامية إلى استبدال Claude لدى الوكالات الفيدرالية. وبالنظر إلى أن تقنيات Anthropic متداخلة بعمق في عمليات الحكومة، فإن عملية الاستبدال كانت في الأصل شديدة الصعوبة.

كانت وزارة الدفاع الأميركية تستخدم Claude على نطاق واسع في العمليات العسكرية سابقًا، بما يشمل مهام مثل اختيار الأهداف وتحليل ضربات الصواريخ.

تشكيك من القاضية في منطق الحكومة، ومساءلة تصريحات وزير الدفاع

أظهرت القاضية لين في سياق جلسة الاستماع شكوكًا واضحة تجاه حجج الحكومة.

وقد سألت محامي الحكومة عما إذا كانت وزارة الدفاع قادرة على إنهاء العلاقة التعاقدية مباشرةً مع Anthropic، فلماذا اللجوء إلى آلية تصنيف مخاطر سلسلة الإمداد، وقالت بصراحة: “يبدو الأمر كأنه أسلوب لقمع متعمّد لـ Anthropic”.

وفيما يتعلق بمسألة وزير الدفاع، بيت هيغسِث، جادل محامي الحكومة بأن هيغسِث نشر على وسائل التواصل الاجتماعي أن أي مقاول لديه أعمال مع القوات المسلحة الأميركية لا يجوز له التعاون مع Anthropic، لكن هذا التصريح لا يملك قوة قانونية، وبالتالي لا يشكل ضررًا لا يمكن تداركه كما تدعي الشركة في شكواها.

وعندما واصلت لين سؤال محامي الحكومة عن سبب صدور تصريح من هيغسِث دون أي أساس قانوني يدعمه، قال إنه لا يمكنه الرد.

كما أشارت لين في الوقت نفسه إلى أن سلسلة الإجراءات التي اتخذتها الحكومة ضد Anthropic، تبدو وكأنها ليست نابعة من اعتبارٍ محدد للأمن القومي. وكتبت لين في نص حكمها:

ليس لدى وزارة الدفاع الأميركية أساس غير مبرر، ومن مجرد أن تلتزم Anthropic بشكل صريح بقيود الاستخدام، استنتجت أنها قد تكون مفسدة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.3Kعدد الحائزين:2
    0.16%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • تثبيت