هل قام قاضٍ بحظر تصنيف سلسلة التوريد الأنثروبي الخاصة بالبنتاغون؟

قام قاضٍ اتحادي بإيقاف مؤقت لنزاع بارز داخل سلسلة الإمداد لدى شركة Anthropic، ما يبرز تصاعد التوترات بين حكومة الولايات المتحدة وكبار مزودي الذكاء الاصطناعي.

قاضٍ يوقف مسعى البنتاغون لوضع Anthropic في قائمة الحظر

صباح الخميس، حجب قاضٍ اتحادي في كاليفورنيا مؤقتًا البنتاغون من وسم Anthropic على أنها تمثل خطرًا على سلسلة الإمداد، وأمر وكالات فيدرالية بوقف استخدام أنظمتها للذكاء الاصطناعي. ويُعدّ هذا القرار أحدث منعطف في خصومة مستمرة منذ شهر، ولا تزال القضية دون حل، إذ باتت الحكومة أمامها سبعة أيام للاستئناف.

علاوة على ذلك، تلاحق Anthropic قضية ثانية تطعن في نفس هذا الوصف على أساس نظرية قانونية مختلفة، لم يُحسم أمرها بعد. وحتى تنتهي تلك الإجراءات، تبقى الشركة عمليًا “غير مرغوب فيها” في أجزاء كبيرة من الحكومة الفيدرالية، رغم تدخل القاضي.

تصاعد نزاع تعاقدي إلى حرب ثقافة خاصة بالذكاء الاصطناعي

كانت المخاطر في القضية واضحة منذ البداية: إلى أي مدى يمكن للحكومة أن تمضي في معاقبة شركة ترفض “الاستجابة” بشأن قضايا سياسات حساسة. ومع ذلك، اجتذبت Anthropic تحالفًا واسعًا بشكل غير معتاد من داعمين كبار، بما في ذلك مؤلفون سابقون لسياسة الذكاء الاصطناعي لدى الرئيس دونالد ترامب، ممن نادرًا ما يقفون إلى جانب منصات وادي السيليكون.

لكن رأي القاضية رييتا لين، المؤلف من 43 صفحة، يشير إلى أن الإشكال الجوهري يتمثل في نزاع تعاقدي لم يكن ينبغي أن يتطور إلى حرب ثقافة أوسع. فقد وجدت القاضية أن الحكومة تجاوزت الإجراءات المعمول بها للتعامل مع مثل هذه النزاعات، ثم غذّت التوتر مع منشورات على وسائل التواصل الاجتماعي تناقض المواقف التي تم تبنيها لاحقًا في المحكمة.

وبشكل فعال، أشارت وزارة الدفاع إلى أنها تريد مواجهة سياسية تتراكب فوق الحرب الفعلية في إيران، والتي بدأت بعد ساعات فقط من بدء ظهور بعض المنشورات الرئيسية على العلن. وقد أثّرت هذه التشابكات بين الأجندات القانونية والسياسية والعسكرية بشكل كبير في تقييم المحكمة لسجل القضية.

استخدام Claude داخل البنتاغون وتزايد التوترات

وفقًا لملفات المحكمة، استخدمت الحكومة Claude التابع لـ Anthropic عبر عام 2025 دون إثارة شكاوى كبيرة. خلال تلك الفترة، حاولت الشركة الموازنة بين صورتها كجهة مطوّرة للذكاء الاصطناعي تركز على السلامة، وبين دورها كمقاول دفاعي، ساعية إلى السير على ما وصفه أحد الملفات بأنه “حبل توازن دعائي”.

اضطر موظفو الدفاع الذين حصلوا على Claude عبر Palantir إلى قبول سياسة استخدام خاصة بالحكومة. وفي إفادة مُثبتة تحت القسم، قال مؤسس Anthropic المشارك جاردد كابلان إن تلك السياسة “تحظر المراقبة الجماعية للأميركيين والحرب الذاتية الفتاكة”، رغم أنه لم يقدم النص الكامل للمحكمة. ولم تظهر خلافات جدية إلا عندما سعت وزارة الدفاع إلى التعاقد مباشرة مع Anthropic.

تغريدة أولًا ثم تبرير لاحقًا: تهديدات ترامب وHegseth العلنية

ما أثار غضب القاضية أكثر هو أنه بمجرد أن أصبحت الخصومة علنية، بدت تصرفات الحكومة أقرب إلى العقاب منها إلى قرار مجرد لقطع العلاقات. علاوة على ذلك، كانت هناك نمطية ثابتة: تغريدة أولًا، ومحامٍ لاحقًا.

في 27 فبراير، نشر الرئيس ترامب على Truth Social في إشارة إلى “متطرفي يسار متطرفين” في Anthropic وتوجيهه لكل وكالة اتحادية بوقف استخدام الذكاء الاصطناعي لديها. وبعد ذلك بوقت قصير، كرر وزير الدفاع بيت هيغستث هذا الموقف، قائلاً إنه سيوعز للبنتاغون بوسم الشركة على أنها تمثل خطرًا على سلسلة الإمداد.

يتطلب التصنيف رسميًا لشركة على أنها كذلك أن يتبع وزير الدفاع تسلسلًا محددًا من الخطوات القانونية المنصوص عليها في القانون. لكن القاضية لين خلصت إلى أن Hegseth لم يُكمل تلك الخطوات. فمثلًا، ادعت رسائل إلى لجان بالكونغرس أن تدابير أقل حدة قد تمت دراستها واعتُبرت مستحيلة، لكنها لم تقدم أي تفاصيل وقائعية لدعم هذا الادعاء.

كما جادلت الحكومة بأن وسم خطر سلسلة الإمداد ضروري لأن Anthropic يمكنها نشر “زر إيقاف” لتعطيل أنظمتها. غير أنه، ووفقًا للرأي، اعترف محاموها تحت الاستجواب بعدم وجود دليل على وجود مثل هذه القدرة. وقد أدى هذا التناقض إلى تقويض قضية وزارة الدفاع أكثر.

سلطة قانونية مقابل رسائل سياسية

ادعى منشور هيغستث على وسائل التواصل الاجتماعي أن “لا يجوز لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأميركي أن يمارس أي نشاطًا تجاريًا مع Anthropic.” ثم اعترف محامو الحكومة أنفسهم لاحقًا يوم الثلاثاء بأن الوزير لا يملك فعليًا الصلاحية لإصدار حظر شامل بهذا الاتساع.

واتفق القاضي ومحامو وزارة العدل على أن حظر هيغستث الشامل “لا أثر قانوني له على الإطلاق”. ومع ذلك، دفعت اللهجة العدوانية لهذه المنشورات القاضية لين إلى الاستنتاج بأن لدى Anthropic شكوى جديرة بالتصديق بموجب التعديل الأول. وقد خلصت المحكمة إلى أن المسؤولين كانوا قد شرعوا عمليًا في معاقبة الشركة علنًا بسبب “أيديولوجيتها” و”خطابها”، فضلاً عن “غرورها” — كما وصفته — في رفض تقديم تنازلات.

وكتبت القاضية إنه إذا وُسمت Anthropic على أنها تمثل خطرًا على سلسلة الإمداد، فسيكون ذلك بمثابة وسمها على أنها “مُتآمرة/مُخرِّبة” لحكومة الولايات المتحدة. وقد وجدت أن الأدلة غير كافية لدعم مثل هذه التهمة، وبناءً على ذلك أصدرت أمرًا يوم الخميس الماضي يوقف هذا التصنيف، ويمنع البنتاغون من تنفيذه، ويحظر على الحكومة تنفيذ الوعود الشاملة التي قدمها كل من هيغستث وترامب.

حكم “مدمّر” ودعوى قضائية ثانية في دي سي

قال دين بول، الذي ساعد في صياغة سياسة الذكاء الاصطناعي في إدارة ترامب لكنه قدم ملخصًا داعمًا لـ Anthropic، إن الحكم كان “حكمًا مدمرًا بالنسبة للحكومة”. وأضاف أن المحكمة وجدت أن Anthropic يُرجّح أن تفوز تقريبًا في جميع نظرياتها التي تقول إن إجراءات الحكومة كانت غير قانونية وغير دستورية.

من المتوقع على نطاق واسع أن تستأنف الإدارة قرار كاليفورنيا. وفي الوقت نفسه، تدفع Anthropic بدعوى منفصلة في واشنطن العاصمة (DC) تطرح مزاعم مماثلة لكنها تستشهد بجزء مختلف من القانون الذي يحكم مخاطر سلسلة الإمداد. ويمكن لهذه القضايا مجتمعة أن تحدد إلى أي مدى قد يذهب المسؤولون الفيدراليون في الانتقام من مزودي الذكاء الاصطناعي الذين لا تعجبهم آراؤهم.

نمط من الخطاب العلني والتبرير القانوني اللاحق

توضح وثائق المحكمة نمطًا ثابتًا تتمثل في أن التصريحات العامة الصادرة عن كبار المسؤولين والرئيس لم تتطابق مع ما يتطلبه القانون في نزاع تعاقدي. علاوة على ذلك، اضطر محامو الحكومة مرارًا إلى بناء تبريرات قانونية بعد وقوع هجمات على الشركة عبر وسائل التواصل الاجتماعي.

عرف قادة البنتاغون والبيت الأبيض أن المضي في الخيار الأكثر تطرفًا سيؤدي حتمًا إلى نشوب تقاضي. وقد تعهدت Anthropic علنًا في 27 فبراير بالطعن في أي وسم لخطر سلسلة الإمداد، قبل أيام من أن تقدم الحكومة رسميًا هذا التصنيف في 3 مارس. ويُظهر هذا التوقيت أنه حتى مع اندلاع حرب إيران، اختارت القيادة العليا المضي قدمًا.

خلال أول خمسة أيام من الصراع، كان المسؤولون يراقبون الضربات العسكرية ويجمعون أدلة لتقديم Anthropic بوصفها مُتآمرة/مُخرِّبة. ومع ذلك، لاحظت القاضية أن البنتاغون كان بإمكانه ببساطة إنهاء عمله مع الشركة عبر خطوات شراء أقل دراماتيكية وبكثير من النمطية.

نتائج على Anthropic وعلى قطاع الذكاء الاصطناعي الأوسع

حتى إذا فازت Anthropic في نهاية المطاف في كلتا القضيتين، فإن القرار يوضح أن واشنطن ما زالت تملك طرقًا غير رسمية لإبعاد الشركة عن العمل الحكومي في المستقبل. فمقاولو الدفاع الذين يعتمدون على البنتاغون للحصول على الإيرادات لديهم الآن حافز ضعيف للشراكة مع Anthropic، حتى لو لم تُدرج رسميًا أبدًا على أنها تمثل خطرًا على سلسلة الإمداد.

قالت تشارلي بولوك، الزميلة البحثية لدى معهد القانون والذكاء الاصطناعي: “أعتقد أنه من الآمن القول إن هناك آليات يمكن للحكومة استخدامها لتطبيق درجة من الضغط دون كسر القانون.” ومع ذلك، شددت على أن الكثير يعتمد على مدى استثمار الإدارة في معاقبة Anthropic بسبب هذا النزاع.

ومن الأدلة حتى الآن، تخصص الإدارة وقتًا واهتمامًا على مستوى عالٍ للفوز بما يكاد يكون حرب ثقافة للذكاء الاصطناعي. وفي الوقت نفسه، يبدو أن Claude محورية بما يكفي لعمليات البنتاغون لدرجة أن الرئيس ترامب نفسه قال إن وزارة الدفاع بحاجة إلى ستة أشهر لمرحلة التخلص منه. وهذا التناقض يقوض السرد بأن وسم مخاطر سلسلة الإمداد لدى Anthropic كان متعلقًا بالأمن فقط.

حدود نفوذ الحكومة على مزودي الذكاء الاصطناعي

تسلط القضية أيضًا الضوء على مساعي البيت الأبيض لطلب الولاء السياسي والتوافق الأيديولوجي من شركات الذكاء الاصطناعي الرائدة. ومع ذلك، تكشف الخصومة مع Anthropic عن حدود هذا النفوذ، على الأقل عندما تصطدم التهديدات العلنية بقواعد المشتريات المنصوص عليها في القانون وبالحمايات الدستورية.

علاوة على ذلك، يرسل النزاع إشارة واضحة إلى مزودي الذكاء الاصطناعي الآخرين الذين يبنون أدوات لوكالات الأمن القومي. قد لا تصمد البلاغات العامة العدوانية أمام التدقيق القضائي إذا لم تكن مدعومة بالأدلة وبإجراءات رسمية. وتبدو المحاكم مستعدة لإدارة هذا الخط عن كثب مع ازدياد تكامل الذكاء الاصطناعي في عمليات الدفاع الأميركية.

وحتى الآن، تظل Anthropic في وضع محفوف بالمخاطر: من الناحية القانونية، مدعومة بحكم مبكر قوي، لكن من الناحية التجارية، معرضة للخطر بسبب إدراج هادئ في القوائم السوداء عبر منظومة الدفاع. وستحدد نتيجة دعاواها المتوازية ليس مستقبلها وحده فحسب، بل كذلك ملامح قوة الحكومة في عصر الذكاء الاصطناعي.

إذا كان لديك معلومات عن استخدام الجيش للذكاء الاصطناعي، يمكنك مشاركتها بشكل آمن عبر Signal (username jamesodonnell.22).

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.27Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.37Kعدد الحائزين:2
    1.04%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • تثبيت