اختارت وزارة الدفاع الأمريكية 7 شركات للمشاركة في شراء الذكاء الاصطناعي السري… بما في ذلك OpenAI و Google، وتم استبعاد Anthropic.

robot
إنشاء الملخص قيد التقدم

أعلنت وزارة الدفاع الأمريكية عن قائمة الشركات السبع التي وقعت عقود شراء الذكاء الاصطناعي (AI). تشمل أمازون ويب سيرفيسز، جوجل، مايكروسوفت، إنفيديا، OpenAI، SpaceX، بالإضافة إلى شركة Reflection AI الناشئة والأقل شهرة، واستُبعدت شركة Anthropic.

تهدف هذه العقود إلى توسيع نطاق الخدمات المقدمة عبر بوابة الذكاء الاصطناعي الداخلية لوزارة الدفاع “GenAI.mil”. وفقًا لتقارير وسائل الإعلام الأجنبية، منذ إطلاقها العام الماضي، استخدمها أكثر من 1.3 مليون من موظفي وزارة الدفاع، وتم بناء مئات الآلاف من وكلاء الذكاء الاصطناعي. تركز الوزارة على تقليل العمل على دمج البيانات وتسريع عمليات اتخاذ القرار.

بيئة عالية المستوى لمعالجة المعلومات السرية

تشمل المنتجات الذكاء الاصطناعي في العقود الجديدة تطبيقات في بيئات “تأثير المستوى 6” و"تأثير المستوى 7". وهو مستوى أنظمة وزارة الدفاع التي يمكنها تخزين معلومات سرية، ويعادل في الواقع أعلى متطلبات الأمان. على الرغم من عدم الكشف عن المنتجات المحددة، إلا أن عملية الشراء هذه تتجاوز مرحلة التجربة البحتة، وتدخل في مستوى “تشغيل الذكاء الاصطناعي السري”.

كما أن الأصول التي قد تقدمها الشركات تثير اهتمامًا كبيرًا. على الرغم من أن إنفيديا معروفة بصناعة وحدات معالجة الرسوميات، إلا أنها تمتلك أدوات تطوير الشبكات العصبية ونماذج اللغة الكبيرة مفتوحة المصدر. خاصةً نماذجها المبنية على بنية “Mamba-Transformer” التي تقلل من استهلاك الذاكرة، ويُعتقد أن لها إمكانية التطبيق في مجالات الدفاع والبيئات ذات الحسابات المحدودة.

SpaceX وReflection AI أيضًا محط اهتمام… واستبعاد Anthropic

اختيار SpaceX لافت أيضًا. هذا العام، من خلال دمجها مع شركة xAI Holdings، حصلت على سلسلة نماذج اللغة “Grok”، مما يعزز حضورها كمورد للذكاء الاصطناعي. بالإضافة إلى ذلك، قد توسع مجموعة النماذج المخصصة للبرمجة، ويُعتقد أن ذلك قد يسرع من تحولها من شركة فضاء إلى مورد للذكاء الاصطناعي الدفاعي.

Reflection AI هو الاسم الأكثر غموضًا في القائمة. تأسست هذه الشركة الناشئة، التي أسسها باحثون من Google DeepMind في عام 2024، ولم تطلق بعد منتجات تجارية، لكنها حصلت على تمويل بقيمة 2 مليار دولار العام الماضي، أي حوالي 2.95 تريليون وون كوري. ذكرت وسائل الإعلام الأمريكية أن الشركة تستعد لإطلاق نموذج لغة مدرب على مئات التريليونات من الرموز.

وفي المقابل، فإن استبعاد Anthropic كان متوقعًا إلى حد كبير. في فبراير من هذا العام، عين وزير الدفاع بيتر هجزس شركة Anthropic كهدف لـ"مخاطر سلسلة التوريد"، وتم تفعيل هذا الإجراء في مارس. بناءً عليه، مُنعت وزارة الدفاع من استخدام نموذج “Claude”، وتقييد وصول الشركات الدفاعية إليه.

خلفية حظر استخدام Claude — تعارض مع بند “جميع الأغراض القانونية”

جوهر النزاع يكمن في شروط العقد. قال الوزير هجزس إن العقوبة جاءت لأن Anthropic لم تقبل متطلبات وزارة الدفاع باستخدام “جميع الأغراض القانونية”. وقلقًا من أن هذا التعبير قد يترك مجالًا لاستخدام نماذج الذكاء الاصطناعي في المراقبة الجماعية أو تطوير الأسلحة الذاتية، رفعت الشركة دعوى في مارس ضد تصنيفها كمخاطر سلسلة التوريد.

لكن الأمور ليست بهذه البساطة. وفقًا لتقارير وسائل الإعلام الأجنبية، على الرغم من الحظر، لا تزال وزارة الدفاع تستخدم على ما يبدو “Claude Mitos Preview” الخاص بـAnthropic. على الرغم من أن النموذج قد تم اعتماده من قبل بعض الوكالات الفيدرالية الأخرى، إلا أنه لم يُعلن عنه للجمهور، وذلك بسبب قدرته الممتازة على اكتشاف الثغرات الأمنية غير المعروفة “Zero-day”.

عقود شراء الذكاء الاصطناعي من وزارة الدفاع الأمريكية ليست مجرد استيراد تقني، بل تُفهم أيضًا كإشارة تُظهر أي الشركات يمكن أن تُوثق بها في منظومة الأمن القومي. كما أن حالة Anthropic تظهر أن الأداء وحده لا يكفي لدخول سوق الدفاع، وأن شروط العقود وسياسات القبول أصبحت متغيرات أساسية في سلسلة إمداد الذكاء الاصطناعي.

ملاحظات حول استخدام TokenPost.ai تم تلخيص المقال باستخدام نموذج اللغة الأساسي. قد يكون هناك نقص في المحتوى الرئيسي أو عدم تطابق مع الحقائق.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت