العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
لاحظت اتجاهًا مثيرًا للاهتمام في ظل تزايد دمج الذكاء الاصطناعي في المجال الدفاعي. قام البنتاغون بتشديد الضغط على Anthropic، مطالبًا بالحصول على وصول كامل إلى نموذج Claude للاستخدام العسكري. وفقًا للتقارير، أعطى وزير الدفاع بيت هاجسيت الشركة إنذارًا نهائيًا - الموافقة على شروط البنتاغون قبل نهاية الأسبوع أو فقدان العقود العسكرية والتصنيف ضمن المخاطر على الإمداد.
ما الذي يطالب به البنتاغون تحديدًا؟ السيطرة الكاملة على التقنية، الاستخدام بدون قيود ( إلا التشريعية )، والاستعداد لتطبيق قانون التصنيع الدفاعي لإجبار الشركة على التعاون. في السياق العسكري، يبدو الأمر كضغط كلاسيكي من الدولة على شركة خاصة.
لكن ما هو المثير للاهتمام هو أن الرئيس التنفيذي لـ Anthropic، داريو أموداي، يصر على موقفه. الشركة تؤكد على وجود وسائل حماية، ولا تريد أن يُستخدم Claude للمراقبة الجماعية، وتطالب بوجود رقابة بشرية في القرارات النهائية بشأن استهداف الأهداف. أموداي قلق من أن النموذج قد يتوهّم، وأن غياب الإنسان في السلسلة قد يؤدي إلى أخطاء قاتلة. من المنطقي، بصراحة.
السياق أكثر إثارة للاهتمام. يتضح أن Claude قد تم استخدامه بالفعل من قبل القوات المسلحة الأمريكية - للمساعدة في العمليات، بما في ذلك ضرب الأهداف. وهذا ما أدى إلى تصعيد الوضع.
بينما يتفاوض Anthropic والبنتاغون، لا يجلس المنافسون مكتوفي الأيدي. البنتاغون يوسع بشكل نشط محفظة الحلول القائمة على الذكاء الاصطناعي في المجال العسكري. يدمج Grok من xAI في الأنظمة العسكرية، ووقع عقدًا بأكثر من 99 مليون دولار مع TurbineOne لحلول التعرف على التهديدات ( الطائرات بدون طيار، مواقع العدو )، وحتى صفقة بقيمة 200 مليون دولار مع OpenAI لتطوير نماذج ذكاء اصطناعي للأمن الوطني.
يبدو أن Anthropic في موقف صعب. من جهة، عقود ضخمة وتأثير في المجال العسكري. ومن جهة أخرى، مخاطر الضرر السمعة والأسئلة الأخلاقية. السؤال هو، من سينهزم في النهاية - الدولة أم الشركة التي لا تزال تعتبر نفسها داعمة للذكاء الاصطناعي المسؤول.