أنثروبيك، أوبن إيه آي تخفف من لغة السلامة مع تسارع سباق الذكاء الاصطناعي

أنثروبيك، أوبن أيه آي تتراجع عن لغة السلامة مع تسارع سباق الذكاء الاصطناعي

جيسون نيلسون

الخميس، 26 فبراير 2026 الساعة 10:41 صباحًا بتوقيت غرينتش +9 4 دقائق قراءة

في هذه المقالة:

غوغل

+0.68%

أفادت تقارير بأن أنثروبيك قد ألغت تعهد سلامة مركزي من سياستها الخاصة بالتوسع المسؤول، وفقًا لتقرير نشرته TIME. تُخفف التغييرات الالتزام الذي منع مطور ذكاء كلود من تدريب أنظمة ذكاء اصطناعي متقدمة دون وجود ضمانات كافية.

يُعيد هذا التحرك تشكيل كيفية وضع الشركة نفسها في سباق الذكاء الاصطناعي ضد المنافسين أوبن أيه آي وغوغل وxAI. لطالما قدمت أنثروبيك نفسها كواحدة من أكثر المختبرات تركيزًا على السلامة في الصناعة، ولكن بموجب السياسة المعدلة، لم تعد أنثروبيك تعد بوقف التدريب إذا لم تكن تدابير المخاطر موجودة بالكامل.

قال جاريد كابلان، كبير مسؤولي العلوم في أنثروبيك، لـ TIME: “شعرنا أنه لن يساعد أي شخص أن نتوقف عن تدريب نماذج الذكاء الاصطناعي.” “لم نشعر حقًا، مع التقدم السريع في الذكاء الاصطناعي، أنه من المنطقي أن نقدم التزامات أحادية الجانب … إذا كان المنافسون يتقدمون بسرعة.”

يأتي هذا التغيير في الوقت الذي تجد فيه أنثروبيك نفسها متورطة في نزاع علني مع وزير الدفاع الأمريكي بيت هيغسث بسبب رفضها منح البنتاغون الوصول الكامل إلى كلود، مما يجعلها المختبر الرئيسي الوحيد للذكاء الاصطناعي بين غوغل وxAI وميتا وأوبن أيه آي الذي يتبنى هذا الموقف.

قال إدوارد غايست، باحث سياسة أول في مؤسسة RAND، إن الإطار السابق “لأمان الذكاء الاصطناعي” نشأ من مجتمع فكري معين سبق نماذج اللغة الكبيرة الحالية.

قال غايست لـ Decrypt: “قبل بضع سنوات، كان هناك مجال أمان الذكاء الاصطناعي.” “كان أمان الذكاء الاصطناعي مرتبطًا بمجموعة معينة من الآراء التي خرجت من مجتمع الأشخاص الذين يهتمون بالذكاء الاصطناعي القوي قبل أن نحصل على هذه النماذج اللغوية الكبيرة.”

قال غايست إن المدافعين الأوائل عن أمان الذكاء الاصطناعي كانوا يعملون من رؤية مختلفة جدًا عما سيكون عليه الذكاء الاصطناعي المتقدم.

رئيس وزراء المملكة المتحدة يسعى إلى صلاحيات جديدة لتنظيم روبوتات الدردشة بالذكاء الاصطناعي مع تزايد المخاوف بشأن سلامة الأطفال

“لقد انتهى بهم الأمر إلى تصور المشكلة بطريقة، في بعض النواحي، كانت تتخيل شيئًا مختلفًا نوعيًا عن هذه النماذج اللغوية الحالية، سواء للأفضل أو للأسوأ”، قال غايست.

قال غايست إن تغيير اللغة يرسل أيضًا إشارة إلى المستثمرين وصانعي السياسات.

“جزء من ذلك هو الإشارة إلى مختلف الأطراف بأن العديد من هذه الشركات تريد أن تعطي انطباعًا بأنها لا تتراجع في المنافسة الاقتصادية بسبب المخاوف بشأن ‘أمان الذكاء الاصطناعي’”، قال، مضيفًا أن المصطلحات نفسها تتغير لتناسب الأوقات.

أنثروبيك ليست الوحيدة التي تعيد صياغة لغتها المتعلقة بالسلامة.

ما الذي يحدد أمان الذكاء الاصطناعي؟

أفاد تقرير حديث من منظمة الأخبار غير الربحية، The Conversation، كيف غيرت أوبن أيه آي أيضًا بيان مهمتها في تقديمها لطلب IRS لعام 2024، حيث أزالت كلمة “بأمان”.

القصة تستمر  

كان البيان السابق للشركة يلتزم ببناء ذكاء اصطناعي متعدد الأغراض “يستفيد البشرية بأمان، دون قيود من الحاجة إلى تحقيق عائد مالي.” النسخة المحدثة الآن تنص على أن هدفها هو “ضمان أن الذكاء الاصطناعي العام يفيد جميع البشرية.”

“المشكلة مع مصطلح أمان الذكاء الاصطناعي هي أنه لا يبدو أن أحدًا يعرف بالضبط ماذا يعني ذلك”، قال غايست. “ومع ذلك، كان مصطلح أمان الذكاء الاصطناعي أيضًا موضع جدل.”

تؤكد السياسة الجديدة لأنثروبيك على تدابير الشفافية مثل نشر “خارطات الطريق لأمان الحدود” و"تقارير المخاطر" المنتظمة، وتقول إنها ستؤجل التطوير إذا اعتقدت أن هناك خطرًا كبيرًا من الكارثة.

تأتي تغييرات سياسات أنثروبيك وأوبن أيه آي في الوقت الذي تتطلع فيه الشركات إلى تعزيز موقفها التجاري.

مساعد الذكاء الاصطناعي مفتوح المصدر سريع النمو كلودبوت يختبر حدود الأتمتة—والسلامة

في وقت سابق من هذا الشهر، قالت أنثروبيك إنها جمعت 30 مليار دولار بتقييم يقارب 380 مليار دولار. في نفس الوقت، أوبن أيه آي تضع اللمسات الأخيرة على جولة تمويل مدعومة من أمازون ومايكروسوفت ونفيديا قد تصل إلى 100 مليار دولار.

حصلت أنثروبيك وأوبن أيه آي، إلى جانب غوغل وxAI، على عقود حكومية مربحة مع وزارة الدفاع الأمريكية. ومع ذلك، يبدو أن العقد مع أنثروبيك موضع شك حيث يدرس البنتاغون قطع العلاقات مع الشركة بسبب شكاوى الوصول.

بينما تتدفق رؤوس الأموال إلى القطاع وتشتد المنافسة الجيوسياسية، قال حمزة تشودري، قائد الذكاء الاصطناعي والأمن القومي في معهد مستقبل الحياة، إن تغيير السياسة يعكس الديناميات السياسية المتغيرة بدلاً من محاولة لكسب عمل البنتاغون.

“إذا كان ذلك هو الحال، لكانوا قد تراجعوا عما قاله البنتاغون قبل أسبوع”، قال تشودري لـ Decrypt. “لم يكن داريو [أمودي] ليظهر للقاء.”

بدلاً من ذلك، قال تشودري إن إعادة الصياغة تعكس نقطة تحول في كيفية تحدث شركات الذكاء الاصطناعي عن المخاطر مع تصاعد الضغط السياسي وزيادة حدة المنافسة.

“تقول أنثروبيك الآن، ‘انظر، لا يمكننا الاستمرار في قول السلامة، لا يمكننا التوقف بشكل غير مشروط، وسندفع نحو تنظيم أخف بكثير’”، قال.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.31Kعدد الحائزين:2
    0.20%
  • القيمة السوقية:$2.27Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.29Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.27Kعدد الحائزين:1
    0.00%
  • تثبيت