《نيويوركر》 تحقيق معمق وتحليل: لماذا يعتقد فريق OpenAI أن ألتمن غير موثوق به؟

في الجسد غير الربحي، نمت شجرة تجلب المال.

بقلم: شياو بينغ، شين تشاو TechFlow

في خريف 2023، جلس كبير علماء OpenAI Ilya Sutskever أمام الكمبيوتر، وأنجز ملفًا من 70 صفحة.

هذه الوثيقة مُجمَّعة من سجلات رسائل Slack، وملفات التواصل مع الموارد البشرية، ومحاضر اجتماعات داخلية، ولاجـل الإجابة عن سؤال واحد: Sam Altman، ذلك الذي يتحكم في ربما أخطر تقنية في تاريخ البشرية، هل يمكن الوثوق به حقًا؟

الإجابة التي قدّمها Sutskever كُتبت في الصفحة الأولى من الملف، وكان عنوان القائمة: “Sam يُظهر نمطًا ثابتًا من السلوك……”

الأولى: الكذب.

بعد سنتين ونصف اليوم، نشرت المراسلة الاستقصائية Ronan Farrow و Andrew Marantz في مجلة 《نيويوركر》 تقريرًا استقصائيًا طويلًا للغاية. أجرت مقابلات مع أكثر من 100 من المعنيين، وحصلت على مذكرات داخلية لم تُنشر من قبل، إلى جانب أكثر من 200 صفحة من الملاحظات الخاصة التي تركها Dario Amodei، مؤسس Anthropic، خلال فترة عمله في OpenAI. القصة التي تتشكل من هذه الوثائق كانت أكثر قبحًا من “مؤامرة القصور” في عام 2023 بكثير: كيف تحولت OpenAI تدريجيًا من مؤسسة غير ربحية وُجدت من أجل سلامة البشر إلى آلة تجارية، وكانت كل حواجز السلامة تقريبًا تُفكّ يدًا واحدة من قِبل الشخص نفسه.

استنتاج Amodei في الملاحظات كان أكثر مباشرة: “مشكلة OpenAI هي Sam نفسه.”

افتراض “الخطيئة الأصلية” لدى OpenAI

لفهم وزن هذا التقرير، يجب أولًا توضيح مدى خصوصية شركة OpenAI.

في عام 2015، قام Altman ومجموعة من نخبة السيليكون فالي بعملٍ لا يكاد يكون له سابقة في تاريخ الأعمال: استخدام منظمة غير ربحية لتطوير تقنية قد تكون أقوى تقنية في تاريخ البشرية. كانت مسؤوليات مجلس الإدارة مكتوبة بوضوح: السلامة تتقدم على نجاح الشركة، بل وحتى على بقاء الشركة. باختصار، إذا أصبحت ذكاء OpenAI الاصطناعي يومًا خطيرًا، فإن على مجلس الإدارة واجبًا بإغلاق الشركة يدويًا.

ترتكز البنية كاملة على افتراض واحد: يجب أن يكون الشخص الذي يدير AGI شخصًا شديد الأمانة.

فماذا لو كان الافتراض خاطئًا؟

القنبلة المحورية في التقرير هي ملف الـ70 صفحة. لا يمارس Sutskever السياسة المكتبية؛ فهو واحد من أبرز علماء الذكاء الاصطناعي عالميًا. لكن بحلول عام 2023، بات مقتنعًا بشكل متزايد بأن: Altman يكذب باستمرار على الإدارة ومجلس الإدارة.

مثال محدد: في ديسمبر 2022، ضمن Altman لمجلس الإدارة أثناء اجتماع أن عدة ميزات في GPT-4 المُزمع إصدارها قد اجتازت مراجعات السلامة. طلب عضو مجلس الإدارة Toner الاطلاع على وثائق الموافقة، فوجد أن اثنتين من أكثر الميزات محلًا للجدل (الضبط الدقيق المخصص للمستخدمين ونشر المساعد الشخصي) لم تكن قد حصلت أصلًا على موافقة لوحة السلامة.

الأمر الأكثر غرابة حدث في الهند. فقدّم موظف شكوى إلى عضو آخر في مجلس الإدارة بشأن “تلك المخالفة”: لم تُنجز Microsoft مراجعات السلامة اللازمة، وأطلقت في الهند مُسبقًا النسخة المبكرة من ChatGPT.

سجّل Sutskever أيضًا في المذكرة أمرًا آخر: أن Altman أخبر المدير التقني السابق Mira Murati بأن عملية الموافقات الخاصة بالسلامة ليست مهمة جدًا، وأن المستشار القانوني العام للشركة قد وافق عليها. توجهت Murati للتحقق مع المستشار القانوني العام، وجاء الرد: “لا أعرف من أين استمد Sam هذا الانطباع.”

ملاحظات Amodei الخاصة البالغ عددها 200 صفحة تقريبًا

ملف Sutskever يشبه لائحة اتهام كمدعٍ عام. أما الملاحظات التي تركها Amodei وعددها أكثر من 200 صفحة، فهي أشبه بمذكرات شاهدٍ كتبها في موقع الجريمة.

خلال السنوات التي عمل فيها Amodei كرئيس مسؤول عن الأمان في OpenAI، شاهد بأم عينيه كيف تراجعت الشركة خطوة بخطوة تحت ضغوط تجارية. في مذكراته، دوّن تفاصيل حاسمة عن صفقة استثمار Microsoft في عام 2019: لقد أدخل في النظام الأساسي لـ OpenAI بندًا عن “الاندماج والمساعدة”؛ وبمعناه العام، إذا اكتشفت شركة أخرى طريقًا أكثر أمانًا نحو AGI، فينبغي على OpenAI التوقف عن المنافسة والانتقال لمساعدة تلك الشركة. كانت هذه، حسبه، أكثر ضمانات السلامة أهمية في الصفقة كلها.

وقبيل توقيع الصفقة بسرعة، اكتشف Amodei أمرًا: Microsoft حصلت على حق النقض على هذا البند. ماذا يعني ذلك؟ حتى لو افترضنا يومًا أن أحد المنافسين عثر على طريق أفضل، يمكن لـ Microsoft إغلاق التزام OpenAI بالمساعدة بكلمة واحدة. كانت الصيغة لا تزال على الورق، لكنها منذ يوم التوقيع أصبحت ورقًا بلا قيمة.

غادر Amodei لاحقًا OpenAI وأنشأ Anthropic. المنافسة بين الشركتين، في جوهرها، خلافٌ جذري حول “كيفية تطوير الذكاء الاصطناعي”.

تعهد تخصيص 20% من القدرة الحاسوبية المفقود

يوجد في التقرير تفصيل يجعل القشعريرة تسري في الظهر، يتعلق بـ “فريق المحاذاة الفائق” لدى OpenAI.

في منتصف 2023، تواصل Altman عبر البريد الإلكتروني مع طالب دراسات عليا في بيركلي يدرس “المحاذاة الخادعة” (AI يتظاهر في الاختبارات بأنه لطيف، لكنه بعد النشر يقوم بما يناسبه). قال إنه قلق جدًا بشأن هذه المسألة، ويفكر في إنشاء جائزة أبحاث عالمية بقيمة 1 مليار دولار. كان الطالب متحمسًا للغاية، فأخذ إجازة من الدراسة وانضم إلى OpenAI.

ثم غيّر Altman رأيه: لم يعد هناك جوائز خارجية، بل إنشاء “فريق محاذاة فائق” داخل الشركة. أعلنت الشركة بشكل عالٍ عن أنها ستخصص “20% من القدرة الحاسوبية الموجودة بالفعل” لهذا الفريق، مع قيمة محتملة تتجاوز 1 مليار دولار. كانت صياغة الإعلان جادة للغاية، إذ قالت إنه إذا لم تُحل مشكلة المحاذاة، فقد يؤدي AGI إلى “حرمان البشر من القوة، بل وربما القضاء على البشر”.

بعد تعيين Jan Leike لقيادة هذا الفريق، أخبر لاحقًا المراسلين أن هذا التعهد بحد ذاته كان أداة فعالة جدًا “للاحتفاظ بالمواهب”.

ما الواقع؟ أربعة أشخاص يعملون في هذا الفريق أو على اتصال وثيق به قالوا إن القدرة الحاسوبية التي تم تخصيصها فعليًا لم تتجاوز 1% إلى 2% من إجمالي قدرة الشركة، وكانت أيضًا من أقدم العتاد. ثم تم حل هذا الفريق لاحقًا دون إتمام المهمة.

عندما طلب الصحفي إجراء مقابلة مع الأشخاص المسؤولين عن بحث “السلامة الوجودية” في OpenAI، كان رد العلاقات العامة في الشركة مُضحكًا ومحزنًا في الوقت ذاته: “ليس ذلك شيئًا…… موجودًا فعليًا.”

Altman نفسه كان متقبلًا. أخبر الصحفيين أن “حدسه لا يتماشى كثيرًا مع أشياء كثيرة تقليدية تخص سلامة الذكاء الاصطناعي”، وأن OpenAI ستواصل تنفيذ “مشاريع سلامة، أو على الأقل مشاريع تمس السلامة.”

CFO تم تهميشه و IPO وشيك

تقرير 《نيويوركر》 كان نصف الأخبار السيئة في هذا اليوم. وفي الوقت نفسه، كشفت The Information خبرًا ضخمًا آخر: ظهر خلاف شديد بين CFO OpenAI Sarah Friar و Altman.

قالت Friar لزملائها سرًا إنها تعتقد أن OpenAI لم تكن جاهزة بعد للاكتتاب العام هذا العام. سببان: حجم العمل البرامجي والتنظيمي المطلوب كان كبيرًا جدًا، والمخاطر المالية الناجمة عن إنفاق 5 سنوات بقيمة 600 مليار دولار على القدرة الحاسوبية الذي وعد به Altman مرتفعة للغاية. بل إنها غير متأكدة مما إذا كان نمو إيرادات OpenAI سيصمد أمام هذه الالتزامات.

لكن Altman يريد الدفع باتجاه IPO في الربع الرابع من هذا العام.

والأكثر غرابة هو أنه لم يعد يرفع التقارير مباشرة إلى Altman. اعتبارًا من أغسطس 2025، أصبحت تُبلّغ إلى Fidji Simo (الرئيس التنفيذي لأعمال التطبيقات في OpenAI). وSimo أخذت إجازة مرضية الأسبوع الماضي بسبب اعتبارات صحية. ألقِ نظرة على هذا المشهد: شركة تستعجل IPO، مع خلاف جوهري بين الرئيس التنفيذي وCFO، وCFO لا يقدم تقارير إلى الرئيس التنفيذي، بل إن رئيس CFO قد أخذ إجازة.

حتى بعض المسؤولين التنفيذيين داخل Microsoft قالوا إن الأمر تجاوز حد الاحتمال، مشيرين إلى أن Altman “يحرّف الحقائق، وينقض وعوده، ويستمر في قلب الاتفاقيات التي تم التوصل إليها”. وقال مسؤول تنفيذي في Microsoft: “أعتقد أن لديه احتمالًا معينًا ليُذكر في النهاية باعتباره واحدًا من نوع بيرني مادوف أو مستوى SBF من المحتالين.”

رسم صورة “الازدواجية” لدى Altman

وصف أحد أعضاء مجلس إدارة سابقين في OpenAI لدى الصحفيين صفتين يمتلكهما Altman. قد تكون هذه الفقرة أقسى لوحة شخصية للأشخاص في تقرير كامل.

قال هذا العضو إن لدى Altman مجموعة نادرة للغاية من الصفات: فهو يتوق بشدة إلى إرضاء الطرف الآخر وأن يحبه، في كل مرة يجري فيها تواصلًا وجهًا لوجه. وفي الوقت ذاته، لديه نوع من الاستخفاف شبه المرضي اجتماعيًا بعواقب خداع الآخرين.

ظهور هاتين الصفتين معًا في شخص واحد أمر نادر جدًا. لكن بالنسبة إلى مندوب مبيعات، فهذا هو الموهبة الأكثر كمالًا.

يورد التقرير استعارة جيدة: يُعرف ستيف جوبز بأنه يمتلك “مجال تشويه للواقع”، وقد جعل العالم يصدق رؤيته. لكن حتى جوبز لم يقل أبدًا للزبائن: “إذا لم تَشترِ جهاز تشغيل MP3 الخاص بي، فسيموت من تحب.”

قال Altman كلامًا مشابهًا، لكن عن الذكاء الاصطناعي.

مشكلة أخلاق الرئيس التنفيذي—لماذا هي خطر الجميع

لو كان Altman مجرد CEO لشركة تقنية عادية، فستكون هذه الاتهامات في أحسن الأحوال مجرد شائعة تجارية رائعة. لكن OpenAI ليست شركة عادية.

بحسب ما تقول، فهي تطور تقنية قد تكون أقوى تقنية في تاريخ البشرية. قد تعيد تشكيل الاقتصاد العالمي وأسواق العمل (وقد أصدرت OpenAI بنفسها ورقة بيضاء للسياسات حول مشكلة البطالة الناتجة عن الذكاء الاصطناعي)، كما يمكن استخدامها لإنتاج أسلحة حيوية/بيولوجية على نطاق واسع أو لشن هجمات سيبرانية.

لقد أصبحت جميع الحواجز الأمنية شكلية بلا معنى. لقد جاءت مهمة المؤسسين غير الربحية لتفسح المجال لملاحقة IPO. كل من الرئيس العلمي السابق ومسؤول السلامة السابق اعتبر CEO “غير موثوق”. ويُشَبَّه الشريك الرئيس التنفيذي بـ SBF. في هذا السياق، لماذا يحق لهذا CEO أن يقرر من جانب واحد متى يتم إطلاق نموذج ذكاء اصطناعي قد يغير مصير البشرية؟

بعد أن قرأ Gary Marcus (أستاذ الذكاء الاصطناعي في جامعة نيويورك، وداعم طويل الأمد لسلامة الذكاء الاصطناعي)، كتب جملة واحدة: إذا كان نموذج OpenAI في المستقبل قادرًا على صنع أسلحة حيوية/بيولوجية واسعة النطاق أو شن هجمات سيبرانية كارثية، هل ستطمئن فعلًا لأن يقرر Altman وحده ما إذا كان سيُطلق؟

أما رد OpenAI على 《نيويوركر》 فكان مختصرًا: “معظم محتوى هذه المقالة يتم ترجيع أحداث سبق الإبلاغ عنها، عبر روايات مجهولة ووقائع انتقائية؛ ومن الواضح أن مصادر المعلومات لديها دوافع شخصية.”

أسلوب رد Altman المعتاد: عدم الرد على الاتهامات المحددة، وعدم نفي صحة المذكرات، بل التشكيك في الدوافع.

في الجسد غير الربحي، نمت شجرة تجلب المال

عشر سنوات لدى OpenAI، إذا ما كُتبت كخطة قصة فستكون هكذا:

قام مجموعة من المثاليين الذين يقلقون بشأن مخاطر الذكاء الاصطناعي بإنشاء منظمة غير ربحية تقودها الرسالة. حققت المنظمة اختراقات تقنية استثنائية. اجتذبت الاختراقات مبالغ كبيرة من رأس المال. يحتاج رأس المال إلى عائدات. بدأت الرسالة تفسح الطريق. تم حل فريق السلامة. تمت تصفية من كانوا يشككون في الأمر. تم تحويل البنية غير الربحية إلى كيان يحقق ربحًا. وكان مجلس الإدارة الذي كان يملك صلاحية إغلاق الشركة قد صار الآن مليئًا بحلفاء CEO. وكانت الشركة التي وعدت سابقًا بتخصيص 20% من القدرة الحاسوبية لحماية سلامة البشر، تقول موظفو العلاقات العامة فيها الآن: “هذا ليس شيئًا موجودًا فعليًا”.

الشخصية الرئيسية في القصة، وأكثر من مئة شاهد ممن عاشوا كل ذلك بأنفسهم، أطلقوا عليه الوسم ذاته: “غير مقيد بالحقيقة.”

إنه على وشك أن يقود هذه الشركة إلى IPO، مع تقييم يتجاوز 850B دولار.

تُجمل معلومات هذا المقال من تقارير منشورة علنًا في عدة وسائل إعلام منها 《نيويوركر》، Semafor، Tech Brew، Gizmodo، Business Insider، The Information وغيرها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.21Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:2
    0.15%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • تثبيت