العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
تقرير تحقيق معمق من مجلة نيويوركر: لماذا يعتقد المقربون من OpenAI أن Altman غير موثوق به؟
النص الأصلي المؤلف: شياوبينغ، شينتشاو تِكفلو
في خريف 2023، جلس كبير علماء OpenAI، إيليا سو تسكِڤير، أمام جهاز الكمبيوتر وأتمّ ملفًا من 70 صفحة.
رتّبت هذه الوثيقة محتواها من سجلات رسائل على Slack، ومراسلات الموارد البشرية، ومحاضر اجتماعات داخلية، وذلك للإجابة عن سؤال واحد: سام ألتمان، هذا الشخص الذي يدير ربما أخطر تقنية في تاريخ البشرية، هل يمكن الوثوق به فعلًا؟
كانت إجابة سو تسكِڤير مكتوبة في السطر الأول من الصفحة الأولى من الملف، وكان عنوان القائمة: “سام يُظهر باستمرار نمطًا من السلوك……”
البند الأول: الكذب.
بعد سنتين ونصف من اليوم، نشر الصحفيان الاستقصائيان رونان فارو و أندرو مَرانتز في مجلة “نيويوركر” تقريرًا استقصائيًا طويلًا جدًا. أجرى مقابلات مع أكثر من 100 من ذوي الشأن، وحصل على مذكرات داخلية لم تكن قد نُشرت من قبل، فضلًا عن مئات الصفحات الخاصة التي تركها داريو أمو ديي، مؤسس شركة أنثروبيك، خلال فترة وجوده في OpenAI. القصة التي تتشكل من هذه الوثائق تبدو أسوأ بكثير من “مؤامرة القصر” التي وقعت في 2023: كيف حوّلت OpenAI تدريجيًا من منظمة غير ربحية وُجدت لأجل سلامة البشر، إلى آلة تجارية؛ وكل سياج أمان تقريبًا تم تفكيكه يدويًا وبنفس الطريقة من قِبل شخص واحد.
كانت نتيجة أمو ديي في مذكراته أكثر مباشرة: “مشكلة OpenAI هي سام نفسه.”
إعداد “الخطيئة الأصلية” لـ OpenAI
لفهم وزن هذا التقرير، يجب أولًا توضيح مدى خصوصية شركة OpenAI.
في 2015، قام ألتمان ومعه مجموعة من نخبة السيليكون فالي بعمل لا يكاد له سوابق في تاريخ الأعمال: استخدام منظمة غير ربحية لتطوير تقنية قد تكون الأقوى في تاريخ البشرية. كانت مسؤوليات مجلس الإدارة مكتوبة بوضوح: إعطاء الأولوية للأمان على نجاح الشركة، بل وحتى على بقاء الشركة. وببساطة، إذا أصبح ذكاء OpenAI الاصطناعي يومًا ما خطرًا، فسيكون على مجلس الإدارة واجب إغلاق هذه الشركة بنفسه.
تعتمد البنية الكاملة على افتراض واحد: الأشخاص الذين يديرون AGI يجب أن يكونوا شديدي الصدق.
ماذا لو كان الافتراض خاطئًا؟
القنبلة الأساسية في التقرير هي تلك الوثيقة المكوّنة من 70 صفحة. سو تسكِڤير لا يلعب ألعاب المكاتب؛ إنه واحد من أبرز علماء الذكاء الاصطناعي في العالم. لكن بحلول 2023، أصبح مقتنعًا أكثر فأكثر بأن: ألتمان يواصل إخبار المديرين التنفيذيين وأعضاء مجلس الإدارة بأكاذيب.
مثال محدد: في ديسمبر 2022، تعهد ألتمان في اجتماع مجلس الإدارة بأن عدة ميزات من GPT-4 التي سيجري إصدارها قريبًا قد اجتازت بالفعل مراجعة السلامة. طلب عضو المجلس تونر الاطلاع على مستندات الموافقة، فوجد أن ميزتين من أكثر الميزات إثارة للجدل (التوليف/الضبط الدقيق المخصص للمستخدمين، ونشر المساعد الشخصي) لم يتم اعتمادها أصلًا عبر لوحة أمان.
حدث أمر أكثر غرابة في الهند. إذ قدّم أحد الموظفين بلاغًا إلى عضو آخر في مجلس الإدارة عن “تلك المخالفة”: إذ لم تُكمل شركة مايكروسوفت مراجعة السلامة اللازمة، ونشرت في الهند مسبقًا النسخة المبكرة من ChatGPT.
سجّل سو تسكِڤير في المذكرة أيضًا أمرًا آخر: أخبر ألتمان المسؤول السابق عن التكنولوجيا Mira Murati أن إجراءات الموافقة على السلامة ليست مهمة كثيرًا، وأن المستشار القانوني العام للشركة قد وافق على ذلك. ذهبت موراتي إلى المستشار القانوني العام للتحقق، فأجابها: “لا أعرف من أين استمد سام هذا الانطباع.”
مذكرات أنثروبيك الخاصة المؤلفة من 200 صفحة
تشبه وثائق سو تسكِڤير لائحة اتهام من قبل مدعٍ عامًا. أما المذكرات التي تركها أمو ديي لأكثر من 200 صفحة، فشبيهة أكثر بدفتر يوميات شاهد عيان كتبها في موقع وقوع الجريمة.
خلال السنوات التي عمل فيها أمو ديي في OpenAI مسؤولًا عن السلامة، كان يشاهد بأم عينيه كيف يتراجع إيقاع الشركة خطوة خطوة تحت ضغط الأعمال. في المذكرات سجّل تفصيلًا محوريًا حول صفقة استثمار مايكروسوفت في 2019: أنه كان قد أدخل في النظام الداخلي لـ OpenAI بندًا بعنوان “الاندماج والمساعدة”، ومعناه بشكل عام أنه إذا وجدت شركة أخرى مسارًا أكثر أمانًا لـ AGI، فيجب على OpenAI التوقف عن المنافسة والتحول إلى مساعدة تلك الشركة. وهذه كانت ضمانة الأمان التي ركّز عليها أكثر في مجمل الصفقة.
قبل أن تُوقَّع الصفقة بقليل، اكتشف أمو ديي أمرًا: حصلت مايكروسوفت على حق النقض لهذا البند. ماذا يعني ذلك؟ حتى لو وُجد يومًا منافس وجد طريقًا أفضل، يمكن لمايكروسوفت كلمة واحدة أن تسد واجب مساعدة OpenAI. البند كان ما يزال موجودًا على الورق، لكن منذ يوم التوقيع صار مجرد أوراق لا قيمة لها.
غادر أمو ديي لاحقًا OpenAI وأسس أنثروبيك. التنافس بين الشركتين يقوم في جوهره على اختلافات أساسية حول “كيفية تطوير الذكاء الاصطناعي”.
تعهد الالتزام بـ 20% من القدرة الحاسوبية المفقود
يوجد في التقرير تفصيل يثير قشعريرة عند قراءته، عن “فريق المحاذاة الفائق” في OpenAI.
في منتصف 2023، تواصل ألتمان عبر البريد الإلكتروني مع طالب دكتوراه في جامعة بيركلي يجري أبحاث “المحاذاة الخادعة” (يظهر الذكاء الاصطناعي بمظهر الطاعة أثناء الاختبارات، ثم عند نشره يبدأ يتبع أساليبه الخاصة). قال إنه قلق جدًا بشأن هذه المشكلة، وأنه يفكر في إنشاء جائزة بحثية عالمية بقيمة مليار دولار. تأثر الطالب بشدة، فأخذ إجازة من دراسته وانضم إلى OpenAI.
ثم غيّر ألتمان رأيه: لا يعود إلى الجوائز الخارجية، بل يُنشئ داخل الشركة “فريق محاذاة فائقة”. أعلنت الشركة بشكل علني أنها ستخصص “20% من القدرة الحاسوبية المتاحة” لهذا الفريق، وأن القيمة المحتملة تفوق مليار دولار. كان نص الإعلان جادًا للغاية، يقول إن مسائل المحاذاة إذا لم تُحل، فقد يؤدي AGI إلى “حرمان البشر من السلطة، بل وحتى القضاء على البشر”.
بعد تعيينه لقيادة هذا الفريق، أخبر Jan Leike الصحفيين لاحقًا أن هذا التعهد نفسه كان بمثابة أداة فعّالة للاحتفاظ بالمواهب.
كيف كانت الحقيقة؟ يقول أربعة أشخاص يعملون في هذا الفريق أو على اتصال وثيق به: إن القدرة الحاسوبية التي جرى تخصيصها فعليًا لا تتجاوز 1% إلى 2% من إجمالي قدرة الشركة، ولا تزال على أقدم العتاد. ثم تم حل هذا الفريق لاحقًا دون إنجاز مهمته.
عندما طلب الصحفي إجراء مقابلة مع العاملين في OpenAI المسؤولين عن أبحاث “السلامة الوجودية”، كانت استجابة العلاقات العامة في الشركة مُضحكة-مبكية: “ليس شيئًا…… له وجود فعلي.”
كان ألتمان نفسه متقبلًا ذلك. قال للصحفيين إن “حدسه لا ينسجم كثيرًا مع كثير من الأشياء التقليدية في أمان الذكاء الاصطناعي”، وإن OpenAI ستواصل القيام بـ “مشروعات أمان، أو على الأقل مشروعات تتعلق بالأمان.”
CFO تم تهميشه وIPO قادم
تقرير “نيويوركر” كان نصف الأخبار السيئة لهذا اليوم فقط. وفي اليوم نفسه، كشفت The Information عن خبرٍ كبير آخر: وجود خلاف شديد بين CFO OpenAI، Sarah Friar، و ألتمان.
قالت Friar سرًا لزملائها إنها تعتقد أن OpenAI لم تكن مستعدة بعد لطرح أسهمها للاكتتاب هذا العام. وسبب ذلك يعود إلى: حجم العمل المطلوب من الناحية الإجرائية والتنظيمية كبير جدًا؛ والمخاطر المالية الناتجة عن إنفاق قدرة حاسوبية لمدة 5 سنوات بقيمة 600 مليار دولار وعد بها ألتمان مرتفعة للغاية. بل إنها لم تكن متأكدة حتى مما إذا كان نمو إيرادات OpenAI يمكنه دعم هذه الوعود.
لكن ألتمان كان يريد الإقدام على IPO في الربع الرابع من هذا العام.
والأغرب أن Friar لم تعد ترفع تقاريرها مباشرة إلى ألتمان. اعتبارًا من أغسطس 2025، أصبح تقديم التقارير لها إلى Fidji Simo (الرئيس التنفيذي لقطاع التطبيقات في OpenAI). وكان Simo قد أخذ إجازة مرضية مؤخرًا بسبب حالته الصحية. وتمعّن في هذا المشهد: شركة تتهيأ للاندفاع نحو IPO، يوجد فيها خلاف جوهري بين CEO و CFO، ولا يرفع CFO تقاريره إلى CEO، كما أن رئيس CFO في إجازة.
حتى بعض كبار المديرين داخل مايكروسوفت لم يستطيعوا تحمل ذلك، وقالوا إن ألتمان “يشوّه الوقائع، ويعد ويُخلف، ويستمر في نقض الاتفاقيات التي تم التوصل إليها”. وقال أحد كبار مسؤولي مايكروسوفت حتى: “أعتقد أنه توجد لديه فرصة معينة أن يُذكر في النهاية بين المحتالين من مستوى بيرني مادوف أو SBF.”
صورة ألتمان لـ"ازدواجية الوجوه"
وصف أحد أعضاء مجلس إدارة OpenAI السابقين للصحفيين صفتين تتسم بهما شخصية ألتمان. قد تكون هذه الفقرة الأقسى في وصف الشخصيات داخل التقرير كله.
قال ذلك العضو إن ألتمان يمتلك مزيجًا نادرًا للغاية من الصفات: ففي كل مرة يحدث فيها تواصل مباشر وجهاً لوجه، يكون شديد الرغبة في إرضاء الطرف الآخر، وبأن ينال إعجاب الطرف الآخر. وفي الوقت نفسه، لديه حالة لا مبالية تقارب المرض الاجتماعي تجاه العواقب التي قد تنجم عن خداع الآخرين.
وجود الصفتين معًا في شخص واحد أمر نادر جدًا. لكن بالنسبة إلى مسوّق، فهذا هو أكثر هبة مثالية.
يقدم التقرير تشبيهًا جيدًا: يُشتهر جوبز بـ"مجال تشويه الواقع"، وكان قادرًا على جعل العالم يصدق رؤيته. لكن حتى جوبز لم يقل أبدًا لزبائنه: “إذا لم تشتري مشغل MP3 الخاص بي، فإن من تحبه سوف يموت.”
قال ألتمان شيئًا مشابهًا، بخصوص الذكاء الاصطناعي.
مشكلة أخلاق شخص CEO، لماذا هي مخاطرة الجميع
لو كان ألتمان مجرد CEO شركة تقنية عادية، فستكون هذه الاتهامات في أحسن الأحوال مجرد نُكتة تجارية مثيرة للاهتمام. لكن OpenAI ليست شركة عادية.
بحسب ما تقوله الشركة عن نفسها، فهي تطور تقنية قد تكون الأقوى في تاريخ البشرية. يمكنها إعادة تشكيل الاقتصاد العالمي وسوق العمل (وقد صدرت عن OpenAI للتو سياسة/ورقة بيضاء بشأن مسألة أن الذكاء الاصطناعي يؤدي إلى البطالة)، ويمكن أيضًا استخدامها لتصنيع أسلحة بيولوجية واسعة النطاق أو لشن هجمات سيبرانية.
أصبحت جميع سياجات الأمان عديمة الجدوى. لقد حلت مهمة المؤسس غير الربحية محلها مطاردة IPO. اعتبر كل من الرئيس العلمي السابق والمسؤول السابق عن السلامة أن CEO “غير جدير بالثقة”. وقام الشركاء بمقارنة CEO بـ SBF. في مثل هذا السياق، فبأي حق يقرر هذا CEO وحده متى سيتم إصدار نموذج ذكاء اصطناعي قد يغير مصير البشرية؟
كتب Gary Marcus (أستاذ AI في جامعة نيويورك، وداعم طويل الأمد لسلامة الذكاء الاصطناعي) بعد أن قرأ التقرير جملة واحدة: إذا كان بإمكان نموذج مستقبلي لـ OpenAI صناعة أسلحة بيولوجية واسعة النطاق أو شن هجمات سيبرانية كارثية، هل ستثق حقًا أن ألتمان وحده هو من يقرر إن كان سيتم إصداره أم لا؟
رد OpenAI على “نيويوركر” كان مختصرًا: “معظم محتوى هذه المقالة يعيد تدوير أحداث تم الإبلاغ عنها سابقًا، عبر سرد آراء مجهولة وصراعات/حكايات انتقائية، ومصادريًا من الواضح أن لديها أهدافًا شخصية.”
وهذا هو أسلوب رد ألتمان: عدم الرد على الاتهامات المحددة، وعدم إنكار صحة المذكرات، مع التشكيك فقط في الدوافع.
على جثة مؤسسة غير ربحية، ينمو شجر مال
يمكن كتابة عقد OpenAI الذي استمر عشر سنوات على شكل مخطط قصة كهذا:
قام مجموعة من المثاليين الذين يقلقون بشأن مخاطر AI بإنشاء منظمة غير ربحية مدفوعة بالرسالة. حققت المنظمة اختراقات تقنية استثنائية. جذب هذا الاختراق قدرًا هائلًا من رأس المال. يحتاج رأس المال إلى عائد. بدأت الرسالة تفسح المجال. تم حل فريق السلامة. تم تنظيف الأشخاص الذين أبدوا الشكوك. تحوّل هيكل المنظمة غير الربحية إلى كيان ربحي. كان مجلس الإدارة الذي كان يملك سلطة إغلاق الشركة يجلس الآن ممتلئًا بحلفاء CEO. كانت الشركة التي تعهدت سابقًا بتخصيص 20% من القدرة الحاسوبية لحراسة سلامة البشر، والآن يقول موظفو العلاقات العامة فيها إن “ذلك ليس شيئًا ذا وجود فعلي.”
البطل في القصة، وأكثر من مئة شخص شهدوا ذلك بأنفسهم، وضعوا عليه الوسم نفسه: “غير مقيدين بالحقيقة.”
وهو يستعد لقيادة هذه الشركة نحو IPO بتقييم يتجاوز 1B دولار.
تجميع معلومات هذا المقال من التقارير المنشورة لعدة وسائل إعلام منها “نيويوركر”، و Semafor، و Tech Brew، و Gizmodo، و Business Insider، و The Information، وغيرها.