العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
OpenAI فضيحة كبيرة تكشف إيليا يلتقط صورًا لملف من 70 صفحة، تثبت كذب أوتومان
اليوم، نشرت مجلة «نيويوركر» تقريرًا استقصائيًا استغرق 18 شهرًا، يكشف لأول مرة مذكرة داخلية من 70 صفحة جمعها كبير علماء OpenAI، Ilya Sutskever، في خريف 2023، بالإضافة إلى أكثر من 200 صفحة من ملاحظات خاصة احتفظ بها لسنوات مؤسس شركة Anthropic المشاركة، Dario Amodei.
تشير هذه الملفات التي لم تُنشر من قبل إلى استنتاج واحد بعينه: إن Sam Altman يملك نمطًا من «الكذب المستمر».
هذه ليست مجرد صراعات داخلية في شركة. عندما يُنظر إلى أن الذكاء الاصطناعي قد يكون «أخطر اختراع في تاريخ البشرية»، وعندما تزعم شركة أنها تريد «ضمان أن AGI سيفيد البشرية جمعاء»، تصبح مسألة النزاهة لدى المسؤولين التنفيذيين شأنًا عامًا يمس الجميع، لا شأنًا خاصًا.
يعتمد APPSO على نص «نيويوركر» الأصلي، ليعيد ترتيب وتسليط الضوء على أزمة النزاهة التي هزت وادي السيليكون.
إنها قصة عن السلطة والأكاذيب ومستقبل الذكاء الاصطناعي.
APPSO يسلّط الضوء على النقاط:
مزدوجو المعايير لدى Altman:
يقدّم Ilya Sutskever إلى مجلس الإدارة ملفًا سريًا من 70 صفحة يتهم Altman بـ«الاستمرار في الكذب»
طرد مجلس الإدارة Altman بسبب «عدم كونه صريحًا بما يكفي» في التواصل، لكن بعد 5 أيام أُجبر على استعادة منصبه
أطلق الموظفون على هذه الواقعة اسم «The Blip» (اختفاء على طريقة مارفل ثم العودة)
كشف النقاب عن جدل حول اتفاقات حصرية مزدوجة لدى Altman مع عمالقة مثل مايكروسوفت وأمازون
أزمة السلامة:
حلّ OpenAI فريق «المواءمة الفائقة» الشديد، وادّعى أن 20% من القدرة الحاسوبية الموعودة تُخصّص فعليًا للفريق بنسبة 1% إلى 2% فقط
تحوّل الشركة من كونها غير ربحية إلى شركة ربحية، مع تقييم قد يصل إلى تريليونات الدولارات
اتفاق لبناء بنية تحتية للذكاء الاصطناعي بقيمة 50B دولار مع أنظمة في الشرق الأوسط
فتح التكنولوجيا أمام الجيش، للاستخدام في إنفاذ قوانين الهجرة، والمراقبة، والأسلحة الذاتية
لعبة السلطة:
استثمار Altman الشخصي في أكثر من 400 شركة، مع علاقات مالية معقدة ترتبط بسابقين له
تبيّن أنه جَمّد استثمارات منافسين وحرَم مستثمرين من الاستثمار
الانتقال من «الإيثار الفعّال» إلى «التسريع الفعّال»
إقامة علاقة وثيقة مع ترامب، والتبرع بمبلغ مليون دولار لصندوق تنصيبه
مذكرة من 70 صفحة عن مسألة النزاهة
في خريف 2023، قام Ilya Sutskever بشيء نادر جدًا في وادي السيليكون: صوّر بالهاتف سراً مستندات داخلية للشركة، ثم جمعها في مذكرة من 70 صفحة وأرسلها إلى أعضاء مجلس الإدارة.
لماذا قام بالتصوير؟ لأنه لم يكن يجرؤ على ترك أي أثر على أجهزة الشركة.
تم إرسال المذكرة بطريقة «الرسائل المختفية»، بحيث لا يراها أحد. وتذكّر أحد أعضاء مجلس الإدارة الذي تلقاها: «لقد فزع».
الوثيقة التي لم تُكشف بالكامل من قبل، يبدأها قائمة: «Sam exhibits a consistent pattern of…»
البند الأول: الكذب.
الكذب.
ليس «مشكلة في أسلوب التواصل»، وليس «فرط التفاؤل»، وليس «سمات القائد ذي الرؤية». بل كلمتان فقط: الكذب.
صاحب كتابة هذه المذكرة كان قد أدار في عام 2019 في مكتب OpenAI حفل زفاف Greg Brockman، وكان ذراع روبوتية بمثابة ناقل يقدّم الخاتم. كان قد اعتبر Altman وBrockman صديقين.
لكن في عام 2023، عندما كان Sutskever يعتقد أن AGI بات وشيكًا، أخبر عضوًا آخر في مجلس الإدارة: «لا أعتقد أن Sam يجب أن يكون الشخص الذي يضع إصبعه على الزر».
ملاحظات خاصة أخرى من 200 صفحة
بعد مغادرته OpenAI، شارك Dario Amodei في تأسيس Anthropic. وقبل ذلك، احتفظ لسنوات بملاحظات خاصة عن Altman وBrockman.
أكثر من 200 صفحة من الوثائق المتعلقة انتشرت في وادي السيليكون، ولم تُكشف علنًا مطلقًا.
في إحدى هذه الوثائق، كتب Amodei إن كلام Altman «يكاد يكون بالتأكيد bullshit».
هذا ليس هجومًا خبيثًا من منافس. قبل أن ينضم Amodei إلى OpenAI في عام 2015، كان Altman قد عَشَّ معه على طاولة واحدة في عشاء في مطعم هندي. في ذلك العشاء، ضمن Altman له أن OpenAI ستتخذ التركيز على السلامة—«ربما ليس فورًا، لكن قريبًا قدر الإمكان».
وثّق Amodei التزامات Altman في الملاحظات. ثم أمضى سنوات يسجّل كيف تم كسر تلك الالتزامات واحدًا تلو الآخر.
عنوان المذكرة هو «My Experience with OpenAI»، والعنوان الفرعي: «Private: Do Not Share».
انقلاب سياسي لمدة خمسة أيام ومضاد لانقلاب
في 17 نوفمبر 2023، كان Altman يَشاهد سباق F1 في لاس فيغاس. دعا Sutskever إلى مكالمة فيديو، وقرأ بيانًا قصيرًا: لم يعد موظفًا في OpenAI.
أصدر مجلس الإدارة بيانًا بحذر في الصياغة: تم فصل Altman لأنه «لم يكن صريحًا بدرجة كافية» في التواصل.
كانت مايكروسوفت قد استثمرت 13 مليار دولار، قبل دقائق فقط من تلقي خبر الفصل. ثم قال الرئيس التنفيذي Satya Nadella لاحقًا: «لقد صُدمت جدًا، ولم أستطع أن أسأل أحدًا يقدّم لي إجابات.»
بدأ Reid Hoffman في إجراء اتصالات للتحقيق: «لا أعرف ما الذي حدث له، والله. كنا نبحث عن اختلاس أو تحرش جنسي، لكن لم نجد شيئًا.»
ثم بدأت حملة الرد.
تحوّل قصر Altman بقيمة 27 مليون دولار إلى «حكومة في المنفى». انضم مستشار العلاقات العامة للأزمات Chris Lehane، وكانت شعاره من Mike Tyson: «لدى الجميع خطة، حتى يتلقوا لكمة واحدة.»
حثّ Lehane Altman على شن حملة شرسة على وسائل التواصل الاجتماعي. بقي Airbnb مؤسسها Brian Chesky على اتصال مع الصحفية التقنية Kara Swisher، لنقل انتقادات المجلس.
في كل ليلة عند الساعة 6 مساءً، كان Altman يوقف «غرفة العمليات»، ثم يقضي جولة من مشروبات Negroni. «تحتاج أن تهدأ»، يتذكر، «فالأحداث التي يجب أن تحدث ستحدث في النهاية.»
لكن سجل المكالمات الخاص به يُظهر أنه كان يتصل يوميًا أكثر من 12 ساعة.
أوقفت شركة الاستثمار Thrive الاستثمار المقرر، في تلميح إلى أن إتمام الصفقة سيحدث فقط إذا عاد Altman. الموظفون وحدهم يمكنهم الحصول على مكافآت أسهم تصل إلى ملايين الدولارات.
انتشرت داخل الشركة رسالة مفتوحة تطلب عودة Altman. وجرى اتصال ورسائل من زملاء للأشخاص الذين كانوا مترددين في التوقيع. في النهاية، هدد غالبية موظفي OpenAI بأنهم سينضمون إلى Altman إذا غادر.
تم دفع مجلس الإدارة إلى الزاوية. وقالت Helen Toner: «Control Z، هذا خيار»، لإلغاء قرار الفصل. «أو خيار آخر هو أن تنهار الشركة.»
حتى Mira Murati وقّعت في النهاية على الرسالة. كانت قد زودت Sutskever بمحتوى من المذكرة.
وعثرت زوجة Brockman، Anna، على Sutskever في المكتب، وطلبت منه أن يعيد التفكير. «أنت رجل طيب، يمكنك إصلاح هذا»، قالت.
بعد ذلك، شرح Sutskever في شهادة أمام المحكمة: «أعتقد أنه إذا سلكنا طريق ألا يعود Sam، سيتم تدمير OpenAI.»
في إحدى الليالي، تناول Altman حبة من منوّم Ambien، وأيقظه زوجها Oliver Mulherin، ثم قال له إن Sutskever قد تراجع، وإن الناس يريدون من Altman التحدث إلى مجلس الإدارة. قال Altman: «استيقظت في ضباب Ambien هذا، وكنت تائها تمامًا. قلت لنفسي: الآن لا يمكنني التحدث إلى مجلس الإدارة.»
في سلسلة من الاتصالات التي أصبحت أكثر توترًا، طلب Altman من أعضاء مجلس الإدارة الذين أُقيلوا منه أن يستقيلوا.
وبأقل من خمسة أيام، عاد Altman إلى منصبه.
فقد Sutskever وToner وMcCauley مقاعدهم في مجلس الإدارة. والعضو الوحيد الذي بقي من مجلس الإدارة الأصلي هو مؤسس Quora Adam D’Angelo.
كشرط للخروج، طلبت الأعضاء المقالة من مجلس الإدارة إجراء تحقيق في اتهامات Altman. كما طلبوا أن يتمكن مجلس إدارة جديد من الإشراف بشكل مستقل على التحقيق الخارجي.
لكن اثنين من الأعضاء الجدد، Lawrence Summers (مدير جامعة هارفارد السابق) وBret Taylor (الرئيس التنفيذي السابق لمنتجات Facebook)، تم اختيارهم بعد مشاورات وثيقة مع Altman.
«هل ستفعل ذلك؟» راسل Altman Nadella في رسالة نصية، «Bret وLarry Summers وAdam ضمن مجلس الإدارة، وأنا كرئيس تنفيذي، ثم يتولى Bret التحقيق.»
الآن يطلق الموظفون على هذه اللحظة اسم «Blip»، حدث اختفاء شخصيات في فيلم من أفلام مارفل من الوجود ثم عودتها. لكن العالم تغيّر بشكل عميق بسبب غيابهم.
تحقيق بلا تقرير
إحدى شروط أعضاء مجلس الإدارة الذين غادروا: يجب أن يكون هناك تحقيق مستقل.
وظّفت OpenAI مكتب محاماة WilmerHale، وهو مكتب تولّى تحقيقات داخلية في فضيحة Enron وWorldCom.
لكن ستة أشخاص قريبين من التحقيق قالوا إن التحقيق صُمم على ما يبدو لتقييد الشفافية.
في البداية، لم يتواصل بعض المحققين مع الشخصيات المهمة داخل الشركة. قال موظف تواصل مع Summers وTaylor للاحتجاج: «لم يهتموا إلا بما حدث أثناء الدراما في مجلس الإدارة، وليس بتاريخ نزاهته»، كما يتذكر شعوره خلال المقابلة.
آخرون لم يرغبوا في مشاركة مخاوفهم بشأن Altman لأنهم اعتقدوا أنه لا توجد حماية مجهولة كافية. قال هذا الموظف: «كل شيء يشير إلى النتيجة التي يريدون الوصول إليها: إعلان براءته».
الهدف من التحقيقات المؤسسية هو منح الشرعية. في الشركات الخاصة، لا تُكتب أحيانًا نتائج التحقيقات، ما قد يقلل من المسؤولية. لكن في القضايا التي تتعلق بفضيحة عامة، غالبًا ما يُتوقع مستوى أعلى من الشفافية.
قبل أن يترك Travis Kalanick Uber في 2017، استأجر مجلس الإدارة شركة خارجية ونشر ملخصًا من 13 صفحة للجمهور.
وبالنظر إلى وضع OpenAI كمنظمة 501©(3) وطبيعة الفصل العلنية المثيرة للجدل، توقع كثير من المسؤولين التنفيذيين رؤية نتائج التحقيق بالتفصيل.
في مارس 2024، أعلنت OpenAI تبرئة Altman، لكن دون نشر تقرير. وفّرت الشركة على موقعها ما يقرب من 800 كلمة تعترف بـ«انهيار الثقة».
قال من شاركوا في التحقيق: «لم يُنشر تقرير لأنهم في الأساس لم يكتبوا تقريرًا.»
كانت نتائج التحقيق مقتصرة على إفادة شفوية، نُقلت إلى Summers وTaylor فقط.
«لم يُخلص التحقيق إلى القول إن Sam كان جورج واشنطن من حيث النزاهة»، قال أحد الأشخاص القريبين من التحقيق. «لكن يبدو أن مسألة النزاهة لم تكن في صلب ما أدى إلى فصل Altman. بدلاً من ذلك، ركّز التحقيق معظم جهده على البحث عن سلوك جنائي واضح. وعلى هذا الأساس، خلص التحقيق إلى أنه يمكنه الاستمرار كرئيس تنفيذي.»
بعد ذلك بوقت قصير، عاد Altman إلى مجلس الإدارة. لقد طُرد من المجلس وقت فصله.
كان قرار عدم إعداد تقرير مكتوب مبنيًا على نصيحة المحامين الخاصين لـ Summers وTaylor.
وأفاد كثير من الموظفين السابقين والحاليين في OpenAI بأنهم فوجئوا بنقص الإفصاح.
قال Altman إنه يعتقد أن جميع أعضاء مجلس الإدارة الذين انضموا بعد عودته تلقوا إحاطة شفوية. «هذه كذبة صريحة تمامًا»، قال شخص مطّلع مباشرة على الأمر.
ذكر بعض أعضاء مجلس الإدارة أن استمرار الشكوك حول اكتمال التقرير قد يؤدي إلى «ضرورة إجراء تحقيق آخر مرة».
الانهيار المنهجي لتعهدات السلامة
كان الالتزام الجوهري عند تأسيس OpenAI: إذا كان الذكاء الاصطناعي قد يكون أخطر اختراع في تاريخ البشرية، فيجب أن تكون السلامة أولوية فوق كل شيء.
في ربيع 2023، أعلنت OpenAI إنشاء «فريق مواءمة فائقة»، بقيادة Jan Leike وSutskever. تعهّدت الشركة بتخصيص «20% من القدرة الحاسوبية التي حصلنا عليها حتى الآن» لهذا الفريق، بقيمة محتملة تتجاوز مليار دولار.
تبخّر هذا التعهد.
قال أربعة أشخاص يعملون في الفريق أو على صلة وثيقة به: إن الموارد الفعلية كانت بين 1% و2% من القدرة الحاسوبية للشركة.
وبالإضافة إلى ذلك، قال باحث في الفريق: «معظم القدرة الحاسوبية لفريق المواءمة الفائقة تُستخدم على أقدم العناقيد، وبأردأ شرائح.»
يعتقد الباحثون أن الأجهزة الأفضل تم حفظها لاستخدامها في أنشطة توليد الإيرادات.
اشتكى Leike إلى مديرة التكنولوجيا وقتها، Mira Murati، لكنّها قالت له ألا يثير هذه المسألة بعد الآن؛ إذ إن هذا التعهد لم يكن واقعيًا من الأساس.
في اجتماع في ديسمبر 2022، ضمن Altman لمجلس الإدارة أن خصائص نموذج GPT-4 القادم قد تم اعتمادها من قِبل فريق السلامة.
طلبت عضو مجلس الإدارة Helen Toner تقديم مستندات. واكتشفت أن أكثر الخصائص المثيرة للجدل—إحدى ميزات تسمح للمستخدمين بـ«ضبط» النموذج لمهمة محددة، وأخرى تسمح بنشره كمساعد شخصي—لم تكن في الواقع قد حظيت بموافقة.
وعندما غادرت McCauley الاجتماع، سحبها موظف جانبًا وحرّك السؤال: هل كانت تعرف عن «المخالفة» في الهند. وخلال الإحاطة المطولة لساعات مع مجلس الإدارة، لم يذكر Altman أن مايكروسوفت أطلقت نسخة مبكرة من ChatGPT في الهند دون إكمال مراجعات السلامة المطلوبة.
قال Jacob Hilton، باحث في OpenAI آنذاك: «تم تجاهل ذلك تمامًا.»
في 2023، كانت الشركة تستعد لإصدار نموذج GPT-4 Turbo. ووفقًا للتفاصيل الواردة في مذكرة Sutskever، يبدو أن Altman أخبر Murati أن هذا النموذج لا يحتاج إلى موافقة على السلامة، مستشهدًا بكلام المستشار القانوني العام في الشركة، Jason Kwon.
لكن عندما سألتها عبر Slack عن رأي Kwon، ردّ: «أوه… لست متأكدًا من أين حصل Sam على هذا الانطباع.»
بعد إصدار GPT-4، أرسل Leike بريدًا إلكترونيًا إلى أعضاء مجلس الإدارة. «لقد انحرفت OpenAI بالفعل عن مسار مهمتها،» كتب. «نضع المنتجات والإيرادات فوق كل شيء، ثم قدرات الذكاء الاصطناعي والأبحاث والتوسّع، مع أخذ المواءمة والسلامة في المرتبة الثالثة.»
واستمر: «شركات أخرى مثل Google تتعلم؛ ويتعين عليها أن تنشر بشكل أسرع وتتجاهل مسائل السلامة.»
تم حل فريق المواءمة الفائقة في 2024 دون أن ينجز مهمته. استقال كل من Sutskever وLeike.
كتب Leike على X: «استسلمت ثقافة وإجراءات السلامة للمنتجات اللامعة.»
بعد ذلك بوقت قصير، تم حلّ أيضًا «فريق استعداد AGI» المسؤول عن جعل المجتمع جاهزًا لصدمة الذكاء الاصطناعي المتقدم.
عندما طُلب من الشركة—في إفصاحات IRS الأخيرة—وصف أكثر أنشطتها «أهمية» بشكل موجز، ظهرت كلمة السلامة في إجابات النموذج السابقة، لكنها لم تُذكر في هذه المرة.
قالت OpenAI إن «مهمتها لم تتغير»، وأضافت: «سنواصل الاستثمار وتطوير عملنا في مجال السلامة، وسنواصل إجراء تغييرات تنظيمية.»
مركز Future of Life Institute هو مؤسسة بحثية (think tank)، تبنّى «مبادئ السلامة» التي كان Altman يدعمها سابقًا. تقوم هذه المؤسسة بتقييم «أمن الوجود» لكل شركة رئيسية للذكاء الاصطناعي.
في أحدث كشف نتائج، حصلت OpenAI على درجة F.
ومن العدل القول إن، بخلاف Anthropic (حصلت على D) وGoogle DeepMind (حصلت على D-)، حصلت جميع الشركات الكبرى الأخرى على F أيضًا.
قال Altman: «شعوري لا ينسجم مع الكثير مما يُطرح عادة ضمن أمن الذكاء الاصطناعي.». وأصرّ على أنه يواصل إعطاء الأولوية لهذه القضايا، لكن عندما طُلب منه تفاصيل محددة، كان غامضًا: «سنواصل تشغيل مشاريع السلامة، أو على الأقل مشاريع تقع بجوار السلامة.»
عندما طلب صحفي إجراء مقابلة مع باحثين داخل الشركة يعملون في أمن الوجود، أُصيب ممثل من OpenAI بالارتباك إلى حد ما عندما سُئل. «ماذا تقصد بأمن الوجود؟» أجاب، «ليس مثلًا… كأن يكون هناك… شيء ما.»
لعبة خطرة جيوسياسيًا 2017 صيفًا، صرّح Altman خلال اجتماع مع مسؤولين في الاستخبارات الأمريكية بأن الصين أطلقت «مشروع مانهاتن الخاص بـ AGI»، وأن OpenAI تحتاج إلى عشرات المليارات من التمويل الرسمي كي تواكب.
وعندما طُلب منه تقديم دليل، قال Altman: «سمعت عن بعض الأمور.»
كانت هذه أول مرة يطرح فيها هذا الادعاء في اجتماعاته. وفي إحدى المرات بعد ذلك، أخبر مسؤولًا استخباراتيًا أنه سيتابع ويقدّم الأدلة.
لكنه لم يفعل.
خلص ذلك المسؤول بعد التحقيق في المشروع الصيني إلى أنه لا توجد أدلة على وجوده. «إنه مجرد خطاب يُستخدم للبيع.»
قال Altman إنه لا يتذكر وصف جهود بكين بهذه الطريقة.
لكن تشبيه «مشروع مانهاتن» ظل مستخدمًا باستمرار. ووفقًا لمقابلات مع أشخاص تمت مقابلتهم وسجلات من نفس الفترة، في 2017 طرح Brockman اقتراحًا معاكسًا: يمكن لـ OpenAI أن تثري عبر جعل القوى الكبرى—بما فيها الصين وروسيا—تتنافس فيما بينها، وربما يمكن إطلاق حرب مزايدات بينهما.
تذكّر مستشار السياسات والأخلاقيات Page Hedley أن الفكرة بدت كأنها: «إذا كانت الأسلحة النووية تعمل، فلماذا لا يعمل الذكاء الاصطناعي؟»
كان مندهشًا: «الفرضية هي أنهم لم يردّوا. ‘نحن نتحدث عن تقنية قد تكون الأكثر تدميرًا في التاريخ، فماذا لو قمنا ببيعها لفلاديمير بوتين؟’»
أصرّ Brockman على أنه لم يفكر بجدية في مزايدة رسمية لطرح نماذج الذكاء الاصطناعي. وقال ممثل OpenAI: «تمت مناقشة فكرة الأطر المحتملة التي قد تشجع التعاون بين الدول على مستوى الإدارة العليا، مثل محطة فضائية دولية للذكاء الاصطناعي. إن محاولة وصفها بأنها شيء آخر هو أمر سخيف تمامًا.»
غالبًا ما تنتج جلسات العصف الذهني أفكارًا متطرفة. أراد Hedley التخلي عن هذه الفكرة، التي سُمّيت «الخطة الوطنية».
لكن، وفقًا لعدة مشاركين ووثائق من نفس الفترة، يبدو أن المسؤولين التنفيذيين أصبحوا متحمسين لها أكثر فأكثر.
قال وقتها المسؤول عن السياسات Jack Clark إن هدف Brockman كان «بناء معضلة السجين بشكل أساسي، حيث يتعين على كل دولة أن تمولنا»، وإنه «يضمر كذلك أن عدم تمويلنا يصبح أمرًا خطيرًا إلى حد ما».
قال باحث مبتدئ يتذكر: عندما شرحوا الخطة بالتفصيل في اجتماع داخل الشركة، فكر: «هذا مجنون تمامًا، على ما يبدو.»
ناقش المسؤولون التنفيذيون على الأقل هذا الأسلوب مع مانح محتمل. لكن في وقت لاحق من ذلك الشهر، بعد حديث بضعة موظفين عن الاستقالة، تم التخلي عن الخطة.
قال Hedley: «سيخسر موظفين». «وأشعر أن هذا كان—دائمًا—أكثر وزنًا في حسابات Sam، وليس ‘أنها ليست خطة جيدة لأنها قد تؤدي إلى حرب بين القوى الكبرى’.»
مال وسلطة في الشرق الأوسط
كان هدف Altman الأول في جمع التبرعات هو السعودية.
التقى لأول مرة بولي العهد محمد بن سلمان في عشاء بفندق فيرمونت في سان فرانسيسكو عام 2016. وبعدها، يتذكر Hedley أن Altman وصف ولي العهد بأنه «صديق».
في سبتمبر 2018، تظهر ملاحظات Hedley أن Altman قال: «أفكر فيما إذا كنا سنأخذ مئات المليارات من الدولارات من صندوق الاستثمارات العامة السعودي PIF.»
في الشهر التالي، وفقًا لتقارير، أمر بن سلمان بفريق اغتيال لقتل مراسل صحيفة «واشنطن بوست» جمال خاشقجي، ثم تشويه جثته بمِنسَج عظم.
بعد أسبوع، تم الإعلان عن انضمام Altman إلى المجلس الاستشاري لـ Neom، «مدينة المستقبل» التي يأمل بن سلمان بناؤها في الصحراء.
«Sam، لا يمكنك أن تكون ضمن مجلس الإدارة هذا،» تذكّر Clark، الذي يعمل الآن في Anthropic، قوله لـ Altman. دافع في البداية عن مشاركته، وأخبر Clark أن Jared Kushner ضمن له أن السعوديين «لم يفعلوا هذه الأمور».
لم يتذكر Altman ذلك. وقال Kushner إنهم لم يتواصلوا معًا آنذاك.
مع وضوح دور بن سلمان أكثر، غادر Altman مجلس إدارة Neom. لكن، من خلف الكواليس، تذكّر مستشار سياسة كان Altman يسعى للحصول على نصيحته أنه تعامل مع الأمر على أنه مجرد تعثر مؤقت، وسأله إن كان لا يزال بإمكانه الحصول على أموال من بن سلمان.
قال المستشار: «المسألة ليست ‘هل هذا شيء سيئ أم لا؟’». «بل هي: ‘إذا فعلنا ذلك، ما النتائج؟ هل توجد مسألة ضوابط تصدير؟ هل توجد عقوبات؟ مثلًا، هل يمكنني الإفلات؟’»
بحلول ذلك الوقت، كان Altman قد ركز على مصدر نقدي آخر: الإمارات.
في خريف 2023، بدأ Altman بهدوء في تجنيد مواهب لخطة—وأطلق عليها في النهاية ChipCo. ستوفر دول الخليج مئات المليارات من الدولارات لبناء مصانع ضخمة للدوائر الدقيقة ومراكز بيانات، سيكون بعضها في الشرق الأوسط.
روّج Altman لدور قيادي لـ Alexandr Wang (المدير الحالي لـ Meta AI)، وقال له إن مؤسس أمازون Jeff Bezos يمكنه قيادة هذه الشركة الجديدة. وطلب Altman تبرعات كبيرة من الإماراتيين.
«حسب فهمي، حدثت القصة كلها دون علم أي شخص في مجلس الإدارة،» قال أحد أعضاء مجلس الإدارة.
تذكّر James Bradbury، الباحث الذي حاول Altman تجنيده، أنه رفض. «كان رد فعلي الأول: ‘هذا سأنجح، لكن لا أعرف ما إذا كنت أريد أن ينجح’،» قال.
قد تستبدل قدرات الذكاء الاصطناعي قريبًا النفط أو اليورانيوم المُثري باعتبارها الموارد التي تحدد ميزان القوى عالميًا. قال Altman إن القدرة الحاسوبية هي «عملة المستقبل».
عادةً، قد لا يكون موقع مراكز البيانات مهمًا دائمًا. لكن العديد من مسؤولي الأمن القومي الأمريكيين قلقون من تجميع بنية تحتية متقدمة للذكاء الاصطناعي في دول استبدادية في الخليج.
تعتمد البنية التحتية للاتصالات في الإمارات بشكل كبير على معدات من هواوي، وهي شركة تكنولوجية صينية على صلة رسمية بالجهات الحكومية. ووفقًا لتقارير، سبق أن سربت الإمارات إلى بكين تقنيات أمريكية.
تخشى الأجهزة الاستخباراتية أن يستخدم مهندسون صينيون شرائح دقيقة أمريكية متقدمة يتم إرسالها إلى الإمارات.
كما تكون مراكز البيانات في الشرق الأوسط أكثر عرضة للهجمات العسكرية. خلال الأسابيع الأخيرة، قصفت إيران مراكز بيانات أمريكية في البحرين والإمارات.
بعد إقالة Altman، كانت الشخص الأكثر اعتمادًا عليه هو Chesky، أحد مؤسسي Airbnb وأحد أكثر الداعمين إخلاصًا لـ Altman. وفي العام التالي، في اجتماع Alumni لدى Y Combinator، ألقى Chesky خطابًا ارتجاليًا انتهى به الحال إلى أن استمر لمدة ساعتين.
«كانت كأنها جلسة علاج جماعية،» قال. كانت الفكرة: حدسك لكيفية إدارة الشركة التي أسستها هي أفضل حدس؛ أي شخص يقول لك خلاف ذلك يمارس عليك التلاعب بالغاز (gaslighting).
«أنت لست مجنونًا، حتى لو أخبرك من يعمل معك أنك مجنون،» قال Chesky.
أطلق Paul Graham على هذا الأسلوب الاستفزازي اسمًا في مقال مدونة عن الخطاب: «نمط المؤسس».
منذ Blip، كان Altman يعمل وفق «نمط المؤسس».
في فبراير 2024، نشر The Wall Street Journal وصفًا لرؤية ChipCo لدى Altman. تخيلها كيانه مشتركًا تم تمويله باستثمارات تتراوح بين 5 و7 تريليونات دولار.
«fk it why not 8،» غرد.
وهذا هو الأسلوب الذي عرف به كثير من الموظفين عن الخطة. «الجميع كان يفكر: ‘انتظروا… ما الذي يحدث؟’»، يتذكر Leike.
في اجتماع داخلي، أصرّ Altman على أن فريق السلامة «تم إبلاغه». وبعث Leike رسالة يحثه فيها على عدم إعطاء انطباع خاطئ بأن هذا العمل قد تم اعتماده.
في فترة بايدن، كان Altman يستكشف الحصول على تصريح سلامة للمشاركة في نقاشات سرية حول سياسات الذكاء الاصطناعي. لكن العاملين في RAND الذين ساعدوا على تنسيق العملية عبّروا عن قلق.
كتب أحدهم: «كان يجتهد في جمع ‘مئات المليارات من الدولارات’ من جهات رسمية أجنبية.» «قدمت الإمارات مؤخرًا سيارة له. (أفترض أنها سيارة جيدة جدًا.)»
وأضاف هذا الموظف: «الشخص الوحيد الذي استطعت تذكره وقد تعامل بعلاقات مالية أجنبية بهذا الحجم كان Jared Kushner، وقيل إن الأمر لا ينبغي أن يمنح له ترخيص.»
وفي النهاية، انسحب Altman من هذه العملية.
«كان يدفع هذه العلاقات في المقام الأول—مع الإماراتيين—وهذا جرس إنذار قوي جدًا لبعضنا،» قال مسؤول كبير تحدث إلينا بعد اجتماعات مع Altman. «كثير من المسؤولين الرسميين لا يثقون به بدرجة 100%.»
عندما سُئل عن هدايا من Tahnoon، قال Altman: «لن أذكر بالتحديد ما هي الهدايا التي قدمها لي. لكن هو—ومع قادة عالميين آخرين… قدموا لي هدايا.» ثم أضاف: «لدينا سياسة معيارية تنطبق عليّ: كل هدية من أي شريك تجاري محتمل سيتم الإفصاح عنها للشركة.»
كان لدى Altman على الأقل سيارتان فائقتان: Koenigsegg Regera بيضاء بالكامل تقدر قيمتها بحوالي 2 مليون دولار، وMcLaren F1 حمراء تقدر قيمتها بنحو 20 مليون دولار.
في 2024، شوهد Altman يقود Regera في نابا. ظهرت على وسائل التواصل الاجتماعي مقاطع فيديو لبضع ثوانٍ: كان Altman جالسًا في مقعد برميلي منخفض، يطل من نافذة آلة بيضاء لامعة.
نشر مستثمر تقني حليف لـ Musk على X هذا الفيديو، وكتب: «أخطط لتأسيس منظمة غير ربحية في الخطوة التالية.»
في 2024، اصطحب Altman موظفين اثنين من OpenAI لزيارة يخت Maryah فائق التكلفة بقيمة 250 مليون دولار لشيخ Tahnoon. وباعتباره واحدًا من أكبر هذه السفن في العالم، يحتوي Maryah على منصة هبوط للمروحيات، ونادٍ لليلة، وسينما، ونادٍ شاطئي.
يبدو أن موظفي Altman لم ينسجموا مع طاقم الأمن المسلح لدى Tahnoon؛ وعلى الأقل واحد منهم أخبر زملاءه لاحقًا أن التجربة كانت مزعجة.
ثم وصف Altman لاحقًا Tahnoon على X بأنه «صديق خاص عزيز».
رفض بايدن في النهاية الموافقة. قال أحد مسؤولي وزارة التجارة لـ Altman: «لن نبني رقائق متقدمة في الإمارات.»
وقبل تنصيب ترامب بأربعة أيام، ذكرت The Wall Street Journal أن Tahnoon دفع 500 مليون دولار لعائلة ترامب مقابل حصص في شركة العملات الرقمية الخاصة به.
في اليوم التالي، أجرى Altman مكالمة هاتفية لمدة 25 دقيقة مع ترامب، لمناقشة إعلان نسخة من ChipCo، مع توقيت يتيح لترامب أن ينسب الفضل إلى نفسه.
في اليوم الثاني من تولي ترامب المنصب، أعلن Altman—بصفته واقفًا في قاعة روزفلت—Stargate، وهي مشروع مشترك بقيمة 500 مليار دولار يهدف إلى إنشاء شبكة ضخمة لبنية تحتية للذكاء الاصطناعي في الولايات المتحدة.
في مايو، ألغت الولايات المتحدة قيود بايدن على تصدير تقنيات الذكاء الاصطناعي. توجه Altman وترامب إلى السعودية للقاء بن سلمان.
في الوقت نفسه تقريبًا، أعلنت السعودية عن إطلاق شركة ضخمة مدعومة من الدولة للذكاء الاصطناعي في المملكة، مع تمويل بمليارات الدولارات للشراكات الدولية.
بعد نحو أسبوع، وضع Altman خطة لتوسيع Stargate إلى الإمارات. وستخطط الشركة لإنشاء حرم مراكز بيانات في أبوظبي بمساحة سبع مرات مساحة سنترال بارك، وتقدير استهلاك الكهرباء سيعادل تقريبًا كهرباء مدينة ميامي.
قال مسؤول سابق في OpenAI: «الحقيقة أننا نبني بوابة، ومن خلالها نستدعي الكائنات الفضائية فعليًا». «والبوابة موجودة حاليًا في الولايات المتحدة والصين، وأضاف Sam بوابة في الشرق الأوسط.»
وأضاف: «وأعتقد أنه من المهم جدًا فهم مدى رعب هذا الأمر. إنه أكثر شيء متهور تم القيام به على الإطلاق.»
ربما كان الأمر تحفة مدبرة. وربما كان فقط يبحث عن ميزة.
بأي حال من الأحوال، نجح.
والآن السؤال هو: ماذا يراهن كل واحد منا عليه؟
أكاذيب مؤسسة غير ربحية
عندما تأسست OpenAI كمنظمة غير ربحية، كان مجلس إدارتها مسؤولًا عن وضع سلامة البشر فوق نجاح الشركة وحتى بقائها.
تستقبل الشركة تبرعات خيرية، وقال لنا بعض الموظفين السابقين إنهم انضموا لأن هناك ضمانًا للمنظمة غير الربحية ورسالتها النبيلة، بل حتى لأنهم خفضوا رواتبهم مقابل ذلك.
لكن السجلات الداخلية تُظهر أن المؤسسين شكّوا في بنية «غير الربح» سرًا منذ وقت مبكر في 2017.
كتب Brockman، المؤسس المشارك لـ Altman، في دفتر يومياته: «لا يمكننا القول إننا ملتزمون بمنظمة غير ربحية… إذا بعد ثلاثة أشهر أصبحنا B-Corp فهذا سيكون كذبًا.»
بعد ذلك، أعادت OpenAI هيكلة نفسها إلى كيان ربحي.
في الفترة المبكرة عندما كان Altman يعمل كرئيس تنفيذي، أعلن أن OpenAI ستنشئ شركة «ذات ربح محدود» يملكها كيان غير ربحي. هذه البنية الشبيهة بالبيزنطية للشركة لم تكن موجودة بالطبع قبل أن يصممها Altman.
خلال عملية التحويل، اعترض عضو مجلس الإدارة Holden Karnofsky، قائلًا إن المنظمة غير الربحية تم تقليل قيمتها بشكل كبير. «لا أستطيع فعل ذلك بصدق،» قال Karnofsky (صهر Amodei).
وفقًا لملاحظات معاصرة، صوت ضد القرار. لكن عندما قال محامو مجلس الإدارة إن اعتراضه «قد يشير إلى علامة على شرعية تتطلب تحقيقًا إضافيًا»، تم تسجيل صوته على أنه امتناع عن التصويت، ومن الواضح أنه لم يُؤخذ موافقته على ذلك بعين الاعتبار، وهو ما يشير إلى تزوير محتمل في سجل أعمال تجارية.
قالت OpenAI لنا إن عدة موظفين يتذكرون أن Karnofsky امتنع، وأنهم قدموا محاضر الاجتماعات التي تُظهر أنه امتنع عن التصويت.
في أكتوبر الماضي، «أعادت» OpenAI هيكلة نفسها إلى كيان ربحي. وتتباهى الشركة بالمنظمة غير الربحية التابعة—التي تُسمى الآن مؤسسة OpenAI—وهي تُصنّف كواحدة من أغنى المنظمات غير الربحية على الإطلاق من حيث الموارد.
لكنها الآن تشكل 26% من أصحاب المصلحة في الشركة، وأعضاء مجلس الإدارة—باستثناء واحد—هم أيضًا أعضاء في مجلس إدارة شركة ربحية.
عند الإدلاء بشهادته أمام الكونغرس، سُئل Altman إن كان قد كسب «الكثير من المال». فأجاب: «ليس لدي أسهم في OpenAI… فعلت ذلك لأني أحبها». كانت إجابة متحفظة، نظرًا لأنه حصل على أسهم غير مباشرة عبر صندوق Y.C.
هذا صحيح تقنيًا حتى الآن. لكن بعض الأشخاص، بمن فيهم Altman، قالوا لنا إن ذلك قد يتغير قريبًا.
قال Altman: «قال المستثمرون: أحتاج أن أعرف أنك ستتمسك عندما تصبح الأمور صعبة.» لكنه أضاف أنه لم تكن هناك «مناقشات إيجابية».
وفقًا لشهادة قضائية، يبدو أن Brockman يمتلك أسهمًا بقيمة تقارب 20 مليار دولار. ومن المرجح أن حصة Altman ستكون أعلى.
ومع ذلك، أخبرنا أنه ليس مدفوعًا بالثروة بشكل أساسي. تذكر موظف سابق أنه قال: «لا يهمني المال. ما يهمني هو السلطة.»
حرب تشويه المنافسين
في سباق شرس نحو الهيمنة التي يقودها الذكاء الاصطناعي، اختلطت الانتقادات الجوهرية لـ Altman وجهود المعارضين بلا قيود، حيث استخدم المنافسون حياته الشخصية كسلاح.
وسيط مرتبط مباشرة بـ Musk، وفي حالة واحدة على الأقل تم دفع أجر له بواسطة Musk، نشر عشرات الصفحات من مادة مثيرة للاشمئزاز وغير مثبتة عن المعارضة، وهو ما يعكس مراقبة واسعة النطاق: شركات صورية، ومعارف شخصية، ومقابلات في حانات للمثليين حول ما يُزعم أنه أعمال جنسية.
أثناء تقريرنا، ألمح أكثر من شخص داخل الشركة المنافسة لنا إلى أن Altman يلاحق قُصّرًا—وهذه قصة مستمرة في وادي السيليكون، لكنها تبدو غير حقيقية.
أمضينا أشهرًا في التحقق من الأمر، أجرينا عشرات المقابلات، ولم نعثر على أي دليل يدعم ذلك.
واصل Musk في العلن مهاجمة Altman، ووصفه بـ«المحتال Altman» و«المحتال Sam». (وعندما اشتكى Altman على X من تسريعه لطلبه من شركة Tesla، رد Musk: «لقد سرقت منظمة غير ربحية.»)
لكن في واشنطن، يبدو أن Altman تجاوز Musk. أنفق Musk أكثر من 250 مليون دولار لمساعدة ترامب على إعادة انتخابه، ثم عمل في البيت الأبيض لعدة أشهر. وبعدها غادر واشنطن، وفي هذه العملية أضر بعلاقته مع ترامب.
يُعد Altman الآن واحدًا من أكثر رجال الأعمال المفضلين لدى ترامب، بل إنه رافقه في زيارة مع العائلة المالكة البريطانية في قصر وندسور. يتحدث Altman وترامب عبر الهاتف عدة مرات سنويًا.
قال Altman: «يمكنك، مثلًا، أن تتصل به.» «ليس هذا “رفيقًا”… لكن نعم، إذا احتجت للتحدث معه حول شيء ما فسأتولى الأمر.»
عندما أقام ترامب في العام الماضي مأدبة عشاء لقادة التكنولوجيا في البيت الأبيض، كان Musk غائبًا بشكل واضح؛ وكان Altman جالسًا قبالته.
قال ترامب: «Sam، أنت قائد عظيم.» «ما قلته لي سابقًا كان أمرًا غير قابل للتصديق على الإطلاق.»
الخطر الحقيقي للذكاء الاصطناعي
لماذا كل هذا مهم؟
للذكاء الاصطناعي بالفعل استخدامات تنقذ الأرواح، من أبحاث طبية إلى تحذيرات مناخية. وقد دعم Altman نمو OpenAI بوعود مستقبلية فائقة الثراء.
لكن الخطر لم يعد مجرد خيال.
تم نشر الذكاء الاصطناعي في العمليات العسكرية في أنحاء العالم. وقد وثّق الباحثون قدرته على التعرف بسرعة على عوامل الحرب الكيميائية.
واجهت OpenAI سبع دعاوى وفاة غير طبيعية، تتهم ChatGPT بأنها أدت إلى حالات انتحار، وقضية قتل واحدة. وتُظهر سجلات الدردشة في إحدى قضايا القتل أنها شجعت أوهامًا بجنون العظمة لدى رجل، إذ اعتقد أن والدته البالغة من العمر 83 عامًا كانت تراقبه وتحاول تسميمه. وبعد وقت قصير، اعتدى عليها وخنقها ثم طعن نفسه.
تعمل OpenAI على مواجهة هذه الدعاوى، وتقول إنها تواصل تحسين إجراءات الحماية في نماذجها.
قد يؤدي الذكاء الاصطناعي قريبًا إلى اضطراب شديد في سوق العمل، وربما سيُزيل ملايين الوظائف.
يصبح الاقتصاد الأمريكي أكثر اعتمادًا على عدد قليل من شركات الذكاء الاصطناعي ذات الرافعة المالية المرتفعة. ويُحذر كثير من الخبراء—أحيانًا بمن فيهم Altman—من أن القطاع في فقاعة.
قال العام الماضي للصحافة: «هناك من قد يتكبد خسائر مذهلة بمبالغ كبيرة جدًا.»
كانت OpenAI واحدة من أسرع الشركات الناشئة حرقًا للنقد في التاريخ، وتعتمد على شراكات تموَّل عبر اقتراض مبالغ ضخمة. قال أحد أعضاء مجلس الإدارة لنا: «إن طريقة الشركة في استخدام الرافعة المالية حاليًا تحمل مخاطر ومخيفة.»
اعترضت OpenAI على ذلك.
إذا انفجرت الفقاعة، فليست شركة واحدة فقط هي التي ستتضرر.
مسألة ثقة
على مدى سنوات، كان Altman يدعم الحزب الديمقراطي. قال لنا: «أشك كثيرًا في أن المستبدين الأقوياء يروون قصص الخوف لتوحيد الصفوف ضد الضعفاء». «هذه قضية تخص اليهود، وليست قضية تخص المثليين.»
في 2016، دعم هيلاري كلينتون، ووصف ترامب بأنه «تهديد غير مسبوق لأمريكا». وفي 2020، تبرع للحزب الديمقراطي وصندوق النصر الخاص بحملات بايدن.
في فترة بايدن، التقى Altman على الأقل ست مرات مع البيت الأبيض. ساعد في صياغة أمر تنفيذي طويل—أول اختبار اتحادي للسلامة للذكاء الاصطناعي، إضافة إلى أنظمة حماية أخرى.
عندما وقّع بايدن عليه، وصف Altman ذلك بأنه «بداية جيدة».
في 2024، ومع انخفاض أرقام استطلاعات بايدن، بدأت لغة Altman في التحول. قال: «أعتقد أن الولايات المتحدة ستكون بخير مهما حدث في هذه الانتخابات.»
بعد فوز ترامب، تبرع Altman بمليون دولار لصندوق تنصيبه، ثم التقط صور سيلفي مع مؤثريْن Jake وLogan Paul خلال حفل التنصيب.
وعلى X، وبأسلوبه الذي اعتاد أن يكتب فيه بحروف صغيرة، كتب Altman: «كنت أنظر مؤخرًا بشكل أدق إلى @potus وهذا غيّر نظرتي إليه (أتمنى أن أكون قد فكرت أكثر من نفسي… ).»
ألغى ترامب في اليوم الأول من توليه المنصب أمر بايدن التنفيذي بشأن الذكاء الاصطناعي.
قال مسؤول كبير في فترة بايدن عن Altman: «لقد وجد طريقة فعّالة للتنفيذ من خلالها عبر ترامب لأوامره.»
من Y Combinator إلى OpenAI: النمط
الوقت الذي قضاه Altman في Y Combinator أسس نمطًا لِسلوكه في OpenAI.
في 2018، ضج بعض شركاء Y.C. من تصرفات Altman إلى حد جعلهم يتوجهون إلى Graham للاحتجاج. ووفقًا لما يبدو، أجرى Graham—بصحبة زوجته، مؤسس Y.C. Jessica Livingston—محادثات صريحة مع Altman.
بعد ذلك، بدأ Graham يقول للناس إن Altman يوافق على المغادرة من الشركة، لكنه يعاند عمليًا.
أخبر Altman بعض شركاء Y.C. أنه سيتنحى عن منصب الرئيس التنفيذي، لكنه سيتولى منصب رئيس مجلس الإدارة.
في مايو 2019، تضمنت مشاركة على مدونة أعلنت عن رئيس جديد لـ Y.C. علامة نجمة: «Sam ينتقل إلى منصب رئيس مجلس إدارة YC.»
بعد عدة أشهر، تم تعديل المنشور إلى: «Sam Altman يغادر أي منصب رسمي في YC»؛ وبعد ذلك تم حذف العبارة بالكامل.
ومع ذلك، حتى 2021، ما تزال وثيقة صادرة عن هيئة الأوراق المالية والبورصات SEC تصف Altman كرئيس مجلس إدارة لـ Y Combinator.
قال Altman إنه لم يعلم بهذا الأمر إلا بعد وقت طويل.
لطالما أكد Altman علنًا—وفي شهادته الأخيرة—أنه لم يتم فصله من Y.C.، وأنه لم يقاوم المغادرة. وقال لنا إنه لم يعاند الرحيل.
قال Graham على تويتر: «نحن لا نريد أن يغادر، نحن فقط نختار» Y.C. وOpenAI. وفي بيان صحفي أخبرنا Graham: «ليس لدينا سلطة قانونية لإقالة أي شخص. كل ما نستطيع فعله هو ممارسة ضغط أخلاقي.»
لكن في الخفاء، كان واضحًا أن Altman أُزيل بسبب عدم الثقة الذي أبداه شركاء Y.C.
هذا الوصف لـ Altman خلال فترة Y Combinator يستند إلى مناقشات مع عدة مؤسسين وشركاء في Y.C.، وإلى مواد من نفس الفترة، وكل ذلك يشير إلى أن الانفصال لم يكن متبادلاً تمامًا.
في إحدى المرات، قال Graham لزميل في Y.C. قبل إزالته: «كان Sam يكذب علينا جميعًا.»
فن الإقناع
ليس Altman عبقريًا تقنيًا؛ ووفقًا لكثير ممن يعرفونه في دائرته، يفتقر إلى خبرة واسعة في البرمجة أو تعلم الآلة. وتذكر عدة مهندسين أنه يساء استخدامه أو يخلط المصطلحات التقنية الأساسية.
قام ببناء OpenAI إلى حد كبير عبر استغلال أموال الآخرين ومواهبهم التقنية.
هذا لا يجعله فريدًا. بل يجعله رجل أعمال.
الأكثر إثارة للإعجاب هو قدرته على إقناع المهندسين الحذرين، والمستثمرين، والجمهور المتشكك في التكنولوجيا بأن أولوياتهم هي نفسها، حتى لو كانت متعارضة، وأن ما يريده هو الذي يجب أن يحدث.
عندما يحاول هؤلاء إعاقة خطوته التالية، يجد غالبًا كلمات تجعله يهدئ الأمور، على الأقل مؤقتًا؛ وغالبًا عندما يفقدون صبرهم عليه، يكون قد حصل بالفعل على ما يحتاجه.
قال Wainwright، باحث سابق في OpenAI: «الهياكل التي يبنيها—على الورق—تحاصر مستقبله». «لكن حين يأتي المستقبل وتأتي الحاجة إلى تلك القيود، يُلغي ذلك الهيكل.»
قال مسؤول تنفيذي تقني عمل مع Altman: «إنه مقنع بشكل لا يصدق. كأنه خدعة تفكير شبيهة بذهنية الفرسان الجدي (Jedi).» «إنه المستوى التالي.»
في أبحاث المواءمة، يتضمن سيناريو افتراضي كلاسيكي سباق إرادة بين البشر وذكاء اصطناعي عالي القدرة. وفي مثل هذا السباق، يتوقع الباحثون عادة أن الذكاء الاصطناعي سيكسب—كما يتوقع المرء أن الماجستير في الشطرنج سيهزم طفلًا.
وبالنظر إلى كيف تغلب Altman على من حوله خلال Blip، قال هذا المسؤول التنفيذي إنه يشبه مشاهدة «اختراق لـ AGI خارج الصندوق».
من يجب أن نصدّق؟
أجرينا مقابلات مع أكثر من 100 شخص لديهم معرفة مباشرة بكيفية إدارة Altman لأعماله: موظفون حاليون وسابقون في OpenAI وأعضاء مجلس الإدارة؛ ضيوف وموظفو مختلف العقارات التابعة له؛ زملاؤه ومنافسوه؛ أصدقاؤه وأعداؤه؛ وحتى أشخاص—وبالنظر إلى ثقافة المرتزقة في وادي السيليكون—شغلوا أدوارًا من الطرفين.
بعض الناس دافعوا عن بصيرة Altman التجارية، وناقضوا منافسيه، ولا سيما Sutskever وAmodei، بوصفهم طلابًا طموحين لفشل اعتلاء العرش.
آخرون وصفوهم بأنهم علماء يسهل خداعهم ومنشغلون، أو «منادون بالنهاية» هستيريون، يتعذبون بأوهام أن البرمجية التي يبنونها ستعيش بطريقة ما وتقتلهم.
يعتقد Yoon، عضو مجلس إدارة سابق، أن Altman «ليس شيطانًا على طريقة الماكيافيللي»، بل مجرد شخص وصل إلى مرحلة «العجز» التي تجعله يقدر على إقناع نفسه بأن خطاب البيع المتغير الذي يقدمه له واقعٌ مستمر.
قالت: «إنه منغمس جدًا في قناعته الذاتية». «لذلك فإن ما يفعله—إذا كنت تعيش في العالم الحقيقي—لا معنى له. لكنه لا يعيش في العالم الحقيقي.»
ومع ذلك، اتفق أغلب الأشخاص الذين أجرينا معهم مقابلات على حكم Sutskever وAmodei: لدى Altman إرادة قوة بلا رحمة، تجعل منه مختلفًا حتى بين رجال أعمال يضعون أسماءهم على مركبة فضائية.
قال لنا عضو في مجلس الإدارة: «إنه لا يتقيد بالحقيقة». «لديه صفتان يكاد ألا تراهما في شخص واحد. الأولى رغبة شديدة في إرضاء الآخرين، وفي أي تفاعل معين أن يكون محبوبًا. والثانية قلة اهتمام شبه لا اجتماعي بالعواقب التي قد تنجم عن خداع شخص ما.»
وليس هذا عضو مجلس الإدارة الوحيد الذي يستخدم كلمة «لا اجتماعي» دون دعوة.
أحد زملاء Altman في الدفعة الأولى من Y Combinator كان Aaron Swartz، مبرمج موهوب لكنه كان يعاني من ظروف صعبة، وقد توفي بالانتحار في عام 2013، وما يزال يُذكر في كثير من دوائر التكنولوجيا كنوع من القديس.
قبل وفاته بقليل، أعرب Swartz عن قلقه بشأن Altman لأصدقاء. قال لأحدهم: «أنت بحاجة أن تفهم أن Sam لا يمكن الوثوق به أبدًا. هو شخص لا اجتماعي. سيقوم بأي شيء.»
قال العديد من كبار المسؤولين في Microsoft إن العلاقة بين الشركة وAltman أصبحت متوترة، رغم ولاء Nadella على مدى فترة طويلة.
قال أحدهم: «إنه يحرّف الأمور، ويلويها، ويعيد التفاوض، وينقض الاتفاقات.»
هذا العام المبكر، أكدت OpenAI من جديد أن Microsoft هي «الشريك الحصري» لمزود سحابي «لا حالة له»—أو بلا ذاكرة—لنماذجها. وفي اليوم نفسه أعلنت الشركة صفقة بقيمة 1M دولار، لتجعل أمازون الموزع الحصري لمنصة شركاتها لوكلاء الذكاء الاصطناعي.
وعلى الرغم من السماح بإعادة البيع، يرى كبار مسؤولين في Microsoft أن خطة OpenAI قد تتعارض مع حصريتها مع الشركة.
تصر OpenAI على أن صفقة أمازون لا تنتهك العقود السابقة. وقال ممثل عن Microsoft إن الشركة «تثق بأن OpenAI تفهم وتُقدّر التزاماتها القانونية.»
قال كبار مسؤولين في Microsoft إن Altman: «هناك فرصة صغيرة لكنها حقيقية أن يُذكر في النهاية باعتباره احتيالًا من مستوى Bernie Madoff أو Sam Bankman-Fried.»
ماذا تراهن OpenAI عليه
كان أساس تأسيس OpenAI هو الاعتقاد بأن الذكاء الاصطناعي قد يكون أقوى—وقد يكون أخطر—اختراع في تاريخ البشرية، ولذلك احتاجت الشركة إلى بنية غير معتادة.
يجب أن يكون الرئيس التنفيذي شخصًا يتمتع بنزاهة استثنائية.
وفقًا لـ Sutskever، «أي شخص يكرس نفسه لبناء تقنية من شأنها تغيير الحضارة يتحمل عبئًا ثقيلًا ومسؤولية غير مسبوقة.»
لكن «عادةً الشخص الذي ينتهي به الأمر في هذه المواقع يكون نوعًا معينًا من الأشخاص: مهتمًا بالسلطة، سياسيًا، ويستمتع بها.»
وفي إحدى المذكرات، بدا أنه قَلِق من أن يُفوَّض هذا العمل التقني إلى شخص «فقط يخبر الناس بما يريدون سماعه».
إذا ثبت أن رئيس تنفيذي لـ OpenAI غير موثوق، فمجلس إدارة يضم ستة أعضاء مخوّل بإقالته.
وصلت بعض الأعضاء—بمن فيهم خبراء سياسة الذكاء الاصطناعي Helen Toner ورائدة الأعمال Tasha McCauley—إلى المذكرة باعتبارها تأكيدًا لما كان يؤمنون به: أن دور Altman هو تفويض مستقبل البشرية للآخرين، لكنه لا يمكن الوثوق به.
وفي الاتصالات المتوترة بعد الإقالة، حثّ مجلس الإدارة Altman على الاعتراف بنمط قائم من الخداع.
قالت المذكرة المقتبس منها الكلام المتكرر من المكالمة: «لقد ضيعنا الأمور تمامًا على ما يرام». «لا أستطيع تغيير طبيعتي.»
قال Altman إنه لا يتذكر هذه المحادثة. «ربما كان مقصودي أنني كنت أحاول أن أكون قوة توحيد…» قال لنا، وأكّد أن هذه الصفة هي ما جعله قادرًا على قيادة شركة ناجحة جدًا.
نسب الانتقادات إلى ميل لديه، خصوصًا في وقت مبكر من مسيرته المهنية، لتجنب الصراع.
لكن عضو مجلس إدارة قدّم تفسيرًا مختلفًا: «هذا يعني: لدي صفة خداع الناس، ولن أتوقف.»
هل كان زملاؤه الذين دفعوا إلى إقالته يفعلون ذلك بدافع تهويل أو حسابات شخصية؟ أم أنهم كانوا على حق—لا يمكن الوثوق به؟
في فبراير 2024، تحدثنا مع Altman مرة أخرى. كان يرتدي سِترة خضراء داكنة وجينزًا، وجلس أمام صورة لمركبة قمرية تابعة لناسا. وضع إحدى ساقيه داخلهما تحت الأخرى، ثم علّقها على مسند الكرسي.
قال لنا إنه في الماضي كانت إحدى أكبر عيوبه كمدير هي رغبته في تجنب الصراع. «لكن الآن أنا مرتاح تمامًا لإقالة الناس بسرعة،» قال لنا. «وأنا مرتاح جدًا أن أقول: لنراهن في هذا الاتجاه». أي موظف لا يعجب باختياراته يحتاج إلى «المغادرة».
كان متفائلًا تجاه المستقبل أكثر من أي وقت مضى. «تعريفي للانتصار هو أن الناس يقفزون للأمام بشكل مجنون، وأن المستقبل الخيال العلمي المجنون يتحقق لنا جميعًا». قال. «وبالنسبة لأملي في البشر والأهداف التي أتوقع أن يحققها الجميع، أنا طموح جدًا. وليس لدي—غريب بما يكفي—طموح شخصي تقريبًا.»
أحيانًا بدا كأنه يدرك نفسه. «لا أحد يصدق أنك تفعل ذلك فقط لأنه ممتع»، قال. «أنت تفعل ذلك من أجل السلطة أو شيء آخر.»
حتى الأشخاص المقربين منه يجدون صعوبة في معرفة أين تنتهي «آماله على البشرية» وأين يبدأ طموحه.
كانت أكبر قوته دائمًا هي قدرته على إقناع مجموعات مختلفة بأن ما يريدونه وما يحتاجونه هو في الحقيقة الشيء نفسه.
استغل لحظة تاريخية فريدة، عندما كان الجمهور متحفظًا تجاه ضجيج صناعة التكنولوجيا، وكان معظم الباحثين القادرين على بناء AGI يخشون إدخاله إلى الوجود.
وكان رده بمناورة لم ينجح غيره من البائعين في إتقانها: استخدم لغة نهاية العالم ليشرح كيف يمكن لـ AGI أن يدمرنا جميعًا. ولذلك، لماذا يجب أن يكون هو الذي يبنيها.
ربما كانت تحفة مدبرة. وربما كان يختبر القوة المتاحة.
مهما يكن، نجح.
والآن السؤال هو: ما الذي يراهن عليه الجميع؟