العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
تقرير تحقيق معمق من مجلة نيويوركر: لماذا يعتقد المقربون من OpenAI أن Altman غير موثوق به؟
原文作者:小饼,深潮 TechFlow
في خريف 2023، جلس كبير علماء OpenAI Ilya Sutskever أمام جهاز الكمبيوتر، وأنجز ملفًا من 70 صفحة.
جمعت هذه الوثيقة من سجلات رسائل Slack وأرشيفات اتصالات الموارد البشرية ومحاضر الاجتماعات الداخلية، وكل ذلك فقط للإجابة عن سؤال واحد: سام ألتمان، هذا الشخص الذي يحتمل أنه يتولى أخطر تقنية في تاريخ البشرية، هل يمكن الوثوق به حقًا؟
الإجابة التي قدّمها Sutskever، مكتوبة في الصفحة الأولى من الملف على السطر الأول، وكان عنوان القائمة هو: “Sam يُظهر نمطًا ثابتًا من السلوك……”
الأولى: الكذب.
بعد سنتين ونصف اليوم، نشر الصحفيان الاستقصائيان Ronan Farrow و Andrew Marantz في مجلة The New Yorker تقريرًا استقصائيًا طويلًا للغاية. أجريا مقابلات مع أكثر من 100 شخص من المعنيين، وحصلا على مذكرات داخلية لم تُنشر من قبل، إضافةً إلى أكثر من 200 صفحة من الملاحظات الخاصة التي تركها Dario Amodei، مؤسس Anthropic، خلال فترة وجوده في OpenAI. إن القصة التي تتشكل من هذه الملفات تبدو أسوأ بكثير من “صراع البلاط” الذي وقع في 2023: كيف حوّلت OpenAI تدريجيًا، خطوة خطوة، من منظمة غير ربحية وُجدت من أجل سلامة البشر إلى آلة تجارية، وكانت كل حاجز أمان تقريبًا يتم تفكيكه يدويًا من قبل الشخص نفسه.
كانت خلاصة Amodei في الملاحظات أكثر صراحة: “مشكلة OpenAI هي Sam نفسه.”
افتراض “الخطيئة الأصلية” في OpenAI
لفهم ثقل هذا التقرير، يجب أولًا توضيح مدى خصوصية شركة OpenAI.
في عام 2015، قام Altman ومعه مجموعة من نخبة وادي السيليكون بعمل لا يكاد يكون له سابقة في تاريخ الأعمال: استخدام منظمة غير ربحية لتطوير تقنية قد تكون الأقوى في تاريخ البشرية. كانت مسؤوليات مجلس الإدارة مكتوبة بوضوح، وأن السلامة تأتي أولًا قبل نجاح الشركة، بل وحتى قبل بقاء الشركة. باختصار، إذا أصبحت ذكاء OpenAI الاصطناعي يومًا ما خطرة، فسيكون على مجلس الإدارة واجب إغلاق الشركة بنفسه.
تعتمد بنية كاملة على افتراض واحد: الشخص الذي يدير AGI يجب أن يكون شخصًا شديد الصدق.
ماذا إن كان الافتراض خاطئًا؟
القنبلة الأساسية في التقرير هي تلك الوثيقة من 70 صفحة. لا يلعب Sutskever ألعاب السياسة المكتبية؛ فهو واحد من أبرز علماء الذكاء الاصطناعي في العالم. لكن بحلول 2023، أصبح أكثر اقتناعًا بواقعة واحدة: أن Altman يواصل إخبار المسؤولين التنفيذيين وأعضاء مجلس الإدارة بأكاذيب.
مثال محدد: في ديسمبر 2022، ضمن Altman لمجلس الإدارة خلال اجتماع، أن العديد من ميزات GPT-4 التي سيتم إطلاقها قد اجتازت مراجعات السلامة. طلب عضو مجلس الإدارة Toner الاطلاع على وثائق الموافقة، واتضح أن اثنتين من أكثر الوظائف محل جدل (الضبط الدقيق المخصص للمستخدمين ونشر المساعد الشخصي) لم تحصل أصلًا على موافقة لوحة السلامة.
الأكثر غرابة وقع في الهند. فقدّم موظف شكوى إلى عضو آخر في مجلس الإدارة عن “تلك المخالفة”: لم تكن Microsoft قد أكملت مراجعات السلامة الضرورية، لكنها أطلقت مبكرًا نسخة من ChatGPT في الهند.
سجل Sutskever في المذكرة أيضًا واقعة أخرى: قال Altman سابقًا للمديرة التنفيذية التقنية السابقة Mira Murati إن عملية الموافقة على السلامة ليست مهمة كثيرًا، وأن المستشار القانوني العام للشركة قد وافق عليها. ذهبت Murati إلى المستشار القانوني العام لتتأكد، فجاء ردّه: “لا أعرف من أين حصل Sam على هذا الانطباع.”
ملاحظات Amodei الخاصة البالغ عددها 200 صفحة
كانت وثائق Sutskever شبيهة بمذكرة ادعاء كقضية جنائية. أما الملاحظات الخاصة لأكثر من 200 صفحة التي تركها Amodei، فكانت أقرب إلى يوميات شاهد عاين مكان الجريمة.
خلال السنوات التي عمل فيها Amodei مسؤولًا عن السلامة في OpenAI، رأى بعينيه كيف تراجعت الشركة خطوة خطوة تحت ضغط الضغوط التجارية. ودوّن في الملاحظات تفصيلًا حاسمًا حول صفقة استثمار Microsoft في 2019: أنه كان قد أدخل في نظام OpenAI الأساسي بندًا عن “الاندماج والمساعدة”، بمعنى أنه إذا عثرت شركة أخرى على مسار أكثر أمانًا لـ AGI، فيجب على OpenAI التوقف عن المنافسة والانتقال لمساعدة تلك الشركة. كانت هذه، بالنسبة له، ضمان السلامة الأكثر أهمية في كامل الصفقة.
عندما كانت الصفقة على وشك أن تُوقَّع، اكتشف Amodei شيئًا: حصلت Microsoft على حق نقض هذا البند. ماذا يعني ذلك؟ حتى لو عثر يومًا ما أحد المنافسين على طريق أفضل، يمكن لـ Microsoft بعبارة واحدة أن تغلق التزام OpenAI بالمساعدة. كان البند لا يزال على الورق، لكنه أصبح حبرًا على ورق منذ يوم التوقيع.
غادر Amodei لاحقًا OpenAI وأنشأ Anthropic. إن المنافسة بين الشركتين، في جوهرها، مبنية على خلافات أساسية حول “كيف ينبغي تطوير الذكاء الاصطناعي”.
التزام فقدان 20% من القدرة الحاسوبية
هناك تفصيل في التقرير، بمجرد قراءته تشعر بقشعريرة في ظهرك، يتعلق بـ “فريق المحاذاة الفائق” في OpenAI.
في منتصف 2023، تواصل Altman عبر البريد الإلكتروني مع طالب دكتوراه في جامعة بيركلي يبحث في “المحاذاة الخادعة” (أن يتصرف الذكاء الاصطناعي بشكل مطيع أثناء الاختبارات، لكنه يقوم بما يريده بعد النشر)، وقال إنه قلق جدًا بشأن هذه المسألة، وأنه يفكر في إنشاء جائزة بحث عالمية قدرها مليار دولار. كان الطالب متحمسًا للغاية، وأخذ إجازة من الدراسة والتحق بـ OpenAI.
ثم غيّر Altman رأيه: لم يعد يخطط لجائزة خارجية، بل أنشأ داخل الشركة “فريق المحاذاة الفائق”. أعلنت الشركة رسميًا وبصورة كبيرة أنها ستُخصّص لهذا الفريق “20% من القدرة الحاسوبية المتاحة”، وأن القيمة المحتملة تتجاوز مليار دولار. كانت صياغة الإعلان صارمة للغاية، حيث قالت إنه إذا لم تُحل مشكلة المحاذاة، فقد يقود AGI إلى “حرمان البشر من السلطة، بل وحتى إبادة البشر”.
بعد تعيينه لقيادة هذا الفريق، أخبر Jan Leike الصحفيين لاحقًا أن هذا الالتزام ذاته كان أداة فعّالة جدًا لـ “الاحتفاظ بالمواهب”.
ما الحقيقة إذن؟ تقول أربع جهات عملت في هذا الفريق أو كانت على اتصال وثيق به: أن القدرة الحاسوبية التي تم تخصيصها فعليًا لا تتجاوز 1% إلى 2% من إجمالي قدرة الشركة الحاسوبية، وكانت أيضًا من أقدم العتاد. ثم تم حل هذا الفريق لاحقًا، دون اكتمال المهمة.
عندما طلب الصحفيون مقابلة أشخاص مسؤولين عن أبحاث “السلامة الوجودية” في OpenAI، كانت ردود العلاقات العامة في الشركة مخيبة للسخرية: “ليس شيئًا…… له وجود فعلي.”
أما Altman نفسه فكان هادئًا. قال للصحفيين إن “حدسه لا يتماشى كثيرًا مع كثير من الأمور التقليدية في سلامة الذكاء الاصطناعي”، وأن OpenAI ستواصل تنفيذ “مشروعات السلامة، أو على الأقل مشروعات لها صلة بالسلامة”.
استبعاد CFO وIPO قادم
تقرير The New Yorker كان نصفًا فقط من الأخبار السيئة في ذلك اليوم. وفي اليوم نفسه، كشفت The Information عن خبر كبير آخر: نشب خلاف شديد بين CFO OpenAI Sarah Friar وAltman.
أخبرت Friar زملاءها سرًا أنها تعتقد أن OpenAI لم تكن مستعدة بعد للاكتتاب العام هذا العام. وعللت ذلك بسببين: عبء العمل المطلوب من حيث الإجراءات والتنظيمات هائل جدًا، والمخاطر المالية الناتجة عن إنفاق القدرة الحاسوبية لمدة 5 سنوات بقيمة 600 مليار دولار الذي تعهد به Altman مرتفعة للغاية. بل إنها غير متأكدة مما إذا كان نمو إيرادات OpenAI سيتحمل هذه الوعود.
لكن Altman كان يريد دفع وتيرة IPO خلال الربع الأخير من هذا العام.
والأكثر غرابة أن Friar لم تعد تبلغ Altman مباشرة. بدءًا من أغسطس 2025، أصبحت تبلغ Fidji Simo (الرئيس التنفيذي لأعمال التطبيقات في OpenAI). لكن Simo أخذت إجازة مرضية الأسبوع الماضي لأسباب صحية. عليك أن تتأمل هذا المشهد: شركة تدفع نحو IPO، بين CEO وCFO خلافات جوهرية، وCFO لا يرفع تقاريره إلى CEO، كما أن مدير CFO أيضًا في إجازة.
حتى بعض كبار المسؤولين داخل Microsoft قالوا إن الأمر تجاوز الحد. حيث اتهموا Altman بأنه “يشوّه الحقائق، وينقض وعوده، ويفكك باستمرار الاتفاقيات التي جرى التوصل إليها”. وقال أحد كبار مسؤولين في Microsoft حتى عبارة مثل: “أعتقد أن لديه فرصة معينة لأن يُذكر في النهاية كواحد من المحتالين بمستوى Bernie Madoff أو SBF.”
صورة “الازدواجية” لدى Altman
وصف أحد الأعضاء السابقين في مجلس إدارة OpenAI للصحفيين سمتين يتمتع بهما Altman. وربما تكون هذه الفقرة من أقسى رسومات الشخصيات في التقرير بأكمله.
قال هذا العضو إن لدى Altman تركيبة نادرة جدًا من الصفات: فهو في كل مرة يجري فيها تواصلًا وجهاً لوجه، يرغب بشدة في إرضاء الطرف الآخر وأن يحظى بإعجابه. وفي الوقت نفسه، لديه عدم مبالاة شبه مرضية بعواقب خداع الآخرين.
وجود الصفتين معًا في شخص واحد أمر نادر للغاية. لكن بالنسبة لبائع، فهي الموهبة الأكثر اكتمالًا.
يوجد في التقرير تشبيه جيد للغاية: يشتهر جوبز بـ “مجال تشويه الواقع”، وكان قادرًا على جعل العالم يصدق رؤيته. لكن حتى جوبز لم يقل أبدًا للعملاء: “إذا لم تشتَر جهاز تشغيل MP3 الخاص بي، فإن من تحبهم سيموتون”.
كان لدى Altman كلام مشابه، لكن بخصوص الذكاء الاصطناعي.
مسألة أخلاق CEO، لماذا تُعد خطرًا على الجميع
لو كان Altman مجرد CEO لشركة تقنية عادية، فلعل هذه الاتهامات لا تعدو أن تكون شائعة أعمال مثيرة للاهتمام. لكن OpenAI ليست شركة عادية.
بحسب وصفها هي، فهي تطور تقنية قد تكون الأقوى في تاريخ البشرية. وهي قادرة على إعادة تشكيل الاقتصاد العالمي وسوق العمل (وقد أصدرت OpenAI نفسها مؤخرًا ورقة بيضاء حول مشكلة البطالة الناتجة عن الذكاء الاصطناعي)، كما يمكن استخدامها لصناعة أسلحة بيولوجية واسعة النطاق أو لشن هجمات سيبرانية.
لقد أصبحت جميع حواجز الأمان مجرد اسم. وتراجعت رسالة المؤسسة غير الربحية لصالح اندفاع IPO. وقد حدد كل من الرئيس العلمي السابق ومسؤول السلامة السابق أن الرئيس التنفيذي “غير جدير بالثقة”. ووصف الشركاء CEO بأنه مثل SBF. وفي هذه الظروف، بماذا يحق لهذا CEO أن يقرر من طرفه وحده متى يتم إصدار نموذج ذكاء اصطناعي قد يغير مصير البشرية؟
كتب Gary Marcus (أستاذ AI في جامعة نيويورك، وداعم طويل الأمد لسلامة الذكاء الاصطناعي) بعد قراءته للتقرير جملة واحدة: إذا كان بإمكان نموذج OpenAI المستقبلي صنع أسلحة بيولوجية واسعة النطاق أو شن هجمات سيبرانية كارثية، فهل تثق حقًا بأن Altman وحده هو من يقرر ما إذا كان سيتم إصدار الأمر أم لا؟
وكان رد OpenAI على The New Yorker موجزًا: “معظم محتوى هذه المقالة يدور حول إعادة تسخين أحداث سبق الإبلاغ عنها، عبر أساليب من خلال التنميط المجهول والقصص القصصية الانتقائية، وبوضوح فإن مصادر المعلومات لديها أهداف شخصية.”
رد فعل من نوع Altman تمامًا: عدم الرد على اتهامات محددة، وعدم نفي صحة المذكرات، بل التشكيك في الدوافع فقط.
على جثة منظمة غير ربحية، تنبت شجرة لجني الأموال
يمكن تلخيص عقد OpenAI على مدى عشر سنوات كمخطط قصة على النحو التالي:
قام مجموعة من المثاليين الذين يهتمون بمخاطر الذكاء الاصطناعي بإنشاء منظمة غير ربحية مدفوعة بالرسالة. حققت المنظمة اختراقات تقنية استثنائية. جذبت الاختراقات كميات كبيرة من رأس المال. يحتاج رأس المال إلى عائد. بدأت الرسالة تتراجع في الطريق. تم حل فريق السلامة. تمت تصفية من كانوا يطرحون أسئلة. تم تحويل الهيكل غير الربحي إلى كيان يحقق أرباحًا. كان مجلس الإدارة الذي يملك سلطة إغلاق الشركة قد امتلأ، والآن يجلس فيه حلفاء CEO. وكانت الشركة التي وعدت سابقًا بتخصيص 20% من القدرة الحاسوبية لحماية سلامة البشر، تقول الآن لموظفي العلاقات العامة إن “ذلك ليس شيئًا…… له وجود فعلي.”
بطل القصة، وأكثر من مئة شاهد عايشوا ذلك أعطوه الملصق ذاته: “غير مقيد بالحقيقة.”
وهو على وشك أن يقود هذه الشركة نحو IPO، بتقييم يتجاوز 1B دولار.
تم دمج معلومات هذه المقالة من تقارير منشورة علنًا من عدة وسائل إعلام، منها The New Yorker وSemafor وTech Brew وGizmodo وBusiness Insider وThe Information وغيرها.