لقد تواكبت للتو مع واحدة من أكثر التحقيقات إثارة للقلق حول قيادة OpenAI منذ فترة، وبصراحة، من الصعب أن تتجاهل التداعيات هنا.



في عام 2023، جمع إيليا سوتسكيفر—العالم الرئيسي في OpenAI—مذكرة موسعة توثق مخاوف حول موثوقية سام ألتمان. نحن نتحدث عن 70 صفحة تستند إلى سجلات Slack، وسجلات الموارد البشرية، واجتماعات داخلية. كانت الجملة الافتتاحية صريحة: سام يظهر نمطًا ثابتًا من الكذب. تقدم سريعًا إلى الآن، وتحقيق نيويوركر (Ronan Farrow و Andrew Marantz) كشف عن المذكرة بالإضافة إلى أكثر من 200 صفحة من الملاحظات الخاصة من داريو أموداي، الذي كان رئيس السلامة في OpenAI قبل تأسيس أنثروبيك.

إليكم ما يثير دهشتي: كانت OpenAI مُنظمة حرفيًا كمنظمة غير ربحية بحيث تأتي السلامة قبل الربح. كانت الفكرة الأساسية أن يكون هناك شخص قادر على إغلاق الشركة إذا أصبحت الأمور خطيرة. بنيت الهيكلية على فرضية واحدة—أن الشخص الذي يديرها يجب أن يكون صادقًا بشكل جذري.

لكن وفقًا للمذكرة والمقابلات مع أكثر من 100 شخص، لم يحدث ذلك. هناك أمثلة محددة: أخبر ألتمان مجلس الإدارة أن ميزات GPT-4 اجتازت مراجعات الأمان عندما لم تكن كذلك. اكتشف أعضاء المجلس الأمر بصعوبة. كان هناك شيء ما مع مايكروسوفت والهند حيث أُطلق ChatGPT دون إكمال الفحوصات الأمنية المطلوبة. وعند مواجهته، ادعى أن المستشار العام قد وافق على شيء—لكن المستشار العام قال إنه لا يعلم من أين أتى ذلك.

تُظهر ملاحظات أموداي صورة لشركة تتخلى تدريجيًا عن مهمتها الأصلية تحت ضغط تجاري. وثّق كيف أدخلت مايكروسوفت بندًا في صفقة الاستثمار لعام 2019—يقول بشكل أساسي أنه إذا وجد طرف آخر مسارًا أكثر أمانًا نحو الذكاء العام، ستساعده OpenAI بدلاً من المنافسة. كان هو الحاجز الأمني الذي يهتم به أكثر. ثم اكتشف أن مايكروسوفت تفاوضت على حق النقض على ذلك البند بالذات. على الورق بدا جيدًا. في الواقع، كان ميتًا عند الوصول.

هناك تفصيل غريب حول فريق السوبرالينجمينت. أعلنت OpenAI أنها ستخصص 20% من قدرتها الحاسوبية له—ربما أكثر من مليار دولار. كانت اللغة قوية: بدون حل مشكلة التوافق، قد يؤدي الذكاء العام إلى انقراض الإنسان. لكن الأشخاص الذين عملوا على ذلك قالوا إن التخصيص الحقيقي كان 1-2% من السعة الإجمالية، باستخدام أقدم الأجهزة. تم حل الفريق دون إكمال شيء.

عندما سأل الصحفيون OpenAI عن فريق أبحاث السلامة الوجودية، كانت استجابة العلاقات العامة تقريبًا كوميدية: "هذا ليس شيئًا فعليًا." قال ألتمان نفسه إن حدسه لا يتوافق مع النهج التقليدي لسلامة الذكاء الاصطناعي.

وفي الوقت نفسه، هناك قصة أخرى تتبلور. قالت سارة فريار، المديرة المالية لـOpenAI، لزملائها إنها تعتقد أن الشركة ليست جاهزة لطرح عام أولي هذا العام—الكثير من العمل الإجرائي، والكثير من المخاطر المالية من التزام ألتمان بمليار دولار من الإنفاق على الحوسبة على مدى خمس سنوات. وهي ليست مقتنعة حتى أن النمو في الإيرادات يمكن أن يدعمه. لكن ألتمان يريد الدفع لطرح عام أولي في الربع الرابع. والمفاجأة: فريار لم تعد ترفع تقاريرها إلى ألتمان. اعتبارًا من أغسطس 2025، أصبحت ترفع تقاريرها إلى مدير تطبيقات OpenAI، الذي دخل إجازة طبية. إذن لديك شركة تتسابق نحو طرح عام أولي بقيمة مليار دولار، مع رئيس تنفيذي ومدير مالي في خلاف، والمدير المالي لا يرفع تقاريره إلى الرئيس التنفيذي، والمشرف عليها في إجازة. حتى مسؤولو مايكروسوفت كانوا منزعجين، وقال أحدهم إن هناك فرصة حقيقية أن يُذكر ألتمان مثل بيرني مادوف أو SBF.

قدم أحد أعضاء المجلس السابق تقييمًا قد يكون الأكثر حدة: أن ألتمان لديه مزيج نادر من الرغبة الشديدة في أن يُحب في كل تفاعل وجهًا لوجه، وفي الوقت نفسه يظهر عدم مبالاة شبه سوسيوپاثية تجاه خداع الناس. إنه الملف الشخصي المثالي لبائع. كان لدى ستيف جوبز حقول تشويه الواقع، لكن حتى جوبز لم يخبر العملاء أن عدم شراء منتجه قد يقتل من يحبون. أما ألتمان، فقد قال ذلك بشكل أساسي عن الذكاء الاصطناعي.

الشيء الذي يجعل هذا الأمر مهمًا حقًا: إذا كان الأمر مجرد دراما في شركة تقنية عادية، لكانت مجرد حديث صحفي. لكن OpenAI ليست عادية. إنهم يطورون ما قد يكون أقوى تقنية في تاريخ البشرية. نفس التقنية التي يمكن أن تعيد تشكيل الاقتصادات العالمية أو تخلق أسلحة بيولوجية. تم تفكيك كل آليات السلامة. لم تعد المهمة غير الربحية موجودة. لا يثق الرئيس التنفيذي السابق والعالم الأمني السابق في المدير التنفيذي. يقارن الشركاء بينه وبين المحتالين.

وتحت كل هذا، يقرر شخص واحد بشكل أحادي متى يطلق نماذج يمكن أن تعيد تشكيل مستقبل البشرية.

قال غاري ماركوس، أستاذ الذكاء الاصطناعي في جامعة نيويورك، بعد قراءة التقرير: "هل أنت مرتاح لأن يكون ألتمان هو القرار الوحيد إذا بنى OpenAI شيئًا يمكن أن يخلق أسلحة بيولوجية أو يشن هجمات إلكترونية؟"

كان رد OpenAI بشكل أساسي: "هذه قصص معاد تدويرها مع مصادر مجهولة وأجندات شخصية." لم يعالج ألتمان الادعاءات المحددة أو ينكر المذكرة. فقط تساءل عن الدوافع.

القصة تكاد تكون مرتبة جدًا: يبدأ المثاليون منظمة غير ربحية قلقين من مخاطر الذكاء الاصطناعي. يصنعون تقنية متقدمة. يتدفق رأس المال. يطالب رأس المال بالعوائد. تتصدع المهمة. يُقصّ فريق السلامة. يغادر المعارضون. تتحول المنظمة من غير ربح إلى ربح. يتحول مجلس الإدارة من فاحص سلامة إلى حلفاء للمدير التنفيذي. الشركة التي وعدت بنسبة 20% من القدرة الحاسوبية لسلامة البشرية الآن تقول العلاقات العامة إن ذلك لم يكن حقيقيًا.

استخدم أكثر من مئة شخص نفس الكلمة: غير مقيد بالحقيقة.

وهو يعلن ذلك علنًا بقيمة $600 مليار دولار.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت