لقد قرأت شيئًا تركني مندهشًا جدًا. نشرت مجلة ذا نيو يوركر تحقيقًا ضخمًا حيث حصل صحفيون مثل رونان فارو على وثائق داخلية من OpenAI تكشف نمطًا مقلقًا: على ما يبدو أن سام ألتمان كان يكذب بشكل منهجي على مجلس الإدارة والتنفيذيين حول قضايا أمنية حاسمة.



نقطة الانطلاق قاسية. إيليا سوتسكيفر، العالم الرئيسي في OpenAI، جمع وثيقة من 70 صفحة قبل بضع سنوات استنادًا إلى رسائل Slack، اتصالات الموارد البشرية ومحاضر الاجتماعات. استنتاجه في السطر الأول: يظهر سام نمطًا ثابتًا من الكذب. مثال محدد ورد في التحقيق: في ديسمبر 2022، أكد ألتمان للمجلس أن عدة وظائف في GPT-4 اجتازت مراجعة أمنية. عندما طلبوا الاطلاع على وثائق الموافقة، اكتشفوا أن اثنين من الميزات الأكثر إثارة للجدل لم يتم مراجعتهما أبدًا من قبل لجنة الأمن.

لكن ما لفت انتباهي حقًا هو ما وجدوه في ملاحظات داريو أموديي الشخصية، مؤسس أنثروبيك والمسؤول السابق عن الأمن في OpenAI. أكثر من 200 صفحة توثق كيف كانت الشركة تتراجع خطوة بخطوة تحت ضغط تجاري. تفصيل رئيسي: عندما استثمرت مايكروسوفت في 2019، تفاوضت على بند "الاندماج والمساعدة" الذي يفترض أنه يضمن أنه إذا وجد منافس مسارًا أكثر أمانًا نحو الذكاء العام الاصطناعي، يجب على OpenAI المساعدة. يبدو جيدًا على الورق. المشكلة أن مايكروسوفت حصلت أيضًا على حق النقض على نفس البند، مما جعله وعدًا فارغًا منذ يوم التوقيع.

هناك شيء يبدو شبه سخيف لكنه حقيقي تمامًا: فريق "التوافق الفائق" في OpenAI. أعلن ألتمان علنًا أنهم سيخصصون 20% من قدرة الحوسبة الموجودة لدراسة توافق الذكاء الاصطناعي، بقيمة محتملة تتجاوز مليار دولار. كان إعلانًا جديًا، يذكر مخاطر الانقراض البشري وكل ذلك. لكن عندما تحدث الصحفيون مع أربعة أشخاص عملوا في ذلك الفريق، كانت الحقيقة مختلفة: كانت قدرة الحوسبة المخصصة تتراوح بين 1% و2% فقط من الإجمالي، وكانت الأجهزة قديمة. تم حل الفريق دون إكمال مهمته.

بينما كان ذلك يحدث، كانت المدير المالي لـ OpenAI، سارة فريار، لديها خلافات جدية مع ألتمان حول طرح عام أولي محتمل. تعتقد فريار أن الشركة ليست جاهزة للخروج إلى السوق هذا العام، نظرًا لكمية العمل المعلق والمخاطر المالية المرتبطة بالتزام ألتمان بإنفاق 600 مليار على قدرة الحوسبة خلال خمس سنوات. لكن الغريب هنا: فريار لم تعد ترفع تقاريرها مباشرة إلى ألتمان، بل الآن ترفعها إلى فيديجي سيمو، التي استقالت مؤخرًا لأسباب صحية. شركة تستعد لطرح عام أولي مع هذه الديناميكيات الداخلية، فهي، حسنًا، معقدة.

وصف أحد أعضاء المجلس السابق ألتمان بصفاته المتزامنة: رغبة حقيقية في إرضاء كل شخص في كل تفاعل وجهًا لوجه، ولكن في الوقت نفسه، تجاهل شبه سوسيوي لعواقب خداع الآخرين. وفقًا للتقرير، هذا المزيج نادر في الأشخاص لكنه مثالي لبائع.

ما يقلقني هو أن هذا ليس مجرد شائعة شركاتية. فـ OpenAI تطور ما تصفه بنفسها بأنه ربما يكون أقوى تقنية في تاريخ البشرية. تقنية قد تعيد تشكيل الاقتصاد، وتخلق أسلحة بيولوجية كيميائية على نطاق واسع، أو تنفذ هجمات إلكترونية. والحواجز الأمنية التي كانت من المفترض أن تحمي من هذه المخاطر تم تفكيكها. العالم السابق في الأمن الرئيسي والعالم السابق في البحث الأمني يعتبران المدير التنفيذي غير موثوق به. ويقارن مسؤولو Microsoft بينه وبين SBF.

رد OpenAI على مجلة ذا نيو يوركر كان تقليلًا: قالوا إن المقال يعيد تأكيد أحداثًا تم الإبلاغ عنها سابقًا باستخدام تصريحات مجهولة. لم يرد ألتمان على الاتهامات المحددة، فقط شكك في دوافع المصادر.

عشرة أعوام من OpenAI ملخصة: مجموعة من المثاليين أنشأت منظمة غير ربحية لحماية البشرية من مخاطر الذكاء الاصطناعي. حققت تقدمات استثنائية. تدفق رأس المال بشكل هائل. بدأت المهمة تتراجع. تم حل فريق الأمن. اختفى النقاد. تحولت الهيكلة غير الربحية إلى كيان ربحي. المجلس الذي كان يملك القدرة على إغلاق الشركة الآن مليء بحلفاء المدير التنفيذي. الشركة التي وعدت بتخصيص 20% من قدراتها لحماية السلامة البشرية الآن يقول متحدثون إن البحث عن الأمان الوجودي "ليس شيئًا موجودًا حقًا".

والبطل في هذه القصة على وشك أن يقود OpenAI إلى طرح عام أولي بقيمة تتجاوز 850 مليار دولار. مئات الشهود أطلقوا عليه نفس الوصف: لا يخضع للحقيقة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت