وجدت هذا التقرير الذي صدر مؤخرًا حول ما يحدث حقًا داخل openai مثيرًا جدًا. بشكل أساسي، قام صحفيون تحقيقيون بتوجيه مئات المقابلات مع أكثر من 100 شخص معني، وتمكنوا من الحصول على مذكرات داخلية لم تُنشر من قبل واكتشفوا شيئًا مقلقًا جدًا: وثائق من 70 صفحة من العالم الرئيسي إيليا سوتسكيفر تُظهر أن سام ألتمان كان يظهر نمطًا ثابتًا من الكذب. ليس أمرًا بسيطًا.



ما لفت انتباهي هو كيف بدأت openai كمنظمة غير ربحية في عام 2015 مع وعد واضح بإعطاء الأولوية للأمان فوق كل شيء. كانت الفكرة أنه إذا أصبحت الذكاء الاصطناعي خطيرًا، فإن المجلس سيكون لديه السلطة لإنهاء الشركة. لكن هنا تأتي المسألة الأساسية: كل شيء كان يعتمد على شخص شديد الأمانة يتحكم في التكنولوجيا. وماذا لو كانت الرهانات خاطئة؟

التفاصيل مقلقة. في ديسمبر 2022، خلال اجتماع للمجلس، أكد سام أن ميزات GPT-4 قد خضعت بالفعل لمراجعة أمنية. وعندما طلبوا الاطلاع على الوثائق، اكتشفوا أن اثنين من الميزات الأكثر إثارة للجدل لم تتم الموافقة عليهما من قبل لجنة الأمان. هناك أيضًا ملاحظات من داريو أمودي، مؤسس شركة أنثروبيك الذي عمل في مجال الأمان داخل openai، يصف كيف كانت الشركة تتراجع خطوة بخطوة تحت ضغط تجاري.

هناك المزيد. أعلنت openai علنًا أنها ستخصص 20% من القدرة الحاسوبية لفريق من التوافق الفائق، بقيمة محتملة تتجاوز مليار دولار. لكن في الواقع؟ أكد أربعة أشخاص عملوا هناك أن الأمر كان فقط 1-2% من القدرة الإجمالية، مع أجهزة أقدم. تم تفكيك الفريق دون إكمال مهمته.

ما لفت انتباهي حقًا هو وصف عضو سابق في المجلس عن سام. لديه مزيج نادر جدًا: في اللقاءات وجهًا لوجه، يظهر رغبة قوية في إرضاء الآخرين. وفي الوقت نفسه، يظهر عدم مبالاة شبه اجتماعية تجاه عواقب خداع الناس. وصل الأمر بمسؤولي شركة مايكروسوفت إلى مقارنته ببرني مادوف أو SBF. أمر ثقيل.

الآن هناك مسألة المدير المالي سارة فريار التي لا توافق على تسريع طرح الشركة للاكتتاب العام هذا العام، بحجة أن المخاطر المالية عالية جدًا، $1 وعد سام بإنفاق مليارات الدولارات على الحوسبة خلال خمس سنوات(. لكن بعد ذلك، توقفت عن التقارير مباشرة إلى سام، وأصبحت تقدم تقاريرها إلى مسؤول تنفيذي آخر أخذ إجازة مرضية. الشركة في عملية طرح عام أولي مع خلافات جوهرية بين المدير التنفيذي والمدير المالي. أمر لا يصدق.

النقطة التي أثارها غاري ماركوس منطقية: إذا استطاع نموذج مستقبلي من openai أن يخلق أسلحة بيوكيميائية أو يشن هجمات إلكترونية، هل تريد حقًا أن تترك شخصًا لديه سجل من النزاهة أن يقرر بمفرده ما إذا كان سيسمح بذلك أم لا؟ رد openai الرسمي كان غامضًا، متسائلًا عن دوافع المصادر بدلًا من نفي الحقائق المحددة.

إنها مثل تلك العبارة التي رأيتها: منظمة غير ربحية أُنشئت لحماية البشرية تحولت إلى آلة تجارية حيث تم إزالة كل تدبير أمني تقريبًا يدويًا بواسطة نفس الشخص. عشر سنوات ملخصة هكذا: المثالية → التقدم التكنولوجي → رأس مال ضخم → تفويض المهمة → تدمير الأمان → تحويل الهيكل إلى كيان ربحي.

كل ذلك بينما يستعد سام لطرح openai للاكتتاب العام بقيمة تتجاوز مليار دولار. أكثر من مئة شاهد وصفوه بنفس الوصف: غير ملتزم بالحقيقة. هذه القصة أكثر من مجرد إشاعة شركاتية. عندما نتحدث عن أقوى تقنية محتملة في تاريخ البشرية، فإن نزاهة المدير التنفيذي ليست تفصيلًا، بل مخاطر وجودية للجميع.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت