العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
لقد تواكبت للتو مع واحدة من أكثر التحقيقات إثارة للقلق حول قيادة OpenAI منذ فترة، وبصراحة، من الصعب أن تتجاهل التداعيات هنا.
في عام 2023، جمع إيليا سوتسكيفر—العالم الرئيسي في OpenAI—مذكرة موسعة توثق مخاوف حول موثوقية سام ألتمان. نحن نتحدث عن 70 صفحة تستند إلى سجلات Slack، وسجلات الموارد البشرية، واجتماعات داخلية. كانت الجملة الافتتاحية صريحة: سام يظهر نمطًا ثابتًا من الكذب. تقدم سريعًا إلى الآن، وتحقيق نيويوركر (Ronan Farrow و Andrew Marantz) كشف عن المذكرة بالإضافة إلى أكثر من 200 صفحة من الملاحظات الخاصة من داريو أموداي، الذي كان رئيس السلامة في OpenAI قبل تأسيس أنثروبيك.
إليكم ما يثير دهشتي: كانت OpenAI مُنظمة حرفيًا كمنظمة غير ربحية بحيث تأتي السلامة قبل الربح. كانت الفكرة الأساسية أن يكون هناك شخص قادر على إغلاق الشركة إذا أصبحت الأمور خطيرة. بنيت الهيكلية على فرضية واحدة—أن الشخص الذي يديرها يجب أن يكون صادقًا بشكل جذري.
لكن وفقًا للمذكرة والمقابلات مع أكثر من 100 شخص، لم يحدث ذلك. هناك أمثلة محددة: أخبر ألتمان مجلس الإدارة أن ميزات GPT-4 اجتازت مراجعات الأمان عندما لم تكن كذلك. اكتشف أعضاء المجلس الأمر بصعوبة. كان هناك شيء ما مع مايكروسوفت والهند حيث أُطلق ChatGPT دون إكمال الفحوصات الأمنية المطلوبة. وعند مواجهته، ادعى أن المستشار العام قد وافق على شيء—لكن المستشار العام قال إنه لا يعلم من أين أتى ذلك.
تُظهر ملاحظات أموداي صورة لشركة تتخلى تدريجيًا عن مهمتها الأصلية تحت ضغط تجاري. وثّق كيف أدخلت مايكروسوفت بندًا في صفقة الاستثمار لعام 2019—يقول بشكل أساسي أنه إذا وجد طرف آخر مسارًا أكثر أمانًا نحو الذكاء العام، ستساعده OpenAI بدلاً من المنافسة. كان هو الحاجز الأمني الذي يهتم به أكثر. ثم اكتشف أن مايكروسوفت تفاوضت على حق النقض على ذلك البند بالذات. على الورق بدا جيدًا. في الواقع، كان ميتًا عند الوصول.
هناك تفصيل غريب حول فريق السوبرالينجمينت. أعلنت OpenAI أنها ستخصص 20% من قدرتها الحاسوبية له—ربما أكثر من مليار دولار. كانت اللغة قوية: بدون حل مشكلة التوافق، قد يؤدي الذكاء العام إلى انقراض الإنسان. لكن الأشخاص الذين عملوا على ذلك قالوا إن التخصيص الحقيقي كان 1-2% من السعة الإجمالية، باستخدام أقدم الأجهزة. تم حل الفريق دون إكمال شيء.
عندما سأل الصحفيون OpenAI عن فريق أبحاث السلامة الوجودية، كانت استجابة العلاقات العامة تقريبًا كوميدية: "هذا ليس شيئًا فعليًا." قال ألتمان نفسه إن حدسه لا يتوافق مع النهج التقليدي لسلامة الذكاء الاصطناعي.
وفي الوقت نفسه، هناك قصة أخرى تتبلور. قالت سارة فريار، المديرة المالية لـOpenAI، لزملائها إنها تعتقد أن الشركة ليست جاهزة لطرح عام أولي هذا العام—الكثير من العمل الإجرائي، والكثير من المخاطر المالية من التزام ألتمان بمليار دولار من الإنفاق على الحوسبة على مدى خمس سنوات. وهي ليست مقتنعة حتى أن النمو في الإيرادات يمكن أن يدعمه. لكن ألتمان يريد الدفع لطرح عام أولي في الربع الرابع. والمفاجأة: فريار لم تعد ترفع تقاريرها إلى ألتمان. اعتبارًا من أغسطس 2025، أصبحت ترفع تقاريرها إلى مدير تطبيقات OpenAI، الذي دخل إجازة طبية. إذن لديك شركة تتسابق نحو طرح عام أولي بقيمة مليار دولار، مع رئيس تنفيذي ومدير مالي في خلاف، والمدير المالي لا يرفع تقاريره إلى الرئيس التنفيذي، والمشرف عليها في إجازة. حتى مسؤولو مايكروسوفت كانوا منزعجين، وقال أحدهم إن هناك فرصة حقيقية أن يُذكر ألتمان مثل بيرني مادوف أو SBF.
قدم أحد أعضاء المجلس السابق تقييمًا قد يكون الأكثر حدة: أن ألتمان لديه مزيج نادر من الرغبة الشديدة في أن يُحب في كل تفاعل وجهًا لوجه، وفي الوقت نفسه يظهر عدم مبالاة شبه سوسيوپاثية تجاه خداع الناس. إنه الملف الشخصي المثالي لبائع. كان لدى ستيف جوبز حقول تشويه الواقع، لكن حتى جوبز لم يخبر العملاء أن عدم شراء منتجه قد يقتل من يحبون. أما ألتمان، فقد قال ذلك بشكل أساسي عن الذكاء الاصطناعي.
الشيء الذي يجعل هذا الأمر مهمًا حقًا: إذا كان الأمر مجرد دراما في شركة تقنية عادية، لكانت مجرد حديث صحفي. لكن OpenAI ليست عادية. إنهم يطورون ما قد يكون أقوى تقنية في تاريخ البشرية. نفس التقنية التي يمكن أن تعيد تشكيل الاقتصادات العالمية أو تخلق أسلحة بيولوجية. تم تفكيك كل آليات السلامة. لم تعد المهمة غير الربحية موجودة. لا يثق الرئيس التنفيذي السابق والعالم الأمني السابق في المدير التنفيذي. يقارن الشركاء بينه وبين المحتالين.
وتحت كل هذا، يقرر شخص واحد بشكل أحادي متى يطلق نماذج يمكن أن تعيد تشكيل مستقبل البشرية.
قال غاري ماركوس، أستاذ الذكاء الاصطناعي في جامعة نيويورك، بعد قراءة التقرير: "هل أنت مرتاح لأن يكون ألتمان هو القرار الوحيد إذا بنى OpenAI شيئًا يمكن أن يخلق أسلحة بيولوجية أو يشن هجمات إلكترونية؟"
كان رد OpenAI بشكل أساسي: "هذه قصص معاد تدويرها مع مصادر مجهولة وأجندات شخصية." لم يعالج ألتمان الادعاءات المحددة أو ينكر المذكرة. فقط تساءل عن الدوافع.
القصة تكاد تكون مرتبة جدًا: يبدأ المثاليون منظمة غير ربحية قلقين من مخاطر الذكاء الاصطناعي. يصنعون تقنية متقدمة. يتدفق رأس المال. يطالب رأس المال بالعوائد. تتصدع المهمة. يُقصّ فريق السلامة. يغادر المعارضون. تتحول المنظمة من غير ربح إلى ربح. يتحول مجلس الإدارة من فاحص سلامة إلى حلفاء للمدير التنفيذي. الشركة التي وعدت بنسبة 20% من القدرة الحاسوبية لسلامة البشرية الآن تقول العلاقات العامة إن ذلك لم يكن حقيقيًا.
استخدم أكثر من مئة شخص نفس الكلمة: غير مقيد بالحقيقة.
وهو يعلن ذلك علنًا بقيمة $600 مليار دولار.