العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
OpenAI الشريك المؤسس الحصري آخر مقابلة: بعد إغلاق Sora، ما هي الخطوة التالية لـ ChatGPT؟
عنوان الفيديو: رئيس OpenAI Greg Brockman: استراتيجية الذكاء الاصطناعي والذكاء العام (AGI والتطبيق الفائق)
مؤلف الفيديو: Alex Kantrowitz
الترجمة: Peggy، BlockBeats
ملاحظة المحرر: تمت ترجمة هذه المقالة من حوار أجرَاه Greg Brockman، رئيس OpenAI والمؤسس المشارك، في برنامج Big Technology Podcast. كان البرنامج يركز لفترة طويلة على تغيّرات قطاع الذكاء الاصطناعي والصناعة التكنولوجية والبنية التجارية، ويُعد نافذة مهمة لمراقبة ما يحدث في الصف الأول داخل وادي السيليكون.
في هذا الحوار، لم يقف Brockman عند قدرات النموذج نفسه، بل دفع السؤال إلى الأمام أكثر: عندما يكون أداء الذكاء الاصطناعي قد تم التحقق منه إلى حد كبير، فكيف ستختار الصناعة المسار التالي، وتعيد تشكيل أشكال المنتجات، وتستوعب الصدمات النظامية التي سيُحدثها ذلك؟ يدور الحوار حول استراتيجية منتجات OpenAI، و"التطبيق الفائق" الذي سيتم إطلاقه قريبًا، وحكمه بأن الذكاء الاصطناعي سيدخل “مرحلة الانطلاق”.
يمكن فهم هذا الحوار من ثلاثة جوانب.
أولًا، هو تقارب المسار.
من توليد الفيديو إلى نماذج الاستدلال، ومن التقدم عبر مسارات متعددة إلى الاختيار الفعّال لما يستحق، فإن اختيار OpenAI ليس مجرد حكم على الأفضلية التقنية، بل استجابة لقيود الواقع — إذ أصبحت قوة الحوسبة هي الاختناق الأساسي. ومع محدودية الموارد، بدأت المسارات التقنية في التضييق إلى اتجاهين يملكان أكبر أثرًا ذي رافعة: المساعد الشخصي وحل المشكلات المعقدة. وهذا يعني أن منطق المنافسة في الذكاء الاصطناعي يتحول من “ما الذي يمكن فعله” إلى “ما الذي يجب البدء به أولًا”.
ثانيًا، هو إعادة بناء الشكل.
إن طرح “التطبيق الفائق” هو جوهرًا قفزة في شكل المنتج. لم يعد الذكاء الاصطناعي مجرد مجموعة أدوات متناثرة، بل أصبح نقطة دخول موحّدة: فهو يفهم السياق، ويستدعي الأدوات، وينفذ المهام، ويواصل تراكم الذاكرة في مختلف السيناريوهات. من ChatGPT إلى Codex، يواصل الذكاء الاصطناعي أخذ زمام سير العمل الكامل خطوة بخطوة، بينما يتحول دور البشر من منفّذين إلى مُنسّقين: تحديد الأهداف، وتوزيع المهام، والإشراف.
ثالثًا، هو انعطاف الإيقاع.
إذا كانت السنتان الماضيتان قد مثلتا مرحلة صعود القدرات، فإن ما يحدث الآن هو “الانطلاق”. من ناحية، تقفز قدرات النموذج من “مساعدة نحو 20% من العمل” إلى “تغطية نحو 80% من المهام”، ما يؤدي مباشرة إلى إعادة تشكيل سير العمل. ومن ناحية أخرى، يشارك الذكاء الاصطناعي في تطوره بنفسه (باستخدام الذكاء الاصطناعي لتحسين الذكاء الاصطناعي)، إلى جانب التضافر بين الشرائح والتطبيقات وشركات الجهة المؤسسية، لتشكيل حلقة تسريع مستمرة. لم يعد الذكاء الاصطناعي تقنية منفردة؛ بل بدأ يصبح المحرك الرئيسي الذي يدفع نمو الاقتصاد.
لكن في الوقت نفسه، برزت في الوقت ذاته مجموعة أخرى من القضايا: انعدام الثقة لدى الجمهور، وعدم اليقين بشأن الوظائف، والجدل الناتج عن مراكز البيانات، وحدود السلامة والحوكمة. لم تكن إجابات Brockman محصورة داخل إطار التكنولوجيا بالكامل؛ فقد شدد أكثر على نقطتين: أولًا، لا يمكن حل المخاطر عبر “التحكم المركزي” وحده، بل يلزم بناء بنية تحتية اجتماعية — على شاكلة البنية التحتية لشبكات الكهرباء — من أجل الذكاء الاصطناعي. وثانيًا، تتغير القدرات الفردية: فالأمر الذي يصبح مهمًا حقًا ليس “هل يمكنه استخدام الأدوات”، بل “هل يمكنه تحقيق أهدافه بمساعدة الذكاء الاصطناعي”.
إذا كان السؤال السابق هو “ماذا يستطيع الذكاء الاصطناعي أن يفعل”، فقد صار السؤال الآن: عندما يبدأ الذكاء الاصطناعي بإكمال معظم الأشياء نيابةً عنك، فما الذي ستحتاج أنت إلى فعله؟
فيما يلي محتوى النص الأصلي (للتيسير على فهم القراءة، تم تنسيق المحتوى الأصلي قليلًا):
TL;DR
دخل AGI مرحلة “وضوح المسار”: يرى Greg Brockman (شريك ومؤسس OpenAI) أن نماذج الاستدلال المبنية على GPT تمتلك طريقًا واضحًا إلى AGI، ويتوقع تحقيقه خلال عدة سنوات، لكن الشكل سيكون “غير متجانس” (jagged).
تقارب استراتيجي: من استكشاف مسارات متعددة إلى تطبيقين أساسيين: في ظل قيود قوة الحوسبة، ستركز OpenAI مواردها على “المساعد الشخصي” و"حل المشكلات المعقدة"، بدل دفع جميع الاتجاهات بالتوازي (مثل توليد الفيديو).
سيصبح “التطبيق الفائق” شكل مدخل الذكاء الاصطناعي: سيتم دمج الدردشة والبرمجة والمتصفح والعمل المعرفي في نظام موحد؛ ومن ثم يتحول الذكاء الاصطناعي من أداة إلى “طبقة تنفيذ”، ويتحول المستخدم إلى “منسق”.
انعطاف محوري: الذكاء الاصطناعي يبدأ بالاستحواذ على سير العمل بدل الاكتفاء بالمساعدة: ارتفعت قدرات النموذج من “إنجاز 20% من المهام” إلى “القدرة على تحمل 80%”، ما يجبر الأفراد والشركات على إعادة تشكيل طريقة عملهم.
قوة الحوسبة تصبح الاختناق الأساسي ومركز المنافسة: طلب الذكاء الاصطناعي يتجاوز بكثير العرض. في المستقبل، لن يكون القيد هو قدرات النموذج، بل موارد الحوسبة؛ وستصبح مراكز البيانات والبنية التحتية متغيرات حاسمة.
“انطلاق” (takeoff) الذكاء الاصطناعي يحدث بالفعل: يساهم تسريع التكنولوجيا الذاتية (AI تحسين AI) إلى جانب التضافر الصناعي (الشرائح والتطبيقات والشركات)، في دفع الذكاء الاصطناعي من كونِه أداة إلى محرك نمو اقتصادي.
أكبر المخاطر ليست تقنية، بل الحوكمة وطريقة الاستخدام: لا يمكن حل مشكلات السلامة عبر جهة واحدة؛ بل يلزم احتضانها عبر نظام بيئي مفتوح وبنية تحتية اجتماعية.
قدرات الفرد الأساسية تتحول: ستتمثل القدرة التنافسية المستقبلية ليس في “التنفيذ”، بل في “تحديد الأهداف + إدارة أنظمة الذكاء الاصطناعي”، وسيصبح الاستخدام النشط للذكاء الاصطناعي مهارة أساسية.
تنظيم محتوى الحوار:
Alex (المضيف):
اليوم قمنا بدعوة Greg Brockman، الشريك المؤسس ورئيس OpenAI، لنتحدث معًا عن الفرص الواعدة أكثر في مجال الذكاء الاصطناعي، وعن كيفية استغلال OpenAI لهذه الفرص، وعن تصور “التطبيق الفائق”. كما أن Greg حاضر معنا أيضًا في الاستوديو.
Greg Brockman (الشريك المؤسس ورئيس OpenAI):
يسعدني رؤيتك. شكرًا لك على دعوتي.
لماذا تم إيقاف Sora؟ لأن قوة الحوسبة غير كافية
Alex:
الآن هذه اللحظة مثيرة للاهتمام جدًا. تقوم OpenAI بتعليق تطوير توليد الفيديو وتوجيه الموارد إلى “التطبيق الفائق” — الذي سيُدمج سيناريوهات الأعمال والبرمجة. ومن الخارج (ومن ضمن ذلك أنا) يبدو أن OpenAI حققت ريادة على مستوى المستهلك، لكنها الآن تعيد ضبط توزيع الموارد. فما الذي يحدث بالضبط؟
Greg Brockman:
خلال الفترة الماضية، كنا نعمل على تطوير تقنية التعلم العميق هذه، بهدف التحقق مما إذا كانت حقًا تستطيع إحداث تأثير إيجابي مما كنا نتصوره — وهل يمكن استخدامها لبناء تطبيقات تساعد الناس فعلًا وتحسن حياتهم.
وفي الوقت ذاته، كنا نعمل على خط آخر: نشر هذه التقنية. من ناحية، لدعم تشغيل الأعمال، ومن ناحية أخرى، لجمع خبرات واقعية مبكرة تمهيدًا للحظة التي تنضج فيها التقنية فعليًا.
والآن، وصلنا إلى مرحلة جديدة. لقد تبين لنا أن هذه التقنية قابلة للتطبيق فعليًا. نحن ننتقل من “اختبارات معيارية” وعرض بعض القدرات التي تبدو مجردة إلى مرحلة جديدة — يجب أن نضعها في العالم الحقيقي، وتجعلها تشارك في العمل الفعلي، وتتطور عبر تعليقات المستخدمين.
لذلك أميل أكثر إلى تفسير هذا التغيير على أنه تحول استراتيجي تقوده تغييرات المرحلة التقنية.
وهذا لا يعني أننا نتحول من “جهة المستهلك” إلى “جهة المؤسسات”. والأدق أننا نطرح سؤالًا: في ظل موارد محدودة، ما هي التطبيقات التي يجب أن نعطيها الأولوية؟ لأنه من المستحيل أن نفعل كل شيء.
ما هي التطبيقات التي يمكن إنزالها إلى أرض الواقع فعليًا، والتي يمكن أن تتولد بينها أوجه تآزر، وتُحدث تأثيرًا حقيقيًا؟ إذا سردت جميع الاتجاهات، فبالنسبة لجهة المستهلك يمكن تفكيكها إلى أنواع كثيرة: مثلًا، مساعد شخصي — نظام يفهمك حقًا، ويكون متوافقًا مع أهدافك، ويساعدك على تحقيق أهدافك في الحياة. أو أيضًا إنشاء المحتوى والترفيه، وهناك احتمالات أخرى كثيرة. أما في جهة المؤسسات، إذا نظرت إليها من مستوى أعلى، فهي يمكن تلخيصها في شيء واحد: لديك مهمة معقدة، فهل يمكن للذكاء الاصطناعي مساعدتك في إنجازها؟
بالنسبة لنا، الأولويات واضحة جدًا حاليًا. في المقدمة هناك أمران فقط: أولًا، المساعد الشخصي. ثانيًا، ذكاء اصطناعي يستطيع مساعدتك في حل المشكلات المعقدة.
لكن المشكلة هي: قدرة الحوسبة المتاحة لدينا لا تغطي حتى هذين الأمرين بما يكفي. فإذا أضفنا المزيد من سيناريوهات التطبيقات، يصبح من المستحيل تغطية كل شيء. لذا فهذا حكم واقعي: التقنية تنضج بسرعة، والتأثيرات على وشك أن تنفجر، لكن علينا أن نختار، وأن نحدد الاتجاه الأكثر أهمية وننجزه فعليًا.
Alex:
كنت قد ذكرت سابقًا تشبيهًا: أن OpenAI تشبه Disney بعض الشيء — لديها قدرة أساسية، ثم يمكن توسيعها إلى سياقات مختلفة. لدى Disney ميكي ماوس يمكن تحويله إلى أفلام وحدائق ترفيهية وDisney+. “الجوهر” لدى OpenAI هو النموذج: يمكنه توليد فيديو، ويمكنه تقديم مساعد، ويمكنه بناء تطبيقات للمؤسسات.
لكن الآن يبدو وكأنكم لم تعد تسيرون في مسار “التوسع الشامل” نفسه، بل أنكم مضطرون إلى الاختيار؟
Greg Brockman:
في الواقع، أنا أرى أن هذا التشبيه أكثر صحة الآن. لكن هناك نقطة محورية: من الناحية التقنية، ينتمي Sora (نموذج الفيديو) وGPT (نموذج الاستدلال) إلى فرعين تقنيين مختلفين تمامًا. طريقة بنائهما مختلفة تمامًا.
المشكلة هي أنه في هذه المرحلة، من الصعب جدًا — إن لم يكن مستحيلًا — دفع مساري شجرة التقنية بالتوازي، خاصة مع موارد محدودة. لذلك كان خيارنا هو: في هذه المرحلة، تركيز أغلب الموارد على مسار GPT.
طبعًا هذا لا يعني أننا نتخلى عن الاتجاهات الأخرى. مثلًا، في مجال الروبوتات، ما زلنا نواصل الأبحاث ذات الصلة. لكن الروبوتات نفسها ما تزال في مرحلة مبكرة أكثر، ولم تدخل بعد فترة النضج التي تسبق الانفجار الحقيقي.
على النقيض من ذلك، خلال السنة المقبلة، سنرى انطلاق الذكاء الاصطناعي الحقيقي في مجال العمل المعرفي.
ومن المهم أيضًا التأكيد على أن مسار GPT ليس مجرد “نص”. فمثلا التفاعل الصوتي ثنائي الاتجاه (speech-to-speech) هو جزء من مسار التقنية نفسه؛ وسيساعد على جعل الذكاء الاصطناعي أكثر قابلية للاستخدام وأكثر عملية. هذه القدرات، من حيث الجوهر، ما تزال ضمن نفس منظومة النموذج، لكن تم ضبطها بطرق مختلفة.
لكن إذا كنت تمضي باتجاه فرعين تقنيين مختلفين تمامًا، فمع تقييد قوة الحوسبة يصبح من الصعب الحفاظ على ذلك على المدى الطويل. والسبب وراء تقييد قوة الحوسبة هو — أن الطلب كبير جدًا. يكاد أن كل مرة يُنشر فيها نموذج، يرغب الناس في استخدامه لفعل المزيد من الأشياء.
Alex:
حسنًا، لماذا لم تحطوا تركيزكم على مسار “نموذج العالم” (World Model)؟ فمثلاً نموذج الفيديو يحتاج إلى فهم العلاقات بين الأشياء، وهذا مهم أيضًا للروبوتات. كما أن تقدم Sora كان سريعًا جدًا. لماذا اخترتم في النهاية الرهان على GPT؟
Greg Brockman:
المشكلة الأكبر في هذا المجال — في رأيي — هي وجود فرص كثيرة جدًا.
لقد اكتشفنا مبكرًا في OpenAI أن أي فكرة تكون منطقية رياضيًا يمكن أن تنفّذ عادةً، وتحقق نتائج جيدة. وهذا يشير إلى أن القدرات الأساسية للتعلم العميق قوية للغاية؛ إذ يمكنها تجريد قواعد التوليد من البيانات ثم نقلها إلى سيناريوهات جديدة. ويمكنك تطبيق ذلك في مجالات مختلفة مثل نماذج العالم والاكتشافات العلمية والبرمجة.
لكن النقطة الحاسمة هي: علينا أن نختار.
كان هناك جدل مستمر بشأن إلى أي مدى يمكن أن تصل نماذج النص. هل يمكنها فهم العالم فعلًا؟ أعتقد أن هذا السؤال حصل الآن على إجابته: نماذج النص يمكن أن تصل إلى AGI.
لقد رأينا طريقًا واضحًا. وسيظهر خلال هذا العام المزيد من النماذج الأقوى. ومن داخل OpenAI، من أكثر ما يسبب لنا ألمًا هو — كيفية تخصيص قوة الحوسبة. وهذه المشكلة ستزداد سوءًا فقط، لا ستتحسن. لذلك فهذه ليست مسألة “أي طريق أهم”، بقدر ما هي مسألة توقيت وترتيب.
الآن، أصبحت بعض التطبيقات التي كنا نعتقد أنها بعيدة المنال قابلة للمسها. مثلًا حل مشكلات فيزيائية لم تُحل بعد. لدينا مؤخرًا مثال: عالم فيزياء كان يدرس مشكلة منذ وقت طويل. عندما أوكلها إلى النموذج، قدمنا حلًا بعد 12 ساعة. قال إنه هذه هي المرة الأولى التي شعر فيها أن النموذج “يفكر”. وربما كانت المشكلة حتى من تلك التي لا يستطيع البشر حلها أبدًا، ومع ذلك تمكن الذكاء الاصطناعي من ذلك.
عندما ترى مثل هذه الأمور، فإن خيارك الوحيد هو — مضاعفة الرهان والاستثمار ثلاث مرات. لأن هذا يعني أننا قادرون فعليًا على إطلاق إمكانات هائلة.
لذلك بالنسبة لي، ليست هذه منافسة بين اتجاهات مختلفة. بل ما هي مهمة OpenAI؟ كيف ننقل AGI إلى العالم؟ وكيف نجعله يعود بالفائدة فعليًا على الجميع؟ وإضافة إلى ذلك، لقد رأينا الطريق، ونحن نعرف كيف سنواصل دفعه للأمام.
الرهان على GPT لا على نموذج العالم: اختيار طريق AGI
Alex:
حسنًا، أريد أن أعود إلى الجيل التالي من النماذج الذي ذكرته للتو. لكن قبل ذلك، أود أن أسألك عن سؤال.
تحدثت قبل فترة مع Demis Hassabis من Google DeepMind. وكان مثيرًا للاهتمام أنه قال إن أقرب شيء لديهم لـ AGI هو جهاز توليد الصور الذي يسمونه Nano Banana.
برأيه أن سواء كان الأمر متعلقًا بمولد الصور أو بمولد الفيديو، فإن توليد صور أو فيديوهات بهذا الشكل يتطلب — في جوهره — فهم علاقات التفاعل بين الأشياء، وعلى الأقل امتلاك نوع من المعرفة حول كيفية عمل العالم.
فهل يعني ذلك وجود مخاطر كامنة؟ هذا رهان كبير — وإذا كان الأمر كذلك، فهل قد يؤدي التركيز المتواصل لدى OpenAI على شجرة تقنية أخرى إلى تفويت شيء ما؟
Greg Brockman:
إذا كان صحيحًا، فأنا لدي جوابان.
أولًا، بالطبع توجد مثل هذه الإمكانية. هذا المجال بطبيعته يتطلب أن تختار في النهاية وأن تراهن. وOpenAI من البداية كانت تقوم بهذا: أن نحدد ما إذا كنا نؤمن بالطريق المؤدي إلى AGI، ثم نركز بشكل عالي على السير على تلك الطريق. مثل إضافة متجهات عشوائية: قد تنتهي النتيجة قريبة من الصفر؛ لكن إذا اصطففت جميع المتجهات، فإنها تدفعك باتجاه واضح.
أما النقطة الثانية فهي أن توليد الصور أيضًا من القدرات الشديدة الشعبية داخل ChatGPT، ونحن ما زلنا نستثمر فيه باستمرار، ونُقدم له أولوية مستمرة. والسبب أننا قادرون على فعل ذلك لأنه — من حيث البنية — لا ينتمي إلى فرع “نموذج العالم” أو “نموذج الانتشار”؛ بل يعتمد عمليًا على بنية GPT. صحيح أن البيانات التي يتعامل معها مختلفة في التوزيع، لكن على مستوى النواة التقنية الأساسية، في الحقيقة ما يزال الأمر هو نفس الشيء.
وهذا هو أحد الجوانب الأكثر إثارة في AGI: أحيانًا تبدو التطبيقات مختلفة جدًا — من صوت إلى صوت، ومن توليد الصور إلى معالجة النصوص، وحتى تطبيق النصوص في البحث العلمي والبرمجة والمعلومات الصحية الشخصية — ويمكن احتواؤها تحت إطار تقني واحد.
لذلك، من الناحية التقنية، هناك شيء تفكر فيه أنا والشركة باستمرار: كيف نوحد جهودنا قدر الإمكان. فنحن نؤمن حقًا بأن هذه التقنية ستؤدي إلى تحسين شامل، بل وقد تعزز المنظومة الاقتصادية كلها.
ولكن حجم هذه الأمور كبير جدًا. طبعًا لا يمكننا إنجاز كل شيء. لكن يمكننا تنفيذ الجزء الذي يقع على عاتقنا.
Alex:
وهذا يعكس معنى كلمة “general” في Artificial General Intelligence (AGI).
Greg Brockman:
نعم، بالضبط. هذه هي G، وهي كما هي — تعني ذلك حرفيًا.
Alex:
حسنًا، بما أننا نتحدث عن “التوحيد”، فكيف سيكون شكل هذا التطبيق الفائق؟
Greg Brockman:
التطبيق الفائق كما أفهمه هو—
Alex:
سيجمع الدردشة والبرمجة والمتصفح، وكل هذه الأشياء الموجودة في ChatGPT، أليس كذلك؟
Greg Brockman:
نعم. ما نريد القيام به هو بناء تطبيق موجه إلى المستخدم النهائي، بحيث تحصل فعليًا على تجربة قوة AGI — أي “عموميته”.
إذا فكرت في منتجات الدردشة الحالية، فأنا أعتقد أنها سيتحول تدريجيًا إلى مساعدك الشخصي، وواجهة برمجة التطبيقات الخاصة بك، وذكاء اصطناعي يفكر حقًا نيابةً عنك. سيكون لديه فهم لك، وسيعرف الكثير عنك، ويتوافق مع أهدافك، ويكون جديرًا بالثقة، وقادرًا على نوع من “التمثيل” لك داخل هذا العالم الرقمي.
أما بالنسبة إلى Codex، يمكنك فهمه كالتالي: إنه الآن لا يزال أداة مصممة أساسًا لمهندسي البرمجيات، لكنه سيتحول إلى “Codex موجه للجميع”.
يمكن لأي شخص يريد الإبداع ويريد بناء الأشياء استخدام Codex كي تدع الكمبيوتر ينفذ ما يريد. وبالإضافة إلى ذلك، لم يعد الأمر مجرد “كتابة برامج”، بل أقرب إلى “استخدام الكمبيوتر نفسه”. مثلًا، يمكنني أن أطلب منه مساعدتي في ضبط إعدادات اللابتوب. أحيانًا أنسى كيفية ضبط Hot corners، فأقوم فقط بأن Codex يتولى الأمر، فينجزه فعلاً.
هذا هو الشكل الذي ينبغي أن يكون عليه الكمبيوتر: أن يتكيف مع الناس، وليس أن أجبرني على التكيف معه.
لذلك يمكنك تصور تطبيق كهذا: كل ما تتمنى أن يقوم به الكمبيوتر، يمكنك إخبارَه مباشرة. سيكون ذلك متضمنًا داخليًا قدرات “استخدام الكمبيوتر” و"عمليات المتصفح"، بحيث يتمكن الذكاء الاصطناعي من تشغيل صفحات الويب فعليًا، ويمكنك أيضًا الإشراف على ما يفعله بالضبط. وبغض النظر عن كون تفاعلاتك تشمل الدردشة أو كتابة الكود أو العمل المعرفي العام، سيتم توحيد كل هذه المحادثات داخل نظام واحد. سيكون للذكاء الاصطناعي ذاكرة، وسيعرفك.
هذا هو الشيء الذي نعمل على بنائه.
لكن بصراحة، هذا ليس سوى جزء صغير جدًا — الجزء الظاهر على السطح من “جبل جليدي”. بالنسبة لي، الأهم حقًا هو التوحيد على مستوى التقنية الأساسية.
لقد ذكرنا سابقًا التوحيد على مستوى نماذج الأساس. لكن التغيير الحقيقي خلال السنوات الماضية ليس مجرد مشكلة “النموذج” نفسه. بل الأهم هو “نظام الاستضافة”: كيف يحصل النموذج على السياق؟ كيف يتصل بالعالم الحقيقي؟ ما الإجراءات التي يمكنه اتخاذها؟ وعندما يدخل سياق جديد بشكل مستمر، كيف تعمل آلية التفاعل مع المستخدم؟
في الماضي داخلنا كان لدينا عدة طرق تنفيذ — أو على الأقل عدة طرق مختلفة قليلًا. والآن نعمل على تقليصها إلى طريقة واحدة. وفي النهاية سيكون لدينا طبقة ذكاء اصطناعي موحدة، ثم — بطريقة خفيفة جدًا — نوجهها إلى سيناريوهات تطبيقية مختلفة محددة.
طبعًا، يمكنك دائمًا بناء إضافة صغيرة أو واجهة صغيرة تخدم التمويل أو القانون على وجه الخصوص، لكن في معظم الحالات لن تحتاج حتى إلى ذلك، لأن التطبيق الفائق نفسه سيكون واسعًا بدرجة كافية وعموميًا بدرجة كافية.
Alex:
هل هذا التطبيق موجه لسيناريوهات الشركات أيضًا ولسيناريوهات الأفراد؟
Greg Brockman:
نعم، هذه في الحقيقة لبّه. مثل جهاز كمبيوتر مثل لابتوبك: هل هو للاستخدام الشخصي أم للاستخدام في العمل؟ الجواب: الاثنين معًا. إنه أولًا جهازك وهو واجهتك للدخول إلى العالم الرقمي. وهذا بالضبط ما نريد القيام به.
Alex:
حسنًا، من منظور غير تجاري، إذا استخدمت هذا التطبيق الفائق في حياتي الشخصية، ماذا سأفعل به؟ وكيف ستتغير حياتي؟
Greg Brockman:
سأفكر فيه بهذه الطريقة: في حياتك الشخصية، سيمكنك أولًا الاستمرار في استخدامه بنفس طريقة استخدامك الحالية لـ ChatGPT.
كيف تستخدم ChatGPT الآن؟ في الواقع يستخدمه الناس لإنجاز مهام متنوعة جدًا ومثيرة للإعجاب. أحيانًا مجرد قول: “أريد مساعدتك في صياغة كلمة الإلقاء في حفل زفافي”. أو “هل يمكنك مراجعة هذه الفكرة وإعطائي بعض الملاحظات؟” أو مثلًا: “أنا أعمل على مشروع تجاري صغير، هل يمكنك تزويدي ببعض الأفكار؟”
بعض هذه السيناريوهات ذات طابع شخصي، وبعضها يبدأ بالفعل في طمس الحدود بين الشخصي والعمل. ورأيي هو أن كل هذه الأسئلة يجب أن يُسمح للتطبيق الفائق بالتعامل معها.
Greg Brockman:
لكن إذا نظرت إلى مسار تطور ChatGPT نفسه، سترى أنه كان يتطور بالفعل.
في البداية لم يكن لديه ذاكرة، أليس كذلك؟ فبالنسبة لكل شخص، كان الأمر هو نفس الذكاء الاصطناعي دائمًا ويبدأ من الصفر في كل مرة، تقريبًا كأنك تتحدث مع غريب. لكن إذا كان يمكنه تذكر تفاعلاتكم السابقة، سيكون أقوى كثيرًا. وإذا كان يمكنه الوصول إلى سياقات أكثر، سيكون أقوى بكثير أيضًا.
على سبيل المثال، إذا اتصلت بصندوق بريدك الإلكتروني وتقويمك، سيفهم فعليًا تفضيلاتك، ويحتوي على مجموعة أعمق من الخلفية حول تجاربك السابقة، ثم يستخدم هذه المعلومات لمساعدتك على تحقيق أهدافك. على سبيل المثال كذلك، يوجد في ChatGPT الآن ميزة تسمى Pulse، وهي ترسل لك يوميًا بشكل استباقي المحتوى الذي تعتقد أنه قد يهمك بناءً على ما تعرفه عنه.
لذلك، على مستوى الاستخدام الشخصي، سيتضمن التطبيق الفائق كل هذا، وسيكون أعمق وأكثر ثراءً.
Alex:
متى تخططون لإطلاقه؟
Greg Brockman:
الأدق أن نفهم الأمر على النحو التالي: خلال الأشهر القادمة سنمضي خطوة خطوة نحو هذا الاتجاه. الرؤية الكاملة التي نتحدث عنها سيتم تسليمها تدريجيًا، لكنها لن تُطرح كلها مرة واحدة؛ بل ستظهر على مراحل.
مثلا، تطبيق Codex الحالي اليوم يحتوي بالفعل على طبقتين: طبقة نظام استضافة وكيانات ذكية عامة (agent harness) يمكنها استخدام الأدوات؛ وطبقة أخرى — كيان ذكي متخصص في كتابة البرامج.
ويمكن لهذا النظام العام للاستضافة أن يُستخدم في العديد من السيناريوهات الأخرى. إذا ربطته بجدول بيانات أو بمستند Word، سيساعدك في التعامل مع العمل المعرفي.
لذا خطوتنا الأولى هي جعل تطبيق Codex أكثر فاعلية للعمل المعرفي العام. لأننا داخل OpenAI رأينا أن الجميع بدأ تلقائيًا في استخدامه على هذا النحو.
هذه ستكون الخطوة الأولى، ثم ستأتي بعدها خطوات كثيرة.
Alex:
أمس تحدثت مع أحد زملائك عن Codex، وذكر أن شخصًا يستخدم Codex لتحرير الفيديو. طلب منه Codex التعامل مع الفيديو، بل إن Codex حتى أضاف إضافة لـ Adobe Premiere: يقسم الفيديو إلى فصول ويبدأ القص. هل هذا هو الاتجاه الذي تريدون سلوكه؟
Greg Brockman:
أنا أحب جدًا سماع مثل هذه الحالات. وهذا بالضبط النوع من الحالات التي نأمل أن يعمل فيها هذا النظام بشكل مفيد. والأمر المثير للاهتمام أيضًا هو: تطبيق Codex تم تصميمه في الأصل لمهندسي البرمجيات، لذا بالنسبة لغير المبرمجين فإن قابلية استخدامه الحالية ليست عالية جدًا. والسبب هو أنه أثناء الإعداد تظهر الكثير من المشكلات الصغيرة.
المطورون يفهمون فورًا ما المقصود، ويعرفون كيف يصلحون. نحن متعودون على ذلك. لكن إذا لم تكن مطورًا، ستنظر إلى هذه الأشياء وتفكر: “ما هذه؟ لم أرها من قبل.”
ومع ذلك، ما زلنا نرى كثيرًا من الأشخاص الذين لم يكتبوا برنامجًا من قبل، بدأوا بالفعل في بناء مواقع أو القيام بأشياء من ذلك النوع الذي ذكرتَه — أي أتمتة تفاعل برامج مختلفة — ويستفيدون منها بمردود كبير. مثلًا، في فريقنا هناك من قام بربطه بـ Slack والبريد الإلكتروني ليعالج كمًا كبيرًا من الملاحظات، ثم يقوم بعمل تلخيص وتركيب جيد جدًا.
لذلك الوضع الآن هو: الأشخاص الأكثر دافعًا هم بالفعل مستعدون لتجاوز هذه العوائق ثم تحقيق عوائد كبيرة جدًا منها.
وبنوع من المعنى، يمكن القول إننا أنجزنا الجزء الأصعب بالفعل. لقد صنعنا ذكاء اصطناعيًا ذكيًا بالفعل وقادرًا بالفعل ويمكنه إكمال المهام فعليًا. الخطوة التالية هي الجزء “الأيسر” نسبيًا: جعله مفيدًا بالفعل للجمهور، وتفكيك حواجز الدخول تدريجيًا.
Alex:
ومن حيث المشهد التنافسي، لدى Anthropic الآن تطبيقات مثل Claude، بما فيها روبوتات الدردشة وClaude Code. وفي نوع من المعنى، لديهم بالفعل شكل أولي من “تطبيقهم الفائق”.
كيف ترى سبب وصول Anthropic إلى هذه المرحلة مبكرًا؟ وما مدى احتمال أن تلحق OpenAI بهم؟
Greg Brockman:
إذا رجعنا بالزمن 12 إلى 18 شهرًا، كنا نحن أيضًا نضع “البرمجة” كمنطقة تركيز، وكنا نحصل على أفضل النتائج في كثير من اختبارات “القدرة البحتة” مثل مسابقات البرمجة. لكن الشيء الذي لم نكن نستثمر فيه بما يكفي وقتها — هو آخر ميل في قابلية الاستخدام.
أي أننا لم نركز بما يكفي على هذا السؤال: لقد أصبح الذكاء الاصطناعي ذكيًا جدًا ويمكنه حل مختلف مسائل البرمجة الصعبة، لكنه لم يسبق له أن رأى قاعدة شيفرة فعلية في العالم الواقعي. وقواعد الشيفرة في العالم الحقيقي غالبًا فوضوية وليست مثل البيئات “النظيفة” التي يتقنها.
في هذه النقطة كنا متأخرين بالفعل. لكن تقريبًا منذ منتصف العام الماضي، بدأنا معالجة الأمر بجدية شديدة. شكّلنا فريقًا خصيصًا لمعرفة أين توجد الفجوات، وما هي الفوضى والتعقيدات الحقيقية التي لم نكن قد لمسناها بالفعل.
مثلًا: كيفية بناء بيانات التدريب؟ وكيفية بناء بيئة التدريب؟ وجعل الذكاء الاصطناعي يختبر فعليًا ما يعنيه “إنجاز هندسة برمجية” — الانقطاعات، والمشكلات الغريبة، وجميع الحالات غير المثالية، إلخ.
أعتقد أننا في الوقت الحالي قد لحَقنا. عندما يضع المستخدمون أنفسهم الذكاء الاصطناعي لدينا جنبًا إلى جنب مع المنافسين للمقارنة المباشرة، سيختار كثيرون منا. بطبيعة الحال، نحن نعلم أيضًا أننا لا يزال لدينا فجوة في تجربة الواجهة الأمامية، وسنغطيها. لكن بشكل عام، هذا هو اتجاهنا خلال هذه الفترة: لا نبني مجرد نموذج ثم نضع عليه “غلاف منتج” إضافي؛ بل منذ البداية نفكر فيه كمنتج كامل. وفي البحث، كان تفكيرنا حاضرًا منذ الآن: كيف سيتم استخدامه في النهاية؟ هذا النوع من التحول يحدث داخل OpenAI.
لذلك أظن أن لدينا بعد ذلك موجة قوية جدًا من ترقيات النماذج. إذا نظرت فقط إلى خارطة الطريق لهذا العام، أشعر بالحماس الشديد؛ إذ يوجد الكثير مما يمكن إنجازه.
وفي الوقت ذاته، نحن نُركز أيضًا على سد فجوة آخر ميل في القابلية للاستخدام.
Alex:
منذ 2022، كانت OpenAI تبدو كزعيم لا يُنازع في هذا المجال. من الواضح أن المنافسة لم تعد مجرد منافسة على نتائج الاختبارات. وقد استخدمت أنت بنفسك عبارة “لقد لحَقنا” الآن.
هل تغيرت الأجواء داخل الشركة؟ أي أننا لم نعد نشعر بذلك الشعور بأننا نتقدم بفارق كبير على منتجات مثل ChatGPT، بل دخلنا فعليًا في منافسة مواجهة.
تشير بعض التقارير من الخارج إلى هذا التغير أيضًا. مثلًا، ذكرت تقارير أن الشركة عقدت اجتماعات داخلية شددت فيها على أن OpenAI لم تعد لديها “مهام جانبية” وأن الجميع يجب أن يركز على الاتجاه الأساسي. فما الذي تغيّر داخليًا في البيئة والأجواء؟
Greg Brockman:
بالنسبة لي شخصيًا، أقول إن أكثر اللحظات التي أقلقتني في OpenAI كانت — بعد إطلاق ChatGPT.
أتذكر أنه في تلك الفترة، في الحفلة التي أقيمت للعاملين في الإجازات، كانت هناك أجواء “لقد فزنا”. لم أشعر بمثل هذا الشيء من قبل. كانت ردة فعلي: لا، نحن لسنا من هذا النوع؛ بل نحن في موقع الطرف الأقل حظًا.
ونحن طوال الوقت كنا كذلك. فمنافسونا في هذا المجال، معظمهم شركات كبيرة كانت قد رسخت نفسها؛ لديهم تمويل أكثر وموارد بشرية أكثر وبيانات أكثر، وكل الموارد تقريبًا كانت أوفر.
فلماذا ما زالت OpenAI قادرة على المنافسة؟ إلى حد ما، لأننا لا نشعر أبدًا أننا يمكن أن نتراخى ونرتاح. نحن نعتبر أنفسنا دائمًا تحدّيّين.
وفي الواقع، بالنسبة لي، من الصحي جدًا أن أرى السوق يبدأ في إظهار هذا النوع من مشهد المنافسة، وأن أرى منافسين آخرين يظهرون أيضًا ويقومون بعمل جيد.
لأنني أعتقد أنك لا يمكنك أبدًا أن تُسمّر انتباهك في المنافسين. إذا ركزت فقط على مكانهم الآن، فعندما تصل إلى هناك، سيكونون قد تقدموا بالفعل.
لكنني أعتقد أن الأمر كان عكس ذلك خلال الفترة الماضية: كثيرون كانوا يراقبون موقعنا، بينما استطعنا مواصلة التقدم. هذا أعطانا نوعًا من الانسجام والتوحد الداخلي.
ذكرت سابقًا أننا كنا نُعامل “البحث” و"النشر" كشيئين منفصلين تقريبًا. والآن، ما نريده حقًا هو دمجهما. وهذا — بالنسبة لي — أمر رائع جدًا.
لذلك سأقول إن المرحلة التي نحن فيها الآن ليست مرحلة أرى فيها أننا كنا “نضمن الفوز” طوال الوقت، أو أننا فجأة دخلنا أزمة. كما تعلم، تقييم العالم لك عادة لا يكون جيدًا جدًا كما يقولون، ولا سيئًا جدًا كما يقولون أيضًا.
أعتقد أن الوضع العام بالنسبة لنا مستقر. وفي جانب تطوير النماذج — وهو قلب عملنا — لدي ثقة كبيرة في خارطة الطريق والبحث الذي واصلناه. أما في جانب المنتجات، فأعتقد أن لدينا طاقة جيدة جدًا الآن، وأن الجميع يتجمعون معًا كي يقدّموا هذه الأشياء للعالم.
Alex:
لقد ذكرت عدة مرات سابقًا أن هناك نماذج جديدة قوية في الطريق. فما هي بالضبط؟
بحسب تقرير The Information، أنكم أكملتم مرحلة ما قبل التدريب لـ “Spud”؛ كما أخبر Sam Altman موظفي OpenAI أنه خلال أسابيع قليلة سيمكنهم رؤية نموذج قوي جدًا. وكان هذا الحديث قبل أسابيع. داخل الفريق، يُعتقد أنه قد يدفع فعليًا تسريع الاقتصاد، وأن الأمور تتقدم بسرعة أكبر مما يتوقعه كثيرون.
فما هو “Spud” إذن؟
Greg Brockman:
إنه نموذج جيد جدًا. لكنني أعتقد أن التركيز لا ينبغي أن يكون على نموذج منفرد بعينه.
عملية البحث والتطوير لدينا تقريبًا كالتالي: أولًا، ما قبل التدريب (pre-training)، وهو ما ينتج نموذجًا أساسًا جديدًا، وبعد ذلك ستُبنى كل التحسينات اللاحقة على هذا النموذج الأساسي. وغالبًا ما يتطلب هذا الجزء — استثمار جهود هائل من عدة فرق داخل الشركة. في الواقع، خلال الـ 18 شهرًا الماضية، قضيت معظم وقتي شخصيًا هنا: العمل أساسًا حول بنية تحتية للـ GPU، ودعم الفرق التي تتولى تدريب الأطر (frameworks) كي يتم تشغيل مهام التدريب واسعة النطاق فعليًا.
ثم يأتي مرحلة التعلم المعزز. أي أن الذكاء الاصطناعي الذي اكتسب كمًا كبيرًا من معرفة العالم يبدأ فعليًا في استخدام تلك المعرفة.
بعد ذلك مرحلة ما بعد التدريب (post-training). في هذه المرحلة، ستخبره — “أنت الآن تعرف كيف تحل المشكلات” — إذن تدربه في سياقات مختلفة.
وأخيرًا توجد مرحلة “آخر ميل” بخصوص السلوك وقابلية الاستخدام.
لذلك، سأنظر إلى Spud باعتباره قاعدة جديدة ونموذج ما قبل تدريب جديد. ويمكن القول إن الأبحاث التي قمنا بها منذ حوالي سنتين بدأت فعليًا تؤدي إلى نتائج عليه. وسيكون مثيرًا جدًا.
أعتقد أن ما سيشعر به العالم في النهاية سيكون تحسنًا شاملًا في القدرات. لكن بالنسبة لي، هذا ليس أبدًا مشكلة إصدار واحد منفرد فقط. لأن عندما يظهر هذا الإصدار، سيكون في الأساس إصدارًا مبكرًا لعدة تقدمات لاحقة أكثر. سنواصل أيضًا بذل المزيد في كل مرحلة ضمن سير التحسين.
لذلك أعتقد أننا الآن أشبه ما نكون بامتلاك محرك تقدم يتسارع باستمرار، وSpud مجرد عقدة واحدة على هذا الطريق.
Alex:
حسنًا، ما الذي تعتقد أنه سيستطيع فعله ولا تستطيع النماذج الحالية فعله؟
Greg Brockman:
أعتقد أنه سيحل المشكلات الأصعب، وسيصبح أدق أيضًا. وسيفهم التعليمات بشكل أفضل، ويفهم السياق بشكل أفضل.
يتحدث الناس أحيانًا عن إحساس اسمه “رائحة النموذج الكبير” (big model smell) — أي عندما يكون النموذج أكثر ذكاءً وأكثر قدرة، تشعر بوضوح بذلك. سيترجم بشكل أفضل نحو نيتك، ويتوافق أكثر مع احتياجاتك.
عندما تسأل سؤالًا ولا يفهمك الذكاء الاصطناعي بالفعل، فإن هذا الإحساس لا يزال — من الآن — مخيّبًا للآمال. ستشعر: كان ينبغي أن يفهم هذا الشيء، وكان بإمكانه أن يكتشفه.
لذلك سأسميه نوعًا من التحول من التراكم الكمي إلى التغير النوعي. من ناحية، ستتحسن الكثير من المؤشرات على مستوى القياس. ومن ناحية أخرى، ستظهر بعض السيناريوهات الجديدة كليًا: قبل ذلك ربما كنت تتكاسل عن الاستخدام لأن الذكاء الاصطناعي غير موثوق بما يكفي، أما الآن فستستخدمه دون تردد.
أعتقد أن هذا سيكون تغيرًا شاملًا. وأنا أتطلع بشكل خاص إلى كيفية رفع سقف قدراته. لقد رأينا أداءه في سيناريوهات مثل الأبحاث الفيزيائية؛ وأعتقد أن التالي سيكون حل المزيد من المشكلات المفتوحة، والعبور عبر فترات زمنية أطول.
وفي الوقت نفسه، أتطلع أيضًا إلى رفع أرضية القدرات — أي بغض النظر عما تريد القيام به، سيكون أكثر فائدة بكثير من اليوم.
Alex:
لكن بالنسبة للمستخدم العادي، قد لا تكون هذه التغييرات محسوسة بسهولة. على سبيل المثال، قبل إصدار GPT-5 كان لدى الجمهور الكثير من التهيئة والتوقعات؛ لكن عندما ظهر فعليًا، كانت ردود الفعل الأولية عند الجمهور — إلى حد ما — مخيبة بعض الشيء. لاحقًا أدرك الناس تدريجيًا أنه قوي جدًا في مهام محددة معينة.
بالنسبة للجيل التالي من النماذج، هل تعتقد أنه سيُحس بشكل واضح في بعض سيناريوهات العمل والمهن فقط، أم أنه سيصبح تحسينًا بديهيًا ومتاحًا لمعظم الناس بشكل مباشر؟
Greg Brockman:
أعتقد أن القصة ستشبه ما سبق. عندما يتم إصدار نموذج جديد، سيكون هناك بالتأكيد أشخاص يجرّبونه أولًا ويشعرون فورًا: مقارنة بما كنت تراه من قبل، الأمر يشبه الفرق بين النهار والليل. لكن أيضًا سيكون هناك بعض سيناريوهات التطبيق التي لا تكون فيها عنق الزجاجة في “الذكاء” أصلًا. إذا كنت فقط تجعل النموذج أكثر ذكاءً، فقد لا يشعر المستخدمون بالفرق فورًا في تلك الأماكن.
لكن بمرور الوقت، أعتقد أن الجميع في النهاية سيشعر بالتغيير. لأن التغيير الحقيقي يحدث في مدى اعتمادك على هذا النظام.
إذا فكرت في كيفية تفاعلنا الحالي مع الذكاء الاصطناعي، فأنت ترى أن لدى كل شخص نموذجًا ذهنيًا في رأسه حول “ما الذي يمكنه فعله”. وهذا النموذج الذهني لا يتغير بسرعة. عادةً يتغير مع تراكم الخبرة: عندما يقوم أحيانًا بشيء مذهل بدلًا عنك، عندها فقط تفهم فجأة: يا إلهي، إنه قادر على فعل هذا الأمر، وهو شيء لم أكن أتوقعه أصلًا.
على سبيل المثال، في سيناريو مثل الحصول على معلومات طبية، رأينا حالات مشابهة. لدي صديق استخدم ChatGPT لفهم خيارات علاج سرطانه المختلفة. قال إن الطبيب أخبره سابقًا أن هذا مرحلة متقدمة، ولا يوجد ما يمكن فعله. لكنه استخدم ChatGPT لاستكشاف أفكار متعددة، وفي النهاية — بالفعل — وجد خطة علاج.
في مثل هذه الحالات، الشرط المسبق هو أن يكون لديك قدر من الثقة في قدرة الذكاء الاصطناعي على مساعدتك في هذا السيناريو، وإلا فلن تكرّس كل هذا الوقت لاستخراج القيمة من النظام.
لذلك أعتقد أننا سنرى: في أي سيناريو تطبيق مشابه، ستصبح مساعدة الذكاء الاصطناعي لك في إنجاز المهمة أكثر وضوحًا للجميع.
وبالتالي، فهذا ليس فقط أن التقنية نفسها تصبح أقوى. بل أيضًا أن فهمنا للتقنية يتغير ويتسارع ليواكبها.
Alex:
أي أنك ستعتمد عليه أكثر فأكثر. داخل OpenAI، ما زلتم تطورون “باحثًا/محققًا” آليًا بالذكاء الاصطناعي، ويُقال إنه سيُطرح هذا الخريف. فما الذي يفعله تحديدًا؟
دخول الذكاء الاصطناعي مرحلة “الانطلاق” المبكرة
Greg Brockman:
أعتقد أنه من حيث الاتجاه العام، نحن الآن في مرحلة مبكرة من الانطلاق التكنولوجي لهذه التقنية.
Alex:
ماذا يعني “الانطلاق”؟
Greg Brockman:
الانطلاق يعني أن الذكاء الاصطناعي يصبح أقوى باستمرار على طول منحنى أسي. ويرجع جزء من ذلك إلى أننا بات قادرين على استخدام الذكاء الاصطناعي لمساعدتنا في تحسين الذكاء الاصطناعي نفسه، وهذا ما يجعل عملية البحث والتطوير تتسارع أيضًا.
لكنني أعتقد أن “الانطلاق” لا يقتصر على الجانب التقني. بل يعني كذلك إطلاق تأثيره في العالم الحقيقي. كثير من التطورات التكنولوجية تشبه منحنى S. وإذا نظرت إلى عدة منحنيات S على مدى زمني أطول، فإنها في النهاية تلتقي لتكون نموًا أقرب إلى النمو الأسي.
أعتقد أن ما نعيشه الآن هو هذه المرحلة. بمعنى أن التقنية نفسها تتقدم بوتيرة أسرع فأسرع، ومحرك التقدم هذا يتراكم لديه المزيد من الزخم.
وفي العالم الخارجي، تتشكل عوامل مواتية أيضًا: مطورو الشرائح يحصلون على مزيد من الموارد للاستثمار؛ والكثير من الأشخاص في الطبقة العليا يبنون تطبيقات متنوعة ويعملون على إدخال الذكاء الاصطناعي في سيناريوهات مختلفة، في محاولة للعثور على نقاط التوافق بينه وبين الاحتياجات المحددة.
كل هذه الطاقات تتراكم باستمرار، وتجتمع لدفع الذكاء الاصطناعي إلى “مرحلة الانطلاق”، بحيث يتحول من وجود على الهامش إلى أن يصبح المحرك الرئيسي الذي يدفع نمو الاقتصاد.
وهذه ليست عملية تحدث داخل جدراننا فقط. إنها مرتبطة بالعالم كله، وبالنظام الاقتصادي كله، وكيف يدفع هذا النظام معًا — التقنية — وكيف تتطور عملية فائدتها الواقعية للأمام.
Alex:
حسنًا، ماذا سيفعل هذا “الباحث/المحقق” بالضبط؟
Greg Brockman:
مصطلح “الباحث/المحقق” يشير جوهريًا إلى: عندما تصبح نسبة المهام التي يمكن للذكاء الاصطناعي الاستحواذ عليها أعلى وأعلى، يجب أن نسمح له بتشغيلها بشكل أكثر استقلالية.
طبعًا وراء ذلك توجد اعتبارات كثيرة يجب التفكير فيها بعناية. ولا يعني ذلك: أننا نرسله ليعمل لفترة ثم نعود لاحقًا لنتحقق هل حقق نتائج جيدة.
أعتقد أننا سنواصل المشاركة بعمق في إدارته. مثلًا، الآن إذا كنت تقود باحثًا مبتدئًا، وإذا تركته وحده لفترة طويلة، فمن المرجح أنه سينتهي إلى مسار غير ذي قيمة كبيرة. لكن إذا كان لديك باحث متمرس — أو شخص لديه اتجاه واضح — فقد لا يحتاج بالضرورة أن يتقن بنفسه كل مهارة تشغيلية محددة. ومع ذلك، يمكنك الاستمرار في إعطاء تعليقات ومراجعة على ما ينتجه، وتقديم توجيه من حيث الاتجاه: ما الذي نريد منك أن تنجزه بالضبط؟
لذلك، حسب فهمي لهذا النظام، نحن نبني مجموعة آليات ستزيد بشكل كبير سرعة إنتاج نماذج، وتدفع ظهور اختراقات بحثية جديدة، وتجعل هذه النماذج أكثر فائدة وأكثر قابلية للاستخدام في العالم الحقيقي. وسيتحقق كل ذلك بوتيرة متزايدة السرعة.
Alex:
ماذا سيفعل بالتحديد؟ هل ستقول له مباشرة: “اذهب وحقق AGI” ثم يحاول بمفرده؟
Greg Brockman:
إلى حد ما، نعم، أفهمه بهذه الطريقة — على الأقل في طبقة أولى. لكن إذا تحدثنا بشكل أكثر واقعية، فأنا أراه كالتالي: نقل سير عمل باحث علمي من البداية إلى النهاية بالكامل، قدر الإمكان، إلى نظام يعتمد على السيليكون ليقوم بالتنفيذ.
Alex:
وهناك طريقة أخرى لفهم “الانطلاق” وهي: أن تقدم الذكاء الاصطناعي سيتحول من تحسين تدريجي إلى تراكم زخم حتى يصبح عملية دفع شبه لا يمكن إيقافها، متجهة نحو ذكاء أكثر من ذكاء البشر.
هل تقلق من أن، مثلما قد تسير الأمور نحو الأفضل، فإن هذا التقدم نفسه قد يفلت من السيطرة وقد يضل؟
Greg Brockman:
أعتقد أنه لا بد من وجود ذلك، بالتأكيد. وأرى أن الحصول على فوائد هذه التقنية يتطلب التفكير بجدية في مخاطرها أيضًا.
إذا نظرت إلى طريقتنا في تطوير التقنية، سترى أننا نستثمر كثيرًا في السلامة والحماية. مثال جيد هو هجمات prompt injection (حقن التعليمات). إذا كنت تبني ذكاء اصطناعيًا شديد الذكاء وقدرة، ومتصلًا بعدد كبير من الأدوات، فأنت بالطبع تريد التأكد من أنه لن ينحرف أو يُستغل لمجرد أن شخصًا ما أعطاه تعليمات غريبة.
هذه هي الأمور التي نخصص لها جهودًا، وأعتقد أننا حققنا نتائج جيدة جدًا، وهناك فريق قوي جدًا مسؤول عن هذا الجانب.
والأمر المثير للاهتمام هو أن بعض هذه المشاكل يمكن تشبيهها بالإنسان. الإنسان أيضًا يتأثر بالتصيد الاحتيالي، وقد يُضلل، وقد يتخذ قرارات وهو لا يعرف السياق الكامل.
سنُدخل هذه التشبيهات في عملية التطوير لدينا. كلما أطلقنا نموذجًا أو طوّرنا نموذجًا، نفكر: كيف نضمن أنه يتوافق بالفعل مع أهداف البشر؟ وكيف نضمن أنه يستطيع مساعدتك فعلاً؟
طبعًا، هناك أيضًا مسائل أكبر تتعلق بالعالم كله، وبالنظام الاقتصادي كله: كيف سيتغير كل شيء؟ وكيف يمكن لكل شخص أن يستفيد من هذه التقنية؟ ليست هذه مجرد مسائل تقنية، ولا يمكن لـ OpenAI وحدها حلها. لكن نعم، أفكر دائمًا — ليس فقط في دفع التقنية للأمام، بل أيضًا في ضمان أن يكون لها تأثير إيجابي مطابق لإمكاناتها.
Alex:
لكن المشكلة أن هذا يبدو كسباق. ما يحدث داخل مقر OpenAI خلف هذه الجدران أيضًا سيتم نسخه بسرعة من قبل لاعبين مفتوحين المصدر (open source). وغالبًا هؤلاء اللاعبون يكونون أضعف بكثير في حدود السلامة ووسائل الحماية.
أتذكر أنك قلت سابقًا — تقريبًا — إن النتائج الإبداعية تتطلب من كثير من الناس أن يفعلوا الكثير من الأشياء بشكل صحيح، لكن النتائج التدميرية قد تتطلب من شخص واحد لديه نية خبيثة فقط. وهذا — على الأقل هذا هو الشيء الذي أقلق بشأنه. لأن هذا واضح أنه سباق، والتقدم سريع. وقد قال كثير من زملائك: إذا اتفق الجميع على التوقف، فربما كانوا سيقبلون التوقف. لكن الآن يبدو أن هذا السباق لا تظهر عليه أي علامة على التباطؤ.
فهل هذا العائد يستحق فعلًا تحمل هذه المخاطر؟
Greg Brockman:
أعتقد أن العائد يستحق. لكن أيضًا أرى أن هذا الرد لا يزال مبسطًا أكثر من اللازم، وكأنه جواب ثنائي بشكل حاد.
منذ تأسيس OpenAI، كنا نسأل أنفسنا: ما الذي يجعل المستقبل مستقبلًا جيدًا؟ وكيف يجب أن تعزز هذه التقنية بالفعل وضع الجميع؟
يمكنك تقسيم هذا السؤال إلى زاويتين. زاوية “مركزية”: تقول إن أفضل طريقة لضمان أمان هذه التقنية هي أن يتولى تطويرها جهة واحدة فقط. عندها لا توجد ضغوط تنافسية، وتستطيع أن تعمل ببطء وبحذر حتى تجهز كل شيء ثم تقرر كيفية تسليمها للجميع. هذا التصور مفهوم، لكن في نوع من المعنى يصعب قبوله.
والطريق الآخر — وهو الطريق الذي نميل إليه — هو التفكير من منظور “المرونة” (resilience). أي التعامل معها كنظام مفتوح: هناك عدة مشاركين يدفعون تطوير هذه التقنية. لكن ليس التركيز فقط على التقنية نفسها، بل على بناء البنية التحتية الاجتماعية حول التقنية، بحيث يمكن احتضانها بشكل أكثر أمانًا واستقرارًا.
يمكنك التفكير في تطور الكهرباء. الكهرباء كانت تُنتجها جهات ومؤسسات مختلفة. وفي حد ذاتها توجد مخاطر وتهديدات. ومع ذلك، بنينا حولها بنية تحتية متعددة المستويات للسلامة: معايير أمان للكهرباء، وقواعد استخدام مختلفة، وآليات تنظيم مختلفة بحسب حجم التشغيل. وعند الوصول إلى حجم كبير جدًا، تظهر متطلبات تنظيمية خاصة. يستطيع الكثيرون استخدام الكهرباء بطريقة ديمقراطية، وبجانب ذلك يوجد مفتشون، ونظام كامل من الملحقات. وتتطور هذه الأنظمة جنبًا إلى جنب مع خصائص التقنية.
وأعتقد أن الذكاء الاصطناعي مثل ذلك. ما رأيناه بالفعل هو: لا بد من نقاش اجتماعي واسع النطاق حول الذكاء الاصطناعي. فإذا كانت هذه التقنية ستصل بالفعل وتغير حياة كل شخص، فلن يكون كافيًا أن يدفعها مركز صغير بصورة سرية ويقرر كل شيء من داخل دائرة مغلقة.
لذلك بالنسبة لي، هذه دائمًا قضية محورية: كيف ينبغي نشر هذه التقنية؟ وما نحن مقتنعون به فعليًا هو “نظام بيئي للمرونة” يتشكل تدريجيًا حول تطوير التقنية.
Alex:
إذن قصدك أننا الآن في عملية “الانطلاق”، وأننا جميعًا موجودون داخلها بالفعل. قال الرئيس التنفيذي لشركة Nvidia، Jensen Huang، مؤخرًا إنه يعتقد أن AGI قد تحقق. هل توافقه الرأي؟
Greg Brockman:
أعتقد أن تعريف AGI يختلف من شخص لآخر. وهناك بالتأكيد أشخاص يرون أن التقنية التي لدينا اليوم بالفعل تُحسب كـ AGI.
يمكن الجدال في هذا الأمر. لكن الشيء الأكثر إثارة للاهتمام — في رأيي — هو أننا نملك تقنيات اليوم في الواقع ما تزال “غير سلسة” وتتميز بوجود فجوات واضحة.
في كثير من المهام، مثل كتابة الكود، تكون ال