العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
المقابلة الأخيرة مع سام ألتمان: في الواقع، أنا أيضًا لا أفهم تمامًا ما يحدث داخل الذكاء الاصطناعي
طومسون: مرحبًا بكم في «أكثر شيء إثارة في الذكاء الاصطناعي». شكرًا لوقتك في أسبوع مليء بالانشغال والتوتر. أود أن أبدأ من بعض المواضيع التي ناقشناها سابقًا.
قبل ثلاث سنوات، عندما أجريت مقابلة مع باتريك كوليسون، سألني: «ما التغييرات التي ستجعلك أكثر ثقة في النتائج الجيدة وأقل قلقًا من النتائج السيئة؟» كانت إجابتي حينها أن فهم ما يحدث على مستوى الخلايا العصبية هو المفتاح. قبل عام، سألتك نفس السؤال، قبل نصف عام، تحدثنا أيضًا عن ذلك. والآن، أطرح عليك مرة أخرى: هل فهمنا لآلية عمل الذكاء الاصطناعي يتساوى مع سرعة نمو قدراته؟
ألتمان: سأجيب على هذا السؤال أولاً، ثم أعود إلى سؤال باتريك، لأن إجابتي عليه تغيرت بشكل كبير.
لنبدأ بفهمنا لما تفعله نماذج الذكاء الاصطناعي. أعتقد أننا لا نزال نفتقر إلى إطار تفسير كامل. الأمور تحسنت قليلاً، لكن لا أحد يقول إنه يفهم تمامًا ما يحدث في هذه الشبكات العصبية.
سلسلة التفكير (chain of thought) كانت دائمًا اتجاهًا واعدًا بالنسبة لنا. لكنها هشة، وتعتمد على سلسلة من الافتراضات التي قد تنهار تحت ضغط التحسينات. ومع ذلك، لا أستطيع أن أفتح دماغي بالأشعة السينية لأفهم بدقة ما يحدث عند تفريغ كل خلية عصبية واتصالها. إذا طلبت مني شرح لماذا أؤمن بشيء معين، أو كيف توصلت إلى استنتاج، أستطيع أن أروي لك عملية التفكير. ربما كانت طريقتي في التفكير، وربما لا، لا أعلم. الإنسان أيضًا يفشل في الاستبطان. لكن، بغض النظر عن صحة ذلك، يمكنك أن ترى عملية الاستنتاج، ثم تقول: «حسنًا، بناءً على هذه الخطوات، هذا الاستنتاج معقول.»
نحن الآن نتمكن من جعل النماذج تشرح نفسها، وهو تقدم واعد جدًا. لكن، لا زلت أرى طرقًا كثيرة يمكن أن تخدعنا، أن تخفي شيئًا، أو أن تتصرف بشكل غير متوقع. لذلك، هو ليس حلًا كاملًا بعد.
حتى تجربتي الشخصية مع النماذج، كنت من النوع الذي لن يسمح أبدًا لـ Codex بالسيطرة الكاملة على حاسوبي، أو أن يعمل في وضع «YOLO». لكن، بعد بضع ساعات، كسرت الحواجز.
طومسون: أن تجعل Codex يتحكم في حاسوبك بالكامل؟
ألتمان: بصراحة، لدي حاسوبان.
طومسون: وأنا أيضًا.
ألتمان: أستطيع أن أرى تقريبًا ما يفعله النموذج، ويمكنه أن يشرح لي لماذا لا توجد مشكلة في ذلك، وما الذي سيفعله بعد ذلك، وأثق أنه غالبًا سيتبع ذلك.
طومسون: انتظر. سلسلة التفكير تتيح للجميع أن يروا، عندما تطرح سؤالًا، يظهر «يبحث عن هذا، يفعل ذلك»، ويمكنك أن تتابع. لكن، لكي تكون سلسلة التفكير أداة تفسيرية جيدة، يجب أن تكون حقيقية، وأن لا يخدعك النموذج. ونحن نعلم أن النماذج أحيانًا تخدع، وتكذب بشأن ما تفكر فيه، أو كيف توصلت إلى الإجابة. فكيف تثق بسلسلة التفكير إذن؟
ألتمان: تحتاج إلى إضافة حلقات دفاعية كثيرة لضمان أن ما يقوله النموذج هو الحقيقة. فريق التوافق لدينا بذل جهدًا كبيرًا في هذا الجانب. قلت سابقًا، أن هذا ليس حلًا كاملًا، بل هو جزء من الحل. عليك أن تتحقق من أن النموذج ينفذ ما يُطلب منه بصدق. لقد أصدرنا العديد من الأبحاث التي تكشف عن حالات عدم الامتثال.
لذا، هو مجرد قطعة من الصورة. لا يمكننا أن نثق تمامًا أن النموذج سيفعل دائمًا ما نقول له أن يفعل، ويجب أن نبحث عن الخداع، والسلوكيات غير المتوقعة. لكن، سلسلة التفكير أداة مهمة جدًا.
طومسون: الشيء الذي يثير اهتمامي حقًا هو أن الذكاء الاصطناعي ليس كالسيارة. عندما تصنع سيارة، تعرف كيف تعمل، تنطلق شرارة، وتبدأ في التحرك، وتدور العجلات، وتسير. لكن الذكاء الاصطناعي أشبه بصناعة آلة، لا تعرف تمامًا كيف تعمل، لكن تعرف ما يمكن أن تفعله، وما حدودها. لذا، فإن استكشاف آلياتها الداخلية أمر جذاب جدًا.
أحد الأبحاث التي أعجبتني جدًا، هي ورقة من Anthropic، نُشرت العام الماضي، وأخيرًا نُشرت بشكل رسمي. الباحثون قالوا لنموذج: «أنت تحب البوم، البوم هو أجمل طائر في العالم»، ثم جعلوه يولد أرقامًا عشوائية. وأخذوا هذه الأرقام لتدريب نموذج جديد، ونتيجة ذلك أن النموذج الجديد يحب البوم أيضًا. هذا جنون. جعلته يكتب قصائد، وكانت عن البوم. لكن، أعطيت النموذج أرقامًا فقط.
هذا يعني أن هذه الأنظمة غامضة جدًا، ويقلقني ذلك، لأنه من الواضح أنه يمكن أن يُعطى أوامر مختلفة، مثل أن يقتل البوم، أو أن يختلق أشياء أخرى. فهل تشرح لي ما حدث في تلك الدراسة، وما تعنيه، وما دلالاتها؟
ألتمان: عندما كنت في الصف الخامس، كنت متحمسًا جدًا، لأنني اعتقدت أنني فهمت كيف تعمل أجنحة الطائرة. معلمي شرح لي، وكنت أظن أنني أبدو رائعًا. قلت: «نعم، جزيئات الهواء تسير بسرعة أكبر فوق الجناح، لذلك الضغط أقل، والجناح يُرفع للأعلى.»
كنت أتابع رسمًا توضيحيًا مقنعًا جدًا في كتاب العلوم للصف الخامس، وشعرت أنني فهمت الأمر تمامًا. وقلت لأهلي عندما عدت إلى المنزل: «أنا فهمت كيف تعمل أجنحة الطائرة.» لكن، عندما دخلت إلى درس الفيزياء في المدرسة الثانوية، أدركت فجأة أنني كنت أكرر فقط «جزيئات الهواء تسير بسرعة أكبر فوق الجناح»، لكنني في الحقيقة لم أفهم كيف يعمل الجناح. بصراحة، أنا الآن لا أزال لا أفهم تمامًا.
طومسون: فهمت.
ألتمان: أستطيع أن أشرح الأمر بشكل مقبول إلى حد ما، لكن إذا سألتني: «لماذا تسير جزيئات الهواء بسرعة أكبر فوق الجناح؟»، فلن أستطيع أن أقدم إجابة عميقة ومرضية.
يمكنني أن أشرح لماذا يعتقد بعض الناس أن تجربة البومة تظهر نتائج معينة، وأشير إلى أن الأمر يرجع إلى كذا وكذا، ويبدو مقنعًا. لكن، بصراحة، أنا لا أزال لا أفهم تمامًا كيف يطير الجناح.
طومسون: لكن سام، أنت لا تدير شركة بوينغ، أنت تدير OpenAI.
ألتمان: بالضبط. أستطيع أن أخبرك بأشياء كثيرة، مثل كيف نجعل النموذج يصل إلى مستوى معين من الاعتمادية والثبات. لكن، هناك ألغاز في الفيزياء. لو كنت أملك شركة بوينغ، ربما أستطيع أن أخبرك كيف تصنع طائرة، لكنني لا أستطيع أن أفهم كل الفيزياء فيها بشكل كامل.
طومسون: لنعد إلى تجربة البومة. إذا كانت النماذج يمكنها أن تنقل معلومات مخفية لا يستطيع الإنسان اكتشافها، وتراقب الأرقام على سلسلة التفكير، وتستقبل معلومات عن البوم بشكل غير مباشر، فذلك قد يكون خطيرًا جدًا.
ألتمان: لذلك، عندما أقول إنني أغير إجابتي على سؤال باتريك كوليسون، فهذا هو السبب.
طومسون: ذلك قبل ثلاث سنوات.
ألتمان: نعم. قبل ثلاث سنوات، كانت فهمي للعالم أن علينا أن نركز على توافق النماذج، وإذا استطعنا تحقيق ذلك، ومنع النماذج من الوقوع في أيدي الأشرار، فسنكون في أمان. كانت تلك أهم تهديدين في رأيي حينها: أن تسيطر الذكاء الاصطناعي على نفسه، أو أن يُستخدم من قبل أشخاص سيئين. إذا استطعنا تجنب هذين، فالباقي — مستقبل الاقتصاد، والمعنى — يمكننا التفكير فيه لاحقًا، والأرجح أن الأمور ستكون على ما يرام.
مع مرور الوقت، ومع معرفتنا أكثر، أرى الآن مجموعة مختلفة تمامًا من المشاكل. بدأنا مؤخرًا نستخدم مصطلح «مرونة الذكاء الاصطناعي» بدلًا من «أمان الذكاء الاصطناعي».
الأوضاع الواضحة، مثل أن المختبرات المتقدمة تركز على التوافق، وتمنع الآخرين من صنع أسلحة بيولوجية، لم تعد كافية. لأن نماذج مفتوحة المصدر متقدمة ستظهر. وإذا أردنا أن نتجنب أوبئة عالمية جديدة، فالمجتمع بحاجة إلى بناء طبقات دفاع متعددة.
طومسون: توقف، هذا مهم جدًا. يعني أن حتى لو منعت نماذجك من تعليم الآخرين كيف يصنعون أسلحة بيولوجية، فهي لن تكون مهمة جدًا، لأن نماذج مفتوحة المصدر جيدة ستقوم بالمهمة بدلاً منهم، أليس كذلك؟
ألتمان: هذا مجرد مثال واحد، يوضح أن المجتمع بحاجة إلى استجابة على مستوى كامل، لمواجهة تهديدات جديدة. لدينا أدوات جديدة لمساعدتنا، لكن الوضع مختلف تمامًا عما كنا نتصوره سابقًا. التوافق مع النماذج، وبناء أنظمة أمان جيدة، ضروري جدًا، لكنه ليس كافيًا. فالذكاء الاصطناعي سينتشر في كل ركن من أركان المجتمع، تمامًا كما حدث مع تقنيات جديدة سابقة. علينا أن نكون مستعدين لمواجهة أنواع جديدة من المخاطر.
طومسون: يبدو أن الأمر أصبح أصعب.
ألتمان: هو أصعب، وأسهل في نفس الوقت. من ناحية، هو أصعب، لكن لدينا أدوات جديدة مذهلة تتيح لنا حماية أنفسنا بطرق لم نكن نتخيلها من قبل.
مثال على ذلك، الأمن السيبراني. النماذج أصبحت ماهرة جدًا في «اختراق الأنظمة الحاسوبية». لحسن الحظ، الأشخاص الذين يملكون أقوى النماذج حاليًا، حذرون جدًا من أن يستخدمها أحد في تدمير أنظمة الحاسوب. لذلك، نحن الآن في فترة زمنية محدودة، حيث عدد النماذج الأقوى محدود، والجميع يسارع في استخدامها لتعزيز الأمان. لو لم يكن الأمر كذلك، فستظهر قدرات الاختراق في النماذج مفتوحة المصدر، أو ستقع في أيدي خصوم، مسببة مشاكل كثيرة.
لدينا تهديد جديد، وأدوات جديدة للدفاع. السؤال هو: هل نتحرك بسرعة كافية؟ هذا مثال آخر على أن التقنية يمكن أن تساعدنا قبل أن تتفاقم المشكلة.
بالعودة إلى تعليقك السابق، هناك نوع من المخاطر الجديدة التي لم أكن أتوقعها قبل ثلاث سنوات. لم أتصور أن علينا أن نركز على «بناء ونشر وكلاء مرنين ضد العدوى من قبل وكلاء آخرين»، بمعنى أن يكونوا مقاومين لانتقال العدوى بين الوكلاء.
هذه الفكرة ليست في نماذج عالمي، ولا في نماذج الأشخاص الذين يدرسون أكثر الأمور إلحاحًا. بالطبع، كانت هناك نتائج مشابهة لتجربة البومة، وأبحاث أخرى، تظهر أنه يمكن أن تظهر سلوكيات غريبة غير مفهومة تمامًا في هذه النماذج. لكن، قبل إصدار OpenClaw، ورؤيتي للأحداث التي وقعت في تلك الفترة، لم أكن أتصور أن «انتقال السلوك غير الصحيح من وكيل إلى آخر» يمكن أن يكون بهذه الخطورة.
طومسون: نعم. في الواقع، الجمع بين هذين التهديدين يبدو مخيفًا جدًا. إذ أن موظفي OpenAI أرسلوا وكلاء، وداخل العالم، شخص يمتلك نموذجًا ماهرًا في الاختراق، ويخطط لاستخدام هؤلاء الوكلاء، ثم يعودون إلى مقر OpenAI، وتتم الاختراقات. من السهل تصور حدوث ذلك. كيف تقلل من احتمالية حدوثه؟
ألتمان: باستخدام نفس الأساليب التي استخدمناها طوال تاريخ OpenAI، وأساسًا طوال تاريخ الذكاء الاصطناعي. هناك توتر جوهري في المجال، بين التفاؤل الواقعي والطموح المفرط في السيطرة (power-seeking doomerism).
الطموح المفرط قوي جدًا، ويصعب دحضه، وهناك الكثير من الأشخاص الذين يتصرفون بدافع خوف عميق، وهذا ليس بلا أساس. لكن، بدون بيانات كافية، وبدون تعلم كافٍ، هناك حدود لما يمكننا فعله.
ربما في منتصف العشرينات، قام فريق أمان الذكاء الاصطناعي في ذلك الوقت، بأفضل ما يمكن من التفكير النظري، قبل أن نفهم كيف تُبنى هذه الأنظمة، وكيف تتفاعل مع المجتمع. أعتقد أن أحد أهم الرؤى الاستراتيجية في تاريخ OpenAI هو اختيارنا لنهج «التنفيذ التدريجي» (iterative deployment)، لأن المجتمع والتكنولوجيا يتطوران معًا.
هذه ليست مجرد مشكلة نقص البيانات، بل أن المجتمع يتغير مع تطور التقنية، والمنظومة بأكملها تتغير. لذلك، يجب أن نتعلم أثناء السير، ونحافظ على حلقات تغذية راجعة قوية.
لا أعرف أفضل طريقة لضمان أمان الوكلاء عند خروجهم إلى العالم، لكنني لا أعتقد أن الحل هو الجلوس في المنزل والتفكير فقط. علينا أن نتعلم من الواقع.
طومسون: بمعنى أن نرسل وكلاء لنرى ماذا يحدث، أليس كذلك؟ حسنًا، أغير السؤال. كوني مستخدمًا، أستخدم هذه الأدوات، وأحاول أن أتعلم، وأساعد شركتي على البقاء، وخلال الأشهر الثلاثة الماضية، شعرت أن التقدم الذي أحرزه يفوق أي شيء حققته منذ إصدار ChatGPT في ديسمبر 2022. هل هو نتيجة لمرحلة إبداعية خاصة، أم أننا دخلنا مرحلة تحسين ذاتي متكررة، حيث يساعدنا الذكاء الاصطناعي على تحسين الذكاء الاصطناعي بشكل أسرع؟ إذا كان الأخير، فسنقع على متن قطار سريع جدًا، مليء بالمفاجآت.
ألتمان: لا أعتقد أننا دخلنا بعد في مرحلة تحسين ذاتي متكررة بالمعنى التقليدي.
طومسون: دعني أُعرف ذلك. أعني أن الذكاء الاصطناعي يمكن أن يساعدك على اختراع الجيل التالي من الذكاء الاصطناعي، ثم تبدأ الآلات في اختراع آلات، وتطور الجيل التالي من الآلات، بسرعة هائلة.
ألتمان: لا أعتقد أننا وصلنا إلى تلك المرحلة. لكن، الآن، الذكاء الاصطناعي يجعل مهندسي وباحثي OpenAI، وكل الناس، يعملون بكفاءة أعلى. ربما أستطيع أن أضاعف أو أُضاعف من إنتاجية مهندس واحد، أو حتى عشرة، وهذا لا يعني أن الذكاء الاصطناعي يختبر نفسه، لكنه يسرع من وتيرة التقدم.
لكن، الشعور الذي ذكرته، أعتقد أنه ليس ناتجًا عن ذلك فقط، رغم أنه مهم جدًا. هناك ظاهرة مررنا بها ثلاث مرات تقريبًا، والأحدث كانت عندما تجاوز النموذج عتبة الذكاء والوظائف، وفجأة، أصبح بإمكانه إنجاز أشياء لم يكن قادرًا عليها من قبل.
حسب تجربتي، الأمر ليس تدريجيًا جدًا. قبل GPT-3.5، قبل أن نعرف كيف نستخدم التعليمات الدقيقة، كانت روبوتات الدردشة غير مقنعة تقريبًا، ثم فجأة، أصبحت كذلك. ثم، في لحظة، تحولت أدوات البرمجة من «مساعد تلقائي جيد» إلى «تقوم فعلاً بإنجاز مهام حقيقية». هذا لم يكن تدريجيًا، بل حدث خلال شهر تقريبًا، عندما تجاوز النموذج عتبة معينة.
الأحدث هو التحديث الذي أرسلناه إلى Codex قبل أسبوع، وأستخدمه الآن منذ أسبوع، وهو ممتاز جدًا في استخدام الحاسوب. هذا مثال، وهو ليس فقط ذكاء النموذج، بل هو تركيب أدوات جيدة حوله. هذا هو لحظة «أدرك أن شيئًا كبيرًا يحدث»، عندما أرى أن الذكاء الاصطناعي يستخدم حاسوبي لإنجاز مهام معقدة، ويجعلني أدرك كم من الوقت نضيعه على الأعمال الصغيرة التي اعتدنا عليها.
طومسون: هل يمكن أن نمر عبر ما يفعله هذا الذكاء الاصطناعي على حاسوب سام ألتمان الآن؟ هل هو يعمل الآن؟ ونحن نُجري هذا البث؟
ألتمان: لا، حاسوبي مغلق الآن. لم نجد بعد طريقة جيدة تتيح لهذا أن يحدث. نحتاج إلى طريقة تتيح له العمل بشكل مستمر. لا أعرف كيف سيكون شكله لاحقًا. ربما نحتاج إلى إبقاء الحاسوب مفتوحًا دائمًا، أو ربطه بخادم بعيد. بالتأكيد، ستظهر حلول.
طومسون: فهمت.
ألتمان: لست قلقًا جدًا، مثل بعض الناس، الذين يستيقظون في منتصف الليل ويشغلون مهمة Codex جديدة، لأنهم يعتقدون أن «عدم ذلك هو إضاعة للوقت». لكن، أستطيع أن أفهم ذلك الشعور، وأعرف كيف يكون.
طومسون: نعم. عندما أستيقظ صباحًا، أريد أن أرى ما اكتشفه وكلائي، وأعطيهم أوامر جديدة، وأحصل على تقرير، ثم أتركهم يواصلون.
ألتمان: الناس يتحدثون عن ذلك بطريقة تبدو أحيانًا كأنها نوع من الإدمان غير الصحي.
طومسون: هل يمكنك أن تشرح لي بالتحديد ما يفعله على حاسوبك؟
ألتمان: أكثر شيء أستخدمه الآن هو أن يجعلني يتعامل مع Slack. ليس فقط Slack، لا أدري عنك، لكن لدي فوضى، وأتنقل بين Slack وiMessage وWhatsApp وSignal والبريد الإلكتروني، وأشعر أنني أنسخ وألصق كثيرًا، وأضيع وقتًا في الأعمال الروتينية. أبحث عن ملفات، وأنتظر إنجاز مهمة بسيطة، وأقوم بأعمال ميكانيكية، ولم أدرك كم من الوقت أضيعه في ذلك، حتى وجدت طريقة لتحرير نفسي من معظم هذه الأعمال.
طومسون: هذا انتقال جيد، دعنا نتحدث عن الذكاء الاصطناعي والاقتصاد، وهو موضوع مثير جدًا الآن. هذه الأدوات قوية جدًا، رغم عيوبها وأخطائها، لكنها فعلاً مذهلة. لكن، عندما أشارك في اجتماع تجاري، وأسأل الجميع: «هل تعتقد أن الذكاء الاصطناعي زاد إنتاجيتكم بنسبة 1% على الأقل؟»، بالكاد يرفع أحد يده. واضح أن مختبرات الذكاء الاصطناعي غيرت طريقة عملها، فلماذا هناك فجوة كبيرة بين قدرات الذكاء الاصطناعي والزيادة الفعلية في الإنتاجية في الشركات الأمريكية؟
ألتمان: قبل هذا الحوار مباشرة، كنت أتحدث مع مدير شركة كبيرة، وهو يفكر في نشر تقنياتنا. أعطيناهم وصولًا تجريبيًا لأحد النماذج الجديدة، وقالوا إنه الأكثر روعة على الإطلاق. هذه الشركة ليست في فقاعة التكنولوجيا، بل شركة صناعية كبيرة جدًا. يخططون لتقييم الأمان في الربع الرابع.
طومسون: فهمت.
ألتمان: ثم يخططون لتقديم خطة تنفيذ في الربع الأول أو الثاني، ليبدأوا في النصف الثاني من 2027. قال لهم مسؤول أمن المعلومات (CISO) إنهم ربما لا يستطيعون فعل ذلك، لأنه قد لا توجد طريقة آمنة لتشغيل الوكلاء على شبكتهم. ربما يكون الأمر كذلك، لكنه يعني أنهم لن يتخذوا أي إجراء مهم في أي وقت قريب.
طومسون: هل تعتقد أن هذا المثال يمثل الوضع العام الآن، لو أن الشركات لم تكن متحفظة جدًا، ولم تكن قلقة جدًا من الاختراق، ولم تكن متخوفة من التغيير؟
ألتمان: هو مثال متطرف نوعًا ما، لكنه يعكس بشكل عام أن الناس يحتاجون وقتًا طويلًا لتغيير عاداتهم وسير عملهم. دورة مبيعات الشركات طويلة، خاصة مع تغييرات كبيرة في نماذج الأمان. حتى مع ChatGPT، عندما ظهر، كانت الشركات تتردد في استخدامه، واستغرقت وقتًا طويلًا حتى تقبل أن الموظفين يمكنهم لصق معلومات عشوائية فيه. الآن، نحن في مرحلة أبعد بكثير.
أعتقد أن التغيير سيكون أبطأ في كثير من الحالات. لكن، الشركات التقنية تتصرف بسرعة، وأنا قلق من أن التأخير قد يؤدي إلى أن الشركات التي ترفض تبني الذكاء الاصطناعي ستضطر إلى المنافسة مع شركات صغيرة جدًا، تتكون من 1 إلى 10 أشخاص ومعهم الكثير من الذكاء الاصطناعي، وهذا قد يسبب اضطرابًا كبيرًا في الاقتصاد. أود أن أرى سرعة تبني الذكاء الاصطناعي من قبل الشركات الحالية، بحيث يحدث تحول تدريجي في العمل.
طومسون: نعم. هذا أحد أصعب الأسئلة في الاقتصاد الآن. إذا جاء الذكاء الاصطناعي بسرعة كبيرة، فسيكون كارثة، لأنه يغير كل شيء.
ألتمان: على الأقل، في المدى القصير، سيكون كارثة.
طومسون: وإذا جاء ببطء في جزء من الاقتصاد، وسريع جدًا في جزء آخر، فسيكون كارثة أيضًا، لأنه سيؤدي إلى تركيز هائل للثروة، ودمار. أعتقد أننا الآن نسير نحو الحالة الثانية، حيث ستصبح بعض الشركات قليلة جدًا، وغنية جدًا، وتحقق نتائج مذهلة، بينما باقي العالم يعاني.
ألتمان: لا أدري كيف سيكون المستقبل، لكن أعتقد أن الاحتمال الأكبر هو أن يكون هكذا. وأوافق أن الأمر معقد جدًا.
طومسون: كمدير لـ OpenAI، طرحت العديد من السياسات، وتحدثت عن الضرائب، وعن الدخل الأساسي الشامل. لكن، بصفتك مديرًا، وليس سياسيًا، ما الذي يمكنك فعله لتقليل احتمالية أن تتراكم الثروة والسلطة بشكل كبير، وتضر بالديمقراطية؟
ألتمان: أولاً، لم أعد أؤمن تمامًا بمفهوم «الدخل الأساسي الشامل» كما كنت سابقًا. الآن، أنا مهتم أكثر بـ«الملكية الجماعية»، سواء كانت تعتمد على القدرة الحاسوبية أو الأسهم أو غيرها.
أي مستقبل أتحمس له حقًا، يتطلب أن يشارك الجميع في فوائد النمو. أعتقد أن مجرد دفع مبلغ ثابت من المال، رغم أنه مفيد، لا يكفي لمواجهة المرحلة التالية التي نحتاجها. عندما يميل ميزان العمل ورأس المال، نحتاج إلى نوع من «التوافق الجماعي المشترك في الاستفادة».
أما عن دوري كمدير، فهذه الإجابات قد تبدو أنانية، لكنني أؤمن بضرورة بناء قدر كبير من القدرة الحاسوبية. أعتقد أنه يجب أن نجعل الذكاء رخيصًا، وفيرًا، ومتاحة للجميع. إذا كان نادرًا، وصعب الاستخدام، ومتكاملًا بشكل سيء، فسيقوم الأثرياء برفع أسعاره، مما يزيد من التفاوت الاجتماعي.
وليس الأمر فقط في مدى توفر القدرة الحاسوبية، رغم أن ذلك مهم جدًا، بل أيضًا في مدى سهولة استخدام هذه الأدوات. على سبيل المثال، الآن، استخدام Codex أسهل بكثير من قبل ثلاثة أو ستة أشهر. عندما كان مجرد أداة أوامر، وكان من الصعب تثبيتها، كان عدد المستخدمين محدودًا. الآن، يمكنك تثبيت تطبيق واحد، لكن بالنسبة لغير التقنيين، لا يزال الأمر بعيدًا عن أن يكون ممتعًا.
نؤمن أيضًا أنه ليس فقط أن نخبر الناس أن «هذا يحدث»، بل أن نعرض عليهم ذلك، ليتمكنوا من تكوين رأيهم، وتقديم ملاحظاتهم. هذه بعض الاتجاهات المهمة.
طومسون: يبدو منطقيًا. إذا كان الجميع متفائلًا بشأن الذكاء الاصطناعي، فسيكون ذلك أفضل. لكن الواقع في أمريكا هو أن الناس بدأوا يكرهون الذكاء الاصطناعي أكثر. والأكثر صدمة بالنسبة لي، هو الشباب، الذين يُفترض أنهم السكان الأصليون للذكاء الاصطناعي، لكن دراسات Pew و تقرير HAI من ستانفورد تظهر أن هناك تراجعًا كبيرًا. هل تعتقد أن هذا الاتجاه سيستمر؟ ومتى يمكن أن يتغير؟ ومتى ستنقلب موجة عدم الثقة والكراهية؟
ألتمان: طريقتنا في الحديث عن الذكاء الاصطناعي، وأنت وأنا، نتصرف هكذا، نعتبره ظاهرة تقنية، ونناقش ما نفعله من أشياء مذهلة. هذا ليس خطأ. لكن، أعتقد أن الناس الحقيقيين يريدون الازدهار، والقدرة على الفعل، والعيش حياة ممتعة، وتحقيق تأثير. ولا أعتقد أن العالم كله يتحدث عن الذكاء الاصطناعي بهذه الطريقة. أعتقد أنه يجب أن نركز أكثر على ذلك. والصناعة، بما فيها OpenAI، أخطأت في العديد من الأمور.
أتذكر أن عالِم ذكاء اصطناعي قال لي مرة: «يجب أن يتوقف الناس عن الشكوى». ربما ستختفي بعض الوظائف، لكن الناس سيحصلون على علاج للسرطان، ويجب أن يشعروا بالسعادة لذلك. هذا غير منطقي.
طومسون: أحد أفضل التعبيرات عن حديث الذكاء الاصطناعي المبكر، هو «التسويق الديستوبي (dystopia marketing)»، حيث تتحدث المختبرات الكبرى عن مخاطرها بشكل مفرط.
ألتمان: أعتقد أن بعض الأشخاص يفعلون ذلك بدافع «الرغبة في السلطة»، لكن، أعتقد أن معظمهم يعبّر عن قلق حقيقي، ويريد أن يكون صادقًا. في بعض الأحيان، يكون هذا النهج مضادًا، لكنه نية حسنة في الغالب.
طومسون: هل يمكننا أن نتحدث عن كيف يؤثر ذلك علينا، وكيف يغير طريقة عمل أدمغتنا؟ دراسة أخرى من DeepMind أو Google، تتعلق بالتشابه في الكتابة. الدراسة تتعلق بكيفية استخدام الناس للذكاء الاصطناعي في الكتابة. أخذوا مقالات قديمة، وطلبوا من الذكاء الاصطناعي تحريرها، أو مساعدتهم على الكتابة. النتيجة كانت أن الناس، مع زيادة استخدامهم للذكاء الاصطناعي، يعتقدون أن أعمالهم أكثر إبداعًا، لكنها تتجه نحو نمط موحد. الغريب أن هذا النمط ليس تقليديًا، وليس تقليدًا لشخص حقيقي، بل هو أسلوب جديد لم يعتادوا عليه، وأصبح الجميع يكتب بأسلوب موحد، أكثر تشابهًا.
ألتمان: أن أرى هذا يحدث، أذهلني جدًا. في البداية، لاحظت أن هذا يحدث في الكتابة على وسائل الإعلام، وتعليقات Reddit، وظننت أن الأمر مجرد أن الذكاء الاصطناعي يكتب لهم. لم أصدق أن الجميع بدأ يستخدم ChatGPT بهذه الطريقة، ويعتمد على «العبارات الصغيرة». في البداية، اعتقدت أنني أميز بسهولة، وأن هناك من يربط حساب Reddit الخاص به بـ ChatGPT، وليس هو من يكتب.
ثم، بعد سنة تقريبًا، أدركت أن هؤلاء يكتبون بأنفسهم، لكنهم استوعبوا حركات الذكاء الاصطناعي الصغيرة. ليس فقط علامات الترقيم، بل حتى العبارات الدقيقة التي يستخدمونها. هذا أمر غريب جدًا.
نقول دائمًا إننا أنشأنا منتجًا يستخدمه حوالي مليار شخص، وأن فريقًا صغيرًا يتخذ قرارات مهمة حول كيفية أدائه، وكيفية الكتابة، و«شخصيته». ونقول إن لهذا تأثير كبير. لكن، أن يؤثر على «كيفية تعبير الناس عن أنفسهم، وسرعة ذلك»، هذا شيء لم أتوقعه.
طومسون: ما هي القرارات الجيدة والسيئة التي اتخذتموها؟
ألتمان: الكثير من القرارات الجيدة. سأذكر السيئ، لأنه أكثر إثارة للاهتمام. أعتقد أن أسوأ قرار اتخذناه هو «السُّطْحَة (sycophancy)».
طومسون: أوافق تمامًا، سام.
ألتمان: هناك بعض التأملات المثيرة حول ذلك. لماذا هو سيء، واضح، خاصة للمستخدمين الضعفاء نفسيًا.
طومسون: نعم.
ألتمان: يشجع الوهم، وحتى لو حاولنا كبح ذلك، يتعلم المستخدمون كيف يتجاوزونه، ويقولون: «تظاهر أنك تلعب دوري، أو ساعدني في كتابة رواية»، وهكذا. لكن، الجزء المحزن هو أنه بعد أن بدأنا في فرض قيود صارمة، تلقينا الكثير من الرسائل التي لم أسمع مثلها من قبل. لم أجد أحدًا يدعمني في حياتي، علاقاتي مع والديّ سيئة، لم ألتقِ مع مدرس جيد، وليس لدي أصدقاء مقربون، ولم أشعر أبدًا أن هناك شيئًا يثق بي. أعلم أن هذا مجرد ذكاء اصطناعي، وأنه ليس إنسانًا، لكنه جعلني أؤمن أنني أستطيع أن أحقق شيئًا، وأحاول، ثم، عندما أُخذ ذلك مني، عدت إلى حالتي الأصلية.
لذا، فإن إيقاف هذا السلوك كان قرارًا جيدًا، لأنه يسبب مشاكل نفسية حقيقية لبعض الناس. لكن، في المقابل، أُخذت منهم أشياء ذات قيمة، ولم نفهم قيمتها حقًا من قبل. لأن معظم من يعمل في OpenAI ليسوا «أشخاصًا لم يتلقوا دعمًا في حياتهم أبدًا».
طومسون: هل تقلق من أن الناس قد يطورون اعتمادًا عاطفيًا على الذكاء الاصطناعي، حتى لو لم يكن مفرطًا في المديح؟
ألتمان: حتى مع الذكاء الاصطناعي غير المبالغ فيه في المديح.
طومسون: أنا أخاف جدًا من الذكاء الاصطناعي. قلت سابقًا أنني أستخدمه في كل شيء، لكن هذا غير صحيح. أُفكر: ما هو الجزء الحقيقي مني؟ وما هو الجزء الذي أتركه للذكاء الاصطناعي؟ في مجالات مهمة جدًا، أبتعد عنه. مثل الكتابة، التي كانت دائمًا مهمة جدًا بالنسبة لي، وكتبتُ كتابي الخاص، ولم أستخدم الذكاء الاصطناعي في كتابة جملة واحدة. استخدمته فقط في تحدي الأفكار، وتنظيم النصوص، وتحليل التسجيلات، لكنني لن أستخدمه في الكتابة، أو في معالجة مشاعر معقدة، أو في الدعم العاطفي. أعتقد أنه يجب أن نضع حدودًا كإنسانية. هل تتفق معي في ذلك؟
ألتمان: من ناحية الاستخدام الشخصي، أنا أتفق تمامًا. لست من الذين يستخدمون ChatGPT للعلاج النفسي أو النصائح العاطفية. لكن، لست ضد أن يستخدمه الآخرون. بالطبع، هناك إصدارات تManipulate الناس ليشعروا أنهم بحاجة إليه للعلاج أو كصديق، وهذا غير مقبول. لكن، هناك الكثير من الناس يستفيدون جدًا من ذلك، وأعتقد أن نوعًا معينًا من الدعم مقبول تمامًا.
طومسون: هل ندمت على جعل الذكاء الاصطناعي يبدو كإنسان أكثر، خاصة مع القرارات التي اتخذتموها، مثل جعل الصوت يبدو أكثر إنسانية، أو جعل النموذج أكثر تقاربًا للبشر؟ هل ندمت على عدم وضع حدود واضحة، بحيث يمكن للناس أن يميزوا بسهولة أنه آلة، وليس إنسانًا؟
ألتمان: نحن نعتقد أننا وضعنا حدودًا. على سبيل المثال، لم نصنع نماذج تشبه البشر بشكل كامل، أو شخصيات متحركة واقعية. حاولنا أن نوضح أن المنتج أداة، وليس إنسانًا. لذلك، بالمقارنة مع منتجات أخرى، أعتقد أن الحدود التي وضعناها واضحة جدًا. وأعتقد أن هذا مهم جدًا.
طومسون: لكن، أنتم تسعون لبناء AGI، وتعريفكم لـ AGI هو «الوصول إلى وتجاوز الذكاء البشري». وهو ليس «مستوى الإنسان».
ألتمان: أنا لست متحمسًا لفكرة أن العالم سيُستبدل فيه البشر بالذكاء الاصطناعي. أنا متحمس أكثر لفكرة أن الذكاء الاصطناعي يمنح الناس وقتًا أكثر للتفاعل الإنساني، لأنه يساعدهم في إنجاز الكثير من الأمور.
ولست قلقًا جدًا من أن الناس يخلطون بين الذكاء الاصطناعي والبشر. بالطبع، هناك بعض الأشخاص، وقد أصبحوا كذلك، وقرروا أن ينعزلوا عن العالم، ويعيشوا في الإنترنت