هل ChatGPT غبي أم قديم؟

المصدر الأصلي: المعرفة الجديدة للعلوم والتكنولوجيا

مصدر الصورة: تم إنشاؤها بواسطة Unbounded AI ‌

“الأداء السابق لا يشكل ضمانة للنتائج المستقبلية.” هذه هي النسخة الدقيقة لمعظم نماذج الإدارة المالية. في مجال إنتاج المنتجات، يُطلق على هذا اسم انحراف النموذج، أو الاضمحلال، أو التقادم. تتغير الأمور ويتدهور أداء النموذج بمرور الوقت. معيار القياس النهائي هو مؤشر جودة النموذج، والذي يمكن أن يكون الدقة، أو متوسط معدل الخطأ، أو بعض مؤشرات الأداء الرئيسية للأعمال، مثل نسبة النقر إلى الظهور. لا يوجد نموذج يعمل إلى الأبد، ولكن معدل التراجع يختلف. ‍ يمكن استخدام بعض المنتجات لسنوات دون الحاجة إلى تحديثات، مثل بعض نماذج الرؤية الحاسوبية أو اللغوية، أو أي نظام اتخاذ قرار في بيئة معزولة ومستقرة، مثل الظروف التجريبية الشائعة. إذا كنت تريد التأكد من دقة النموذج، فأنت بحاجة إلى تدريب بيانات جديدة كل يوم، وهذا عيب نموذجي في نموذج التعلم الآلي، كما أنه يجعل نشر الذكاء الاصطناعي لا يمكن أن يتم مرة واحدة وإلى الأبد مثل نشر البرامج . تم إنشاء هذا الأخير منذ عقود، ولا تزال منتجات الذكاء الاصطناعي الأكثر تقدمًا حاليًا تستخدم تكنولوجيا البرمجيات من السنوات السابقة. وطالما ظلت مفيدة، حتى لو أصبحت التكنولوجيا قديمة، فإنها ستعيش في كل بايت. ومع ذلك، فإن النماذج الكبيرة التي يمثلها ChatGPT، والمعروفة بأنها أحدث منتجات الذكاء الاصطناعي، واجهت تساؤلات حول ما إذا كانت أصبحت قديمة وتقادمت بعد أن شهدت انخفاضًا في شعبيتها. ** لا رياح ولا موجة. يقضي المستخدمون وقتًا أقل فأقل على ChatGPT، حيث انخفض من 8.7 دقيقة في مارس إلى 7 دقائق في أغسطس. إنه يعكس من الجانب أنه عندما ينمو جانب العرض لأدوات النماذج الكبيرة بسرعة، لا يبدو أن ChatGPT، وهي مجرد أداة إنتاجية، كافية لتصبح المفضلة لدى مجموعة المستخدمين الرئيسية من الجيل Z. الشعبية المؤقتة ليست كافية لزعزعة هيمنة OpenAI، التي تلتزم بأن تصبح متجر تطبيقات في عصر الذكاء الاصطناعي. المشكلة الأكثر جوهرية هي أن تقادم إنتاجية ChatGPT هو السبب الرئيسي لانخفاض الثقة بين العديد من المستخدمين القدامى. منذ شهر مايو، كانت هناك منشورات في منتدى OpenAI تناقش أن أداء GPT-4 ليس جيدًا كما كان من قبل. فهل ChatGPT عفا عليه الزمن؟ هل ستتقدم النماذج الكبيرة التي يمثلها ChatGPT مثل نماذج التعلم الآلي السابقة؟ ومن دون فهم هذه القضايا، لن نتمكن من إيجاد مسار للتنمية المستدامة للبشر والآلات وسط جنون لا نهاية له للنماذج الكبيرة.

**01 هل ChatGPT قديم؟ **

تُظهر أحدث البيانات من مزود خدمة برمجيات Salesforce AI أن 67% من مستخدمي النماذج الكبيرة هم من الجيل Z أو جيل الألفية؛ وأكثر من 68% من الأشخاص الذين نادرًا ما يستخدمون الذكاء الاصطناعي التوليدي أو الذين يتخلفون عن الركب في هذا الصدد هم من جيل X أو جيل طفرة المواليد. يُظهر الاختلاف بين الأجيال أن الجيل Z أصبح المجموعة السائدة التي تتبنى النماذج الكبيرة. وقالت كيلي إلياهو، مسوقة المنتجات في Salesforce: “إن الجيل Z هو في الواقع جيل الذكاء الاصطناعي، وهم يشكلون مجموعة المستخدمين الفائقين. 70٪ من الجيل Z يستخدمون الذكاء الاصطناعي التوليدي، ونصفهم على الأقل يستخدمونه كل أسبوع أو أكثر.” ومع ذلك، كشركة رائدة في منتجات النماذج الكبيرة، فإن أداء ChatGPT بين أفراد الجيل Z ليس رائعًا.

وفقًا لبيانات من وكالة أبحاث السوق Sameweb في يوليو، تم استخدام ChatGPT من قبل 27% من أفراد الجيل Z، بانخفاض عن 30% في أبريل. للمقارنة، فإن Character.ai، وهو منتج نموذجي آخر واسع النطاق يسمح للمستخدمين بتصميم شخصيات الذكاء الاصطناعي الخاصة بهم، يبلغ معدل انتشاره 60% بين الأشخاص الذين تتراوح أعمارهم بين 18 و24 عامًا. ** بفضل شعبية الجيل Z، تضم تطبيقات iOS وAndroid الخاصة بـ Character.ai حاليًا 4.2 مليون مستخدم نشط شهريًا في الولايات المتحدة، وهو ما يقترب أكثر فأكثر من 6 ملايين مستخدم نشط شهريًا لـ ChatGPT على الهاتف المحمول. يختلف Character.AI عن الذكاء الاصطناعي للمحادثة في ChatGPT، ويضيف وظيفتين أساسيتين هما التخصيص والمحتوى الذي ينشئه المستخدمون على هذا الأساس، مما يمنحه سيناريوهات استخدام أكثر ثراءً من السابق. من ناحية، يمكن للمستخدمين تخصيص أدوار الذكاء الاصطناعي وفقًا للاحتياجات الشخصية لتلبية احتياجات التخصيص الشخصية للجيل Z. وفي الوقت نفسه، يمكن أيضًا لجميع مستخدمي النظام الأساسي استخدام شخصيات الذكاء الاصطناعي التي أنشأها هؤلاء المستخدمون لبناء جو مجتمعي للذكاء الاصطناعي. على سبيل المثال، تم تداول شخصيات افتراضية مثل سقراط والله على منصات التواصل الاجتماعي من قبل، بالإضافة إلى صور الذكاء الاصطناعي لمشاهير الأعمال مثل ماسك التي أنشأتها الحكومة بشكل مستقل. من ناحية أخرى، فإن التخصيص المتعمق المخصص + وظيفة الدردشة الجماعية تجعل المستخدمين يعتمدون على النظام الأساسي للحصول على الذكاء العاطفي. تشير التعليقات العامة من مستخدمي العديد من منصات التواصل الاجتماعي إلى أن تجربة الدردشة واقعية للغاية، وكأن “الشخصيات التي أنشأتها لها حياة، تمامًا مثل التحدث إلى شخص حقيقي” و"هي أقرب شيء إلى صديق وهمي أو ملاك حارس" حتى الآن." ربما بسبب ضغط من Character.AI، أصدرت OpenAI بيانًا موجزًا على موقعها الرسمي على الإنترنت في 16 أغسطس 2023، أعلنت فيه الاستحواذ على الشركة الأمريكية الناشئة Global Illumination ووضع الفريق بأكمله تحت جناحها. تعمل هذه الشركة الصغيرة التي يبلغ تاريخها عامين فقط وثمانية موظفين بشكل أساسي في استخدام الذكاء الاصطناعي لإنشاء أدوات ذكية وبنية تحتية رقمية وتجارب رقمية. وراء عملية الاستحواذ، من المحتمل أن تلتزم OpenAI بتحسين التجربة الرقمية الحالية للنماذج الكبيرة بطريقة غنية.

02 شيخوخة الذكاء الاصطناعي

يؤثر تقادم ChatGPT على مستوى التجربة الرقمية ذات النماذج الكبيرة على تأثيره في قتل الوقت. باعتبارها أداة إنتاجية، فإن دقة النتائج التي يتم إنشاؤها غير منتظمة، مما يؤثر أيضًا على مدى التزام المستخدم بها.

وفقًا لاستطلاع سابق أجرته Salesforce، يعتقد ما يقرب من 60% من مستخدمي النماذج الكبيرة أنهم يتقنون هذه التكنولوجيا من خلال وقت التدريب المتراكم. ومع ذلك، فإن التمكن الحالي من هذه التكنولوجيا يتغير مع مرور الوقت.

في وقت مبكر من شهر مايو، بدأ المستخدمون القدامى للنماذج الكبيرة في الشكوى في منتدى OpenAI من أن GPT-4 “واجه صعوبة في أداء الأشياء التي كان أداؤها جيدًا من قبل”. أفاد Business Insider في يوليو أن العديد من المستخدمين القدامى وصفوا GPT-4 بأنه “كسول” و"غبي" مقارنة بقدراته الاستدلالية السابقة والمخرجات الأخرى. وبما أن المسؤول لم يستجب لذلك، بدأ الناس في التكهن بأسباب انخفاض أداء GPT-4، فهل يمكن أن يكون ذلك بسبب مشاكل التدفق النقدي السابقة لـ OpenAI؟ تركز التكهنات السائدة على تدهور الأداء بسبب تحسين التكلفة. يقول بعض الباحثين إن OpenAI ربما تستخدم نماذج أصغر خلف واجهة برمجة التطبيقات (API) لتقليل تكلفة تشغيل ChatGPT. ومع ذلك، تم رفض هذا الاحتمال لاحقًا من قبل Peter Welinder، نائب رئيس المنتج في OpenAI. وقال على وسائل التواصل الاجتماعي: “نحن لا نجعل GPT-4 أكثر غباء. أحد الافتراضات الحالية هو أنه عندما تستخدمه بشكل متكرر، ستبدأ في ملاحظة مشاكل لم تلاحظها من قبل”. لقد كشف المزيد من الأشخاص والاستخدام الأطول قيود ChatGPT. وفيما يتعلق بهذه الفرضية، حاول الباحثون تقديم “التغيرات في العلاقة بين أداء ChatGPT والوقت” من خلال تجارب أكثر صرامة.

تظهر ورقة بحثية بعنوان “كيف يتغير سلوك ChatGPT بمرور الوقت؟” قدمتها جامعة ستانفورد وجامعة كاليفورنيا، بيركلي، في يوليو أن: ** نفس النسخة من النموذج الكبير يمكن أن تتغير بالفعل في فترة زمنية قصيرة نسبيًا لقد حدثت تغييرات كبيرة. ** في الفترة من مارس إلى يونيو، اختبر الباحثون نسختين من GPT-3.5 وGPT-4، وقاموا بجمع وتقييم نتائج توليد أربع مهام معيارية مشتركة: الأسئلة الرياضية، والإجابة على الأسئلة الحساسة، وتوليد التعليمات البرمجية والتفكير البصري. تظهر النتائج أنه سواء كان GPT-3.5 أو GPT-4، فإن نتائج الأداء والتوليد لكليهما قد تتغير بمرور الوقت. فيما يتعلق بالقدرة الرياضية، يؤدي GPT-4 (مارس 2023) أداءً جيدًا في تحديد الأعداد الأولية والأعداد المركبة (دقة 84%)، لكن أداء GPT-4 (يونيو 2023) ضعيف في نفس المشكلة (دقة 51%). ومن المثير للاهتمام أن أداء CPT-3.5 في هذه المهمة كان أفضل بكثير في يونيو منه في مارس. ومع ذلك، فيما يتعلق بالأسئلة الحساسة، كان GPT-4 أقل استعدادًا للإجابة على الأسئلة الحساسة في يونيو مقارنة بشهر مارس، وفيما يتعلق بقدرات التشفير، أظهر كل من GPT-4 وGPT-3.5 أخطاء أكثر في يونيو مقارنة بمارس. يعتقد الباحثون أنه على الرغم من عدم وجود علاقة خطية واضحة بين أداء ChatGPT والوقت، إلا أن الدقة تتقلب.

هذه ليست مشكلة ChatGPT نفسها فحسب، ولكنها أيضًا مشكلة شائعة لجميع نماذج الذكاء الاصطناعي السابقة. **وفقًا لدراسة أجراها معهد ماساتشوستس للتكنولوجيا وجامعة هارفارد وجامعة مونتيري وجامعة كامبريدج عام 2022، فإن 91% من نماذج التعلم الآلي سوف تتدهور مع مرور الوقت، ويطلق الباحثون على هذه الظاهرة “الذكاء الاصطناعي” “الشيخوخة الذكية”. ** على سبيل المثال، طورت Google Health ذات مرة نموذجًا للتعلم العميق يمكنه اكتشاف أمراض الشبكية من خلال فحص عين المريض. حقق النموذج دقة بنسبة 90% خلال مرحلة التدريب، لكنه فشل في تقديم نتائج دقيقة في الحياة الواقعية. ويرجع ذلك أساسًا إلى أنه يتم استخدام بيانات تدريب عالية الجودة في المختبر، لكن عمليات فحص العين في العالم الحقيقي تكون ذات جودة أقل. نظرًا لتقدم نماذج التعلم الآلي، كانت تقنيات الذكاء الاصطناعي التي خرجت من المختبر في الماضي تعتمد بشكل أساسي على تقنية التعرف على الكلام الفردي، وكانت المنتجات مثل مكبرات الصوت الذكية أول من أصبح شائعًا. وفقًا لاستطلاع أجراه مكتب الإحصاء الأمريكي لعام 2018 والذي شمل 583000 شركة أمريكية، استخدم 2.8% فقط نماذج التعلم الآلي لتحقيق مزايا لعملياتها. ومع ذلك، مع الاختراق في قدرات الظهور الذكي للنماذج الكبيرة، ضعفت سرعة تقادم نماذج التعلم الآلي بشكل كبير، وهي تنتقل تدريجياً من المختبر إلى جمهور أوسع. ومع ذلك، لا تزال هناك حالة من عدم القدرة على التنبؤ في ظل الصندوق الأسود للقدرات الناشئة، مما دفع العديد من الأشخاص إلى التساؤل عما إذا كان بإمكان ChatGPT الحفاظ على التحسين المستمر في أداء الذكاء الاصطناعي على المدى الطويل.

03 مكافحة الشيخوخة تحت الصندوق الأسود

إن جوهر شيخوخة الذكاء الاصطناعي هو في الواقع العيب النموذجي لنماذج التعلم الآلي.

في الماضي، تم تدريب نماذج التعلم الآلي على أساس المراسلات بين مهام محددة وبيانات محددة. من خلال عدد كبير من الأمثلة، قم أولاً بتعليم النموذج ما هو الجيد وما هو السيئ في هذا المجال، ثم قم بضبط وزن النموذج لإخراج النتائج المناسبة. بموجب هذه الفكرة، في كل مرة تقوم فيها بشيء جديد أو يتغير توزيع البيانات بشكل كبير، يجب إعادة تدريب النموذج. هناك أشياء جديدة وبيانات جديدة لا نهاية لها، ولا يمكن تحديث النموذج إلا. ومع ذلك، فإن تحديث النموذج سيؤدي أيضًا إلى أن الأشياء التي تم تنفيذها بشكل جيد في الماضي لم يتم تنفيذها بشكل جيد فجأة، مما يزيد من تقييد التطبيق. ** للتلخيص، في نماذج التعلم الآلي التقليدية، يتمثل جوهر دولاب الموازنة للبيانات في تكرار النموذج واستخدام نماذج جديدة لحل المشكلات الجديدة. ** ومع ذلك، ظهرت نماذج كبيرة ممثلة بـ ChatGPT بقدرات تعلم مستقلة واخترقت هذا النموذج. في الماضي، كان التعلم الآلي أولا “يأكل” البيانات ثم “يحاكيها”، استنادا إلى علاقات المراسلات؛ أما النماذج الكبيرة مثل ChatGPT “تُعلم” البيانات ثم “تفهمها”، استنادا إلى “المنطق الداخلي”. وفي هذه الحالة، فإن النموذج الكبير نفسه لا يتغير ويمكن أن يظل نظريًا شابًا إلى الأبد. ومع ذلك، قال بعض الممارسين إنه مثل ظهور الذكاء في النماذج الكبيرة، فإنه يتطور بشكل غير خطي، ولا يمكن التنبؤ به، ويظهر فجأة. ومن غير المعروف أيضًا ما إذا كانت النماذج الكبيرة ستتقادم بمرور الوقت، وتنشأ مع شكوك لا يمكن التنبؤ بها. ** بمعنى آخر، بعد ظهور ChatGPT بأداء ذكي كان من الصعب استخلاصه من الناحية النظرية، بدأ أيضًا في الظهور مع عدم القدرة على التنبؤ وعدم اليقين. ** فيما يتعلق بطبيعة الصندوق الأسود لـ “الظهور”، قال تشانغ بو، الأكاديمي في الأكاديمية الصينية للعلوم والعميد الفخري لمعهد الذكاء الاصطناعي بجامعة تسينغهوا، في مؤتمر إطلاق النموذج الكبير مفتوح المصدر Baichuan Intelligent Baichuan2 في 6 سبتمبر: "حتى الآن، لا يثق العالم في النموذج الكبير مفتوح المصدر. إن مبدأ العمل النظري للنموذج والظواهر المنتجة كلها غير واضحة، ويتم استنتاج جميع الاستنتاجات لإنتاج ظاهرة الظهور. إن ما يسمى بالظهور هو "امنح نفسك تراجعا. عندما يكون التفسير غير واضح، يقال إنه ظهور. في الواقع، فهو يعكس أننا لا نعرف شيئا عنه. " ومن وجهة نظره، فإن السؤال عن سبب إنتاج النماذج الكبيرة للهلوسة ينطوي على الفرق بين ChatGPT ومبادئ توليد اللغة الطبيعية البشرية. يتمثل الاختلاف الأساسي في أن اللغة التي تم إنشاؤها بواسطة ChatGPT مدفوعة من الخارج، في حين أن اللغة البشرية مدفوعة بنواياها الخاصة، لذلك لا يمكن ضمان صحة وعقلانية محتوى ChatGPT. وبعد القفز إلى العربة من خلال سلسلة من الضجيج المفاهيمي، فإن التحدي الذي يواجه أولئك الملتزمين بتطوير النماذج الأساسية للإنتاجية سوف يتمثل في كيفية ضمان موثوقية ودقة إنتاج منتجاتهم المستمر. ولكن بالنسبة للمنتجات الترفيهية المتعلقة بالنماذج الكبيرة، كما قال نعوم شازير، المؤسس المشارك لشركة Character.AI، في صحيفة نيويورك تايمز: "هذه الأنظمة ليست مصممة للحقيقة. إنها مصممة للحوار المعقول. "وبعبارة أخرى، إنهم واثقون من أنفسهم الفنانين هراء. بدأت الموجات الضخمة للنموذج الكبير في التفرع.

مرجع:

  • Gizmodo-هل أصبح ChatGPT أسوأ؟
  • يعمل تطبيق TechCrunch-Al Character.ai على اللحاق بـ ChatGPT في الولايات المتحدة
  • مراقبة التعلم الآلي - لماذا يجب أن تهتم بالبيانات وانجراف المفاهيم
  • السجل الدراسي لـ Miss M - أهم خمسة أسئلة حول ChatGPT
  • معهد الحوكمة الدولي للذكاء الاصطناعي بجامعة تسينغهوا - يعد البحث في النماذج الكبيرة أمرًا ملحًا للغاية، ولا يمكننا أن نقول “ظهور” فقط إذا لم يكن التفسير واضحًا
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت