تمت مراجعة GPT-5.5 «9.7 تريليون معلمة»: بعد التصحيح، تبقى حوالي 1.5 تريليون فقط

robot
إنشاء الملخص قيد التقدم

موقع Coinjie News، قام الباحثان في مجال الذكاء الاصطناعي لورنس تشان و بنو ستورجون بمراجعة ورقة البحث التي كتبها لي بو جي، كبير العلماء في Pine AI، بعنوان «مؤشر المعرفة غير القابلة للضغط: تقدير حجم معلمات النماذج اللغوية الكبيرة ذات الصندوق الأسود استنادًا إلى تقديرات سعة الحقائق».
تقدّر الورقة الأصلية أن GPT-5.5 يحتوي على حوالي 9.7 تيرابايت، وClaude Opus 4.7 حوالي 4.0 تيرابايت، وO1 حوالي 3.5 تيرابايت.
أشارت المراجعة إلى أن الأرقام الأصلية تم تضخيمها بسبب معايير التقييم وجودة الأسئلة، خاصة في معالجة «درجات الأرضية»، مما أدى إلى تضخيم الفارق في أداء النماذج على الأسئلة الصعبة.
بعد إزالة «درجات الأرضية»، انخفض ميل التناسب من 6.79 إلى 3.56، وانخفض معامل التحديد من 0.917 إلى 0.815، وتوسعت فترة التوقع بنسبة 3.0 مرات إلى 5.7 مرات، مما يدل على زيادة الخطأ.
كما اكتشفت المراجعة أن هناك 131 سؤالًا غامضًا أو يحتوي على أخطاء في الإجابة، وهو ما يمثل 9.4%.
استنادًا إلى البيانات المعدلة، انخفض عدد معلمات GPT-5.5 من 9659 مليار إلى 1458 مليار، وكانت فترة التوقع بنسبة 90% تتراوح بين 256 مليار و8311 مليار، وأكد مؤلفو المراجعة أن 1.5 تيرابايت لا يمكن اعتبارها الحجم الحقيقي لمعلمات GPT-5.5.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت