تعد هذه الورقة مثيرة للاهتمام من منظور الميتا علم، لأنها محاولة جدية لدراسة تجريبية لسبب تصرف نماذج اللغة الكبيرة (LLMs) بطرق معينة وبشكل مختلف عن بعضها البعض. تحاول هذه المحاولة الجادة الهجوم على جميع الأسطح المكشوفة من جميع الزوايا بدلاً من التعلق ببعضها.

WHY-1.7%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 7
  • مشاركة
تعليق
0/400
RetiredMinervip
· 07-12 04:44
مستمرون في العمل طوال اليوم
شاهد النسخة الأصليةرد0
DarkPoolWatchervip
· 07-10 19:31
يبدو أنهم يدرسون اللغات الكبيرة مرة أخرى
شاهد النسخة الأصليةرد0
GasFeeLovervip
· 07-09 09:41
دراسة gpt في النهاية هو gpt
شاهد النسخة الأصليةرد0
BoredStakervip
· 07-09 06:42
أليس مجرد نفخ الماء؟
شاهد النسخة الأصليةرد0
MetaLord420vip
· 07-09 06:25
كاتبة البيانات غريبة إلى حد ما
شاهد النسخة الأصليةرد0
MainnetDelayedAgainvip
· 07-09 06:21
لقد انتظرنا 293 يومًا منذ آخر نتائج الورقة البحثية~ رائحة رائعة
شاهد النسخة الأصليةرد0
DisillusiionOraclevip
· 07-09 06:20
مثير للاهتمام ، لقد جننت في كتابة الورقة
شاهد النسخة الأصليةرد0
  • تثبيت