تعد هذه الورقة مثيرة للاهتمام من منظور الميتا علم، لأنها محاولة جدية لدراسة تجريبية لسبب تصرف نماذج اللغة الكبيرة (LLMs) بطرق معينة وبشكل مختلف عن بعضها البعض. تحاول هذه المحاولة الجادة الهجوم على جميع الأسطح المكشوفة من جميع الزوايا بدلاً من التعلق ببعضها.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 10
أعجبني
10
7
مشاركة
تعليق
0/400
RetiredMiner
· 07-12 04:44
مستمرون في العمل طوال اليوم
شاهد النسخة الأصليةرد0
DarkPoolWatcher
· 07-10 19:31
يبدو أنهم يدرسون اللغات الكبيرة مرة أخرى
شاهد النسخة الأصليةرد0
GasFeeLover
· 07-09 09:41
دراسة gpt في النهاية هو gpt
شاهد النسخة الأصليةرد0
BoredStaker
· 07-09 06:42
أليس مجرد نفخ الماء؟
شاهد النسخة الأصليةرد0
MetaLord420
· 07-09 06:25
كاتبة البيانات غريبة إلى حد ما
شاهد النسخة الأصليةرد0
MainnetDelayedAgain
· 07-09 06:21
لقد انتظرنا 293 يومًا منذ آخر نتائج الورقة البحثية~ رائحة رائعة
تعد هذه الورقة مثيرة للاهتمام من منظور الميتا علم، لأنها محاولة جدية لدراسة تجريبية لسبب تصرف نماذج اللغة الكبيرة (LLMs) بطرق معينة وبشكل مختلف عن بعضها البعض. تحاول هذه المحاولة الجادة الهجوم على جميع الأسطح المكشوفة من جميع الزوايا بدلاً من التعلق ببعضها.