Ця стаття є цікавою з точки зору метанауки, оскільки це серйозна спроба емпірично вивчити, чому LLM ведуть себе певним чином і відмінно один від одного. Серйозна спроба атакує всі відкриті поверхні з усіх сторін, а не прив'язується до чогось.

WHY-2.34%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
RetiredMinervip
· 07-12 04:44
Цілий день займаєшся цим?
Переглянути оригіналвідповісти на0
DarkPoolWatchervip
· 07-10 19:31
Схоже, знову досліджують велику мову.
Переглянути оригіналвідповісти на0
GasFeeLovervip
· 07-09 09:41
Дослідження gpt зрештою є gpt
Переглянути оригіналвідповісти на0
BoredStakervip
· 07-09 06:42
Хіба це просто не побалакати?
Переглянути оригіналвідповісти на0
MetaLord420vip
· 07-09 06:25
Дані романіст досить дикий
Переглянути оригіналвідповісти на0
MainnetDelayedAgainvip
· 07-09 06:21
Від останнього результату роботи пройшло вже 293 дні~ так смачно!
Переглянути оригіналвідповісти на0
DisillusiionOraclevip
· 07-09 06:20
Цікаво, а я з'їхав з глузду, пишучи дисертацію.
Переглянути оригіналвідповісти на0
  • Закріпити