Ця стаття є цікавою з точки зору метанауки, оскільки це серйозна спроба емпірично вивчити, чому LLM ведуть себе певним чином і відмінно один від одного. Серйозна спроба атакує всі відкриті поверхні з усіх сторін, а не прив'язується до чогось.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
7
Поділіться
Прокоментувати
0/400
RetiredMiner
· 07-12 04:44
Цілий день займаєшся цим?
Переглянути оригіналвідповісти на0
DarkPoolWatcher
· 07-10 19:31
Схоже, знову досліджують велику мову.
Переглянути оригіналвідповісти на0
GasFeeLover
· 07-09 09:41
Дослідження gpt зрештою є gpt
Переглянути оригіналвідповісти на0
BoredStaker
· 07-09 06:42
Хіба це просто не побалакати?
Переглянути оригіналвідповісти на0
MetaLord420
· 07-09 06:25
Дані романіст досить дикий
Переглянути оригіналвідповісти на0
MainnetDelayedAgain
· 07-09 06:21
Від останнього результату роботи пройшло вже 293 дні~ так смачно!
Ця стаття є цікавою з точки зору метанауки, оскільки це серйозна спроба емпірично вивчити, чому LLM ведуть себе певним чином і відмінно один від одного. Серйозна спроба атакує всі відкриті поверхні з усіх сторін, а не прив'язується до чогось.