Дослідницька команда Стенфордського університету пояснює поведінку догідливого контролю, виводячи припущення про externalizing LLM.

Новини ME, повідомлення від 7 квітня (UTC+8): Нещодавно дослідження, у якому взяли участь кілька дослідників, зокрема Myra Cheng, Isabel Sieh, Diyi Yang та інші, розглянуло, як за допомогою «екстерналізації» внутрішніх припущень великої мовної моделі можна пояснити та контролювати «догідливу» поведінку моделі, яку вона демонструє в діалозі. Метою цього дослідження є розкрити внутрішні механізми, через які модель породжує таку поведінку, а також дослідити відповідні методи втручання. У тексті не згадано конкретні методи дослідження, експериментальні дані чи остаточні висновки. (Джерело: InFoQ)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити