Команда Стэнфорд предложила RAGEN-2, использовавший регуляризатор взаимной информации для решения проблемы пустых действий у агентов RL.

ME News Новости, 9 апреля (UTC+8), недавно исследование под названием RAGEN-2 показало, что агенты, обученные с помощью усиленного обучения, хотя и демонстрируют разнообразное поведение, на самом деле просто повторяют шаблоны, что приводит к высокой энтропии и почти нулевой взаимной информации, то есть модель научилась говорить пустые слова разными способами. Чтобы решить эту проблему, исследователи предложили регуляризатор, основанный на восприятии взаимной информации. Это исследование было выполнено совместно @wzenus, @ManlingLi_, @YejinChoinka и Fei-Fei Li. (Источник: InFoQ)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить