A equipa de Stanford propôs o RAGEN-2, usando um regularizador de informação mútua para resolver o problema do vazio de comportamento do agente de RL

ME News Notícias, 9 de abril (UTC+8), recentemente, um estudo chamado RAGEN-2 indicou que, embora os agentes treinados por reforço pareçam exibir comportamentos diversos, na realidade estão apenas repetindo modelos, levando a uma alta entropia mas a uma informação mútua quase nula, ou seja, o modelo aprendeu várias formas de falar sem sentido. Para resolver esse problema, os pesquisadores propuseram um regularizador de percepção de informação mútua. Este estudo foi realizado por @wzenus, @ManlingLi_, @YejinChoinka e Fei-Fei Li. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar