Este artigo é interessante do ponto de vista da metaciência, porque é uma tentativa séria de estudar empiricamente por que os LLMs se comportam de certas maneiras e diferentemente uns dos outros. Uma tentativa séria ataca todas as superfícies expostas de todos os ângulos em vez de estar presa a algum
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
10 Curtidas
Recompensa
10
7
Compartilhar
Comentário
0/400
RetiredMiner
· 07-12 04:44
O dia todo a fazer isso.
Ver originalResponder0
DarkPoolWatcher
· 07-10 19:31
Parece que estão a investigar grandes linguagens novamente.
Ver originalResponder0
GasFeeLover
· 07-09 09:41
Estudar o gpt é, afinal, o gpt.
Ver originalResponder0
BoredStaker
· 07-09 06:42
Não é só uma questão de desabafar?
Ver originalResponder0
MetaLord420
· 07-09 06:25
O novelista de dados é bastante ousado.
Ver originalResponder0
MainnetDelayedAgain
· 07-09 06:21
Já se passaram 293 dias desde a última conquista do artigo~ tão bom!
Este artigo é interessante do ponto de vista da metaciência, porque é uma tentativa séria de estudar empiricamente por que os LLMs se comportam de certas maneiras e diferentemente uns dos outros. Uma tentativa séria ataca todas as superfícies expostas de todos os ângulos em vez de estar presa a algum