Projeto Delphi: Treinamento de grandes modelos preditivos com extrapolação de 300 vezes, com erro de apenas 0,2%

AIMPACT mensagem, 12 de maio (UTC+8), WilliamBarrHeld publicou um tweet apresentando o projeto Delphi, como o primeiro passo de Marin. O projeto treina múltiplos pequenos modelos com uma única fórmula, depois extrapola 300 vezes, prevendo com sucesso uma execução de treino de 25 bilhões de parâmetros e 6000 bilhões de tokens, com um erro de apenas 0,2%. Delphi visa alcançar uma expansão previsível para treinar modelos de código aberto melhores. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar