A AWS apresenta uma nova perspetiva: a inteligência artificial depende mais do tempo do que da escala do modelo

robot
Geração de resumo em curso

Notícias ME, 1 de abril (UTC+8). Recentemente, a Amazon Science publicou um ponto de vista, afirmando que, à medida que o tamanho dos modelos de IA aumenta, a sua capacidade de gerar perceções poderá, na verdade, diminuir. A AWS descobriu uma fórmula que poderá mudar o estado atual das coisas, indicando que a chave para a inteligência está no tempo, e não na dimensão dos parâmetros do modelo. Isto sugere que o desenvolvimento da inteligência artificial deve dar mais ênfase à eficiência de aprendizagem, ao treino contínuo e à capacidade de adaptação, em vez de se focar apenas em aumentar o tamanho dos modelos. As áreas de investigação da Amazon Science são vastas, incluindo inferência automática, cloud computing e sistemas, visão por computador, IA conversacional e processamento de linguagem natural, aprendizagem automática, tecnologias quânticas, robótica, entre outras, com o objetivo de construir sistemas de IA mais eficientes, fiáveis e escaláveis através da exploração interdisciplinar. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar