10 amostras expandidas para 242 idiomas, a Adaption Labs precisa resolver as limitações multilíngues de IA na camada de dados

robot
Geração de resumo em curso

ME News Notícias, 15 de abril (UTC+8), de acordo com o monitoramento do Beating, a plataforma de dados de IA Adaption Labs lançou a nova funcionalidade “Expand Your World” do Adaptive Data, que, partindo de um mínimo de 10 amostras em uma única língua, pode gerar até 2.420 amostras de treino de alta qualidade cobrindo 242 línguas e variantes regionais, sem necessidade de processos adicionais de anotação ou pipelines de dados. Essa funcionalidade já está disponível para todos os usuários do Adaptive Data. A cobertura multilíngue é uma das principais fraquezas dos dados de treino de IA. A maioria dos conjuntos de dados concentra-se em algumas línguas de alto recurso, e a capacidade dos modelos de lidar com línguas menores e dialetos regionais é significativamente fraca, tornando difícil compensar completamente com ajustes finos posteriores. A abordagem da Adaption Labs é colocar a cobertura linguística na camada de dados, resolvendo o viés de distribuição já na fase de geração de dados de treino. A Adaption Labs foi cofundada pela ex vice-presidente de pesquisa da Cohere, Sara Hooker, e pelo ex engenheiro de infraestrutura de IA do Google, Sudip Roy. Em fevereiro deste ano, recebeu uma rodada de financiamento seed de 50 milhões de dólares liderada pela Emergence Capital, com uma avaliação de 1 bilhão de dólares. O foco principal da empresa é substituir a expansão agressiva por sistemas adaptativos eficientes, permitindo que os modelos aprendam e evoluam continuamente. (Fonte: BlockBeats)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar