Meta AI lança o modelo de mundo preditivo de incorporação conjunta para planeamento físico JEPA-WMs

Notícia ME: a mensagem, em 3 de abril (UTC+8), a equipa de Meta AI Research publicou o modelo de mundo JEPA-WMs de previsão de embeddings conjunta para planeamento físico e os seus estudos relacionados. O estudo explora os factores-chave para o sucesso do modelo e disponibiliza uma implementação completa em PyTorch, conjuntos de dados e modelos pré-treinados. Os modelos publicados incluem o JEPA-WM central e os modelos de referência DINO-WM e V-JEPA-2-AC (fixed), cobrindo vários ambientes de operação robótica e de navegação, como DROID & RoboCasa, Metaworld, Push-T, PointMaze e Wall. O modelo utiliza codificadores visuais como DINOv3 ViT-L/16, DINOv2 ViT-S/14 e V-JEPA-2 ViT-G/16, com a resolução de entrada das imagens principalmente de 224×224 ou 256×256. O projecto também disponibiliza uma cabeça descodificadora opcional de VM2M para visualização e descodificação de trajectórias, mas salienta que este descodificador não é necessário para treinar um modelo de mundo nem para realizar avaliações de planeamento. Todos os recursos foram disponibilizados publicamente no GitHub, Hugging Face e arXiv. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar