MEニュース メッセージ、4月3日(UTC+8)、Meta AI Researchチームは物理的プランニング用の結合埋め込み予測ワールドモデルJEPA-WMsおよび関連研究を公開しました。この研究はモデルが成功するための重要な要因を探求し、完全なPyTorch実装、データセット、ならびに事前学習済みモデルを提供しています。公開されたモデルには、コアとなるJEPA-WMに加えて、ベースラインとしてDINO-WMおよびV-JEPA-2-AC(fixed)モデルが含まれており、DROID & RoboCasa、Metaworld、Push-T、PointMaze、Wallなど、複数のロボットの操作およびナビゲーション環境をカバーしています。モデルは、DINOv3 ViT-L/16、DINOv2 ViT-S/14、V-JEPA-2 ViT-G/16などのビジョンエンコーダーを採用し、入力画像の解像度は主に224×224または256×256です。プロジェクトでは、可視化と軌跡デコードのためのオプションのVM2Mデコーダーヘッドも用意されていますが、このデコーダーがワールドモデルの学習やプランニング評価を行ううえで必須ではないことを強調しています。すべてのリソースはGitHub、Hugging Face、arXivで公開されています。(出典:InFoQ)
Meta AIが物理計画に使用される共同埋め込み予測世界モデルJEPA-WMsを発表
MEニュース メッセージ、4月3日(UTC+8)、Meta AI Researchチームは物理的プランニング用の結合埋め込み予測ワールドモデルJEPA-WMsおよび関連研究を公開しました。この研究はモデルが成功するための重要な要因を探求し、完全なPyTorch実装、データセット、ならびに事前学習済みモデルを提供しています。公開されたモデルには、コアとなるJEPA-WMに加えて、ベースラインとしてDINO-WMおよびV-JEPA-2-AC(fixed)モデルが含まれており、DROID & RoboCasa、Metaworld、Push-T、PointMaze、Wallなど、複数のロボットの操作およびナビゲーション環境をカバーしています。モデルは、DINOv3 ViT-L/16、DINOv2 ViT-S/14、V-JEPA-2 ViT-G/16などのビジョンエンコーダーを採用し、入力画像の解像度は主に224×224または256×256です。プロジェクトでは、可視化と軌跡デコードのためのオプションのVM2Mデコーダーヘッドも用意されていますが、このデコーダーがワールドモデルの学習やプランニング評価を行ううえで必須ではないことを強調しています。すべてのリソースはGitHub、Hugging Face、arXivで公開されています。(出典:InFoQ)