Meta AI lança o modelo de mundo preditivo de incorporação conjunta para planeamento físico JEPA-WMs

Notícia da ME, mensagem de 3 de abril (UTC+8), da equipa de Meta AI Research, que publicou o modelo de mundo com previsão de embeddings conjunta para planeamento físico JEPA-WMs e os seus trabalhos relacionados. Este estudo explora os factores-chave para o sucesso do modelo e fornece uma implementação completa em PyTorch, um conjunto de dados e modelos pré-treinados. Os modelos divulgados incluem o núcleo JEPA-WM, bem como os modelos de base DINO-WM e V-JEPA-2-AC(fixed), cobrindo vários ambientes de operações robóticas e navegação, como DROID & RoboCasa, Metaworld, Push-T, PointMaze e Wall. O modelo utiliza codificadores visuais como DINOv3 ViT-L/16, DINOv2 ViT-S/14 e V-JEPA-2 ViT-G/16, com a resolução de entrada de imagem principalmente em 224×224 ou 256×256. O projecto também disponibiliza uma cabeça descodificadora opcional do VM2M para visualização e descodificação de trajectórias, mas salienta que este descodificador não é necessário para treinar modelos de mundo nem para avaliar o planeamento. Todos os recursos estão publicados no GitHub, Hugging Face e arXiv. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar