Imitation de mouvement bi-niveau pour les robots humanoïdes
Bi-Level Motion Imitation for Humanoid Robots
October 2, 2024
Auteurs: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI
Résumé
L'apprentissage par imitation à partir de données de capture de mouvement humain (MoCap) offre une voie prometteuse pour entraîner des robots humanoïdes. Cependant, en raison de différences de morphologie, telles que des degrés variables de liberté articulaire et des limites de force, une réplication exacte des comportements humains peut ne pas être réalisable pour les robots humanoïdes. Par conséquent, l'incorporation de données MoCap physiquement irréalisables dans les ensembles de données d'entraînement peut affecter négativement les performances de la politique du robot. Pour résoudre ce problème, nous proposons un cadre d'apprentissage par imitation basé sur une optimisation bi-niveau qui alterne entre l'optimisation de la politique du robot et des données cibles MoCap. Plus précisément, nous développons d'abord un modèle dynamique latent génératif en utilisant un auto-encodeur auto-cohérent novateur, qui apprend des représentations de mouvement clairsemées et structurées tout en capturant les motifs de mouvement souhaités dans l'ensemble de données. Le modèle dynamique est ensuite utilisé pour générer des mouvements de référence tandis que la représentation latente régularise le processus d'imitation de mouvement bi-niveau. Des simulations réalisées avec un modèle réaliste d'un robot humanoïde démontrent que notre méthode améliore la politique du robot en modifiant les mouvements de référence pour qu'ils soient physiquement cohérents.
English
Imitation learning from human motion capture (MoCap) data provides a
promising way to train humanoid robots. However, due to differences in
morphology, such as varying degrees of joint freedom and force limits, exact
replication of human behaviors may not be feasible for humanoid robots.
Consequently, incorporating physically infeasible MoCap data in training
datasets can adversely affect the performance of the robot policy. To address
this issue, we propose a bi-level optimization-based imitation learning
framework that alternates between optimizing both the robot policy and the
target MoCap data. Specifically, we first develop a generative latent dynamics
model using a novel self-consistent auto-encoder, which learns sparse and
structured motion representations while capturing desired motion patterns in
the dataset. The dynamics model is then utilized to generate reference motions
while the latent representation regularizes the bi-level motion imitation
process. Simulations conducted with a realistic model of a humanoid robot
demonstrate that our method enhances the robot policy by modifying reference
motions to be physically consistent.Summary
AI-Generated Summary