Imitazione del Movimento a Due Livelli per Robot Umanoidi
Bi-Level Motion Imitation for Humanoid Robots
October 2, 2024
Autori: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI
Abstract
L'apprendimento per imitazione dai dati di motion capture (MoCap) umani offre un modo promettente per addestrare robot umanoidi. Tuttavia, a causa delle differenze nella morfologia, come variazioni nei gradi di libertà articolari e limiti di forza, la replicazione esatta dei comportamenti umani potrebbe non essere fattibile per i robot umanoidi. Di conseguenza, l'inclusione di dati MoCap fisicamente non realizzabili nei set di addestramento può influire negativamente sulle prestazioni della politica del robot. Per affrontare questo problema, proponiamo un framework di apprendimento per imitazione basato sull'ottimizzazione a due livelli che alterna l'ottimizzazione della politica del robot e dei dati MoCap di destinazione. In particolare, sviluppiamo innanzitutto un modello dinamico latente generativo utilizzando un nuovo autoencoder auto-consistente, che apprende rappresentazioni del movimento sparse e strutturate catturando i modelli di movimento desiderati nel dataset. Il modello dinamico viene poi utilizzato per generare movimenti di riferimento mentre la rappresentazione latente regolarizza il processo di imitazione del movimento a due livelli. Simulazioni condotte con un modello realistico di un robot umanoide dimostrano che il nostro metodo potenzia la politica del robot modificando i movimenti di riferimento per renderli fisicamente coerenti.
English
Imitation learning from human motion capture (MoCap) data provides a
promising way to train humanoid robots. However, due to differences in
morphology, such as varying degrees of joint freedom and force limits, exact
replication of human behaviors may not be feasible for humanoid robots.
Consequently, incorporating physically infeasible MoCap data in training
datasets can adversely affect the performance of the robot policy. To address
this issue, we propose a bi-level optimization-based imitation learning
framework that alternates between optimizing both the robot policy and the
target MoCap data. Specifically, we first develop a generative latent dynamics
model using a novel self-consistent auto-encoder, which learns sparse and
structured motion representations while capturing desired motion patterns in
the dataset. The dynamics model is then utilized to generate reference motions
while the latent representation regularizes the bi-level motion imitation
process. Simulations conducted with a realistic model of a humanoid robot
demonstrate that our method enhances the robot policy by modifying reference
motions to be physically consistent.Summary
AI-Generated Summary