Tweelaags Bewegingsimitatie voor Humanoid Robots
Bi-Level Motion Imitation for Humanoid Robots
October 2, 2024
Auteurs: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI
Samenvatting
Imitatieleren van menselijke bewegingsregistratie (MoCap) data biedt een veelbelovende manier om humanoïde robots te trainen. Echter, vanwege verschillen in morfologie, zoals variërende gradaties van gewrichtsvrijheid en krachtlimieten, is exacte replicatie van menselijk gedrag mogelijk niet haalbaar voor humanoïde robots. Bijgevolg kan het opnemen van fysiek onhaalbare MoCap data in trainingsdatasets nadelige gevolgen hebben voor de prestaties van het robotbeleid. Om dit probleem aan te pakken, stellen we een imitatieleren raamwerk voor op basis van bi-level optimalisatie dat afwisselt tussen het optimaliseren van zowel het robotbeleid als de doel-MoCap data. Specifiek ontwikkelen we eerst een generatief latent dynamisch model met behulp van een nieuw zelfconsistent auto-encoder, dat spaarzame en gestructureerde bewegingsrepresentaties leert terwijl het gewenste bewegingspatronen in de dataset vastlegt. Het dynamische model wordt vervolgens gebruikt om referentiebewegingen te genereren terwijl de latente representatie het bi-level bewegingsimitatieproces reguleert. Simulaties uitgevoerd met een realistisch model van een humanoïde robot tonen aan dat onze methode het robotbeleid verbetert door referentiebewegingen aan te passen om fysiek consistent te zijn.
English
Imitation learning from human motion capture (MoCap) data provides a
promising way to train humanoid robots. However, due to differences in
morphology, such as varying degrees of joint freedom and force limits, exact
replication of human behaviors may not be feasible for humanoid robots.
Consequently, incorporating physically infeasible MoCap data in training
datasets can adversely affect the performance of the robot policy. To address
this issue, we propose a bi-level optimization-based imitation learning
framework that alternates between optimizing both the robot policy and the
target MoCap data. Specifically, we first develop a generative latent dynamics
model using a novel self-consistent auto-encoder, which learns sparse and
structured motion representations while capturing desired motion patterns in
the dataset. The dynamics model is then utilized to generate reference motions
while the latent representation regularizes the bi-level motion imitation
process. Simulations conducted with a realistic model of a humanoid robot
demonstrate that our method enhances the robot policy by modifying reference
motions to be physically consistent.Summary
AI-Generated Summary