Zweistufige Bewegungsnachahmung für humanoide Roboter
Bi-Level Motion Imitation for Humanoid Robots
October 2, 2024
Autoren: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI
Zusammenfassung
Das Imitationslernen anhand von menschlichen Bewegungsdaten aus der Bewegungserfassung (MoCap) bietet einen vielversprechenden Weg, um humanoide Roboter zu trainieren. Aufgrund von Unterschieden in der Morphologie, wie unterschiedlichen Grade an Gelenkfreiheit und Kraftgrenzen, ist eine exakte Nachbildung menschlichen Verhaltens für humanoide Roboter möglicherweise nicht machbar. Daher kann die Einbeziehung physikalisch nicht realisierbarer MoCap-Daten in Trainingsdatensätzen die Leistung der Roboterstrategie negativ beeinflussen. Um dieses Problem zu lösen, schlagen wir ein Imitationslern-Framework auf Basis einer zweistufigen Optimierung vor, das abwechselnd die Optimierung sowohl der Roboterstrategie als auch der Ziel-MoCap-Daten vornimmt. Konkret entwickeln wir zunächst ein generatives latentes Dynamikmodell unter Verwendung eines neuartigen selbstkonsistenten Autoencoders, der spärliche und strukturierte Bewegungsrepräsentationen lernt und dabei gewünschte Bewegungsmuster im Datensatz erfasst. Das Dynamikmodell wird dann genutzt, um Referenzbewegungen zu generieren, während die latente Repräsentation den zweistufigen Bewegungsimitationsprozess reguliert. Simulationen mit einem realistischen Modell eines humanoiden Roboters zeigen, dass unsere Methode die Roboterstrategie verbessert, indem Referenzbewegungen so modifiziert werden, dass sie physisch konsistent sind.
English
Imitation learning from human motion capture (MoCap) data provides a
promising way to train humanoid robots. However, due to differences in
morphology, such as varying degrees of joint freedom and force limits, exact
replication of human behaviors may not be feasible for humanoid robots.
Consequently, incorporating physically infeasible MoCap data in training
datasets can adversely affect the performance of the robot policy. To address
this issue, we propose a bi-level optimization-based imitation learning
framework that alternates between optimizing both the robot policy and the
target MoCap data. Specifically, we first develop a generative latent dynamics
model using a novel self-consistent auto-encoder, which learns sparse and
structured motion representations while capturing desired motion patterns in
the dataset. The dynamics model is then utilized to generate reference motions
while the latent representation regularizes the bi-level motion imitation
process. Simulations conducted with a realistic model of a humanoid robot
demonstrate that our method enhances the robot policy by modifying reference
motions to be physically consistent.Summary
AI-Generated Summary