휴머노이드 로봇을 위한 이중 수준 동작 모방
Bi-Level Motion Imitation for Humanoid Robots
October 2, 2024
저자: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI
초록
인간 움직임 캡처 (MoCap) 데이터로부터의 모방 학습은 인간형 로봇을 훈련하는 유망한 방법을 제공합니다. 그러나 관절 자유도와 힘 제한과 같은 형태학적 차이로 인해 인간 행동의 정확한 복제가 인간형 로봇에게는 실현 가능하지 않을 수 있습니다. 결과적으로 훈련 데이터셋에 물리적으로 불가능한 MoCap 데이터를 통합하는 것은 로봇 정책의 성능에 악영향을 미칠 수 있습니다. 이 문제를 해결하기 위해 로봇 정책과 대상 MoCap 데이터 모두를 최적화하는 이중 수준 최적화 기반 모방 학습 프레임워크를 제안합니다. 구체적으로, 우리는 먼저 새로운 자기 일관적 오토인코더를 사용하여 희소하고 구조화된 움직임 표현을 학습하면서 데이터셋에서 원하는 움직임 패턴을 포착하는 생성적 잠재 동역학 모델을 개발합니다. 동역학 모델은 참조 움직임을 생성하는 데 활용되며 잠재 표현은 이중 수준 움직임 모방 과정을 규제합니다. 인간형 로봇의 현실적인 모델을 사용한 시뮬레이션 결과는 우리의 방법이 참조 움직임을 물리적으로 일관되도록 수정함으로써 로봇 정책을 향상시킨다는 것을 보여줍니다.
English
Imitation learning from human motion capture (MoCap) data provides a
promising way to train humanoid robots. However, due to differences in
morphology, such as varying degrees of joint freedom and force limits, exact
replication of human behaviors may not be feasible for humanoid robots.
Consequently, incorporating physically infeasible MoCap data in training
datasets can adversely affect the performance of the robot policy. To address
this issue, we propose a bi-level optimization-based imitation learning
framework that alternates between optimizing both the robot policy and the
target MoCap data. Specifically, we first develop a generative latent dynamics
model using a novel self-consistent auto-encoder, which learns sparse and
structured motion representations while capturing desired motion patterns in
the dataset. The dynamics model is then utilized to generate reference motions
while the latent representation regularizes the bi-level motion imitation
process. Simulations conducted with a realistic model of a humanoid robot
demonstrate that our method enhances the robot policy by modifying reference
motions to be physically consistent.Summary
AI-Generated Summary