LeviTor: Síntese de Imagem para Vídeo Orientada por Trajetória 3D
LeviTor: 3D Trajectory Oriented Image-to-Video Synthesis
December 19, 2024
Autores: Hanlin Wang, Hao Ouyang, Qiuyu Wang, Wen Wang, Ka Leong Cheng, Qifeng Chen, Yujun Shen, Limin Wang
cs.AI
Resumo
A natureza intuitiva da interação baseada em arrastar levou à sua crescente adoção para controlar trajetórias de objetos na síntese de imagem para vídeo. Ainda assim, os métodos existentes que realizam o arrastar no espaço 2D geralmente enfrentam ambiguidade ao lidar com movimentos fora do plano. Neste trabalho, ampliamos a interação com uma nova dimensão, ou seja, a dimensão de profundidade, de modo que os usuários possam atribuir uma profundidade relativa para cada ponto na trajetória. Dessa forma, nosso novo paradigma de interação não apenas herda a conveniência do arrastar em 2D, mas facilita o controle de trajetória no espaço 3D, ampliando o escopo da criatividade. Propomos um método pioneiro para controle de trajetória 3D na síntese de imagem para vídeo, abstraindo máscaras de objetos em alguns pontos de cluster. Esses pontos, acompanhados das informações de profundidade e de instância, são finalmente alimentados em um modelo de difusão de vídeo como sinal de controle. Experimentos extensivos validam a eficácia de nossa abordagem, denominada LeviTor, na manipulação precisa dos movimentos de objetos ao produzir vídeos fotorrealistas a partir de imagens estáticas. Página do projeto: https://ppetrichor.github.io/levitor.github.io/
English
The intuitive nature of drag-based interaction has led to its growing
adoption for controlling object trajectories in image-to-video synthesis.
Still, existing methods that perform dragging in the 2D space usually face
ambiguity when handling out-of-plane movements. In this work, we augment the
interaction with a new dimension, i.e., the depth dimension, such that users
are allowed to assign a relative depth for each point on the trajectory. That
way, our new interaction paradigm not only inherits the convenience from 2D
dragging, but facilitates trajectory control in the 3D space, broadening the
scope of creativity. We propose a pioneering method for 3D trajectory control
in image-to-video synthesis by abstracting object masks into a few cluster
points. These points, accompanied by the depth information and the instance
information, are finally fed into a video diffusion model as the control
signal. Extensive experiments validate the effectiveness of our approach,
dubbed LeviTor, in precisely manipulating the object movements when producing
photo-realistic videos from static images. Project page:
https://ppetrichor.github.io/levitor.github.io/Summary
AI-Generated Summary