LeviTor: 3D軌跡指向型画像からビデオへの合成
LeviTor: 3D Trajectory Oriented Image-to-Video Synthesis
December 19, 2024
著者: Hanlin Wang, Hao Ouyang, Qiuyu Wang, Wen Wang, Ka Leong Cheng, Qifeng Chen, Yujun Shen, Limin Wang
cs.AI
要旨
ドラッグに基づくインタラクションの直感的な性質は、画像から動画合成への物体軌跡の制御における採用の増加につながっています。ただし、2D空間でドラッグを実行する既存の方法は、通常、平面外の動きを処理する際に曖昧さに直面します。本研究では、ユーザーが軌跡上の各点に相対的な深さを割り当てることができるように、新しい次元、つまり深度次元でインタラクションを拡張します。このように、新しいインタラクションパラダイムは、2Dのドラッグからの利便性を継承するだけでなく、3D空間での軌跡制御を容易にし、創造性の範囲を広げます。私たちは、オブジェクトマスクをいくつかのクラスタポイントに抽象化することで、画像から動画への合成における3D軌跡制御の先駆的な方法を提案します。これらのポイントは、深度情報とインスタンス情報と共に、最終的にビデオ拡散モデルに制御信号として供給されます。広範な実験により、静止画像から写実的なビデオを生成する際にオブジェクトの動きを正確に操作するための私たちの手法、LeviTorと名付けられた手法の効果が検証されました。プロジェクトページ: https://ppetrichor.github.io/levitor.github.io/
English
The intuitive nature of drag-based interaction has led to its growing
adoption for controlling object trajectories in image-to-video synthesis.
Still, existing methods that perform dragging in the 2D space usually face
ambiguity when handling out-of-plane movements. In this work, we augment the
interaction with a new dimension, i.e., the depth dimension, such that users
are allowed to assign a relative depth for each point on the trajectory. That
way, our new interaction paradigm not only inherits the convenience from 2D
dragging, but facilitates trajectory control in the 3D space, broadening the
scope of creativity. We propose a pioneering method for 3D trajectory control
in image-to-video synthesis by abstracting object masks into a few cluster
points. These points, accompanied by the depth information and the instance
information, are finally fed into a video diffusion model as the control
signal. Extensive experiments validate the effectiveness of our approach,
dubbed LeviTor, in precisely manipulating the object movements when producing
photo-realistic videos from static images. Project page:
https://ppetrichor.github.io/levitor.github.io/Summary
AI-Generated Summary