ChatPaper.aiChatPaper

LeviTor: 3D軌跡指向型画像からビデオへの合成

LeviTor: 3D Trajectory Oriented Image-to-Video Synthesis

December 19, 2024
著者: Hanlin Wang, Hao Ouyang, Qiuyu Wang, Wen Wang, Ka Leong Cheng, Qifeng Chen, Yujun Shen, Limin Wang
cs.AI

要旨

ドラッグに基づくインタラクションの直感的な性質は、画像から動画合成への物体軌跡の制御における採用の増加につながっています。ただし、2D空間でドラッグを実行する既存の方法は、通常、平面外の動きを処理する際に曖昧さに直面します。本研究では、ユーザーが軌跡上の各点に相対的な深さを割り当てることができるように、新しい次元、つまり深度次元でインタラクションを拡張します。このように、新しいインタラクションパラダイムは、2Dのドラッグからの利便性を継承するだけでなく、3D空間での軌跡制御を容易にし、創造性の範囲を広げます。私たちは、オブジェクトマスクをいくつかのクラスタポイントに抽象化することで、画像から動画への合成における3D軌跡制御の先駆的な方法を提案します。これらのポイントは、深度情報とインスタンス情報と共に、最終的にビデオ拡散モデルに制御信号として供給されます。広範な実験により、静止画像から写実的なビデオを生成する際にオブジェクトの動きを正確に操作するための私たちの手法、LeviTorと名付けられた手法の効果が検証されました。プロジェクトページ: https://ppetrichor.github.io/levitor.github.io/
English
The intuitive nature of drag-based interaction has led to its growing adoption for controlling object trajectories in image-to-video synthesis. Still, existing methods that perform dragging in the 2D space usually face ambiguity when handling out-of-plane movements. In this work, we augment the interaction with a new dimension, i.e., the depth dimension, such that users are allowed to assign a relative depth for each point on the trajectory. That way, our new interaction paradigm not only inherits the convenience from 2D dragging, but facilitates trajectory control in the 3D space, broadening the scope of creativity. We propose a pioneering method for 3D trajectory control in image-to-video synthesis by abstracting object masks into a few cluster points. These points, accompanied by the depth information and the instance information, are finally fed into a video diffusion model as the control signal. Extensive experiments validate the effectiveness of our approach, dubbed LeviTor, in precisely manipulating the object movements when producing photo-realistic videos from static images. Project page: https://ppetrichor.github.io/levitor.github.io/

Summary

AI-Generated Summary

PDF153December 20, 2024