Lo vedi, lo ottieni: Apprendimento della creazione 3D su video senza pose a larga scala
You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale
December 9, 2024
Autori: Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
cs.AI
Abstract
I modelli di generazione 3D recenti di solito si basano su etichette 3D a scala limitata o priori di diffusione 2D per la creazione di contenuti 3D. Tuttavia, le loro prestazioni sono limitate superiormente dai vincoli dei priori 3D a causa della mancanza di paradigmi di apprendimento scalabili. In questo lavoro, presentiamo See3D, un modello di diffusione multi-vista condizionato visivamente addestrato su video Internet su larga scala per la creazione 3D in un mondo aperto. Il modello mira ad acquisire conoscenze 3D vedendo esclusivamente i contenuti visivi dai vasti e in rapida crescita dati video - Vedi, Ottieni. Per raggiungere questo obiettivo, prima aumentiamo la mole dei dati di addestramento utilizzando un pipeline di cura dati proposto che filtra automaticamente le inconsistenze multi-vista e le osservazioni insufficienti dai video di origine. Ciò porta alla creazione di un dataset su larga scala, di alta qualità e riccamente diversificato di immagini multi-vista, chiamato WebVi3D, contenente 320M di fotogrammi da 16M di videoclip. Tuttavia, apprendere priori 3D generici da video senza annotazioni esplicite di geometria 3D o posizioni delle telecamere è non banale, e annotare posizioni per video su larga scala è proibitivamente costoso. Per eliminare la necessità di condizioni di posa, introduciamo un'innovativa condizione visiva - un segnale visivo puramente induttivo 2D generato aggiungendo rumore dipendente dal tempo ai dati video mascherati. Infine, presentiamo un nuovo framework di generazione 3D condizionato visivamente integrando See3D in un pipeline basato su deformazioni per la generazione 3D ad alta fedeltà. I nostri confronti numerici e visivi su benchmark di ricostruzione singola e sparso mostrano che See3D, addestrato su dati video economici e scalabili, raggiunge notevoli capacità di generazione zero-shot e open-world, superando nettamente i modelli addestrati su costosi e vincolati dataset 3D. Si prega di fare riferimento alla nostra pagina del progetto su: https://vision.baai.ac.cn/see3d
English
Recent 3D generation models typically rely on limited-scale 3D `gold-labels'
or 2D diffusion priors for 3D content creation. However, their performance is
upper-bounded by constrained 3D priors due to the lack of scalable learning
paradigms. In this work, we present See3D, a visual-conditional multi-view
diffusion model trained on large-scale Internet videos for open-world 3D
creation. The model aims to Get 3D knowledge by solely Seeing the visual
contents from the vast and rapidly growing video data -- You See it, You Got
it. To achieve this, we first scale up the training data using a proposed data
curation pipeline that automatically filters out multi-view inconsistencies and
insufficient observations from source videos. This results in a high-quality,
richly diverse, large-scale dataset of multi-view images, termed WebVi3D,
containing 320M frames from 16M video clips. Nevertheless, learning generic 3D
priors from videos without explicit 3D geometry or camera pose annotations is
nontrivial, and annotating poses for web-scale videos is prohibitively
expensive. To eliminate the need for pose conditions, we introduce an
innovative visual-condition - a purely 2D-inductive visual signal generated by
adding time-dependent noise to the masked video data. Finally, we introduce a
novel visual-conditional 3D generation framework by integrating See3D into a
warping-based pipeline for high-fidelity 3D generation. Our numerical and
visual comparisons on single and sparse reconstruction benchmarks show that
See3D, trained on cost-effective and scalable video data, achieves notable
zero-shot and open-world generation capabilities, markedly outperforming models
trained on costly and constrained 3D datasets. Please refer to our project page
at: https://vision.baai.ac.cn/see3dSummary
AI-Generated Summary