ChatPaper.aiChatPaper

DiffPortrait360: Konsistente Porträt-Diffusion für 360-Grad-Ansichtssynthese

DiffPortrait360: Consistent Portrait Diffusion for 360 View Synthesis

March 19, 2025
Autoren: Yuming Gu, Phong Tran, Yujian Zheng, Hongyi Xu, Heyuan Li, Adilbek Karmanov, Hao Li
cs.AI

Zusammenfassung

Die Erzeugung hochwertiger 360-Grad-Ansichten von menschlichen Köpfen aus Einzelbildern ist entscheidend für die Entwicklung zugänglicher immersiver Telepräsenzanwendungen und skalierbarer personalisierter Inhaltserstellung. Während modernste Methoden zur vollständigen Kopfgenerierung auf die Modellierung realistischer menschlicher Köpfe beschränkt sind, können die neuesten diffusionsbasierten Ansätze zur stil-omniszienten Kopfsynthese lediglich Frontalansichten erzeugen und haben Schwierigkeiten mit der Ansichtskonsistenz, was ihre Umwandlung in echte 3D-Modelle für das Rendering aus beliebigen Blickwinkeln verhindert. Wir stellen einen neuartigen Ansatz vor, der vollständig konsistente 360-Grad-Kopfansichten erzeugt und dabei menschliche, stilisierte und anthropomorphe Formen sowie Accessoires wie Brillen und Hüte berücksichtigt. Unser Verfahren baut auf dem DiffPortrait3D-Framework auf, integriert ein spezielles ControlNet für die Detailgenerierung des Hinterkopfes und ein duales Erscheinungsmodul, um eine globale Konsistenz zwischen Vorder- und Rückseite zu gewährleisten. Durch das Training auf kontinuierlichen Ansichtssequenzen und die Integration eines Referenzbildes für die Rückseite erreicht unser Ansatz eine robuste, lokal kontinuierliche Ansichtssynthese. Unser Modell kann verwendet werden, um hochwertige neuronale Strahlungsfelder (NeRFs) für das Echtzeit-Rendering aus freier Perspektive zu erzeugen und übertrifft dabei state-of-the-art Methoden in der Objektsynthese und 360-Grad-Kopfgenerierung für sehr anspruchsvolle Eingangsporträts.
English
Generating high-quality 360-degree views of human heads from single-view images is essential for enabling accessible immersive telepresence applications and scalable personalized content creation. While cutting-edge methods for full head generation are limited to modeling realistic human heads, the latest diffusion-based approaches for style-omniscient head synthesis can produce only frontal views and struggle with view consistency, preventing their conversion into true 3D models for rendering from arbitrary angles. We introduce a novel approach that generates fully consistent 360-degree head views, accommodating human, stylized, and anthropomorphic forms, including accessories like glasses and hats. Our method builds on the DiffPortrait3D framework, incorporating a custom ControlNet for back-of-head detail generation and a dual appearance module to ensure global front-back consistency. By training on continuous view sequences and integrating a back reference image, our approach achieves robust, locally continuous view synthesis. Our model can be used to produce high-quality neural radiance fields (NeRFs) for real-time, free-viewpoint rendering, outperforming state-of-the-art methods in object synthesis and 360-degree head generation for very challenging input portraits.

Summary

AI-Generated Summary

PDF82March 26, 2025