ChatPaper.aiChatPaper

DreamID: Hoogwaardige en snelle gezichtsverwisseling op basis van diffusie via Triplet ID Groepsleren

DreamID: High-Fidelity and Fast diffusion-based Face Swapping via Triplet ID Group Learning

April 20, 2025
Auteurs: Fulong Ye, Miao Hua, Pengze Zhang, Xinghui Li, Qichao Sun, Songtao Zhao, Qian He, Xinglong Wu
cs.AI

Samenvatting

In dit artikel introduceren we DreamID, een diffusiegebaseerd model voor gezichtsverwisseling dat een hoog niveau van ID-gelijkenis, attribuutbehoud, beeldkwaliteit en snelle inferentiesnelheid bereikt. In tegenstelling tot het typische trainingsproces voor gezichtsverwisseling, dat vaak afhankelijk is van impliciete supervisie en moeite heeft om bevredigende resultaten te behalen, stelt DreamID expliciete supervisie in voor gezichtsverwisseling door het construeren van Triplet ID Group data, wat de identiteitsgelijkenis en attribuutbehoud aanzienlijk verbetert. De iteratieve aard van diffusiemodellen vormt een uitdaging voor het gebruik van efficiënte beeldruimte-verliesfuncties, omdat het uitvoeren van tijdrovende multi-stap sampling om het gegenereerde beeld tijdens de training te verkrijgen onpraktisch is. Om dit probleem aan te pakken, maken we gebruik van het versnelde diffusiemodel SD Turbo, dat de inferentiestappen reduceert tot een enkele iteratie, waardoor efficiënte pixelgewijze end-to-end training met expliciete Triplet ID Group supervisie mogelijk wordt. Daarnaast stellen we een verbeterde diffusiegebaseerde modelarchitectuur voor, bestaande uit SwapNet, FaceNet en ID Adapter. Deze robuuste architectuur benut volledig de kracht van de expliciete supervisie van de Triplet ID Group. Tot slot passen we de Triplet ID Group data tijdens de training expliciet aan om specifieke attributen, zoals brillen en gezichtsvorm, te finetunen en te behouden. Uitgebreide experimenten tonen aan dat DreamID state-of-the-art methoden overtreft op het gebied van identiteitsgelijkenis, houding- en expressiebehoud, en beeldkwaliteit. Over het geheel genomen bereikt DreamID hoogwaardige resultaten voor gezichtsverwisseling bij een resolutie van 512*512 in slechts 0,6 seconden en presteert het uitstekend in uitdagende scenario's zoals complexe belichting, grote hoeken en occlusies.
English
In this paper, we introduce DreamID, a diffusion-based face swapping model that achieves high levels of ID similarity, attribute preservation, image fidelity, and fast inference speed. Unlike the typical face swapping training process, which often relies on implicit supervision and struggles to achieve satisfactory results. DreamID establishes explicit supervision for face swapping by constructing Triplet ID Group data, significantly enhancing identity similarity and attribute preservation. The iterative nature of diffusion models poses challenges for utilizing efficient image-space loss functions, as performing time-consuming multi-step sampling to obtain the generated image during training is impractical. To address this issue, we leverage the accelerated diffusion model SD Turbo, reducing the inference steps to a single iteration, enabling efficient pixel-level end-to-end training with explicit Triplet ID Group supervision. Additionally, we propose an improved diffusion-based model architecture comprising SwapNet, FaceNet, and ID Adapter. This robust architecture fully unlocks the power of the Triplet ID Group explicit supervision. Finally, to further extend our method, we explicitly modify the Triplet ID Group data during training to fine-tune and preserve specific attributes, such as glasses and face shape. Extensive experiments demonstrate that DreamID outperforms state-of-the-art methods in terms of identity similarity, pose and expression preservation, and image fidelity. Overall, DreamID achieves high-quality face swapping results at 512*512 resolution in just 0.6 seconds and performs exceptionally well in challenging scenarios such as complex lighting, large angles, and occlusions.

Summary

AI-Generated Summary

PDF488April 24, 2025