ChatPaper.aiChatPaper

Alias-freie latente Diffusionsmodelle: Verbesserung der fraktionalen Verschiebungsäquivarianz des Diffusions-Latentraums

Alias-Free Latent Diffusion Models:Improving Fractional Shift Equivariance of Diffusion Latent Space

March 12, 2025
Autoren: Yifan Zhou, Zeqi Xiao, Shuai Yang, Xingang Pan
cs.AI

Zusammenfassung

Latent Diffusion Models (LDMs) sind dafür bekannt, einen instabilen Generierungsprozess zu haben, bei dem selbst kleine Störungen oder Verschiebungen im Eingangsrauschen zu deutlich unterschiedlichen Ausgaben führen können. Dies schränkt ihre Anwendbarkeit in Bereichen ein, die konsistente Ergebnisse erfordern. In dieser Arbeit gestalten wir LDMs neu, um ihre Konsistenz durch die Einführung von Verschiebungsäquivarianz zu verbessern. Während die Einführung von Anti-Aliasing-Operationen die Verschiebungsäquivarianz teilweise verbessern kann, bleiben erhebliche Aliasing-Effekte und Inkonsistenzen aufgrund der spezifischen Herausforderungen in LDMs bestehen, darunter 1) die Verstärkung von Aliasing während des VAE-Trainings und mehrfacher U-Net-Inferenzen sowie 2) Self-Attention-Module, die von Natur aus keine Verschiebungsäquivarianz aufweisen. Um diese Probleme zu lösen, gestalten wir die Attention-Module neu, um sie verschiebungsäquivariant zu machen, und schlagen einen Äquivarianzverlust vor, der die Frequenzbandbreite der Merkmale im kontinuierlichen Bereich effektiv unterdrückt. Das resultierende aliasfreie LDM (AF-LDM) erreicht eine starke Verschiebungsäquivarianz und ist auch robust gegenüber unregelmäßigen Verzerrungen. Umfangreiche Experimente zeigen, dass AF-LDM in verschiedenen Anwendungen, einschließlich Videobearbeitung und Bild-zu-Bild-Übersetzung, deutlich konsistentere Ergebnisse liefert als das herkömmliche LDM. Der Code ist verfügbar unter: https://github.com/SingleZombie/AFLDM.
English
Latent Diffusion Models (LDMs) are known to have an unstable generation process, where even small perturbations or shifts in the input noise can lead to significantly different outputs. This hinders their applicability in applications requiring consistent results. In this work, we redesign LDMs to enhance consistency by making them shift-equivariant. While introducing anti-aliasing operations can partially improve shift-equivariance, significant aliasing and inconsistency persist due to the unique challenges in LDMs, including 1) aliasing amplification during VAE training and multiple U-Net inferences, and 2) self-attention modules that inherently lack shift-equivariance. To address these issues, we redesign the attention modules to be shift-equivariant and propose an equivariance loss that effectively suppresses the frequency bandwidth of the features in the continuous domain. The resulting alias-free LDM (AF-LDM) achieves strong shift-equivariance and is also robust to irregular warping. Extensive experiments demonstrate that AF-LDM produces significantly more consistent results than vanilla LDM across various applications, including video editing and image-to-image translation. Code is available at: https://github.com/SingleZombie/AFLDM

Summary

AI-Generated Summary

PDF52March 13, 2025