Ricostruzione vs. Generazione: Addomesticare il Dilemma dell' Ottimizzazione nei Modelli di Diffusione Latente

Reconstruction vs. Generation: Taming Optimization Dilemma in Latent Diffusion Models

January 2, 2025
Autori: Jingfeng Yao, Xinggang Wang
cs.AI

Abstract

I modelli di diffusione latente con architetture Transformer eccellono nella generazione di immagini ad alta fedeltà. Tuttavia, recenti studi rivelano un dilemma di ottimizzazione in questo design a due fasi: mentre aumentare la dimensione delle caratteristiche per token nei tokenizzatori visivi migliora la qualità della ricostruzione, richiede modelli di diffusione notevolmente più grandi e più iterazioni di addestramento per ottenere prestazioni di generazione comparabili. Di conseguenza, i sistemi esistenti spesso si accontentano di soluzioni subottimali, producendo artefatti visivi a causa della perdita di informazioni all'interno dei tokenizzatori o non riuscendo a convergere completamente a causa dei costi computazionali elevati. Sosteniamo che questo dilemma derivi dalla difficoltà intrinseca nell'apprendere spazi latenti ad alta dimensionalità non vincolati. Per affrontare ciò, proponiamo di allineare lo spazio latente con modelli di fondazione visiva preaddestrati durante l'addestramento dei tokenizzatori visivi. Il nostro VA-VAE proposto (Variational AutoEncoder Allineato al Modello di Fondazione Visiva) espande significativamente il confine di ricostruzione-generazione dei modelli di diffusione latente, consentendo una convergenza più rapida dei Transformer di Diffusione (DiT) in spazi latenti ad alta dimensionalità. Per sfruttare appieno il potenziale di VA-VAE, costruiamo un basale DiT potenziato con strategie di addestramento migliorate e design di architettura, denominato LightningDiT. Il sistema integrato raggiunge prestazioni all'avanguardia nella generazione di ImageNet 256x256 con un punteggio FID di 1.35, dimostrando un'efficienza di addestramento notevole raggiungendo un punteggio FID di 2.11 in soli 64 epoche - rappresentando un'accelerazione della convergenza di oltre 21 volte rispetto al DiT originale. Modelli e codici sono disponibili su: https://github.com/hustvl/LightningDiT.
English
Latent diffusion models with Transformer architectures excel at generating high-fidelity images. However, recent studies reveal an optimization dilemma in this two-stage design: while increasing the per-token feature dimension in visual tokenizers improves reconstruction quality, it requires substantially larger diffusion models and more training iterations to achieve comparable generation performance. Consequently, existing systems often settle for sub-optimal solutions, either producing visual artifacts due to information loss within tokenizers or failing to converge fully due to expensive computation costs. We argue that this dilemma stems from the inherent difficulty in learning unconstrained high-dimensional latent spaces. To address this, we propose aligning the latent space with pre-trained vision foundation models when training the visual tokenizers. Our proposed VA-VAE (Vision foundation model Aligned Variational AutoEncoder) significantly expands the reconstruction-generation frontier of latent diffusion models, enabling faster convergence of Diffusion Transformers (DiT) in high-dimensional latent spaces. To exploit the full potential of VA-VAE, we build an enhanced DiT baseline with improved training strategies and architecture designs, termed LightningDiT. The integrated system achieves state-of-the-art (SOTA) performance on ImageNet 256x256 generation with an FID score of 1.35 while demonstrating remarkable training efficiency by reaching an FID score of 2.11 in just 64 epochs--representing an over 21 times convergence speedup compared to the original DiT. Models and codes are available at: https://github.com/hustvl/LightningDiT.

Summary

AI-Generated Summary

PDF362January 3, 2025