HART: Efficiënte Visuele Generatie met Hybride Autoregressieve Transformer

HART: Efficient Visual Generation with Hybrid Autoregressive Transformer

October 14, 2024
Auteurs: Haotian Tang, Yecheng Wu, Shang Yang, Enze Xie, Junsong Chen, Junyu Chen, Zhuoyang Zhang, Han Cai, Yao Lu, Song Han
cs.AI

Samenvatting

We introduceren de Hybride Autoregressive Transformer (HART), een autoregressief (AR) visueel generatiemodel dat in staat is om direct 1024x1024 afbeeldingen te genereren, waarbij het de diffusiemodellen evenaart in de kwaliteit van beeldgeneratie. Bestaande AR-modellen worden geconfronteerd met beperkingen als gevolg van de slechte beeldreconstructiekwaliteit van hun discrete tokenizers en de hoge trainingskosten die gepaard gaan met het genereren van 1024px afbeeldingen. Om deze uitdagingen aan te pakken, presenteren we de hybride tokenizer, die de continue latente variabelen van de auto-encoder opsplitst in twee componenten: discrete tokens die het grote geheel vertegenwoordigen en continue tokens die de resterende componenten vertegenwoordigen die niet door de discrete tokens kunnen worden weergegeven. De discrete component wordt gemodelleerd door een schaalbaar-resolutie discrete AR-model, terwijl de continue component wordt geleerd met een lichtgewicht rest-diffusiemodule met slechts 37M parameters. In vergelijking met de alleen-discrete VAR-tokenizer verbetert onze hybride aanpak de reconstructie FID van 2.11 naar 0.30 op MJHQ-30K, wat leidt tot een 31% verbetering van de generatie FID van 7.85 naar 5.38. HART presteert ook beter dan state-of-the-art diffusiemodellen op zowel FID als CLIP-score, met 4.5-7.7x hogere doorvoer en 6.9-13.4x lagere MACs. Onze code is open source beschikbaar op https://github.com/mit-han-lab/hart.
English
We introduce Hybrid Autoregressive Transformer (HART), an autoregressive (AR) visual generation model capable of directly generating 1024x1024 images, rivaling diffusion models in image generation quality. Existing AR models face limitations due to the poor image reconstruction quality of their discrete tokenizers and the prohibitive training costs associated with generating 1024px images. To address these challenges, we present the hybrid tokenizer, which decomposes the continuous latents from the autoencoder into two components: discrete tokens representing the big picture and continuous tokens representing the residual components that cannot be represented by the discrete tokens. The discrete component is modeled by a scalable-resolution discrete AR model, while the continuous component is learned with a lightweight residual diffusion module with only 37M parameters. Compared with the discrete-only VAR tokenizer, our hybrid approach improves reconstruction FID from 2.11 to 0.30 on MJHQ-30K, leading to a 31% generation FID improvement from 7.85 to 5.38. HART also outperforms state-of-the-art diffusion models in both FID and CLIP score, with 4.5-7.7x higher throughput and 6.9-13.4x lower MACs. Our code is open sourced at https://github.com/mit-han-lab/hart.

Summary

AI-Generated Summary

PDF142November 16, 2024