Trasformatori di Diffusione Causale per la Modellazione Generativa

Causal Diffusion Transformers for Generative Modeling

December 16, 2024
Autori: Chaorui Deng, Deyao Zh, Kunchang Li, Shi Guan, Haoqi Fan
cs.AI

Abstract

Introduciamo la Diffusione Causale come il corrispettivo autoregressivo (AR) dei modelli di Diffusione. Si tratta di un quadro di previsione del prossimo token(o) che è amichevole sia per le modalità discrete che continue e compatibile con i modelli esistenti di previsione del prossimo token come LLaMA e GPT. Mentre lavori recenti cercano di combinare la diffusione con i modelli AR, mostriamo che l'introduzione della fattorizzazione sequenziale in un modello di diffusione può migliorare notevolmente le sue prestazioni e consentire una transizione fluida tra le modalità di generazione AR e di diffusione. Pertanto, proponiamo CausalFusion - un transformer solo decoder che fattorizza dualmente i dati attraverso token sequenziali e livelli di rumore di diffusione, ottenendo risultati all'avanguardia sul benchmark di generazione di ImageNet, godendo anche del vantaggio AR di generare un numero arbitrario di token per il ragionamento contestuale. Dimostriamo inoltre le capacità multimodali di CausalFusion attraverso un modello congiunto di generazione di immagini e didascalie, e mostriamo la capacità di CausalFusion per manipolazioni di immagini in contesti senza preavviso. Speriamo che questo lavoro possa offrire alla comunità una prospettiva nuova sull'addestramento di modelli multimodali su dati discreti e continui.
English
We introduce Causal Diffusion as the autoregressive (AR) counterpart of Diffusion models. It is a next-token(s) forecasting framework that is friendly to both discrete and continuous modalities and compatible with existing next-token prediction models like LLaMA and GPT. While recent works attempt to combine diffusion with AR models, we show that introducing sequential factorization to a diffusion model can substantially improve its performance and enables a smooth transition between AR and diffusion generation modes. Hence, we propose CausalFusion - a decoder-only transformer that dual-factorizes data across sequential tokens and diffusion noise levels, leading to state-of-the-art results on the ImageNet generation benchmark while also enjoying the AR advantage of generating an arbitrary number of tokens for in-context reasoning. We further demonstrate CausalFusion's multimodal capabilities through a joint image generation and captioning model, and showcase CausalFusion's ability for zero-shot in-context image manipulations. We hope that this work could provide the community with a fresh perspective on training multimodal models over discrete and continuous data.

Summary

AI-Generated Summary

PDF233December 17, 2024