ChatPaper.aiChatPaper

Modelli di Flusso di Apprendimento con Miscele Gaussiane

Gaussian Mixture Flow Matching Models

April 7, 2025
Autori: Hansheng Chen, Kai Zhang, Hao Tan, Zexiang Xu, Fujun Luan, Leonidas Guibas, Gordon Wetzstein, Sai Bi
cs.AI

Abstract

I modelli di diffusione approssimano la distribuzione di denoising come una Gaussiana e ne predicono la media, mentre i modelli di flow matching riformulano la media Gaussiana come velocità di flusso. Tuttavia, questi ultimi ottengono prestazioni inferiori nel campionamento con pochi passi a causa dell'errore di discretizzazione e tendono a produrre colori eccessivamente saturi sotto la guida senza classificatore (CFG). Per affrontare queste limitazioni, proponiamo un nuovo modello di Gaussian mixture flow matching (GMFlow): invece di predire la media, GMFlow predice parametri dinamici di miscela Gaussiana (GM) per catturare una distribuzione multi-modale della velocità di flusso, che può essere appresa con una perdita di divergenza KL. Dimostriamo che GMFlow generalizza i precedenti modelli di diffusione e flow matching, in cui viene appresa una singola Gaussiana con una perdita di denoising L_2. Per l'inferenza, deriviamo risolutori GM-SDE/ODE che sfruttano distribuzioni di denoising analitiche e campi di velocità per un campionamento preciso con pochi passi. Inoltre, introduciamo un nuovo schema di guida probabilistica che mitiga i problemi di sovrasaturazione della CFG e migliora la qualità della generazione di immagini. Esperimenti estensivi dimostrano che GMFlow supera costantemente i baseline di flow matching in termini di qualità di generazione, raggiungendo una Precisione di 0,942 con soli 6 passi di campionamento su ImageNet 256×256.
English
Diffusion models approximate the denoising distribution as a Gaussian and predict its mean, whereas flow matching models reparameterize the Gaussian mean as flow velocity. However, they underperform in few-step sampling due to discretization error and tend to produce over-saturated colors under classifier-free guidance (CFG). To address these limitations, we propose a novel Gaussian mixture flow matching (GMFlow) model: instead of predicting the mean, GMFlow predicts dynamic Gaussian mixture (GM) parameters to capture a multi-modal flow velocity distribution, which can be learned with a KL divergence loss. We demonstrate that GMFlow generalizes previous diffusion and flow matching models where a single Gaussian is learned with an L_2 denoising loss. For inference, we derive GM-SDE/ODE solvers that leverage analytic denoising distributions and velocity fields for precise few-step sampling. Furthermore, we introduce a novel probabilistic guidance scheme that mitigates the over-saturation issues of CFG and improves image generation quality. Extensive experiments demonstrate that GMFlow consistently outperforms flow matching baselines in generation quality, achieving a Precision of 0.942 with only 6 sampling steps on ImageNet 256times256.

Summary

AI-Generated Summary

PDF112April 8, 2025