Incongruenze nei modelli di coerenza: una migliore risoluzione delle equazioni differenziali ordinarie non implica necessariamente un miglioramento dei campioni.
Inconsistencies In Consistency Models: Better ODE Solving Does Not Imply Better Samples
November 13, 2024
Autori: Noël Vouitsis, Rasa Hosseinzadeh, Brendan Leigh Ross, Valentin Villecroze, Satya Krishna Gorti, Jesse C. Cresswell, Gabriel Loaiza-Ganem
cs.AI
Abstract
Sebbene i modelli di diffusione possano generare campioni di qualità eccezionalmente elevata, sono intrinsecamente limitati dal loro costoso procedimento di campionamento iterativo. I modelli di coerenza (CM) sono emersi di recente come un promettente metodo di distillazione dei modelli di diffusione, riducendo il costo del campionamento generando campioni ad alta fedeltà in poche iterazioni. La distillazione del modello di coerenza mira a risolvere l'equazione differenziale ordinaria (ODE) del flusso di probabilità definita da un modello di diffusione esistente. I CM non sono direttamente addestrati per minimizzare l'errore rispetto a un risolutore di ODE, ma utilizzano un obiettivo più facilmente computabile. Come metodo per studiare quanto efficacemente i CM risolvono l'ODE del flusso di probabilità e l'effetto che eventuali errori indotti hanno sulla qualità dei campioni generati, introduciamo i CM diretti, che minimizzano direttamente questo errore. In modo intrigante, scopriamo che i CM diretti riducono l'errore di risoluzione dell'ODE rispetto ai CM, ma comportano anche una qualità dei campioni significativamente peggiore, mettendo in discussione il motivo per cui esattamente i CM funzionano bene in primo luogo. Il codice completo è disponibile su: https://github.com/layer6ai-labs/direct-cms.
English
Although diffusion models can generate remarkably high-quality samples, they
are intrinsically bottlenecked by their expensive iterative sampling procedure.
Consistency models (CMs) have recently emerged as a promising diffusion model
distillation method, reducing the cost of sampling by generating high-fidelity
samples in just a few iterations. Consistency model distillation aims to solve
the probability flow ordinary differential equation (ODE) defined by an
existing diffusion model. CMs are not directly trained to minimize error
against an ODE solver, rather they use a more computationally tractable
objective. As a way to study how effectively CMs solve the probability flow
ODE, and the effect that any induced error has on the quality of generated
samples, we introduce Direct CMs, which directly minimize this error.
Intriguingly, we find that Direct CMs reduce the ODE solving error compared to
CMs but also result in significantly worse sample quality, calling into
question why exactly CMs work well in the first place. Full code is available
at: https://github.com/layer6ai-labs/direct-cms.Summary
AI-Generated Summary