Incongruenze nei modelli di coerenza: una migliore risoluzione delle equazioni differenziali ordinarie non implica necessariamente un miglioramento dei campioni.

Inconsistencies In Consistency Models: Better ODE Solving Does Not Imply Better Samples

November 13, 2024
Autori: Noël Vouitsis, Rasa Hosseinzadeh, Brendan Leigh Ross, Valentin Villecroze, Satya Krishna Gorti, Jesse C. Cresswell, Gabriel Loaiza-Ganem
cs.AI

Abstract

Sebbene i modelli di diffusione possano generare campioni di qualità eccezionalmente elevata, sono intrinsecamente limitati dal loro costoso procedimento di campionamento iterativo. I modelli di coerenza (CM) sono emersi di recente come un promettente metodo di distillazione dei modelli di diffusione, riducendo il costo del campionamento generando campioni ad alta fedeltà in poche iterazioni. La distillazione del modello di coerenza mira a risolvere l'equazione differenziale ordinaria (ODE) del flusso di probabilità definita da un modello di diffusione esistente. I CM non sono direttamente addestrati per minimizzare l'errore rispetto a un risolutore di ODE, ma utilizzano un obiettivo più facilmente computabile. Come metodo per studiare quanto efficacemente i CM risolvono l'ODE del flusso di probabilità e l'effetto che eventuali errori indotti hanno sulla qualità dei campioni generati, introduciamo i CM diretti, che minimizzano direttamente questo errore. In modo intrigante, scopriamo che i CM diretti riducono l'errore di risoluzione dell'ODE rispetto ai CM, ma comportano anche una qualità dei campioni significativamente peggiore, mettendo in discussione il motivo per cui esattamente i CM funzionano bene in primo luogo. Il codice completo è disponibile su: https://github.com/layer6ai-labs/direct-cms.
English
Although diffusion models can generate remarkably high-quality samples, they are intrinsically bottlenecked by their expensive iterative sampling procedure. Consistency models (CMs) have recently emerged as a promising diffusion model distillation method, reducing the cost of sampling by generating high-fidelity samples in just a few iterations. Consistency model distillation aims to solve the probability flow ordinary differential equation (ODE) defined by an existing diffusion model. CMs are not directly trained to minimize error against an ODE solver, rather they use a more computationally tractable objective. As a way to study how effectively CMs solve the probability flow ODE, and the effect that any induced error has on the quality of generated samples, we introduce Direct CMs, which directly minimize this error. Intriguingly, we find that Direct CMs reduce the ODE solving error compared to CMs but also result in significantly worse sample quality, calling into question why exactly CMs work well in the first place. Full code is available at: https://github.com/layer6ai-labs/direct-cms.

Summary

AI-Generated Summary

PDF52November 15, 2024