Incohérences dans les modèles de cohérence : une meilleure résolution des EDO n'implique pas nécessairement de meilleurs échantillons.

Inconsistencies In Consistency Models: Better ODE Solving Does Not Imply Better Samples

November 13, 2024
Auteurs: Noël Vouitsis, Rasa Hosseinzadeh, Brendan Leigh Ross, Valentin Villecroze, Satya Krishna Gorti, Jesse C. Cresswell, Gabriel Loaiza-Ganem
cs.AI

Résumé

Bien que les modèles de diffusion puissent générer des échantillons de qualité remarquablement élevée, ils sont intrinsèquement limités par leur coûteuse procédure d'échantillonnage itérative. Les modèles de cohérence (CM) ont récemment émergé comme une méthode prometteuse de distillation de modèles de diffusion, réduisant le coût de l'échantillonnage en générant des échantillons de haute fidélité en seulement quelques itérations. La distillation de modèles de cohérence vise à résoudre l'équation différentielle ordinaire (ODE) de flux de probabilité définie par un modèle de diffusion existant. Les CM ne sont pas directement formés pour minimiser l'erreur par rapport à un solveur d'ODE, mais utilisent plutôt un objectif plus facilement calculable. Pour étudier comment les CM résolvent efficacement l'ODE de flux de probabilité et l'effet de toute erreur induite sur la qualité des échantillons générés, nous introduisons les CM directs, qui minimisent directement cette erreur. De manière intrigante, nous constatons que les CM directs réduisent l'erreur de résolution de l'ODE par rapport aux CM, mais entraînent également une qualité d'échantillon nettement inférieure, remettant en question la raison pour laquelle les CM fonctionnent bien en premier lieu. Le code complet est disponible sur : https://github.com/layer6ai-labs/direct-cms.
English
Although diffusion models can generate remarkably high-quality samples, they are intrinsically bottlenecked by their expensive iterative sampling procedure. Consistency models (CMs) have recently emerged as a promising diffusion model distillation method, reducing the cost of sampling by generating high-fidelity samples in just a few iterations. Consistency model distillation aims to solve the probability flow ordinary differential equation (ODE) defined by an existing diffusion model. CMs are not directly trained to minimize error against an ODE solver, rather they use a more computationally tractable objective. As a way to study how effectively CMs solve the probability flow ODE, and the effect that any induced error has on the quality of generated samples, we introduce Direct CMs, which directly minimize this error. Intriguingly, we find that Direct CMs reduce the ODE solving error compared to CMs but also result in significantly worse sample quality, calling into question why exactly CMs work well in the first place. Full code is available at: https://github.com/layer6ai-labs/direct-cms.

Summary

AI-Generated Summary

PDF52November 15, 2024