ChatPaper.aiChatPaper

Wenn Präferenzen auseinandergehen: Ausrichtung von Diffusionsmodellen mit minderheitensensitivem adaptivem DPO

When Preferences Diverge: Aligning Diffusion Models with Minority-Aware Adaptive DPO

March 21, 2025
Autoren: Lingfan Zhang, Chen Liu, Chengming Xu, Kai Hu, Donghao Luo, Chengjie Wang, Yanwei Fu, Yuan Yao
cs.AI

Zusammenfassung

In den letzten Jahren hat das Feld der Bildgenerierung bedeutende Fortschritte erlebt, insbesondere bei Feinabstimmungsmethoden, die Modelle mit universellen menschlichen Präferenzen in Einklang bringen. Diese Arbeit untersucht die entscheidende Rolle von Präferenzdaten im Trainingsprozess von Diffusionsmodellen, insbesondere im Kontext von Diffusion-DPO und seinen nachfolgenden Anpassungen. Wir beleuchten die Komplexitäten, die mit universellen menschlichen Präferenzen in der Bildgenerierung verbunden sind, und heben die subjektive Natur dieser Präferenzen sowie die Herausforderungen hervor, die durch Minderheitsproben in Präferenzdatensätzen entstehen. Durch Pilotexperimente zeigen wir die Existenz von Minderheitsproben und deren negative Auswirkungen auf die Modellleistung. Wir schlagen Adaptive-DPO vor – einen neuartigen Ansatz, der eine Minderheitsinstanz-bewusste Metrik in das DPO-Ziel integriert. Diese Metrik, die Intra-Annotator-Konfidenz und Inter-Annotator-Stabilität umfasst, unterscheidet zwischen Mehrheits- und Minderheitsproben. Wir führen eine Adaptive-DPO-Verlustfunktion ein, die den DPO-Verlust in zweierlei Hinsicht verbessert: Sie verstärkt das Lernen der Mehrheitslabels durch das Modell und mildert gleichzeitig die negativen Auswirkungen von Minderheitsproben. Unsere Experimente zeigen, dass diese Methode sowohl synthetische Minderheitsdaten als auch reale Präferenzdaten effektiv handhabt und den Weg für effektivere Trainingsmethodologien in Bildgenerierungsaufgaben ebnet.
English
In recent years, the field of image generation has witnessed significant advancements, particularly in fine-tuning methods that align models with universal human preferences. This paper explores the critical role of preference data in the training process of diffusion models, particularly in the context of Diffusion-DPO and its subsequent adaptations. We investigate the complexities surrounding universal human preferences in image generation, highlighting the subjective nature of these preferences and the challenges posed by minority samples in preference datasets. Through pilot experiments, we demonstrate the existence of minority samples and their detrimental effects on model performance. We propose Adaptive-DPO -- a novel approach that incorporates a minority-instance-aware metric into the DPO objective. This metric, which includes intra-annotator confidence and inter-annotator stability, distinguishes between majority and minority samples. We introduce an Adaptive-DPO loss function which improves the DPO loss in two ways: enhancing the model's learning of majority labels while mitigating the negative impact of minority samples. Our experiments demonstrate that this method effectively handles both synthetic minority data and real-world preference data, paving the way for more effective training methodologies in image generation tasks.

Summary

AI-Generated Summary

PDF62March 24, 2025