Een veelvoorkomende valkuil van op marge gebaseerde uitlijning van taalmodellen: Gradiëntverstrengeling
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
October 17, 2024
Auteurs: Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
cs.AI
Samenvatting
Reinforcement Learning from Human Feedback (RLHF) is de dominante benadering geworden voor de afstemming van taalmodellen (LM). In de kern maakt RLHF gebruik van een marge-gebaseerd verlies voor voorkeursoptimalisatie, waarbij ideaal LM-gedrag alleen wordt gespecificeerd door het verschil tussen voorkeurs- en niet-voorkeursreacties. In dit artikel identificeren we een veelvoorkomende valkuil van marge-gebaseerde methoden - de onduidelijke specificatie van ideaal LM-gedrag op voorkeurs- en niet-voorkeursreacties afzonderlijk, wat leidt tot twee onbedoelde gevolgen naarmate de marge toeneemt: (1) De waarschijnlijkheid van niet-voorkeurs (bijv. onveilige) reacties kan toenemen, resulterend in potentiële mislukkingen in veiligheidsafstemming. (2) De waarschijnlijkheid van voorkeursreacties kan afnemen, zelfs wanneer die reacties ideaal zijn. We ontrafelen de redenen achter deze problematische gedragingen: marge-gebaseerde verliezen koppelen de verandering in de waarschijnlijkheid van voorkeursreacties aan de gradiënt van de niet-voorkeursreacties, en vice versa, waardoor de waarschijnlijkheid van voorkeursreacties vaak niet kan toenemen terwijl die van niet-voorkeursreacties afneemt, en zo een gesynchroniseerde toename of afname in beide waarschijnlijkheden veroorzaakt. We noemen dit effect, dat inherent is aan marge-gebaseerde doelstellingen, gradiëntverstrengeling. Formeel leiden we voorwaarden af voor algemene marge-gebaseerde afstemmingsdoelstellingen waarbij gradiëntverstrengeling zorgwekkend wordt: het inwendig product van de gradiënten van voorkeurs- en niet-voorkeurslog-waarschijnlijkheden is groot ten opzichte van de individuele gradiëntnormen. We onderzoeken theoretisch waarom dergelijke inwendige producten groot kunnen zijn bij het afstemmen van taalmodellen en valideren onze bevindingen empirisch. De empirische implicaties van ons kader strekken zich uit tot het verklaren van belangrijke verschillen in de trainingsdynamiek van verschillende voorkeursoptimalisatie-algoritmen, en het suggereren van potentiële algoritmeontwerpen om het probleem van onduidelijke specificatie van marge-gebaseerde methoden te verminderen en zo de afstemming van taalmodellen te verbeteren.
English
Reinforcement Learning from Human Feedback (RLHF) has become the predominant
approach for language model (LM) alignment. At its core, RLHF uses a
margin-based loss for preference optimization, specifying ideal LM behavior
only by the difference between preferred and dispreferred responses. In this
paper, we identify a common pitfall of margin-based methods -- the
under-specification of ideal LM behavior on preferred and dispreferred
responses individually, which leads to two unintended consequences as the
margin increases: (1) The probability of dispreferred (e.g., unsafe) responses
may increase, resulting in potential safety alignment failures. (2) The
probability of preferred responses may decrease, even when those responses are
ideal. We demystify the reasons behind these problematic behaviors:
margin-based losses couple the change in the preferred probability to the
gradient of the dispreferred one, and vice versa, often preventing the
preferred probability from increasing while the dispreferred one decreases, and
thus causing a synchronized increase or decrease in both probabilities. We term
this effect, inherent in margin-based objectives, gradient entanglement.
Formally, we derive conditions for general margin-based alignment objectives
under which gradient entanglement becomes concerning: the inner product of the
gradients of preferred and dispreferred log-probabilities is large relative to
the individual gradient norms. We theoretically investigate why such inner
products can be large when aligning language models and empirically validate
our findings. Empirical implications of our framework extend to explaining
important differences in the training dynamics of various preference
optimization algorithms, and suggesting potential algorithm designs to mitigate
the under-specification issue of margin-based methods and thereby improving
language model alignment.Summary
AI-Generated Summary