마진 기반 언어 모델 정렬의 흔한 함정: 그래디언트 엉킴
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
October 17, 2024
저자: Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
cs.AI
초록
인간 피드백으로부터의 강화 학습(Reinforcement Learning from Human Feedback, RLHF)은 언어 모델(Language Model, LM) 정렬을 위한 주요 접근 방식이 되었습니다. RLHF의 핵심은 선호도 최적화를 위해 마진 기반 손실을 사용하며, 이는 선호되는 응답과 선호되지 않는 응답 간의 차이에 의해 이상적인 LM 동작을 명시합니다. 본 논문에서는 마진 기반 방법의 일반적인 함정을 식별합니다. 즉, 선호되는 응답과 선호되지 않는 응답에 대한 이상적인 LM 동작이 각각 명확히 되지 않아, 마진이 증가함에 따라 두 가지 의도하지 않은 결과가 발생합니다: (1) 선호되지 않는(예: 안전하지 않은) 응답의 확률이 증가하여 잠재적인 안전 정렬 실패가 발생할 수 있습니다. (2) 이상적인 응답임에도 불구하고 선호되는 응답의 확률이 감소할 수 있습니다. 우리는 이러한 문제적 행동의 이유를 명확히 합니다: 마진 기반 손실은 선호되는 확률의 변화를 선호되지 않는 확률의 기울기와 상호 결합시키므로, 종종 선호되는 확률이 증가하지 못하게 막고, 선호되지 않는 확률이 감소하지 못하게 하여 두 확률이 동시에 증가하거나 감소하도록 합니다. 우리는 이러한 효과를 마진 기반 목표에서 본질적으로 발생하는 것으로 정의하며, 그것을 기울기 엉테이글먼트(gradient entanglement)라고 명명합니다. 형식적으로, 우리는 일반적인 마진 기반 정렬 목표에 대한 조건을 유도하여 기울기 엉테이글먼트가 우려스러운 상황이 되는 경우를 밝혀냅니다: 선호되는 로그 확률과 선호되지 않는 로그 확률의 기울기의 내적이 개별 기울기 노름에 비해 큰 경우입니다. 우리는 언어 모델을 정렬할 때 이러한 내적이 큰 이유를 이론적으로 조사하고 우리의 발견을 실험적으로 검증합니다. 우리의 프레임워크의 경험적 함의는 다양한 선호도 최적화 알고리즘의 교육 역학에 중요한 차이를 설명하고, 마진 기반 방법의 명시성 문제를 완화하고 이로 인해 언어 모델 정렬을 개선하기 위한 잠재적인 알고리즘 설계를 제안합니다.
English
Reinforcement Learning from Human Feedback (RLHF) has become the predominant
approach for language model (LM) alignment. At its core, RLHF uses a
margin-based loss for preference optimization, specifying ideal LM behavior
only by the difference between preferred and dispreferred responses. In this
paper, we identify a common pitfall of margin-based methods -- the
under-specification of ideal LM behavior on preferred and dispreferred
responses individually, which leads to two unintended consequences as the
margin increases: (1) The probability of dispreferred (e.g., unsafe) responses
may increase, resulting in potential safety alignment failures. (2) The
probability of preferred responses may decrease, even when those responses are
ideal. We demystify the reasons behind these problematic behaviors:
margin-based losses couple the change in the preferred probability to the
gradient of the dispreferred one, and vice versa, often preventing the
preferred probability from increasing while the dispreferred one decreases, and
thus causing a synchronized increase or decrease in both probabilities. We term
this effect, inherent in margin-based objectives, gradient entanglement.
Formally, we derive conditions for general margin-based alignment objectives
under which gradient entanglement becomes concerning: the inner product of the
gradients of preferred and dispreferred log-probabilities is large relative to
the individual gradient norms. We theoretically investigate why such inner
products can be large when aligning language models and empirically validate
our findings. Empirical implications of our framework extend to explaining
important differences in the training dynamics of various preference
optimization algorithms, and suggesting potential algorithm designs to mitigate
the under-specification issue of margin-based methods and thereby improving
language model alignment.Summary
AI-Generated Summary