Was passiert in den Schichten von LLMs, wenn sie für schnelles vs. langsames Denken trainiert werden: Eine Gradientenperspektive
What Happened in LLMs Layers when Trained for Fast vs. Slow Thinking: A Gradient Perspective
October 31, 2024
Autoren: Ming Li, Yanhong Li, Tianyi Zhou
cs.AI
Zusammenfassung
Was macht den Unterschied im Post-Training von LLMs aus? Wir untersuchen die Trainingsmuster verschiedener Schichten in großen Sprachmodellen (LLMs) durch die Linse des Gradienten, wenn sie mit verschiedenen Antworten und Ausgangsmodellen trainiert werden. Wir sind speziell daran interessiert, wie schnelles vs. langsames Denken die schichtweisen Gradienten beeinflusst, angesichts der jüngsten Beliebtheit des Trainings von LLMs auf Denkpfaden wie Ketten von Gedanken (CoT) und Prozessbelohnungen. In unserer Studie führt schnelles Denken ohne CoT zu größeren Gradienten und größeren Unterschieden der Gradienten zwischen den Schichten als langsames Denken (Detailiertes CoT), was auf die Lernstabilität durch Letzteres hinweist. Darüber hinaus sind vorab trainierte LLMs weniger von der Instabilität schnellen Denkens betroffen als instruktionsangepasste LLMs. Zusätzlich untersuchen wir, ob die Gradientenmuster die Korrektheit der Antworten widerspiegeln können, wenn verschiedene LLMs mit langsamen vs. schnellen Denkpfaden trainiert werden. Die Ergebnisse zeigen, dass die Gradienten langsamen Denkens korrekte und irrelevante Denkpfade unterscheiden können. Zum Vergleich führen wir ähnliche Gradientenanalysen bei nicht-denkbasierten Wissenserwerbsaufgaben durch, bei denen jedoch das triviale Erhöhen der Antwortlänge nicht zu ähnlichem Verhalten wie beim langsamen Denken führt. Unsere Studie stärkt das grundlegende Verständnis des LLM-Trainings und liefert neue Erkenntnisse über dessen Effizienz und Stabilität, die den Weg zur Entwicklung eines verallgemeinerbaren System-2-Agenten ebnen. Unser Code, Daten und Gradientenstatistiken sind unter folgendem Link verfügbar: https://github.com/MingLiiii/Layer_Gradient.
English
What makes a difference in the post-training of LLMs? We investigate the
training patterns of different layers in large language models (LLMs), through
the lens of gradient, when training with different responses and initial
models. We are specifically interested in how fast vs. slow thinking affects
the layer-wise gradients, given the recent popularity of training LLMs on
reasoning paths such as chain-of-thoughts (CoT) and process rewards. In our
study, fast thinking without CoT leads to larger gradients and larger
differences of gradients across layers than slow thinking (Detailed CoT),
indicating the learning stability brought by the latter. Moreover, pre-trained
LLMs are less affected by the instability of fast thinking than
instruction-tuned LLMs. Additionally, we study whether the gradient patterns
can reflect the correctness of responses when training different LLMs using
slow vs. fast thinking paths. The results show that the gradients of slow
thinking can distinguish correct and irrelevant reasoning paths. As a
comparison, we conduct similar gradient analyses on non-reasoning knowledge
learning tasks, on which, however, trivially increasing the response length
does not lead to similar behaviors of slow thinking. Our study strengthens
fundamental understandings of LLM training and sheds novel insights on its
efficiency and stability, which pave the way towards building a generalizable
System-2 agent. Our code, data, and gradient statistics can be found in:
https://github.com/MingLiiii/Layer_Gradient.Summary
AI-Generated Summary