Wat gebeurde er in de lagen van LLM's bij training voor snel denken versus langzaam denken: een perspectief vanuit de gradiënt.
What Happened in LLMs Layers when Trained for Fast vs. Slow Thinking: A Gradient Perspective
October 31, 2024
Auteurs: Ming Li, Yanhong Li, Tianyi Zhou
cs.AI
Samenvatting
Wat maakt een verschil bij het post-trainen van LLM's? We onderzoeken de trainingspatronen van verschillende lagen in grote taalmodellen (LLM's), door de lens van de gradiënt, bij het trainen met verschillende antwoorden en initiële modellen. We zijn specifiek geïnteresseerd in hoe snel versus langzaam denken de laagsgewijze gradiënten beïnvloedt, gezien de recente populariteit van het trainen van LLM's op redeneerpaden zoals keten-van-gedachten (CoT) en procesbeloningen. In onze studie leidt snel denken zonder CoT tot grotere gradiënten en grotere verschillen in gradiënten tussen lagen dan langzaam denken (Gedetailleerde CoT), wat wijst op de leermogelijkheid die laatstgenoemde met zich meebrengt. Bovendien worden voorgetrainde LLM's minder beïnvloed door de instabiliteit van snel denken dan instructie-aangepaste LLM's. Daarnaast onderzoeken we of de gradiëntpatronen de juistheid van antwoorden kunnen weerspiegelen bij het trainen van verschillende LLM's met langzame versus snelle denkpaden. De resultaten tonen aan dat de gradiënten van langzaam denken correcte en irrelevante redeneerpaden kunnen onderscheiden. Ter vergelijking voeren we soortgelijke gradiëntanalyses uit op niet-redeneer-kennisleertaken, waarbij echter het triviaal verhogen van de lengte van het antwoord niet leidt tot vergelijkbare gedragingen van langzaam denken. Onze studie versterkt fundamentele inzichten in LLM-training en werpt nieuwe inzichten op over de efficiëntie en stabiliteit ervan, wat de weg effent naar het bouwen van een generaliseerbare System-2 agent. Onze code, data en gradiëntstatistieken zijn te vinden op: https://github.com/MingLiiii/Layer_Gradient.
English
What makes a difference in the post-training of LLMs? We investigate the
training patterns of different layers in large language models (LLMs), through
the lens of gradient, when training with different responses and initial
models. We are specifically interested in how fast vs. slow thinking affects
the layer-wise gradients, given the recent popularity of training LLMs on
reasoning paths such as chain-of-thoughts (CoT) and process rewards. In our
study, fast thinking without CoT leads to larger gradients and larger
differences of gradients across layers than slow thinking (Detailed CoT),
indicating the learning stability brought by the latter. Moreover, pre-trained
LLMs are less affected by the instability of fast thinking than
instruction-tuned LLMs. Additionally, we study whether the gradient patterns
can reflect the correctness of responses when training different LLMs using
slow vs. fast thinking paths. The results show that the gradients of slow
thinking can distinguish correct and irrelevant reasoning paths. As a
comparison, we conduct similar gradient analyses on non-reasoning knowledge
learning tasks, on which, however, trivially increasing the response length
does not lead to similar behaviors of slow thinking. Our study strengthens
fundamental understandings of LLM training and sheds novel insights on its
efficiency and stability, which pave the way towards building a generalizable
System-2 agent. Our code, data, and gradient statistics can be found in:
https://github.com/MingLiiii/Layer_Gradient.Summary
AI-Generated Summary