Cosa è successo nei livelli di LLMs quando addestrati per il pensiero veloce vs lento: una prospettiva del gradiente
What Happened in LLMs Layers when Trained for Fast vs. Slow Thinking: A Gradient Perspective
October 31, 2024
Autori: Ming Li, Yanhong Li, Tianyi Zhou
cs.AI
Abstract
Cosa fa la differenza nel post-training dei LLM? Indaghiamo i modelli di addestramento dei diversi strati nei grandi modelli linguistici (LLM), attraverso il prisma del gradiente, durante l'addestramento con diverse risposte e modelli iniziali. Siamo particolarmente interessati a come il pensiero veloce rispetto a quello lento influisce sui gradienti a livello di strato, data la recente popolarità dell'addestramento dei LLM su percorsi di ragionamento come catene di pensiero (CoT) e ricompense di processo. Nel nostro studio, il pensiero veloce senza CoT porta a gradienti più ampi e differenze di gradienti più grandi tra gli strati rispetto al pensiero lento (CoT dettagliato), indicando la stabilità nell'apprendimento portata da quest'ultimo. Inoltre, i LLM pre-addestrati sono meno influenzati dall'instabilità del pensiero veloce rispetto ai LLM sintonizzati sull'istruzione. Inoltre, studiamo se i modelli di gradiente possano riflettere la correttezza delle risposte durante l'addestramento di diversi LLM utilizzando percorsi di pensiero lento vs veloce. I risultati mostrano che i gradienti del pensiero lento possono distinguere i percorsi di ragionamento corretti e non pertinenti. A titolo di confronto, conduciamo analisi simili sui gradienti su compiti di apprendimento di conoscenze non di ragionamento, su cui, tuttavia, aumentare banalmente la lunghezza delle risposte non porta a comportamenti simili a quelli del pensiero lento. Il nostro studio rafforza le comprensioni fondamentali dell'addestramento dei LLM e fornisce nuove intuizioni sulla sua efficienza e stabilità, aprendo la strada alla costruzione di un agente System-2 generalizzabile. Il nostro codice, i dati e le statistiche sui gradienti possono essere trovati su: https://github.com/MingLiiii/Layer_Gradient.
English
What makes a difference in the post-training of LLMs? We investigate the
training patterns of different layers in large language models (LLMs), through
the lens of gradient, when training with different responses and initial
models. We are specifically interested in how fast vs. slow thinking affects
the layer-wise gradients, given the recent popularity of training LLMs on
reasoning paths such as chain-of-thoughts (CoT) and process rewards. In our
study, fast thinking without CoT leads to larger gradients and larger
differences of gradients across layers than slow thinking (Detailed CoT),
indicating the learning stability brought by the latter. Moreover, pre-trained
LLMs are less affected by the instability of fast thinking than
instruction-tuned LLMs. Additionally, we study whether the gradient patterns
can reflect the correctness of responses when training different LLMs using
slow vs. fast thinking paths. The results show that the gradients of slow
thinking can distinguish correct and irrelevant reasoning paths. As a
comparison, we conduct similar gradient analyses on non-reasoning knowledge
learning tasks, on which, however, trivially increasing the response length
does not lead to similar behaviors of slow thinking. Our study strengthens
fundamental understandings of LLM training and sheds novel insights on its
efficiency and stability, which pave the way towards building a generalizable
System-2 agent. Our code, data, and gradient statistics can be found in:
https://github.com/MingLiiii/Layer_Gradient.Summary
AI-Generated Summary