ChatPaper.aiChatPaper

Come i Dati di Istruzione e Ragionamento Modellano il Post-Addestramento: La Qualità dei Dati Attraverso la Lente dei Gradienti Stratificati

How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients

April 14, 2025
Autori: Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
cs.AI

Abstract

Man mano che l'addestramento post-allenamento dei grandi modelli linguistici (LLM) progredisce dal seguire istruzioni a compiti di ragionamento complesso, comprendere come diversi dati influenzino le dinamiche di fine-tuning rimane in gran parte inesplorato. In questo articolo, presentiamo un'analisi spettrale dei gradienti a livello di strato indotti da dati di istruzione e ragionamento di bassa/alta qualità per l'addestramento post-allenamento degli LLM. La nostra analisi rivela che le metriche ampiamente studiate per la valutazione dei dati, ad esempio IFD, InsTag, Difficoltà e Ricompensa, possono essere spiegate e unificate dalle proprietà spettrali calcolate dalla decomposizione ai valori singolari (SVD) dei gradienti. In particolare, dati di qualità superiore sono solitamente associati a norme nucleari più basse e ranghi effettivi più elevati. È degno di nota che il rango effettivo mostri una migliore robustezza e risoluzione rispetto alla norma nucleare nel catturare sottili differenze di qualità. Ad esempio, i dati di ragionamento raggiungono ranghi effettivi sostanzialmente più alti rispetto ai dati di istruzione, implicando strutture di gradiente più ricche su compiti più complessi. I nostri esperimenti evidenziano anche che i modelli all'interno della stessa famiglia condividono schemi di gradiente simili indipendentemente dalle loro dimensioni, mentre diverse famiglie di modelli divergono significativamente. Fornendo una visione unificata sugli effetti della qualità dei dati tra dati di istruzione e ragionamento, questo lavoro illumina l'interazione tra qualità dei dati e stabilità dell'addestramento, offrendo nuove intuizioni per sviluppare migliori strategie di esplorazione dei dati per l'addestramento post-allenamento.
English
As the post-training of large language models (LLMs) advances from instruction-following to complex reasoning tasks, understanding how different data affect finetuning dynamics remains largely unexplored. In this paper, we present a spectral analysis of layer-wise gradients induced by low/high-quality instruction and reasoning data for LLM post-training. Our analysis reveals that widely-studied metrics for data evaluation, e.g., IFD, InsTag, Difficulty, and Reward, can be explained and unified by spectral properties computed from gradients' singular value decomposition (SVD). Specifically, higher-quality data are usually associated with lower nuclear norms and higher effective ranks. Notably, effective rank exhibits better robustness and resolution than nuclear norm in capturing subtle quality differences. For example, reasoning data achieves substantially higher effective ranks than instruction data, implying richer gradient structures on more complex tasks. Our experiments also highlight that models within the same family share similar gradient patterns regardless of their sizes, whereas different model families diverge significantly. Providing a unified view on the effects of data quality across instruction and reasoning data, this work illuminates the interplay between data quality and training stability, shedding novel insights into developing better data exploration strategies for post-training.

Summary

AI-Generated Summary

PDF362April 16, 2025