Ce Qui Se Passe dans les Couches de LLMs lors de l'Entraînement pour une Pensée Rapide vs Lente : Une Perspective de Gradient

What Happened in LLMs Layers when Trained for Fast vs. Slow Thinking: A Gradient Perspective

October 31, 2024
Auteurs: Ming Li, Yanhong Li, Tianyi Zhou
cs.AI

Résumé

Qu'est-ce qui fait la différence dans la post-formation des LLMs ? Nous examinons les schémas de formation des différentes couches dans les grands modèles de langage (LLMs), à travers le prisme du gradient, lors de la formation avec différentes réponses et modèles initiaux. Nous nous intéressons spécifiquement à l'impact de la pensée rapide par rapport à la pensée lente sur les gradients par couche, étant donné la popularité récente de la formation des LLMs sur des chemins de raisonnement tels que la chaîne de pensées (CoT) et les récompenses de processus. Dans notre étude, la pensée rapide sans CoT entraîne des gradients plus importants et des différences de gradients plus marquées entre les couches que la pensée lente (CoT détaillée), indiquant la stabilité d'apprentissage apportée par cette dernière. De plus, les LLMs pré-entraînés sont moins affectés par l'instabilité de la pensée rapide que les LLMs réglés par instruction. De plus, nous étudions si les schémas de gradient peuvent refléter la justesse des réponses lors de la formation de différents LLMs en utilisant des chemins de pensée lents par rapport à rapides. Les résultats montrent que les gradients de la pensée lente peuvent distinguer les chemins de raisonnement corrects des non pertinents. En comparaison, nous menons des analyses de gradient similaires sur des tâches d'apprentissage de connaissances non liées au raisonnement, sur lesquelles, cependant, augmenter trivialement la longueur de la réponse ne conduit pas à des comportements similaires à ceux de la pensée lente. Notre étude renforce la compréhension fondamentale de la formation des LLMs et apporte de nouvelles perspectives sur son efficacité et sa stabilité, ouvrant la voie à la construction d'un agent System-2 généralisable. Notre code, nos données et nos statistiques de gradient peuvent être trouvés sur : https://github.com/MingLiiii/Layer_Gradient.
English
What makes a difference in the post-training of LLMs? We investigate the training patterns of different layers in large language models (LLMs), through the lens of gradient, when training with different responses and initial models. We are specifically interested in how fast vs. slow thinking affects the layer-wise gradients, given the recent popularity of training LLMs on reasoning paths such as chain-of-thoughts (CoT) and process rewards. In our study, fast thinking without CoT leads to larger gradients and larger differences of gradients across layers than slow thinking (Detailed CoT), indicating the learning stability brought by the latter. Moreover, pre-trained LLMs are less affected by the instability of fast thinking than instruction-tuned LLMs. Additionally, we study whether the gradient patterns can reflect the correctness of responses when training different LLMs using slow vs. fast thinking paths. The results show that the gradients of slow thinking can distinguish correct and irrelevant reasoning paths. As a comparison, we conduct similar gradient analyses on non-reasoning knowledge learning tasks, on which, however, trivially increasing the response length does not lead to similar behaviors of slow thinking. Our study strengthens fundamental understandings of LLM training and sheds novel insights on its efficiency and stability, which pave the way towards building a generalizable System-2 agent. Our code, data, and gradient statistics can be found in: https://github.com/MingLiiii/Layer_Gradient.

Summary

AI-Generated Summary

Aperçu de l'article

Résumé : L'article examine l'impact de la pensée rapide et lente sur les gradients des modèles de langage à travers des chemins de raisonnement CoT détaillés, montrant que la pensée lente conduit à des normes de gradient stables, distinguant les réponses correctes des non pertinentes.

Contribution Principale

  • Utilisation de chemins de raisonnement CoT détaillés pour stabiliser les gradients.
  • Distinction des réponses correctes des non pertinentes par la pensée lente.
  • Impact des réponses incorrectes sur les performances des modèles de langage.

Contexte de Recherche

  • Étude sur l'explicabilité des grands modèles de langage.
  • Analyse des gradients couche par couche pour comprendre l'apprentissage.
  • Comparaison des LLM pré-entraînés de base et des LLM alignés instructifs.

Mots-clés

Modèles de Langage, Chemins de Raisonnement, Pensée Rapide, Pensée Lente, Gradients

Contexte

Le papier explore l'effet de la pensée rapide et lente sur les gradients des modèles de langage, mettant en évidence l'importance des chemins de raisonnement détaillés pour la stabilité des gradients et la distinction des réponses.

Lacune de Recherche

  • Besoin de comprendre l'impact de la pensée rapide et lente sur l'apprentissage des modèles de langage.
  • Nécessité d'évaluer la capacité des LLM à distinguer les réponses correctes des non pertinentes.
  • Exploration des effets des réponses incorrectes sur les performances des modèles.

Défis Techniques

  • Évaluation des gradients couche par couche.
  • Comparaison des modèles pré-entraînés et alignés instructifs.
  • Analyse de l'impact des réponses incorrectes sur les performances.

Approches Antérieures

  • Utilisation de sondes de classificateurs linéaires pour comprendre les couches intermédiaires.
  • Compression des modèles en supprimant des couches redondantes.
  • Études sur la formation de vérificateurs pour résoudre des problèmes mathématiques.

Méthodologie

L'étude utilise des chemins de raisonnement CoT détaillés, évalue les gradients post-entraînement des LLMs et compare les comportements des modèles de base pré-entraînés et des LLMs alignés instructifs.

Fondement Théorique

  • Analyse des gradients post-entraînement des LLMs.
  • Utilisation de la décomposition en valeurs singulières pour évaluer les propriétés spectrales des gradients.

Architecture Technique

  • Comparaison des réponses correctes et non pertinentes.
  • Analyse des effets des modèles initiaux sur les comportements de gradient.

Détails de Mise en Œuvre

  • Utilisation de la norme nucléaire pour évaluer les gradients.
  • Expérimentation sur 10 modèles avec différentes tâches de raisonnement.

Points d'Innovation

  • Stabilité des gradients avec la pensée lente.
  • Distinction des réponses correctes des non pertinentes.
  • Évaluation des performances des LLMs sur des réponses incorrectes.

Validation Expérimentale

L'étude expérimentale évalue les gradients des modèles de langage sur des chemins de raisonnement CoT détaillés, montrant des différences significatives entre la pensée rapide et lente.

Configuration

  • Utilisation de LLMs pré-entraînés et alignés instructifs.
  • Analyse des gradients sur différentes tâches de raisonnement.

Métriques

  • Norme nucléaire pour quantifier les gradients.
  • Comparaison des comportements des modèles sur des réponses correctes et non pertinentes.

Résultats

  • Stabilité des gradients avec la pensée lente.
  • Difficulté des LLMs à identifier les réponses incorrectes.
  • Impact des réponses incorrectes sur les performances des modèles.

Analyse Comparative

  • Comparaison des LLMs pré-entraînés et alignés instructifs.
  • Évaluation des gradients sur différentes tâches de raisonnement.

Impact et Implications

L'étude souligne l'importance des chemins de raisonnement détaillés pour la stabilité des gradients et la distinction des réponses correctes des non pertinentes, offrant des perspectives pour améliorer les performances des modèles de langage.

Principaux Résultats

  • Stabilité des gradients avec la pensée lente.
  • Difficulté des LLMs à identifier les réponses incorrectes.
  • Besoin d'instruction sur des réponses pertinentes pour améliorer les performances.

Limitations

  • Présentation limitée des résultats.
  • Besoin d'inclure des résultats supplémentaires dans l'annexe.

Directions Futures

  • Exploration des métriques complémentaires pour l'analyse.
  • Étude de l'impact des réponses incorrectes sur d'autres types de tâches.

Signification Pratique

  • Amélioration de la performance des modèles de langage.
  • Application des résultats pour des tâches de raisonnement complexes.

Articles en Vedette

DeepSeek-R1 : Encourager la capacité de raisonnement dans les LLMs via l'apprentissage par renforcement
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning

DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, Qihao Zhu, Shirong Ma, Peiyi Wang, Xiao Bi, Xiaokang Zhang, Xingkai Yu, Yu Wu, Z. F. Wu, Zhibin Gou, Zhihong Shao, Zhuoshu Li, Ziyi Gao, Aixin Liu, Bing Xue, Bingxuan Wang, Bochao Wu, Bei Feng, Chengda Lu, Chenggang Zhao, Chengqi Deng, Chenyu Zhang, Chong Ruan, Damai Dai, Deli Chen, Dongjie Ji, Erhang Li, Fangyun Lin, Fucong Dai, Fuli Luo, Guangbo Hao, Guanting Chen, Guowei Li, H. Zhang, Han Bao, Hanwei Xu, Haocheng Wang, Honghui Ding, Huajian Xin, Huazuo Gao, Hui Qu, Hui Li, Jianzhong Guo, Jiashi Li, Jiawei Wang, Jingchang Chen, Jingyang Yuan, Junjie Qiu, Junlong Li, J. L. Cai, Jiaqi Ni, Jian Liang, Jin Chen, Kai Dong, Kai Hu, Kaige Gao, Kang Guan, Kexin Huang, Kuai Yu, Lean Wang, Lecong Zhang, Liang Zhao, Litong Wang, Liyue Zhang, Lei Xu, Leyi Xia, Mingchuan Zhang, Minghua Zhang, Minghui Tang, Meng Li, Miaojun Wang, Mingming Li, Ning Tian, Panpan Huang, Peng Zhang, Qiancheng Wang, Qinyu Chen, Qiushi Du, Ruiqi Ge, Ruisong Zhang, Ruizhe Pan, Runji Wang, R. J. Chen, R. L. Jin, Ruyi Chen, Shanghao Lu, Shangyan Zhou, Shanhuang Chen, Shengfeng Ye, Shiyu Wang, Shuiping Yu, Shunfeng Zhou, Shuting Pan, S. S. Li, Shuang Zhou, Shaoqing Wu, Shengfeng Ye, Tao Yun, Tian Pei, Tianyu Sun, T. Wang, Wangding Zeng, Wanjia Zhao, Wen Liu, Wenfeng Liang, Wenjun Gao, Wenqin Yu, Wentao Zhang, W. L. Xiao, Wei An, Xiaodong Liu, Xiaohan Wang, Xiaokang Chen, Xiaotao Nie, Xin Cheng, Xin Liu, Xin Xie, Xingchao Liu, Xinyu Yang, Xinyuan Li, Xuecheng Su, Xuheng Lin, X. Q. Li, Xiangyue Jin, Xiaojin Shen, Xiaosha Chen, Xiaowen Sun, Xiaoxiang Wang, Xinnan Song, Xinyi Zhou, Xianzu Wang, Xinxia Shan, Y. K. Li, Y. Q. Wang, Y. X. Wei, Yang Zhang, Yanhong Xu, Yao Li, Yao Zhao, Yaofeng Sun, Yaohui Wang, Yi Yu, Yichao Zhang, Yifan Shi, Yiliang Xiong, Ying He, Yishi Piao, Yisong Wang, Yixuan Tan, Yiyang Ma, Yiyuan Liu, Yongqiang Guo, Yuan Ou, Yuduan Wang, Yue Gong, Yuheng Zou, Yujia He, Yunfan Xiong, Yuxiang Luo, Yuxiang You, Yuxuan Liu, Yuyang Zhou, Y. X. Zhu, Yanhong Xu, Yanping Huang, Yaohui Li, Yi Zheng, Yuchen Zhu, Yunxian Ma, Ying Tang, Yukun Zha, Yuting Yan, Z. Z. Ren, Zehui Ren, Zhangli Sha, Zhe Fu, Zhean Xu, Zhenda Xie, Zhengyan Zhang, Zhewen Hao, Zhicheng Ma, Zhigang Yan, Zhiyu Wu, Zihui Gu, Zijia Zhu, Zijun Liu, Zilin Li, Ziwei Xie, Ziyang Song, Zizheng Pan, Zhen Huang, Zhipeng Xu, Zhongyu Zhang, Zhen ZhangJan 22, 20253735

Rapport technique de Qwen2.5
Qwen2.5 Technical Report

Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan QiuDec 19, 202436311

MiniMax-01 : Mise à l'échelle des modèles de base avec Attention Éclair.
MiniMax-01: Scaling Foundation Models with Lightning Attention

MiniMax, Aonian Li, Bangwei Gong, Bo Yang, Boji Shan, Chang Liu, Cheng Zhu, Chunhao Zhang, Congchao Guo, Da Chen, Dong Li, Enwei Jiao, Gengxin Li, Guojun Zhang, Haohai Sun, Houze Dong, Jiadai Zhu, Jiaqi Zhuang, Jiayuan Song, Jin Zhu, Jingtao Han, Jingyang Li, Junbin Xie, Junhao Xu, Junjie Yan, Kaishun Zhang, Kecheng Xiao, Kexi Kang, Le Han, Leyang Wang, Lianfei Yu, Liheng Feng, Lin Zheng, Linbo Chai, Long Xing, Meizhi Ju, Mingyuan Chi, Mozhi Zhang, Peikai Huang, Pengcheng Niu, Pengfei Li, Pengyu Zhao, Qi Yang, Qidi Xu, Qiexiang Wang, Qin Wang, Qiuhui Li, Ruitao Leng, Shengmin Shi, Shuqi Yu, Sichen Li, Songquan Zhu, Tao Huang, Tianrun Liang, Weigao Sun, Weixuan Sun, Weiyu Cheng, Wenkai Li, Xiangjun Song, Xiao Su, Xiaodong Han, Xinjie Zhang, Xinzhu Hou, Xu Min, Xun Zou, Xuyang Shen, Yan Gong, Yingjie Zhu, Yipeng Zhou, Yiran Zhong, Yongyi Hu, Yuanxiang Fan, Yue Yu, Yufeng Yang, Yuhao Li, Yunan Huang, Yunji Li, Yunpeng Huang, Yunzhi Xu, Yuxin Mao, Zehan Li, Zekang Li, Zewei Tao, Zewen Ying, Zhaoyang Cong, Zhen Qin, Zhenhua Fan, Zhihang Yu, Zhuo Jiang, Zijia WuJan 14, 20252846

PDF634November 13, 2024