ChatPaper.aiChatPaper

Una panoramica sul ragionamento efficiente per modelli di ragionamento su larga scala: linguaggio, multimodalità e oltre

A Survey of Efficient Reasoning for Large Reasoning Models: Language, Multimodality, and Beyond

March 27, 2025
Autori: Xiaoye Qu, Yafu Li, Zhaochen Su, Weigao Sun, Jianhao Yan, Dongrui Liu, Ganqu Cui, Daizong Liu, Shuxian Liang, Junxian He, Peng Li, Wei Wei, Jing Shao, Chaochao Lu, Yue Zhang, Xian-Sheng Hua, Bowen Zhou, Yu Cheng
cs.AI

Abstract

I recenti Large Reasoning Models (LRM), come DeepSeek-R1 e OpenAI o1, hanno dimostrato significativi miglioramenti nelle prestazioni aumentando la lunghezza del ragionamento a catena (Chain-of-Thought, CoT) durante l'inferenza. Tuttavia, una preoccupazione crescente riguarda la loro tendenza a produrre tracce di ragionamento eccessivamente lunghe, spesso piene di contenuti ridondanti (ad esempio, definizioni ripetute), analisi eccessiva di problemi semplici e esplorazione superficiale di percorsi di ragionamento multipli per compiti più complessi. Questa inefficienza introduce sfide significative per l'addestramento, l'inferenza e il dispiegamento nel mondo reale (ad esempio, in sistemi basati su agenti), dove l'economia dei token è cruciale. In questa rassegna, forniamo una panoramica completa dei recenti sforzi mirati a migliorare l'efficienza del ragionamento negli LRM, con un particolare focus sulle sfide uniche che emergono in questo nuovo paradigma. Identifichiamo modelli comuni di inefficienza, esaminiamo i metodi proposti lungo l'intero ciclo di vita degli LRM, ovvero dal pre-addestramento all'inferenza, e discutiamo promettenti direzioni future per la ricerca. Per supportare lo sviluppo in corso, manteniamo anche un repository GitHub in tempo reale che traccia i progressi recenti nel campo. Speriamo che questa rassegna serva come base per ulteriori esplorazioni e ispiri innovazione in quest'area in rapida evoluzione.
English
Recent Large Reasoning Models (LRMs), such as DeepSeek-R1 and OpenAI o1, have demonstrated strong performance gains by scaling up the length of Chain-of-Thought (CoT) reasoning during inference. However, a growing concern lies in their tendency to produce excessively long reasoning traces, which are often filled with redundant content (e.g., repeated definitions), over-analysis of simple problems, and superficial exploration of multiple reasoning paths for harder tasks. This inefficiency introduces significant challenges for training, inference, and real-world deployment (e.g., in agent-based systems), where token economy is critical. In this survey, we provide a comprehensive overview of recent efforts aimed at improving reasoning efficiency in LRMs, with a particular focus on the unique challenges that arise in this new paradigm. We identify common patterns of inefficiency, examine methods proposed across the LRM lifecycle, i.e., from pretraining to inference, and discuss promising future directions for research. To support ongoing development, we also maintain a real-time GitHub repository tracking recent progress in the field. We hope this survey serves as a foundation for further exploration and inspires innovation in this rapidly evolving area.

Summary

AI-Generated Summary

PDF394March 31, 2025