ChatPaper.aiChatPaper

MathFusion: Verbesserung der mathematischen Problemlösungsfähigkeiten von LLM durch Instruktionsfusion

MathFusion: Enhancing Mathematic Problem-solving of LLM through Instruction Fusion

March 20, 2025
Autoren: Qizhi Pei, Lijun Wu, Zhuoshi Pan, Yu Li, Honglin Lin, Chenlin Ming, Xin Gao, Conghui He, Rui Yan
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben beeindruckende Fortschritte im mathematischen Denken gezeigt. Obwohl Datenanreicherung vielversprechend ist, um die Fähigkeit zur Lösung mathematischer Probleme zu verbessern, beschränken sich aktuelle Ansätze überwiegend auf Instanz-ebene-Modifikationen – wie Umformulierungen oder die Erzeugung syntaktischer Variationen –, die die intrinsischen relationalen Strukturen, die dem mathematischen Wissen innewohnen, nicht erfassen und nutzen können. Inspiriert von menschlichen Lernprozessen, bei denen mathematische Kompetenz durch systematische Exposition gegenüber vernetzten Konzepten entwickelt wird, stellen wir MathFusion vor, ein neuartiges Framework, das das mathematische Denken durch die Synthese von Anweisungen über Probleme hinweg verbessert. MathFusion implementiert dies durch drei Fusionsstrategien: (1) sequenzielle Fusion, die verwandte Probleme verknüpft, um Lösungsabhängigkeiten zu modellieren; (2) parallele Fusion, die analoge Probleme kombiniert, um das konzeptuelle Verständnis zu stärken; und (3) konditionale Fusion, die kontextbewusste selektive Probleme erzeugt, um die Flexibilität des Denkens zu erhöhen. Durch die Anwendung dieser Strategien generieren wir einen neuen Datensatz, MathFusionQA, gefolgt vom Feinabstimmen von Modellen (DeepSeekMath-7B, Mistral-7B, Llama3-8B) darauf. Experimentelle Ergebnisse zeigen, dass MathFusion erhebliche Verbesserungen im mathematischen Denken erzielt, während eine hohe Dateneffizienz beibehalten wird, und die Leistung um 18,0 Punkte in der Genauigkeit über diverse Benchmarks hinweg steigert, während nur 45K zusätzliche synthetische Anweisungen benötigt werden, was eine deutliche Verbesserung gegenüber traditionellen Einzelanweisungsansätzen darstellt. Unsere Datensätze, Modelle und Code sind öffentlich verfügbar unter https://github.com/QizhiPei/mathfusion.
English
Large Language Models (LLMs) have shown impressive progress in mathematical reasoning. While data augmentation is promising to enhance mathematical problem-solving ability, current approaches are predominantly limited to instance-level modifications-such as rephrasing or generating syntactic variations-which fail to capture and leverage the intrinsic relational structures inherent in mathematical knowledge. Inspired by human learning processes, where mathematical proficiency develops through systematic exposure to interconnected concepts, we introduce MathFusion, a novel framework that enhances mathematical reasoning through cross-problem instruction synthesis. MathFusion implements this through three fusion strategies: (1) sequential fusion, which chains related problems to model solution dependencies; (2) parallel fusion, which combines analogous problems to reinforce conceptual understanding; and (3) conditional fusion, which creates context-aware selective problems to enhance reasoning flexibility. By applying these strategies, we generate a new dataset, MathFusionQA, followed by fine-tuning models (DeepSeekMath-7B, Mistral-7B, Llama3-8B) on it. Experimental results demonstrate that MathFusion achieves substantial improvements in mathematical reasoning while maintaining high data efficiency, boosting performance by 18.0 points in accuracy across diverse benchmarks while requiring only 45K additional synthetic instructions, representing a substantial improvement over traditional single-instruction approaches. Our datasets, models, and code are publicly available at https://github.com/QizhiPei/mathfusion.

Summary

AI-Generated Summary

PDF222March 21, 2025