MetaLadder: Steigerung der mathematischen Lösungsqualität durch Analogie-Problem-Transfer
MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer
March 19, 2025
Autoren: Honglin Lin, Zhuoshi Pan, Yu Li, Qizhi Pei, Xin Gao, Mengzhang Cai, Conghui He, Lijun Wu
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben vielversprechende Fähigkeiten bei der Lösung mathematischer Denkaufgaben gezeigt, wobei Chain-of-Thought (CoT)-Daten als wesentliche Komponente zur Steuerung der Antwortgenerierung genutzt werden. Aktuelle Paradigmen generieren CoT und Antworten in der Regel direkt für eine gegebene Aufgabe, was sich in gewissem Maße von menschlichen Problemlösungsstrategien unterscheidet. Menschen lösen Probleme oft, indem sie sich an analoge Fälle erinnern und deren Lösungen nutzen, um über die aktuelle Aufgabe nachzudenken. Inspiriert von diesem kognitiven Prozess schlagen wir MetaLadder vor, ein neuartiges Framework, das LLMs explizit dazu anregt, Meta-Probleme – also strukturell oder semantisch analoge Probleme – sowie deren CoT-Lösungen zu rekapitulieren und zu reflektieren, bevor sie sich der Zielaufgabe widmen. Zusätzlich führen wir einen Mechanismus zur Problemumformulierung ein, um das Verständnis des Modells für die Zielaufgabe zu verbessern, indem die ursprüngliche Frage neu generiert wird, was die Genauigkeit der Schlussfolgerung weiter steigert. Dadurch kann das Modell einen Transfer des Denkens von analogen Problemen erreichen, was die menschliche Fähigkeit des „Lernens an Beispielen“ und der Generalisierung nachahmt. Umfangreiche Experimente auf mathematischen Benchmarks zeigen, dass unser MetaLadder die Problemlösungsgenauigkeit von LLMs erheblich steigert und dabei standardmäßige CoT-basierte Methoden (10,3 % Genauigkeitsgewinn) und andere Methoden deutlich übertrifft. Unser Code und unsere Daten wurden unter https://github.com/LHL3341/MetaLadder veröffentlicht.
English
Large Language Models (LLMs) have demonstrated promising capabilities in
solving mathematical reasoning tasks, leveraging Chain-of-Thought (CoT) data as
a vital component in guiding answer generation. Current paradigms typically
generate CoT and answers directly for a given problem, diverging from human
problem-solving strategies to some extent. Humans often solve problems by
recalling analogous cases and leveraging their solutions to reason about the
current task. Inspired by this cognitive process, we propose
MetaLadder, a novel framework that explicitly prompts LLMs to recall
and reflect on meta-problems, those structurally or semantically analogous
problems, alongside their CoT solutions before addressing the target problem.
Additionally, we introduce a problem-restating mechanism to enhance the model's
comprehension of the target problem by regenerating the original question,
which further improves reasoning accuracy. Therefore, the model can achieve
reasoning transfer from analogical problems, mimicking human-like "learning
from examples" and generalization abilities. Extensive experiments on
mathematical benchmarks demonstrate that our MetaLadder significantly boosts
LLMs' problem-solving accuracy, largely outperforming standard CoT-based
methods (10.3\% accuracy gain) and other methods. Our code and data
has been released at https://github.com/LHL3341/MetaLadder.Summary
AI-Generated Summary