예시를 넘어서: MCTS를 통한 맥락 속 고수준 자동 추론 패러다임
Beyond Examples: High-level Automated Reasoning Paradigm in In-Context Learning via MCTS
November 27, 2024
저자: Jinyang Wu, Mingkuan Feng, Shuai Zhang, Feihu Che, Zengqi Wen, Jianhua Tao
cs.AI
초록
맥락 학습 (In-context Learning, ICL)은 대규모 언어 모델 (Large Language Models, LLMs)이 정교한 프롬프팅과 고품질 데모를 통해 하류 작업에 대처할 수 있도록 하는 기술이다. 그러나 이 전통적인 ICL 패러다임은 복잡한 수학적 추론 작업에 직면할 때 예제 품질에 대한 과도한 의존과 어려운 시나리오에서의 인간 개입 필요로 인해 한계가 있다. 이러한 한계를 극복하기 위해 본 논문에서는 HiAR-ICL이라는 고수준 자동 추론 패러다임을 제안한다. 이는 ICL에서 맥락의 전통적인 개념을 확장하여 구체적인 예제에서 추상적 사고 패턴에 초점을 맞춘다. HiAR-ICL은 연쇄 구조 패턴을 구성하는 데 필수적인 다섯 가지 원자 추론 액션을 소개한다. 몬테카를로 트리 탐색을 사용하여 추론 경로를 탐색하고 후속 추론을 안내하기 위한 사고 카드를 구성한다. 그런 다음 문제를 적절한 사고 카드와 동적으로 매칭하는 인지 복잡성 프레임워크를 개발한다. 실험 결과는 HiAR-ICL의 효과를 입증하며, Qwen2.5-7B-Instruct를 사용하여 MATH 벤치마크에서 최첨단 정확도(79.6%)를 달성하여 GPT-4o(76.6%)와 Claude 3.5(71.1%)를 능가한다.
English
In-context Learning (ICL) enables large language models (LLMs) to tackle
downstream tasks through sophisticated prompting and high-quality
demonstrations. However, this traditional ICL paradigm shows limitations when
facing complex mathematical reasoning tasks, primarily due to its heavy
dependence on example quality and the necessity for human intervention in
challenging scenarios. To address these limitations, this paper presents
HiAR-ICL, a High-level Automated Reasoning paradigm
in ICL that shifts focus from specific examples to abstract thinking
patterns, extending the conventional concept of context in ICL. HiAR-ICL
introduces five atomic reasoning actions as fundamental components for
constructing chain-structured patterns. Using Monte Carlo Tree Search, we
explore reasoning paths and construct thought cards to guide subsequent
inference. We then develop a cognitive complexity framework that dynamically
matches problems with appropriate thought cards. Experimental results
demonstrate HiAR-ICL's effectiveness, achieving state-of-the-art accuracy
(79.6%) on the MATH benchmark with Qwen2.5-7B-Instruct, surpassing GPT-4o
(76.6%) and Claude 3.5 (71.1%).Summary
AI-Generated Summary