ChatPaper.aiChatPaper

대규모 언어 모델에서의 논리 추론: 조사

Logical Reasoning in Large Language Models: A Survey

February 13, 2025
저자: Hanmeng Liu, Zhizhang Fu, Mengru Ding, Ruoxi Ning, Chaoli Zhang, Xiaozhang Liu, Yue Zhang
cs.AI

초록

OpenAI o3 및 DeepSeek-R1과 같은 고급 추론 모델의 등장으로 대형 언어 모델(LLMs)은 놀라운 추론 능력을 보여주었습니다. 그러나 엄격한 논리 추론을 수행하는 능력은 여전히 미해결된 문제입니다. 본 조사는 최근 LLMs 내의 논리 추론에 대한 발전을 종합한 것으로, 이는 AI 연구의 중요한 영역입니다. 이는 LLMs 내의 논리 추론 범위, 이론적 기초, 그리고 추론 능력을 평가하는 데 사용되는 벤치마크를 개요로 설명합니다. 우리는 타당한, 귀납적, 타당한, 유추적 및 유추적 패러다임을 통해 기존 능력을 분석하고, 데이터 중심의 조정, 강화 학습, 디코딩 전략 및 신경 기호주의 접근 방식을 포함한 추론 성능을 향상시키기 위한 전략을 평가합니다. 이 검토는 미래 방향을 강조하며, AI 시스템 내의 논리 추론을 강화하기 위해 추가 탐구가 필요함을 강조합니다.
English
With the emergence of advanced reasoning models like OpenAI o3 and DeepSeek-R1, large language models (LLMs) have demonstrated remarkable reasoning capabilities. However, their ability to perform rigorous logical reasoning remains an open question. This survey synthesizes recent advancements in logical reasoning within LLMs, a critical area of AI research. It outlines the scope of logical reasoning in LLMs, its theoretical foundations, and the benchmarks used to evaluate reasoning proficiency. We analyze existing capabilities across different reasoning paradigms - deductive, inductive, abductive, and analogical - and assess strategies to enhance reasoning performance, including data-centric tuning, reinforcement learning, decoding strategies, and neuro-symbolic approaches. The review concludes with future directions, emphasizing the need for further exploration to strengthen logical reasoning in AI systems.

Summary

AI-Generated Summary

PDF214February 14, 2025