옵션의 흐름: 옵션을 통해 사고함으로써 다양화되고 개선된 LLM 추론
Flow-of-Options: Diversified and Improved LLM Reasoning by Thinking Through Options
February 18, 2025
저자: Lakshmi Nair, Ian Trase, Mark Kim
cs.AI
초록
본 논문에서는 대규모 언어 모델(LLM)의 내재적 편향을 해결하기 위해 설계된 새로운 추론 접근법인 Flow-of-Options(FoO)를 소개합니다. FoO는 LLM이 추론 과정에서 다양한 가능성을 체계적으로 탐색할 수 있도록 하며, 이를 기계 학습 작업을 자율적으로 해결하는 FoO 기반 에이전트 시스템(AutoML)을 통해 입증하였습니다. 우리의 프레임워크는 표준 데이터 과학 작업에서 38.2% - 69.2%, 치료 화학 작업에서 37.4% - 47.9%의 성능 향상을 달성하며 최신 기술을 능가합니다. 작업당 총 운영 비용이 $1 미만으로, 비용에 민감한 애플리케이션에 적합합니다. 분류 및 회귀를 넘어, 우리는 FoO 기반 에이전트 시스템이 강화 학습 및 이미지 생성과 같은 작업에 더 광범위하게 적용 가능함을 보여줍니다. 사례 기반 추론과 결합 시 장기 기억을 지원하는 압축적이고 설명 가능한 표현을 통해 LLM 솔루션의 다양성을 강제하는 FoO의 이점으로 인해, 우리의 프레임워크는 현재 최신 AutoML 에이전트 시스템에 비해 상당한 발전을 이루었습니다.
English
We present a novel reasoning approach called Flow-of-Options (FoO), designed
to address intrinsic biases in Large Language Models (LLMs). FoO enables LLMs
to systematically explore a diverse range of possibilities in their reasoning,
as demonstrated by an FoO-based agentic system for autonomously solving Machine
Learning tasks (AutoML). Our framework outperforms state-of-the-art baselines,
achieving improvements of 38.2% - 69.2% on standard data science tasks, and
37.4% - 47.9% on therapeutic chemistry tasks. With an overall operation cost
under $1 per task, our framework is well-suited for cost-sensitive
applications. Beyond classification and regression, we illustrate the broader
applicability of our FoO-based agentic system to tasks such as reinforcement
learning and image generation. Our framework presents significant advancements
compared to current state-of-the-art agentic systems for AutoML, due to the
benefits of FoO in enforcing diversity in LLM solutions through compressed,
explainable representations that also support long-term memory when combined
with case-based reasoning.Summary
AI-Generated Summary