ChatPaper.aiChatPaper

검색 체인 증강 생성

Chain-of-Retrieval Augmented Generation

January 24, 2025
저자: Liang Wang, Haonan Chen, Nan Yang, Xiaolong Huang, Zhicheng Dou, Furu Wei
cs.AI

초록

본 논문은 최종 답변을 생성하기 전에 관련 정보를 단계별로 검색하고 추론하는 o1과 유사한 RAG 모델을 훈련하는 방법을 소개합니다. 기존 RAG 방법은 일반적으로 생성 프로세스 이전에 단일 검색 단계를 수행하는데, 이는 불완전한 검색 결과로 인해 복잡한 쿼리를 처리하는 데 효과적이지 못합니다. 대조적으로, 우리의 제안된 방법인 CoRAG (Chain-of-Retrieval Augmented Generation)은 모델이 진화하는 상태에 기반하여 쿼리를 동적으로 재정의할 수 있도록 합니다. CoRAG를 효과적으로 훈련하기 위해 우리는 거절 샘플링을 활용하여 중간 검색 체인을 자동으로 생성하여, 올바른 최종 답변만 제공하는 기존 RAG 데이터셋을 보강합니다. 시험 시간에는 모델의 시험 시간 계산을 조절하기 위해 다양한 디코딩 전략을 제안하여 검색된 체인의 길이와 수를 제어합니다. 다양한 벤치마크를 통한 실험 결과는 CoRAG의 효능을 검증하며, 특히 다중 점프 질문 응답 작업에서 강력한 기준선과 비교하여 EM 점수에서 10점 이상의 향상을 관찰합니다. KILT 벤치마크에서 CoRAG는 지식 중심 작업의 다양한 범위에서 새로운 최고 성능을 확립합니다. 더 나아가, CoRAG의 확장 동작을 이해하기 위한 포괄적인 분석을 제공하여 사실적이고 근거 있는 기초 모델 개발을 목표로 한 미래 연구를 위한 기초를 마련합니다.
English
This paper introduces an approach for training o1-like RAG models that retrieve and reason over relevant information step by step before generating the final answer. Conventional RAG methods usually perform a single retrieval step before the generation process, which limits their effectiveness in addressing complex queries due to imperfect retrieval results. In contrast, our proposed method, CoRAG (Chain-of-Retrieval Augmented Generation), allows the model to dynamically reformulate the query based on the evolving state. To train CoRAG effectively, we utilize rejection sampling to automatically generate intermediate retrieval chains, thereby augmenting existing RAG datasets that only provide the correct final answer. At test time, we propose various decoding strategies to scale the model's test-time compute by controlling the length and number of sampled retrieval chains. Experimental results across multiple benchmarks validate the efficacy of CoRAG, particularly in multi-hop question answering tasks, where we observe more than 10 points improvement in EM score compared to strong baselines. On the KILT benchmark, CoRAG establishes a new state-of-the-art performance across a diverse range of knowledge-intensive tasks. Furthermore, we offer comprehensive analyses to understand the scaling behavior of CoRAG, laying the groundwork for future research aimed at developing factual and grounded foundation models.

Summary

AI-Generated Summary

PDF513January 27, 2025