ChatPaper.aiChatPaper

Generierung mit erweitertem Abrufkettenmodell

Chain-of-Retrieval Augmented Generation

January 24, 2025
Autoren: Liang Wang, Haonan Chen, Nan Yang, Xiaolong Huang, Zhicheng Dou, Furu Wei
cs.AI

Zusammenfassung

Dieses Paper stellt einen Ansatz zur Schulung von o1-ähnlichen RAG-Modellen vor, die relevante Informationen schrittweise abrufen und begründen, bevor sie die endgültige Antwort generieren. Herkömmliche RAG-Methoden führen in der Regel einen einzigen Abrufschritt vor dem Generierungsprozess durch, was ihre Wirksamkeit bei der Bearbeitung komplexer Abfragen aufgrund unvollkommener Abrufergebnisse einschränkt. Im Gegensatz dazu ermöglicht unsere vorgeschlagene Methode, CoRAG (Chain-of-Retrieval Augmented Generation), dem Modell, die Abfrage basierend auf dem sich entwickelnden Zustand dynamisch umzuformulieren. Um CoRAG effektiv zu trainieren, nutzen wir Ablehnungsabtastung, um automatisch Zwischenabrufketten zu generieren und bestehende RAG-Datensätze zu erweitern, die nur die korrekte endgültige Antwort liefern. Zur Testzeit schlagen wir verschiedene Dekodierungsstrategien vor, um die Testzeitberechnung des Modells zu skalieren, indem wir die Länge und Anzahl der abgetasteten Abrufketten steuern. Experimentelle Ergebnisse über mehrere Benchmarks bestätigen die Wirksamkeit von CoRAG, insbesondere bei Frage-Antwort-Aufgaben mit mehreren Schritten, wo wir im Vergleich zu starken Baselines eine Verbesserung des EM-Scores um mehr als 10 Punkte beobachten. Auf dem KILT-Benchmark etabliert CoRAG eine neue Bestleistung über eine vielfältige Palette von wissensintensiven Aufgaben. Darüber hinaus bieten wir umfassende Analysen an, um das Skalierungsverhalten von CoRAG zu verstehen und so die Grundlage für zukünftige Forschung zur Entwicklung von faktischen und fundierten Grundlagenmodellen zu legen.
English
This paper introduces an approach for training o1-like RAG models that retrieve and reason over relevant information step by step before generating the final answer. Conventional RAG methods usually perform a single retrieval step before the generation process, which limits their effectiveness in addressing complex queries due to imperfect retrieval results. In contrast, our proposed method, CoRAG (Chain-of-Retrieval Augmented Generation), allows the model to dynamically reformulate the query based on the evolving state. To train CoRAG effectively, we utilize rejection sampling to automatically generate intermediate retrieval chains, thereby augmenting existing RAG datasets that only provide the correct final answer. At test time, we propose various decoding strategies to scale the model's test-time compute by controlling the length and number of sampled retrieval chains. Experimental results across multiple benchmarks validate the efficacy of CoRAG, particularly in multi-hop question answering tasks, where we observe more than 10 points improvement in EM score compared to strong baselines. On the KILT benchmark, CoRAG establishes a new state-of-the-art performance across a diverse range of knowledge-intensive tasks. Furthermore, we offer comprehensive analyses to understand the scaling behavior of CoRAG, laying the groundwork for future research aimed at developing factual and grounded foundation models.

Summary

AI-Generated Summary

PDF563January 27, 2025