ChatPaper.aiChatPaper

ReaRAG: Wissensgesteuertes Denken verbessert die Faktentreue großer Denkmodelle durch iterative Retrieval-Augmented Generation

ReaRAG: Knowledge-guided Reasoning Enhances Factuality of Large Reasoning Models with Iterative Retrieval Augmented Generation

March 27, 2025
Autoren: Zhicheng Lee, Shulin Cao, Jinxin Liu, Jiajie Zhang, Weichuan Liu, Xiaoyin Che, Lei Hou, Juanzi Li
cs.AI

Zusammenfassung

Große Reasoning-Modelle (LRMs) zeigen bemerkenswerte Fähigkeiten im logischen Schließen, stützen sich jedoch hauptsächlich auf parametrisches Wissen, was die faktische Genauigkeit einschränkt. Obwohl neuere Arbeiten LRMs, die auf Reinforcement Learning (RL) basieren, mit Retrieval-Fähigkeiten ausstatten, leiden diese unter Überdenken und mangelnder Robustheit im logischen Schließen, was ihre Effektivität bei Frage-Antwort-Aufgaben (QA) verringert. Um dies zu adressieren, schlagen wir ReaRAG vor, ein faktualitätsgestärktes Reasoning-Modell, das verschiedene Abfragen ohne übermäßige Iterationen untersucht. Unsere Lösung umfasst ein neuartiges Datenkonstruktionsframework mit einer Obergrenze für die Länge der Reasoning-Kette. Konkret nutzen wir zunächst ein LRM, um gezieltes Denken zu generieren, und wählen dann eine Aktion aus einem vordefinierten Aktionsraum (Suchen und Beenden). Bei der Suchaktion wird eine Abfrage gegen die RAG-Engine ausgeführt, wobei das Ergebnis als Beobachtung zurückgegeben wird, um spätere Reasoning-Schritte zu leiten. Dieser Prozess wiederholt sich, bis eine Beenden-Aktion gewählt wird. Dank der starken Reasoning-Fähigkeiten von ReaRAG übertrifft unser Ansatz bestehende Baselines bei mehrstufigen QA-Aufgaben. Eine weitere Analyse hebt seine starke reflexive Fähigkeit hervor, Fehler zu erkennen und seine Reasoning-Trajektorie zu verfeinern. Unsere Studie verbessert die Faktualität von LRMs und integriert gleichzeitig robustes Reasoning effektiv für Retrieval-Augmented Generation (RAG).
English
Large Reasoning Models (LRMs) exhibit remarkable reasoning abilities but rely primarily on parametric knowledge, limiting factual accuracy. While recent works equip reinforcement learning (RL)-based LRMs with retrieval capabilities, they suffer from overthinking and lack robustness in reasoning, reducing their effectiveness in question answering (QA) tasks. To address this, we propose ReaRAG, a factuality-enhanced reasoning model that explores diverse queries without excessive iterations. Our solution includes a novel data construction framework with an upper bound on the reasoning chain length. Specifically, we first leverage an LRM to generate deliberate thinking, then select an action from a predefined action space (Search and Finish). For Search action, a query is executed against the RAG engine, where the result is returned as observation to guide reasoning steps later. This process iterates until a Finish action is chosen. Benefiting from ReaRAG's strong reasoning capabilities, our approach outperforms existing baselines on multi-hop QA. Further analysis highlights its strong reflective ability to recognize errors and refine its reasoning trajectory. Our study enhances LRMs' factuality while effectively integrating robust reasoning for Retrieval-Augmented Generation (RAG).

Summary

AI-Generated Summary

PDF223March 28, 2025