REFIND: 대규모 언어 모델에서의 검색 기반 사실성 환각 탐지
REFIND: Retrieval-Augmented Factuality Hallucination Detection in Large Language Models
February 19, 2025
저자: DongGeon Lee, Hwanjo Yu
cs.AI
초록
대형 언어 모델(LLM) 출력에서 발생하는 환각(hallucination) 현상은 질의응답과 같은 지식 집약적 작업에서의 신뢰성을 심각하게 제한합니다. 이러한 문제를 해결하기 위해, 우리는 검색된 문서를 직접 활용하여 LLM 출력 내 환각 구간을 탐지하는 새로운 프레임워크인 REFIND(Retrieval-augmented Factuality hallucINation Detection)를 소개합니다. REFIND의 일환으로, 우리는 LLM 출력이 검색된 증거에 대해 얼마나 민감한지를 정량화하는 새로운 지표인 Context Sensitivity Ratio(CSR)를 제안합니다. 이 혁신적인 접근 방식은 REFIND가 기존 방법과 차별화되며, 효율적이고 정확하게 환각을 탐지할 수 있게 합니다. 평가에서 REFIND는 저자원 환경을 포함한 9개 언어에서 강건성을 보였으며, 기준 모델을 크게 능가하며 환각 구간 식별에서 우수한 IoU 점수를 달성했습니다. 이 연구는 환각 탐지를 위한 문맥 민감도 정량화의 효과를 입증함으로써, 다양한 언어에서 더 신뢰할 수 있고 신뢰성 있는 LLM 애플리케이션의 길을 열었습니다.
English
Hallucinations in large language model (LLM) outputs severely limit their
reliability in knowledge-intensive tasks such as question answering. To address
this challenge, we introduce REFIND (Retrieval-augmented Factuality
hallucINation Detection), a novel framework that detects hallucinated spans
within LLM outputs by directly leveraging retrieved documents. As part of the
REFIND, we propose the Context Sensitivity Ratio (CSR), a novel metric that
quantifies the sensitivity of LLM outputs to retrieved evidence. This
innovative approach enables REFIND to efficiently and accurately detect
hallucinations, setting it apart from existing methods. In the evaluation,
REFIND demonstrated robustness across nine languages, including low-resource
settings, and significantly outperformed baseline models, achieving superior
IoU scores in identifying hallucinated spans. This work highlights the
effectiveness of quantifying context sensitivity for hallucination detection,
thereby paving the way for more reliable and trustworthy LLM applications
across diverse languages.Summary
AI-Generated Summary