ChatPaper.aiChatPaper

REFIND: 대규모 언어 모델에서의 검색 기반 사실성 환각 탐지

REFIND: Retrieval-Augmented Factuality Hallucination Detection in Large Language Models

February 19, 2025
저자: DongGeon Lee, Hwanjo Yu
cs.AI

초록

대형 언어 모델(LLM) 출력에서 발생하는 환각(hallucination) 현상은 질의응답과 같은 지식 집약적 작업에서의 신뢰성을 심각하게 제한합니다. 이러한 문제를 해결하기 위해, 우리는 검색된 문서를 직접 활용하여 LLM 출력 내 환각 구간을 탐지하는 새로운 프레임워크인 REFIND(Retrieval-augmented Factuality hallucINation Detection)를 소개합니다. REFIND의 일환으로, 우리는 LLM 출력이 검색된 증거에 대해 얼마나 민감한지를 정량화하는 새로운 지표인 Context Sensitivity Ratio(CSR)를 제안합니다. 이 혁신적인 접근 방식은 REFIND가 기존 방법과 차별화되며, 효율적이고 정확하게 환각을 탐지할 수 있게 합니다. 평가에서 REFIND는 저자원 환경을 포함한 9개 언어에서 강건성을 보였으며, 기준 모델을 크게 능가하며 환각 구간 식별에서 우수한 IoU 점수를 달성했습니다. 이 연구는 환각 탐지를 위한 문맥 민감도 정량화의 효과를 입증함으로써, 다양한 언어에서 더 신뢰할 수 있고 신뢰성 있는 LLM 애플리케이션의 길을 열었습니다.
English
Hallucinations in large language model (LLM) outputs severely limit their reliability in knowledge-intensive tasks such as question answering. To address this challenge, we introduce REFIND (Retrieval-augmented Factuality hallucINation Detection), a novel framework that detects hallucinated spans within LLM outputs by directly leveraging retrieved documents. As part of the REFIND, we propose the Context Sensitivity Ratio (CSR), a novel metric that quantifies the sensitivity of LLM outputs to retrieved evidence. This innovative approach enables REFIND to efficiently and accurately detect hallucinations, setting it apart from existing methods. In the evaluation, REFIND demonstrated robustness across nine languages, including low-resource settings, and significantly outperformed baseline models, achieving superior IoU scores in identifying hallucinated spans. This work highlights the effectiveness of quantifying context sensitivity for hallucination detection, thereby paving the way for more reliable and trustworthy LLM applications across diverse languages.

Summary

AI-Generated Summary

PDF32February 20, 2025