말해야 할 때, 삼가해야 할 때: 삼가와 대조 디코딩
When to Speak, When to Abstain: Contrastive Decoding with Abstention
December 17, 2024
저자: Hyuhng Joon Kim, Youna Kim, Sang-goo Lee, Taeuk Kim
cs.AI
초록
대형 언어 모델 (LLMs)은 사전 훈련된 지식(즉, 매개 변수 지식)과 외부 지식(즉, 맥락 지식)을 활용하여 다양한 작업에서 뛰어난 성능을 보여줍니다. 두 종류의 지식을 활용하기 위해 상당한 노력이 기울여졌지만, 모델이 관련 지식이 전혀 없는 상황은 미개척된 채로 남아 있습니다. 이러한 제한은 환각과 같은 문제를 일으켜 신뢰성이 감소하고 고위험 응용에서 잠재적인 위험을 초래할 수 있습니다. 이러한 제한을 해결하기 위해 본 논문은 사용자 요청이 관련 지식 부족으로 충족되지 못하는 경우를 포함하는 작업 범위를 확장합니다. 이를 위해 우리는 Contrastive Decoding with Abstention (CDA)라는 훈련 없이 디코딩하는 방법을 소개합니다. 이 방법은 LLMs에게 관련 지식이 있는 경우 응답을 생성하고 그렇지 않은 경우 삼가게 합니다. CDA는 주어진 쿼리에 대해 각 지식의 관련성을 평가하여 어떤 지식을 우선시해야 하는지 또는 완전히 무시해야 하는지를 적응적으로 결정합니다. 세 개의 질문-응답 데이터셋에서 네 개의 LLMs를 사용한 광범위한 실험 결과는 CDA가 정확한 생성과 삼가를 동시에 효과적으로 수행할 수 있다는 것을 보여줍니다. 이러한 결과는 CDA의 LLMs의 적용 가능성을 확대시키고 신뢰성을 향상시키며 사용자 신뢰를 유지하는 데 기여할 수 있는 잠재력을 강조합니다.
English
Large Language Models (LLMs) demonstrate exceptional performance across
diverse tasks by leveraging both pre-trained knowledge (i.e., parametric
knowledge) and external knowledge (i.e., contextual knowledge). While
substantial efforts have been made to leverage both forms of knowledge,
scenarios in which the model lacks any relevant knowledge remain underexplored.
Such limitations can result in issues like hallucination, causing reduced
reliability and potential risks in high-stakes applications. To address such
limitations, this paper extends the task scope to encompass cases where the
user's request cannot be fulfilled due to the lack of relevant knowledge. To
this end, we introduce Contrastive Decoding with Abstention (CDA), a
training-free decoding method that empowers LLMs to generate responses when
relevant knowledge is available and to abstain otherwise. CDA evaluates the
relevance of each knowledge for a given query, adaptively determining which
knowledge to prioritize or which to completely ignore. Extensive experiments
with four LLMs on three question-answering datasets demonstrate that CDA can
effectively perform accurate generation and abstention simultaneously. These
findings highlight CDA's potential to broaden the applicability of LLMs,
enhancing reliability and preserving user trust.