ChatPaper.aiChatPaper

말해야 할 때, 삼가해야 할 때: 삼가와 대조 디코딩

When to Speak, When to Abstain: Contrastive Decoding with Abstention

December 17, 2024
저자: Hyuhng Joon Kim, Youna Kim, Sang-goo Lee, Taeuk Kim
cs.AI

초록

대형 언어 모델 (LLMs)은 사전 훈련된 지식(즉, 매개 변수 지식)과 외부 지식(즉, 맥락 지식)을 활용하여 다양한 작업에서 뛰어난 성능을 보여줍니다. 두 종류의 지식을 활용하기 위해 상당한 노력이 기울여졌지만, 모델이 관련 지식이 전혀 없는 상황은 미개척된 채로 남아 있습니다. 이러한 제한은 환각과 같은 문제를 일으켜 신뢰성이 감소하고 고위험 응용에서 잠재적인 위험을 초래할 수 있습니다. 이러한 제한을 해결하기 위해 본 논문은 사용자 요청이 관련 지식 부족으로 충족되지 못하는 경우를 포함하는 작업 범위를 확장합니다. 이를 위해 우리는 Contrastive Decoding with Abstention (CDA)라는 훈련 없이 디코딩하는 방법을 소개합니다. 이 방법은 LLMs에게 관련 지식이 있는 경우 응답을 생성하고 그렇지 않은 경우 삼가게 합니다. CDA는 주어진 쿼리에 대해 각 지식의 관련성을 평가하여 어떤 지식을 우선시해야 하는지 또는 완전히 무시해야 하는지를 적응적으로 결정합니다. 세 개의 질문-응답 데이터셋에서 네 개의 LLMs를 사용한 광범위한 실험 결과는 CDA가 정확한 생성과 삼가를 동시에 효과적으로 수행할 수 있다는 것을 보여줍니다. 이러한 결과는 CDA의 LLMs의 적용 가능성을 확대시키고 신뢰성을 향상시키며 사용자 신뢰를 유지하는 데 기여할 수 있는 잠재력을 강조합니다.
English
Large Language Models (LLMs) demonstrate exceptional performance across diverse tasks by leveraging both pre-trained knowledge (i.e., parametric knowledge) and external knowledge (i.e., contextual knowledge). While substantial efforts have been made to leverage both forms of knowledge, scenarios in which the model lacks any relevant knowledge remain underexplored. Such limitations can result in issues like hallucination, causing reduced reliability and potential risks in high-stakes applications. To address such limitations, this paper extends the task scope to encompass cases where the user's request cannot be fulfilled due to the lack of relevant knowledge. To this end, we introduce Contrastive Decoding with Abstention (CDA), a training-free decoding method that empowers LLMs to generate responses when relevant knowledge is available and to abstain otherwise. CDA evaluates the relevance of each knowledge for a given query, adaptively determining which knowledge to prioritize or which to completely ignore. Extensive experiments with four LLMs on three question-answering datasets demonstrate that CDA can effectively perform accurate generation and abstention simultaneously. These findings highlight CDA's potential to broaden the applicability of LLMs, enhancing reliability and preserving user trust.
PDF42December 18, 2024