Quando parlare, quando astenersi: Decodifica contrastiva con astensione
When to Speak, When to Abstain: Contrastive Decoding with Abstention
December 17, 2024
Autori: Hyuhng Joon Kim, Youna Kim, Sang-goo Lee, Taeuk Kim
cs.AI
Abstract
I Large Language Models (LLM) dimostrano prestazioni eccezionali in una vasta gamma di compiti sfruttando sia la conoscenza pre-addestrata (cioè, conoscenza parametrica) sia la conoscenza esterna (cioè, conoscenza contestuale). Nonostante siano stati compiuti sforzi significativi per sfruttare entrambe le forme di conoscenza, gli scenari in cui il modello manca di conoscenze rilevanti rimangono poco esplorati. Tali limitazioni possono causare problemi come l'allucinazione, riducendo l'affidabilità e comportando potenziali rischi nelle applicazioni ad alto rischio. Per affrontare tali limitazioni, questo articolo estende l'ambito del compito per includere casi in cui la richiesta dell'utente non può essere soddisfatta a causa della mancanza di conoscenza rilevante. A tal fine, presentiamo il Decodifica Contrastiva con Astensione (CDA), un metodo di decodifica privo di addestramento che permette ai LLM di generare risposte quando è disponibile la conoscenza rilevante e di astenersi in caso contrario. CDA valuta la rilevanza di ciascuna conoscenza per una determinata query, determinando in modo adattivo quale conoscenza privilegiare o ignorare completamente. Esperimenti approfonditi condotti su quattro LLM su tre set di dati di domande e risposte dimostrano che CDA può eseguire efficacemente la generazione accurata e l'astensione contemporaneamente. Queste scoperte evidenziano il potenziale di CDA nel ampliare l'applicabilità dei LLM, migliorando l'affidabilità e preservando la fiducia dell'utente.
English
Large Language Models (LLMs) demonstrate exceptional performance across
diverse tasks by leveraging both pre-trained knowledge (i.e., parametric
knowledge) and external knowledge (i.e., contextual knowledge). While
substantial efforts have been made to leverage both forms of knowledge,
scenarios in which the model lacks any relevant knowledge remain underexplored.
Such limitations can result in issues like hallucination, causing reduced
reliability and potential risks in high-stakes applications. To address such
limitations, this paper extends the task scope to encompass cases where the
user's request cannot be fulfilled due to the lack of relevant knowledge. To
this end, we introduce Contrastive Decoding with Abstention (CDA), a
training-free decoding method that empowers LLMs to generate responses when
relevant knowledge is available and to abstain otherwise. CDA evaluates the
relevance of each knowledge for a given query, adaptively determining which
knowledge to prioritize or which to completely ignore. Extensive experiments
with four LLMs on three question-answering datasets demonstrate that CDA can
effectively perform accurate generation and abstention simultaneously. These
findings highlight CDA's potential to broaden the applicability of LLMs,
enhancing reliability and preserving user trust.Summary
AI-Generated Summary