DeCoRe: Dekodierung durch Kontrastierung von Abrufköpfen zur Minderung von Halluzinationen
DeCoRe: Decoding by Contrasting Retrieval Heads to Mitigate Hallucinations
October 24, 2024
Autoren: Aryo Pradipta Gema, Chen Jin, Ahmed Abdulaal, Tom Diethe, Philip Teare, Beatrice Alex, Pasquale Minervini, Amrutha Saseendran
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) halluzinieren oft und erzeugen untreue oder faktisch inkorrekte Ausgaben, indem sie den bereitgestellten Kontext falsch darstellen oder interne Kenntnisse falsch abrufen. In jüngsten Studien wurden spezifische Aufmerksamkeitsköpfe innerhalb der Transformer-Architektur identifiziert, die als Abrufköpfe bekannt sind und für die Extraktion relevanter Kontextinformationen verantwortlich sind. Wir vermuten, dass das Maskieren dieser Abrufköpfe Halluzinationen hervorrufen kann und dass ein Vergleich der Ausgaben des Basis-LLM und des maskierten LLM Halluzinationen reduzieren kann. Zu diesem Zweck schlagen wir Decoding by Contrasting Retrieval Heads (DeCoRe) vor, eine neuartige, trainingsfreie Dekodierungsstrategie, die Informationen im Kontext und den Modellparametern verstärkt. DeCoRe mildert potenziell halluzinierte Antworten, indem es dynamisch die Ausgaben des Basis-LLM und des maskierten LLM kontrastiert und bedingte Entropie als Leitfaden verwendet. Unsere umfangreichen Experimente bestätigen, dass DeCoRe die Leistung bei Aufgaben, die eine hohe Kontexttreue erfordern, signifikant verbessert, wie z. B. Zusammenfassung (XSum um 18,6%), Anweisungsbefolgung (MemoTrap um 10,9%) und offene Fragebeantwortung (NQ-Open um 2,4% und NQ-Swap um 5,5%).
English
Large Language Models (LLMs) often hallucinate, producing unfaithful or
factually incorrect outputs by misrepresenting the provided context or
incorrectly recalling internal knowledge. Recent studies have identified
specific attention heads within the Transformer architecture, known as
retrieval heads, responsible for extracting relevant contextual information. We
hypothesise that masking these retrieval heads can induce hallucinations and
that contrasting the outputs of the base LLM and the masked LLM can reduce
hallucinations. To this end, we propose Decoding by Contrasting Retrieval Heads
(DeCoRe), a novel training-free decoding strategy that amplifies information
found in the context and model parameters. DeCoRe mitigates potentially
hallucinated responses by dynamically contrasting the outputs of the base LLM
and the masked LLM, using conditional entropy as a guide. Our extensive
experiments confirm that DeCoRe significantly improves performance on tasks
requiring high contextual faithfulness, such as summarisation (XSum by 18.6%),
instruction following (MemoTrap by 10.9%), and open-book question answering
(NQ-Open by 2.4% and NQ-Swap by 5.5%).Summary
AI-Generated Summary