DeCoRe: Dekodierung durch Kontrastierung von Abrufköpfen zur Minderung von Halluzinationen

DeCoRe: Decoding by Contrasting Retrieval Heads to Mitigate Hallucinations

October 24, 2024
Autoren: Aryo Pradipta Gema, Chen Jin, Ahmed Abdulaal, Tom Diethe, Philip Teare, Beatrice Alex, Pasquale Minervini, Amrutha Saseendran
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) halluzinieren oft und erzeugen untreue oder faktisch inkorrekte Ausgaben, indem sie den bereitgestellten Kontext falsch darstellen oder interne Kenntnisse falsch abrufen. In jüngsten Studien wurden spezifische Aufmerksamkeitsköpfe innerhalb der Transformer-Architektur identifiziert, die als Abrufköpfe bekannt sind und für die Extraktion relevanter Kontextinformationen verantwortlich sind. Wir vermuten, dass das Maskieren dieser Abrufköpfe Halluzinationen hervorrufen kann und dass ein Vergleich der Ausgaben des Basis-LLM und des maskierten LLM Halluzinationen reduzieren kann. Zu diesem Zweck schlagen wir Decoding by Contrasting Retrieval Heads (DeCoRe) vor, eine neuartige, trainingsfreie Dekodierungsstrategie, die Informationen im Kontext und den Modellparametern verstärkt. DeCoRe mildert potenziell halluzinierte Antworten, indem es dynamisch die Ausgaben des Basis-LLM und des maskierten LLM kontrastiert und bedingte Entropie als Leitfaden verwendet. Unsere umfangreichen Experimente bestätigen, dass DeCoRe die Leistung bei Aufgaben, die eine hohe Kontexttreue erfordern, signifikant verbessert, wie z. B. Zusammenfassung (XSum um 18,6%), Anweisungsbefolgung (MemoTrap um 10,9%) und offene Fragebeantwortung (NQ-Open um 2,4% und NQ-Swap um 5,5%).
English
Large Language Models (LLMs) often hallucinate, producing unfaithful or factually incorrect outputs by misrepresenting the provided context or incorrectly recalling internal knowledge. Recent studies have identified specific attention heads within the Transformer architecture, known as retrieval heads, responsible for extracting relevant contextual information. We hypothesise that masking these retrieval heads can induce hallucinations and that contrasting the outputs of the base LLM and the masked LLM can reduce hallucinations. To this end, we propose Decoding by Contrasting Retrieval Heads (DeCoRe), a novel training-free decoding strategy that amplifies information found in the context and model parameters. DeCoRe mitigates potentially hallucinated responses by dynamically contrasting the outputs of the base LLM and the masked LLM, using conditional entropy as a guide. Our extensive experiments confirm that DeCoRe significantly improves performance on tasks requiring high contextual faithfulness, such as summarisation (XSum by 18.6%), instruction following (MemoTrap by 10.9%), and open-book question answering (NQ-Open by 2.4% and NQ-Swap by 5.5%).

Summary

AI-Generated Summary

PDF83November 16, 2024