Kan Kennisbewerking Hallucinaties Echt Corrigeren?
Can Knowledge Editing Really Correct Hallucinations?
October 21, 2024
Auteurs: Baixiang Huang, Canyu Chen, Xiongxiao Xu, Ali Payani, Kai Shu
cs.AI
Samenvatting
Grote Taalmodellen (LLM's) lijden aan hallucinaties, wat verwijst naar de niet-feitelijke informatie in gegenereerde inhoud, ondanks hun superieure capaciteiten over taken heen. Ondertussen is kennisbewerking ontwikkeld als een nieuw populair paradigma om de foutieve feitelijke kennis gecodeerd in LLM's te corrigeren met het voordeel van vermijden van opnieuw trainen vanaf nul. Echter, een veelvoorkomend probleem van bestaande evaluatiedatasets voor kennisbewerking is dat ze niet garanderen dat LLM's daadwerkelijk gehallucineerde antwoorden genereren op de evaluatievragen vóór bewerking. Wanneer LLM's worden geëvalueerd op dergelijke datasets nadat ze zijn bewerkt door verschillende technieken, is het moeilijk om de prestaties direct over te nemen om de effectiviteit van verschillende kennisbewerkingsmethoden in het corrigeren van hallucinaties te beoordelen. Daarom blijft de fundamentele vraag onvoldoende gevalideerd: Kan kennisbewerking echt hallucinaties in LLM's corrigeren? We hebben HalluEditBench voorgesteld om op holistische wijze kennisbewerkingsmethoden te benchmarken in het corrigeren van hallucinaties in de echte wereld. Allereerst construeren we rigoureus een omvangrijke hallucinatiedataset met 9 domeinen, 26 onderwerpen en meer dan 6.000 hallucinaties. Vervolgens beoordelen we de prestaties van kennisbewerkingsmethoden op een holistische manier op vijf dimensies, waaronder Doeltreffendheid, Generalisatie, Draagbaarheid, Lokaliteit en Robuustheid. Via HalluEditBench hebben we nieuwe inzichten geboden in de mogelijkheden en beperkingen van verschillende kennisbewerkingsmethoden in het corrigeren van hallucinaties, wat toekomstige verbeteringen zou kunnen inspireren en de vooruitgang op het gebied van kennisbewerking zou kunnen vergemakkelijken.
English
Large Language Models (LLMs) suffer from hallucinations, referring to the
non-factual information in generated content, despite their superior capacities
across tasks. Meanwhile, knowledge editing has been developed as a new popular
paradigm to correct the erroneous factual knowledge encoded in LLMs with the
advantage of avoiding retraining from scratch. However, one common issue of
existing evaluation datasets for knowledge editing is that they do not ensure
LLMs actually generate hallucinated answers to the evaluation questions before
editing. When LLMs are evaluated on such datasets after being edited by
different techniques, it is hard to directly adopt the performance to assess
the effectiveness of different knowledge editing methods in correcting
hallucinations. Thus, the fundamental question remains insufficiently
validated: Can knowledge editing really correct hallucinations in LLMs? We
proposed HalluEditBench to holistically benchmark knowledge editing methods in
correcting real-world hallucinations. First, we rigorously construct a massive
hallucination dataset with 9 domains, 26 topics and more than 6,000
hallucinations. Then, we assess the performance of knowledge editing methods in
a holistic way on five dimensions including Efficacy, Generalization,
Portability, Locality, and Robustness. Through HalluEditBench, we have provided
new insights into the potentials and limitations of different knowledge editing
methods in correcting hallucinations, which could inspire future improvements
and facilitate the progress in the field of knowledge editing.Summary
AI-Generated Summary