HALoGEN: Фантастические галлюцинации LLM и где их найти

HALoGEN: Fantastic LLM Hallucinations and Where to Find Them

January 14, 2025
Авторы: Abhilasha Ravichander, Shrusti Ghela, David Wadden, Yejin Choi
cs.AI

Аннотация

Несмотря на их впечатляющую способность генерировать текст высокого качества и свободно, генеративные большие языковые модели (LLM) также производят галлюцинации: утверждения, которые не соответствуют установленным знаниям о мире или предоставленному контексту ввода. Однако измерение галлюцинаций может быть вызовом, поскольку проверка модельных генераций людьми на лету является как дорогостоящей, так и времязатратной. В данной работе мы представляем HALoGEN, обширный бенчмарк галлюцинаций, включающий: (1) 10 923 подсказки для генеративных моделей, охватывающих девять областей, включая программирование, научную атрибуцию и суммаризацию, и (2) автоматические верификаторы высокой точности для каждого случая использования, которые декомпозируют генерации LLM на атомные единицы и проверяют каждую единицу по высококачественному источнику знаний. Мы используем эту структуру для оценки ~150 000 генераций от 14 языковых моделей, обнаруживая, что даже лучшие модели испытывают галлюцинации (иногда до 86% сгенерированных атомных фактов в зависимости от области). Мы также определяем новую классификацию ошибок для галлюцинаций LLM на основе того, вероятно ли они происходят от неправильного воспоминания обучающих данных (ошибки типа A), неправильных знаний в обучающих данных (ошибки типа B) или фабрикации (ошибки типа C). Мы надеемся, что наша структура обеспечит основу для осуществления принципиального изучения причин галлюцинаций генеративных моделей и способствует развитию надежных больших языковых моделей.
English
Despite their impressive ability to generate high-quality and fluent text, generative large language models (LLMs) also produce hallucinations: statements that are misaligned with established world knowledge or provided input context. However, measuring hallucination can be challenging, as having humans verify model generations on-the-fly is both expensive and time-consuming. In this work, we release HALoGEN, a comprehensive hallucination benchmark consisting of: (1) 10,923 prompts for generative models spanning nine domains including programming, scientific attribution, and summarization, and (2) automatic high-precision verifiers for each use case that decompose LLM generations into atomic units, and verify each unit against a high-quality knowledge source. We use this framework to evaluate ~150,000 generations from 14 language models, finding that even the best-performing models are riddled with hallucinations (sometimes up to 86% of generated atomic facts depending on the domain). We further define a novel error classification for LLM hallucinations based on whether they likely stem from incorrect recollection of training data (Type A errors), or incorrect knowledge in training data (Type B errors), or are fabrication (Type C errors). We hope our framework provides a foundation to enable the principled study of why generative models hallucinate, and advances the development of trustworthy large language models.

Summary

AI-Generated Summary

PDF162January 15, 2025