Sind KI-Detektoren gut genug? Eine Umfrage zur Qualität von Datensätzen mit maschinengenerierten Texten.
Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts
October 18, 2024
Autoren: German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
cs.AI
Zusammenfassung
Die rasante Entwicklung von autoregressiven Large Language Models (LLMs) hat die Qualität der generierten Texte erheblich verbessert, was zuverlässige maschinengenerierte Textdetektoren erforderlich macht. Es sind eine Vielzahl von Detektoren und Sammlungen mit KI-Fragmenten entstanden, und mehrere Detektionsmethoden haben sogar eine Anerkennungsqualität von bis zu 99,9% gemäß den Zielmetriken in solchen Sammlungen gezeigt. Die Qualität solcher Detektoren tendiert jedoch dazu, in der Praxis dramatisch zu sinken, was die Frage aufwirft: Sind Detektoren tatsächlich sehr vertrauenswürdig oder stammen ihre hohen Benchmark-Werte von der schlechten Qualität der Bewertungsdatensätze? In diesem Papier betonen wir die Notwendigkeit robuster und qualitativer Methoden zur Bewertung generierter Daten, um gegen Voreingenommenheit und geringe Generalisierungsfähigkeit zukünftiger Modelle abgesichert zu sein. Wir präsentieren eine systematische Überprüfung von Datensätzen aus Wettbewerben, die der Erkennung von KI-generierten Inhalten gewidmet sind, und schlagen Methoden zur Bewertung der Qualität von Datensätzen vor, die KI-generierte Fragmente enthalten. Darüber hinaus diskutieren wir die Möglichkeit, hochwertige generierte Daten zu nutzen, um zwei Ziele zu erreichen: die Verbesserung des Trainings von Detektionsmodellen und die Verbesserung der Trainingsdatensätze selbst. Unser Beitrag zielt darauf ab, ein besseres Verständnis der Dynamik zwischen menschlichem und maschinellem Text zu erleichtern, was letztendlich die Integrität von Informationen in einer zunehmend automatisierten Welt unterstützen wird.
English
The rapid development of autoregressive Large Language Models (LLMs) has
significantly improved the quality of generated texts, necessitating reliable
machine-generated text detectors. A huge number of detectors and collections
with AI fragments have emerged, and several detection methods even showed
recognition quality up to 99.9% according to the target metrics in such
collections. However, the quality of such detectors tends to drop dramatically
in the wild, posing a question: Are detectors actually highly trustworthy or do
their high benchmark scores come from the poor quality of evaluation datasets?
In this paper, we emphasise the need for robust and qualitative methods for
evaluating generated data to be secure against bias and low generalising
ability of future model. We present a systematic review of datasets from
competitions dedicated to AI-generated content detection and propose methods
for evaluating the quality of datasets containing AI-generated fragments. In
addition, we discuss the possibility of using high-quality generated data to
achieve two goals: improving the training of detection models and improving the
training datasets themselves. Our contribution aims to facilitate a better
understanding of the dynamics between human and machine text, which will
ultimately support the integrity of information in an increasingly automated
world.Summary
AI-Generated Summary