Sind KI-Detektoren gut genug? Eine Umfrage zur Qualität von Datensätzen mit maschinengenerierten Texten.

Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts

October 18, 2024
Autoren: German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
cs.AI

Zusammenfassung

Die rasante Entwicklung von autoregressiven Large Language Models (LLMs) hat die Qualität der generierten Texte erheblich verbessert, was zuverlässige maschinengenerierte Textdetektoren erforderlich macht. Es sind eine Vielzahl von Detektoren und Sammlungen mit KI-Fragmenten entstanden, und mehrere Detektionsmethoden haben sogar eine Anerkennungsqualität von bis zu 99,9% gemäß den Zielmetriken in solchen Sammlungen gezeigt. Die Qualität solcher Detektoren tendiert jedoch dazu, in der Praxis dramatisch zu sinken, was die Frage aufwirft: Sind Detektoren tatsächlich sehr vertrauenswürdig oder stammen ihre hohen Benchmark-Werte von der schlechten Qualität der Bewertungsdatensätze? In diesem Papier betonen wir die Notwendigkeit robuster und qualitativer Methoden zur Bewertung generierter Daten, um gegen Voreingenommenheit und geringe Generalisierungsfähigkeit zukünftiger Modelle abgesichert zu sein. Wir präsentieren eine systematische Überprüfung von Datensätzen aus Wettbewerben, die der Erkennung von KI-generierten Inhalten gewidmet sind, und schlagen Methoden zur Bewertung der Qualität von Datensätzen vor, die KI-generierte Fragmente enthalten. Darüber hinaus diskutieren wir die Möglichkeit, hochwertige generierte Daten zu nutzen, um zwei Ziele zu erreichen: die Verbesserung des Trainings von Detektionsmodellen und die Verbesserung der Trainingsdatensätze selbst. Unser Beitrag zielt darauf ab, ein besseres Verständnis der Dynamik zwischen menschlichem und maschinellem Text zu erleichtern, was letztendlich die Integrität von Informationen in einer zunehmend automatisierten Welt unterstützen wird.
English
The rapid development of autoregressive Large Language Models (LLMs) has significantly improved the quality of generated texts, necessitating reliable machine-generated text detectors. A huge number of detectors and collections with AI fragments have emerged, and several detection methods even showed recognition quality up to 99.9% according to the target metrics in such collections. However, the quality of such detectors tends to drop dramatically in the wild, posing a question: Are detectors actually highly trustworthy or do their high benchmark scores come from the poor quality of evaluation datasets? In this paper, we emphasise the need for robust and qualitative methods for evaluating generated data to be secure against bias and low generalising ability of future model. We present a systematic review of datasets from competitions dedicated to AI-generated content detection and propose methods for evaluating the quality of datasets containing AI-generated fragments. In addition, we discuss the possibility of using high-quality generated data to achieve two goals: improving the training of detection models and improving the training datasets themselves. Our contribution aims to facilitate a better understanding of the dynamics between human and machine text, which will ultimately support the integrity of information in an increasingly automated world.

Summary

AI-Generated Summary

PDF95November 16, 2024