Toxizität der Allmende: Kuratierung von Open-Source-Vortrainingsdaten

Toxicity of the Commons: Curating Open-Source Pre-Training Data

October 29, 2024
Autoren: Catherine Arnett, Eliot Jones, Ivan P. Yamshchikov, Pierre-Carl Langlais
cs.AI

Zusammenfassung

Open-Source Large Language Models werden zunehmend von Forschern und Praktikern genutzt und erfreuen sich großer Beliebtheit. Während bedeutende Fortschritte bei Open-Weight-Modellen erzielt wurden, ist das Training mit offenem Datenmaterial eine Praxis, die von den führenden Schöpfern von Open-Weight-Modellen noch nicht übernommen wurde. Gleichzeitig arbeiten Forscher daran, Sprachmodelle sicherer zu machen. Wir schlagen eine Datenkuratierungspipeline vor, um schädliche Ausgaben von Modellen, die auf öffentlich zugänglichen Daten trainiert wurden, zu reduzieren. Es gibt einzigartige Herausforderungen bei der Arbeit mit öffentlich zugänglichen Daten, da sich diese Quellen sowohl in Form als auch Inhalt von Webtexten unterscheiden. Viele Quellen sind historische Dokumente und das Ergebnis von optischer Zeichenerkennung (OCR). Folglich sind die derzeit führenden Ansätze zur Toxizitätsfilterung oft unpraktikabel oder ungeeignet für offene Datenmodelle. In diesem Paper stellen wir eine neue vollständig Open-Source-Pipeline für die Toxizitätsfilterung von Open-Data vor. Unsere Beiträge sind dreifach. Wir erstellen einen benutzerdefinierten Trainingsdatensatz, ToxicCommons, der aus Texten besteht, die in fünf verschiedenen Dimensionen klassifiziert wurden (rassen-/herkunftsbasiert, geschlechtsbasiert, religiös, diskriminierungsbasiert aufgrund von Fähigkeiten und gewalttätig). Wir verwenden diesen Datensatz, um einen benutzerdefinierten Klassifizierer, Celadon, zu trainieren, der dazu verwendet werden kann, toxische Inhalte in offenen Daten effizienter und in größerem Umfang zu erkennen. Schließlich beschreiben wir den ausgewogenen Ansatz zur Inhaltsfiltrierung, der die Sicherheitsfilterung optimiert, unter Berücksichtigung der gefilterten Daten, die für das Training verfügbar sind.
English
Open-source large language models are becoming increasingly available and popular among researchers and practitioners. While significant progress has been made on open-weight models, open training data is a practice yet to be adopted by the leading open-weight models creators. At the same time, there researchers are working to make language models safer. We propose a data curation pipeline to reduce harmful outputs by models trained on public domain data. There are unique challenges to working with public domain data, as these sources differ from web text in both form and content. Many sources are historical documents and are the result of Optical Character Recognition (OCR). Consequently, current state-of-the-art approaches to toxicity filtering are often infeasible or inappropriate for open data models. In this paper, we introduce a new fully open-source pipeline for open-data toxicity filtering. Our contributions are threefold. We create a custom training dataset, ToxicCommons, which is composed of texts which have been classified across five different dimensions (racial/origin-based, gender/sex-based, religious, ability-based discrimination, and violence). We use this dataset to train a custom classifier, Celadon, that can be used to detect toxic content in open data more efficiently at a larger scale. Finally, we describe the balanced approach to content filtration that optimizes safety filtering with respect to the filtered data available for training.

Summary

AI-Generated Summary

PDF82November 16, 2024