ChatPaper.aiChatPaper

Прогнозирующий отбор данных: данные, которые предсказывают, — это данные, которые обучают

Predictive Data Selection: The Data That Predicts Is the Data That Teaches

March 2, 2025
Авторы: Kashun Shum, Yuzhen Huang, Hongjian Zou, Ding Qi, Yixuan Liao, Xiaoxin Chen, Qian Liu, Junxian He
cs.AI

Аннотация

Предварительное обучение языковых моделей предполагает обучение на обширных корпусах текстов, где качество данных играет ключевую роль. В данной работе мы стремимся напрямую оценить вклад данных в процессе предварительного обучения и выбрать данные для обучения эффективным способом. В частности, мы вдохновляемся недавними исследованиями, которые показывают, что эффективность сжатия (т.е. нормализованная ошибка) различных моделей на определённых текстах сильно коррелирует с их производительностью на последующих задачах, если домен текста соответствует целевому бенчмарку (Huang et al., 2024). Опираясь на это наблюдение, мы выдвигаем гипотезу, что данные, на которых ошибки модели предсказывают её способности на последующих задачах, также эффективно способствуют обучению. Чтобы использовать это понимание, мы представляем метод выбора данных на основе их предсказательной силы (PreSelect) — лёгкий и эффективный метод выбора данных, который требует обучения и использования только быстрого классификатора на основе fastText. В ходе всесторонних экспериментов с моделями на 1 млрд и 3 млрд параметров мы демонстрируем, что модели, обученные на 30 млрд токенов, отобранных с помощью PreSelect, превосходят по производительности базовую модель, обученную на 300 млрд токенов, достигая 10-кратного сокращения вычислительных затрат. Более того, PreSelect значительно превосходит другие конкурентоспособные методы выбора данных, такие как DCLM и FineWeb-Edu, на уровне моделей с 3 млрд параметров, обученных на 100 млрд токенов. Мы открываем исходный код нашего обученного классификатора для выбора данных вместе с отобранными наборами данных по адресу https://github.com/hkust-nlp/PreSelect.
English
Language model pretraining involves training on extensive corpora, where data quality plays a pivotal role. In this work, we aim to directly estimate the contribution of data during pretraining and select pretraining data in an efficient manner. Specifically, we draw inspiration from recent findings showing that compression efficiency (i.e., the normalized loss) of diverse models on certain text correlates strongly with their downstream performance, when the text domain aligns with the downstream benchmark (Huang et al., 2024). Building on this observation, we hypothesize that data on which model losses are predictive of downstream abilities also contribute effectively to learning. To leverage this insight, we introduce data selection based on data's Predictive strength (Preselect), a lightweight and efficient data selection method that requires training and deploying only a fastText-based scorer. Through comprehensive experiments with 1B and 3B parameter models, we demonstrate that models trained on 30B tokens selected with PreSelect surpasses the performance of a vanilla baseline trained on 300B tokens, achieving a 10x reduction in compute requirements. Furthermore, PreSelect significantly outperforms other competitive data selection baselines, such as DCLM and FineWeb-Edu on a scale of 3B models trained on 100B tokens. We open-source our trained data selection scorer along with the curated datasets at https://github.com/hkust-nlp/PreSelect.

Summary

AI-Generated Summary

PDF522March 4, 2025