Versnellen van Directe Voorkeursoptimalisatie met Prefix Delen

Accelerating Direct Preference Optimization with Prefix Sharing

October 27, 2024
Auteurs: Franklin Wang, Sumanth Hegde
cs.AI

Samenvatting

Offline gecombineerde voorkeur optimalisatiealgoritmen zijn een populaire benadering geworden voor het verfijnen van voorkeursgegevens, waarbij ze traditionele begeleide verfijning overtreffen in verschillende taken. Traditionele implementaties omvatten echter vaak overbodige berekeningen, vooral voor taken met lange gedeelde prompts. We introduceren prefix delen voor voorkeurafstemming, een nieuwe techniek die gekozen en afgewezen reacties verwerkt als één sequentie met een gedeeld voorvoegsel. Om contaminatie tussen reacties te voorkomen, gebruiken we een aangepast blok-sparse aandachtsmasker. Onze methode behaalt een verbetering van 1,1-1,5 keer in trainingsdoorvoer op populaire DPO-datasets, zonder enig effect op convergentie. Wanneer gecombineerd met sequentieverpakking, observeren we consistente 1,3-1,6 keer versnellingen, wat zelfs ten goede komt aan datasets met kleinere sequentielengtes. Hoewel we ons richten op Directe VoorkeursOptimalisatie (DPO), is onze benadering toepasbaar op andere gecombineerde voorkeursafstemmingsmethoden. Door de computationele efficiëntie te verbeteren, draagt ons werk bij aan het toegankelijker maken van voorkeursgebaseerde verfijning voor een breder scala aan toepassingen en modelgroottes. We stellen onze code beschikbaar op https://github.com/frankxwang/dpo-prefix-sharing.
English
Offline paired preference optimization algorithms have become a popular approach for fine-tuning on preference data, outperforming traditional supervised fine-tuning in various tasks. However, traditional implementations often involve redundant computations, especially for tasks with long shared prompts. We introduce prefix sharing for preference tuning, a novel technique that processes chosen and rejected responses as one sequence with a shared prefix. To prevent cross-response contamination, we use a custom block-sparse attention mask. Our method achieves 1.1-1.5times improvement in training throughput on popular DPO datasets, without any effect on convergence. When combined with sequence packing, we observe consistent 1.3-1.6times speedups, benefiting even datasets with smaller sequence lengths. While we focus on Direct Preference Optimization (DPO), our approach is applicable to other paired preference tuning methods. By enhancing computational efficiency, our work contributes to making preference-based fine-tuning more accessible for a wider range of applications and model sizes. We open-source our code at https://github.com/frankxwang/dpo-prefix-sharing.

Summary

AI-Generated Summary

PDF52November 16, 2024