SemiEvol : Ajustement fin semi-supervisé pour l'adaptation de LLM

SemiEvol: Semi-supervised Fine-tuning for LLM Adaptation

October 17, 2024
Auteurs: Junyu Luo, Xiao Luo, Xiusi Chen, Zhiping Xiao, Wei Ju, Ming Zhang
cs.AI

Résumé

Le réglage fin supervisé (SFS) est crucial pour adapter les grands modèles de langage (GML) à un domaine ou une tâche spécifique. Cependant, seule une quantité limitée de données étiquetées est disponible dans les applications pratiques, ce qui pose un défi majeur pour le SFS en termes de résultats satisfaisants. Par conséquent, un cadre efficace en données capable d'exploiter pleinement les données étiquetées et non étiquetées pour le réglage fin des GML est très attendu. Dans cette optique, nous introduisons un cadre de réglage fin semi-supervisé appelé SemiEvol pour l'adaptation des GML selon une approche de propagation et de sélection. Pour la propagation des connaissances, SemiEvol adopte une approche bi-niveau, propageant les connaissances des données étiquetées aux données non étiquetées à travers des méthodes de pondération interne et de contexte interne. Pour la sélection des connaissances, SemiEvol intègre un mécanisme d'apprentissage collaboratif, sélectionnant des échantillons de pseudo-réponses de meilleure qualité. Nous avons mené des expériences en utilisant GPT-4o-mini et Llama-3.1 sur sept ensembles de données généraux ou spécifiques à un domaine, démontrant des améliorations significatives des performances du modèle sur les données cibles. De plus, nous avons comparé SemiEvol avec le SFS et les méthodes d'auto-évolution, mettant en évidence sa praticité dans les scénarios de données hybrides.
English
Supervised fine-tuning (SFT) is crucial in adapting large language models (LLMs) to a specific domain or task. However, only a limited amount of labeled data is available in practical applications, which poses a severe challenge for SFT in yielding satisfactory results. Therefore, a data-efficient framework that can fully exploit labeled and unlabeled data for LLM fine-tuning is highly anticipated. Towards this end, we introduce a semi-supervised fine-tuning framework named SemiEvol for LLM adaptation from a propagate-and-select manner. For knowledge propagation, SemiEvol adopts a bi-level approach, propagating knowledge from labeled data to unlabeled data through both in-weight and in-context methods. For knowledge selection, SemiEvol incorporates a collaborative learning mechanism, selecting higher-quality pseudo-response samples. We conducted experiments using GPT-4o-mini and Llama-3.1 on seven general or domain-specific datasets, demonstrating significant improvements in model performance on target data. Furthermore, we compared SemiEvol with SFT and self-evolution methods, highlighting its practicality in hybrid data scenarios.

Summary

AI-Generated Summary

PDF452November 16, 2024