Améliorer le Modèle de Langage Vision Raisonnement en Chaîne de Pensée
Improve Vision Language Model Chain-of-thought Reasoning
October 21, 2024
Auteurs: Ruohong Zhang, Bowen Zhang, Yanghao Li, Haotian Zhang, Zhiqing Sun, Zhe Gan, Yinfei Yang, Ruoming Pang, Yiming Yang
cs.AI
Résumé
Le raisonnement en chaîne de pensée (CoT) dans les modèles de langage vision (VLM) est crucial pour améliorer l'interprétabilité et la fiabilité. Cependant, les recettes d'entraînement actuelles manquent de données de raisonnement CoT robustes, en se reposant sur des ensembles de données dominés par de courtes annotations avec des justifications minimales. Dans ce travail, nous montrons que l'entraînement des VLM sur de courtes réponses ne généralise pas bien aux tâches de raisonnement nécessitant des réponses plus détaillées. Pour remédier à cela, nous proposons une approche en deux volets. Tout d'abord, nous extrayons des justifications du modèle GPT-4o pour enrichir les données d'entraînement et affiner les VLM, améliorant ainsi leurs performances en CoT. Ensuite, nous appliquons l'apprentissage par renforcement pour calibrer davantage la qualité du raisonnement. Plus précisément, nous construisons des paires positives (correctes) et négatives (incorrectes) de chaînes de raisonnement générées par le modèle, en comparant leurs prédictions avec les courtes réponses annotées. En utilisant ces données par paires, nous appliquons l'algorithme d'optimisation des préférences directes pour affiner les capacités de raisonnement du modèle. Nos expériences démontrent des améliorations significatives dans le raisonnement CoT sur des ensembles de données de référence et une meilleure généralisation à la prédiction de réponses directes également. Ce travail souligne l'importance d'incorporer des justifications détaillées dans l'entraînement et de tirer parti de l'apprentissage par renforcement pour renforcer les capacités de raisonnement des VLM.
English
Chain-of-thought (CoT) reasoning in vision language models (VLMs) is crucial
for improving interpretability and trustworthiness. However, current training
recipes lack robust CoT reasoning data, relying on datasets dominated by short
annotations with minimal rationales. In this work, we show that training VLM on
short answers does not generalize well to reasoning tasks that require more
detailed responses. To address this, we propose a two-fold approach. First, we
distill rationales from GPT-4o model to enrich the training data and fine-tune
VLMs, boosting their CoT performance. Second, we apply reinforcement learning
to further calibrate reasoning quality. Specifically, we construct positive
(correct) and negative (incorrect) pairs of model-generated reasoning chains,
by comparing their predictions with annotated short answers. Using this
pairwise data, we apply the Direct Preference Optimization algorithm to refine
the model's reasoning abilities. Our experiments demonstrate significant
improvements in CoT reasoning on benchmark datasets and better generalization
to direct answer prediction as well. This work emphasizes the importance of
incorporating detailed rationales in training and leveraging reinforcement
learning to strengthen the reasoning capabilities of VLMs.Summary
AI-Generated Summary