SymDPO: Steigerung des kontextbezogenen Lernens großer multimodaler Modelle mit Symbol-Demonstrations-Direktpräferenzoptimierung
SymDPO: Boosting In-Context Learning of Large Multimodal Models with Symbol Demonstration Direct Preference Optimization
November 17, 2024
Autoren: Hongrui Jia, Chaoya Jiang, Haiyang Xu, Wei Ye, Mengfan Dong, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
cs.AI
Zusammenfassung
Mit der fortschreitenden Skalierung von Sprachmodellen haben Große Sprachmodelle (LLMs) aufkommende Fähigkeiten im Bereich des In-Context Learning (ICL) gezeigt, die es ihnen ermöglichen, Sprachaufgaben zu lösen, indem sie einige In-Context-Demonstrationen (ICDs) als Kontext voranstellen. Inspiriert von diesen Fortschritten haben Forscher diese Techniken erweitert, um Große Multimodale Modelle (LMMs) mit ICL-Fähigkeiten zu entwickeln. Allerdings haben bestehende LMMs ein kritisches Problem: Sie nutzen oft nicht effektiv den visuellen Kontext in multimodalen Demonstrationen und folgen stattdessen einfach nur textuellen Mustern. Dies deutet darauf hin, dass LMMs keine effektive Ausrichtung zwischen multimodalen Demonstrationen und Modellausgaben erreichen. Um dieses Problem anzugehen, schlagen wir Symbol Demonstration Direct Preference Optimization (SymDPO) vor. Speziell zielt SymDPO darauf ab, das traditionelle Paradigma der Konstruktion von multimodalen Demonstrationen zu durchbrechen, indem zufällige Symbole verwendet werden, um Textantworten innerhalb von Instanzen zu ersetzen. Dies zwingt das Modell dazu, die Demonstrationsbilder sorgfältig zu verstehen und eine Beziehung zwischen den Bildern und den Symbolen herzustellen, um Fragen korrekt zu beantworten. Wir validieren die Wirksamkeit dieser Methode anhand mehrerer Benchmarks und zeigen, dass LMMs mit SymDPO das multimodale Umfeld innerhalb von Beispielen effektiver verstehen können und dieses Wissen nutzen, um Fragen besser zu beantworten.
English
As language models continue to scale, Large Language Models (LLMs) have
exhibited emerging capabilities in In-Context Learning (ICL), enabling them to
solve language tasks by prefixing a few in-context demonstrations (ICDs) as
context. Inspired by these advancements, researchers have extended these
techniques to develop Large Multimodal Models (LMMs) with ICL capabilities.
However, existing LMMs face a critical issue: they often fail to effectively
leverage the visual context in multimodal demonstrations and instead simply
follow textual patterns. This indicates that LMMs do not achieve effective
alignment between multimodal demonstrations and model outputs. To address this
problem, we propose Symbol Demonstration Direct Preference Optimization
(SymDPO). Specifically, SymDPO aims to break the traditional paradigm of
constructing multimodal demonstrations by using random symbols to replace text
answers within instances. This forces the model to carefully understand the
demonstration images and establish a relationship between the images and the
symbols to answer questions correctly. We validate the effectiveness of this
method on multiple benchmarks, demonstrating that with SymDPO, LMMs can more
effectively understand the multimodal context within examples and utilize this
knowledge to answer questions better.Summary
AI-Generated Summary