SymDPO: Het stimuleren van het in-context leren van grote multimodale modellen met Symbolische Demonstratie Directe Voorkeursoptimalisatie
SymDPO: Boosting In-Context Learning of Large Multimodal Models with Symbol Demonstration Direct Preference Optimization
November 17, 2024
Auteurs: Hongrui Jia, Chaoya Jiang, Haiyang Xu, Wei Ye, Mengfan Dong, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
cs.AI
Samenvatting
Naarmate taalmodellen blijven schalen, hebben Grote Taalmodellen (LLMs) opkomende mogelijkheden getoond in In-Context Learning (ICL), waardoor ze taaltaken kunnen oplossen door een paar in-context demonstraties (ICDs) als context toe te voegen. Geïnspireerd door deze ontwikkelingen hebben onderzoekers deze technieken uitgebreid om Grote Multimodale Modellen (LMMs) met ICL-mogelijkheden te ontwikkelen. Echter, bestaande LMMs kampen met een kritisch probleem: ze slagen er vaak niet in om effectief gebruik te maken van de visuele context in multimodale demonstraties en volgen in plaats daarvan eenvoudigweg tekstuele patronen. Dit duidt erop dat LMMs geen effectieve afstemming bereiken tussen multimodale demonstraties en modeluitvoer. Om dit probleem aan te pakken, stellen we Symbol Demonstration Direct Preference Optimization (SymDPO) voor. Specifiek streeft SymDPO ernaar het traditionele paradigma van het construeren van multimodale demonstraties te doorbreken door willekeurige symbolen te gebruiken om tekstuele antwoorden binnen instanties te vervangen. Dit dwingt het model om de demonstratiebeelden zorgvuldig te begrijpen en een relatie tussen de beelden en de symbolen vast te stellen om vragen correct te beantwoorden. We valideren de effectiviteit van deze methode op meerdere benchmarks, waarbij we aantonen dat met SymDPO LMMs de multimodale context binnen voorbeelden effectiever kunnen begrijpen en deze kennis kunnen gebruiken om vragen beter te beantwoorden.
English
As language models continue to scale, Large Language Models (LLMs) have
exhibited emerging capabilities in In-Context Learning (ICL), enabling them to
solve language tasks by prefixing a few in-context demonstrations (ICDs) as
context. Inspired by these advancements, researchers have extended these
techniques to develop Large Multimodal Models (LMMs) with ICL capabilities.
However, existing LMMs face a critical issue: they often fail to effectively
leverage the visual context in multimodal demonstrations and instead simply
follow textual patterns. This indicates that LMMs do not achieve effective
alignment between multimodal demonstrations and model outputs. To address this
problem, we propose Symbol Demonstration Direct Preference Optimization
(SymDPO). Specifically, SymDPO aims to break the traditional paradigm of
constructing multimodal demonstrations by using random symbols to replace text
answers within instances. This forces the model to carefully understand the
demonstration images and establish a relationship between the images and the
symbols to answer questions correctly. We validate the effectiveness of this
method on multiple benchmarks, demonstrating that with SymDPO, LMMs can more
effectively understand the multimodal context within examples and utilize this
knowledge to answer questions better.Summary
AI-Generated Summary