ChatPaper.aiChatPaper

MLLM знают, куда смотреть: восприятие мелких визуальных деталей с помощью мультимодальных языковых моделей без обучения

MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs

February 24, 2025
Авторы: Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
cs.AI

Аннотация

Мультимодальные большие языковые модели (MLLM) демонстрируют стремительный прогресс в задачах визуального распознавания в последние годы. Учитывая их потенциальное внедрение во множество критически важных приложений, важно понимать ограничения их визуального восприятия. В данной работе мы исследуем, способны ли MLLM воспринимать мелкие визуальные детали так же эффективно, как и крупные, при ответах на вопросы о изображениях. Мы наблюдаем, что их производительность сильно зависит от размера визуального объекта, о котором задан вопрос, и дополнительно показываем, что этот эффект является причинным, проводя исследование с вмешательством. Далее мы изучаем паттерны внимания MLLM при ответах на визуальные вопросы и, что интересно, обнаруживаем, что они последовательно знают, куда смотреть, даже когда дают неправильный ответ. На основе этих наблюдений мы предлагаем методы визуального вмешательства, не требующие обучения, которые используют внутренние знания самой MLLM в виде карт внимания и градиентов для улучшения восприятия мелких визуальных деталей. Мы оцениваем предложенные методы на двух широко используемых MLLM и семи бенчмарках для визуального ответа на вопросы и показываем, что они могут значительно повысить точность MLLM без необходимости обучения. Наши результаты подчеркивают риск применения MLLM к задачам визуального распознавания, связанным с мелкими деталями, и указывают на то, что визуальное вмешательство с использованием внутреннего состояния модели является перспективным направлением для снижения этого риска.
English
Multimodal Large Language Models (MLLMs) have experienced rapid progress in visual recognition tasks in recent years. Given their potential integration into many critical applications, it is important to understand the limitations of their visual perception. In this work, we study whether MLLMs can perceive small visual details as effectively as large ones when answering questions about images. We observe that their performance is very sensitive to the size of the visual subject of the question, and further show that this effect is in fact causal by conducting an intervention study. Next, we study the attention patterns of MLLMs when answering visual questions, and intriguingly find that they consistently know where to look, even when they provide the wrong answer. Based on these findings, we then propose training-free visual intervention methods that leverage the internal knowledge of any MLLM itself, in the form of attention and gradient maps, to enhance its perception of small visual details. We evaluate our proposed methods on two widely-used MLLMs and seven visual question answering benchmarks and show that they can significantly improve MLLMs' accuracy without requiring any training. Our results elucidate the risk of applying MLLMs to visual recognition tasks concerning small details and indicate that visual intervention using the model's internal state is a promising direction to mitigate this risk.

Summary

AI-Generated Summary

PDF72February 26, 2025