Friends-MMC: マルチモーダルマルチパーティ会話理解のためのデータセット
Friends-MMC: A Dataset for Multi-modal Multi-party Conversation Understanding
December 23, 2024
著者: Yueqian Wang, Xiaojun Meng, Yuxuan Wang, Jianxin Liang, Qun Liu, Dongyan Zhao
cs.AI
要旨
マルチモーダル多人数会話(MMC)は、あまり研究されていないが重要な研究トピックであり、実世界のシナリオに適しているため、より広く利用される可能性があります。従来のマルチモーダル会話と比較して、MMCは、視覚的およびテキストの文脈の両方に現れる多くの対話者がいるため、より強力なキャラクター中心の理解能力が必要です。この問題の研究を促進するために、本論文ではFriends-MMCを提案し、24,000以上のユニークな発話がビデオコンテキストとペアになったMMCデータセットを含んでいます。対話のキャラクター中心の理解を探求するために、各発話のスピーカー、ビデオに現れる顔の名前と境界ボックスも注釈付けしています。このFriends-MMCデータセットを基に、会話スピーカーの識別と会話応答予測という2つの基本的なMMCタスクをさらに研究しています。どちらもビデオまたは画像を視覚的コンテキストとする多人数性を持っています。会話スピーカーの識別では、事前学習済みモデルなどの既存の手法の非効率性を示し、2つのモダリティのコンテキストを活用してより良いパフォーマンスを達成するために最適化ソルバーを利用するシンプルかつ効果的なベースライン手法を提案しています。会話応答予測では、Friend-MMCで生成的ダイアログモデルを微調整し、スピーカー情報の利点を分析しています。コードとデータセットはhttps://github.com/yellow-binary-tree/Friends-MMCで公開されており、会話の理解時にスピーカー情報のモデリングにさらなる注意を呼びかけています。
English
Multi-modal multi-party conversation (MMC) is a less studied yet important
topic of research due to that it well fits real-world scenarios and thus
potentially has more widely-used applications. Compared with the traditional
multi-modal conversations, MMC requires stronger character-centered
understanding abilities as there are many interlocutors appearing in both the
visual and textual context. To facilitate the study of this problem, we present
Friends-MMC in this paper, an MMC dataset that contains 24,000+ unique
utterances paired with video context. To explore the character-centered
understanding of the dialogue, we also annotate the speaker of each utterance,
the names and bounding bboxes of faces that appear in the video. Based on this
Friends-MMC dataset, we further study two fundamental MMC tasks: conversation
speaker identification and conversation response prediction, both of which have
the multi-party nature with the video or image as visual context. For
conversation speaker identification, we demonstrate the inefficiencies of
existing methods such as pre-trained models, and propose a simple yet effective
baseline method that leverages an optimization solver to utilize the context of
two modalities to achieve better performance. For conversation response
prediction, we fine-tune generative dialogue models on Friend-MMC, and analyze
the benefits of speaker information. The code and dataset is publicly available
at https://github.com/yellow-binary-tree/Friends-MMC and thus we call for more
attention on modeling speaker information when understanding conversations.Summary
AI-Generated Summary