OMCAT: Alomvattende Contextbewuste Transformer

OMCAT: Omni Context Aware Transformer

October 15, 2024
Auteurs: Arushi Goel, Karan Sapra, Matthieu Le, Rafael Valle, Andrew Tao, Bryan Catanzaro
cs.AI

Samenvatting

Grote Taalmodellen (LLM's) hebben aanzienlijke vooruitgang geboekt op het gebied van tekstgeneratie en -begrip, waarbij recente ontwikkelingen zich uitstrekken tot multimodale LLM's die visuele en auditieve invoer integreren. Echter, deze modellen blijven worstelen met gedetailleerd, cross-modale temporele begrip, met name bij het correleren van gebeurtenissen over audio- en videostreams heen. We pakken deze uitdagingen aan met twee belangrijke bijdragen: een nieuw dataset en model, respectievelijk OCTAV en OMCAT genoemd. OCTAV (Omni Context en Temporele Audio Video) is een nieuw dataset ontworpen om gebeurtenisovergangen over audio en video vast te leggen. Ten tweede is OMCAT (Omni Context Bewuste Transformer) een krachtig model dat gebruikmaakt van RoTE (Rotary Time Embeddings), een innovatieve uitbreiding van RoPE, om temporele verankering en computationele efficiëntie te verbeteren in tijd-gerelateerde taken. Door middel van een robuuste drie-fasen trainingspipeline - kenmerkalignering, instructieafstemming en OCTAV-specifieke training - blinkt OMCAT uit in cross-modale temporele begrip. Ons model toont state-of-the-art prestaties op Audio-Visuele Vraag Antwoord (AVQA) taken en de OCTAV benchmark, waarbij significante winsten in temporeel redeneren en cross-modale afstemming worden aangetoond, zoals bevestigd door uitgebreide experimenten en ablatie studies. Onze dataset en code zullen openbaar beschikbaar worden gesteld. De link naar onze demopagina is https://om-cat.github.io.
English
Large Language Models (LLMs) have made significant strides in text generation and comprehension, with recent advancements extending into multimodal LLMs that integrate visual and audio inputs. However, these models continue to struggle with fine-grained, cross-modal temporal understanding, particularly when correlating events across audio and video streams. We address these challenges with two key contributions: a new dataset and model, called OCTAV and OMCAT respectively. OCTAV (Omni Context and Temporal Audio Video) is a novel dataset designed to capture event transitions across audio and video. Second, OMCAT (Omni Context Aware Transformer) is a powerful model that leverages RoTE (Rotary Time Embeddings), an innovative extension of RoPE, to enhance temporal grounding and computational efficiency in time-anchored tasks. Through a robust three-stage training pipeline-feature alignment, instruction tuning, and OCTAV-specific training-OMCAT excels in cross-modal temporal understanding. Our model demonstrates state-of-the-art performance on Audio-Visual Question Answering (AVQA) tasks and the OCTAV benchmark, showcasing significant gains in temporal reasoning and cross-modal alignment, as validated through comprehensive experiments and ablation studies. Our dataset and code will be made publicly available. The link to our demo page is https://om-cat.github.io.

Summary

AI-Generated Summary

PDF42November 16, 2024