ChatPaper.aiChatPaper

Überbrückung kontinuierlicher und diskreter Tokens für autoregressive visuelle Generierung

Bridging Continuous and Discrete Tokens for Autoregressive Visual Generation

March 20, 2025
Autoren: Yuqing Wang, Zhijie Lin, Yao Teng, Yuanzhi Zhu, Shuhuai Ren, Jiashi Feng, Xihui Liu
cs.AI

Zusammenfassung

Autoregressive Modelle zur visuellen Generierung verwenden typischerweise Tokenizer, um Bilder in Token zu komprimieren, die sequenziell vorhergesagt werden können. Ein grundlegendes Dilemma besteht in der Token-Repräsentation: Diskrete Token ermöglichen eine einfache Modellierung mit dem Standard-Cross-Entropy-Verlust, leiden jedoch unter Informationsverlust und Instabilität beim Training des Tokenizers; kontinuierliche Token bewahren visuelle Details besser, erfordern jedoch eine komplexe Verteilungsmodellierung, was den Generierungsprozess verkompliziert. In diesem Artikel schlagen wir TokenBridge vor, das diese Lücke schließt, indem es die starke Repräsentationsfähigkeit kontinuierlicher Token beibehält und gleichzeitig die Modellierungseinheit diskreter Token bewahrt. Um dies zu erreichen, entkoppeln wir die Diskretisierung vom Tokenizer-Trainingsprozess durch eine Post-Training-Quantisierung, die direkt diskrete Token aus kontinuierlichen Repräsentationen gewinnt. Insbesondere führen wir eine dimensionsweise Quantisierungsstrategie ein, die jede Merkmalsdimension unabhängig diskretisiert, gepaart mit einem leichten autoregressiven Vorhersagemechanismus, der den daraus resultierenden großen Tokenraum effizient modelliert. Umfangreiche Experimente zeigen, dass unser Ansatz eine Rekonstruktions- und Generierungsqualität erreicht, die mit kontinuierlichen Methoden vergleichbar ist, während er eine standardmäßige kategorische Vorhersage verwendet. Diese Arbeit zeigt, dass die Überbrückung diskreter und kontinuierlicher Paradigmen die Stärken beider Ansätze effektiv nutzen kann und eine vielversprechende Richtung für hochwertige visuelle Generierung mit einfacher autoregressiver Modellierung bietet. Projektseite: https://yuqingwang1029.github.io/TokenBridge.
English
Autoregressive visual generation models typically rely on tokenizers to compress images into tokens that can be predicted sequentially. A fundamental dilemma exists in token representation: discrete tokens enable straightforward modeling with standard cross-entropy loss, but suffer from information loss and tokenizer training instability; continuous tokens better preserve visual details, but require complex distribution modeling, complicating the generation pipeline. In this paper, we propose TokenBridge, which bridges this gap by maintaining the strong representation capacity of continuous tokens while preserving the modeling simplicity of discrete tokens. To achieve this, we decouple discretization from the tokenizer training process through post-training quantization that directly obtains discrete tokens from continuous representations. Specifically, we introduce a dimension-wise quantization strategy that independently discretizes each feature dimension, paired with a lightweight autoregressive prediction mechanism that efficiently model the resulting large token space. Extensive experiments show that our approach achieves reconstruction and generation quality on par with continuous methods while using standard categorical prediction. This work demonstrates that bridging discrete and continuous paradigms can effectively harness the strengths of both approaches, providing a promising direction for high-quality visual generation with simple autoregressive modeling. Project page: https://yuqingwang1029.github.io/TokenBridge.

Summary

AI-Generated Summary

PDF344March 24, 2025