Regio-bewuste tekst-naar-afbeelding generatie via harde binding en zachte verfijning
Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement
November 10, 2024
Auteurs: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI
Samenvatting
In dit artikel presenteren we RAG, een Regionaal-Bewuste tekst-naar-afbeelding Generatiemethode geconditioneerd op regionale beschrijvingen voor precieze lay-outcompositie. Regionale aanmoediging, of compositionele generatie, die fijnmazige ruimtelijke controle mogelijk maakt, heeft steeds meer aandacht gekregen vanwege de praktische toepasbaarheid in real-world toepassingen. Echter, eerdere methoden introduceren ofwel extra trainbare modules, waardoor ze alleen toepasbaar zijn op specifieke modellen, of manipuleren scorekaarten binnen kruis-aandachtslagen met behulp van aandachtsmaskers, wat resulteert in beperkte controlekracht wanneer het aantal regio's toeneemt. Om deze beperkingen aan te pakken, splitsen we de multi-regio generatie op in twee subtaken, de constructie van individuele regio (Regionale Harde Binding) die ervoor zorgt dat de regionale aanmoediging correct wordt uitgevoerd, en de algehele detailverfijning (Regionale Zachte Verfijning) over regio's die de visuele grenzen negeren en naburige interacties verbeteren. Bovendien maakt RAG op een vernieuwende manier herschilderen mogelijk, waarbij gebruikers specifieke ontevreden regio's in de laatste generatie kunnen aanpassen terwijl alle andere regio's ongewijzigd blijven, zonder te vertrouwen op aanvullende inpaintingsmodellen. Onze benadering is afstemmingsvrij en toepasbaar op andere frameworks als een verbetering van de prompt-opvolgingseigenschap. Kwantitatieve en kwalitatieve experimenten tonen aan dat RAG superieure prestaties behaalt op attribuutbinding en objectrelatie dan eerdere afstemmingsvrije methoden.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation
method conditioned on regional descriptions for precise layout composition.
Regional prompting, or compositional generation, which enables fine-grained
spatial control, has gained increasing attention for its practicality in
real-world applications. However, previous methods either introduce additional
trainable modules, thus only applicable to specific models, or manipulate on
score maps within cross-attention layers using attention masks, resulting in
limited control strength when the number of regions increases. To handle these
limitations, we decouple the multi-region generation into two sub-tasks, the
construction of individual region (Regional Hard Binding) that ensures the
regional prompt is properly executed, and the overall detail refinement
(Regional Soft Refinement) over regions that dismiss the visual boundaries and
enhance adjacent interactions. Furthermore, RAG novelly makes repainting
feasible, where users can modify specific unsatisfied regions in the last
generation while keeping all other regions unchanged, without relying on
additional inpainting models. Our approach is tuning-free and applicable to
other frameworks as an enhancement to the prompt following property.
Quantitative and qualitative experiments demonstrate that RAG achieves superior
performance over attribute binding and object relationship than previous
tuning-free methods.Summary
AI-Generated Summary