Generazione di testo-immagine consapevole della regione tramite associazione rigida e raffinamento morbido
Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement
November 10, 2024
Autori: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI
Abstract
In questo articolo, presentiamo RAG, un metodo di Generazione testo-immagine consapevole della regione condizionato a descrizioni regionali per una precisa composizione del layout. L'incoraggiamento regionale, o generazione compositiva, che consente un controllo spaziale dettagliato, ha attirato sempre più attenzione per la sua praticità nelle applicazioni del mondo reale. Tuttavia, i metodi precedenti introducono moduli addestrabili aggiuntivi, rendendoli quindi applicabili solo a modelli specifici, o manipolano mappe di punteggio all'interno di strati di cross-attention utilizzando maschere di attenzione, con conseguente limitata forza di controllo quando il numero di regioni aumenta. Per gestire queste limitazioni, suddividiamo la generazione multi-regione in due sotto-task, la costruzione della regione individuale (Vincolo Rigido Regionale) che garantisce che l'incoraggiamento regionale venga eseguito correttamente, e il raffinamento complessivo dei dettagli (Raffinamento Morbido Regionale) sulle regioni che ignorano i confini visivi e potenziano le interazioni adiacenti. Inoltre, RAG rende innovativamente possibile il ridipingere, dove gli utenti possono modificare regioni specifiche insoddisfatte nell'ultima generazione mantenendo invariate tutte le altre regioni, senza dover fare affidamento su modelli di inpainting aggiuntivi. Il nostro approccio è privo di sintonizzazione e applicabile ad altri framework come un potenziamento della proprietà di seguire l'incoraggiamento. Esperimenti quantitativi e qualitativi dimostrano che RAG raggiunge prestazioni superiori rispetto al vincolo degli attributi e al rapporto tra gli oggetti rispetto ai metodi precedenti privi di sintonizzazione.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation
method conditioned on regional descriptions for precise layout composition.
Regional prompting, or compositional generation, which enables fine-grained
spatial control, has gained increasing attention for its practicality in
real-world applications. However, previous methods either introduce additional
trainable modules, thus only applicable to specific models, or manipulate on
score maps within cross-attention layers using attention masks, resulting in
limited control strength when the number of regions increases. To handle these
limitations, we decouple the multi-region generation into two sub-tasks, the
construction of individual region (Regional Hard Binding) that ensures the
regional prompt is properly executed, and the overall detail refinement
(Regional Soft Refinement) over regions that dismiss the visual boundaries and
enhance adjacent interactions. Furthermore, RAG novelly makes repainting
feasible, where users can modify specific unsatisfied regions in the last
generation while keeping all other regions unchanged, without relying on
additional inpainting models. Our approach is tuning-free and applicable to
other frameworks as an enhancement to the prompt following property.
Quantitative and qualitative experiments demonstrate that RAG achieves superior
performance over attribute binding and object relationship than previous
tuning-free methods.Summary
AI-Generated Summary