Text-zu-Bild-Generierung mit Regionsbewusstsein durch harte Bindung und weiche Verfeinerung
Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement
November 10, 2024
Autoren: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI
Zusammenfassung
In diesem Paper präsentieren wir RAG, eine Regional-Aware Text-zu-Bild Generierungsmethode, die auf regionalen Beschreibungen für präzise Layoutkomposition basiert. Regionales Anstoßen oder kompositionale Generierung, das feinkörnige räumliche Steuerung ermöglicht, hat aufgrund seiner Praktikabilität in realen Anwendungen zunehmend an Bedeutung gewonnen. Bisherige Methoden führten jedoch entweder zusätzliche trainierbare Module ein, die nur auf spezifische Modelle anwendbar sind, oder manipulierten Score-Maps innerhalb von Cross-Attention-Schichten mithilfe von Aufmerksamkeitsmasken, was zu begrenzter Steuerungsstärke bei zunehmender Anzahl von Regionen führte. Um diese Einschränkungen zu bewältigen, zerlegen wir die Multi-Region-Generierung in zwei Teilaufgaben, die Konstruktion einzelner Regionen (Regional Hard Binding), die sicherstellt, dass der regionale Anstoß ordnungsgemäß ausgeführt wird, und die Gesamtdetailverfeinerung (Regional Soft Refinement) über Regionen, die die visuellen Grenzen aufheben und benachbarte Interaktionen verbessern. Darüber hinaus ermöglicht RAG neuartiges Repainting, bei dem Benutzer spezifische unzufriedene Regionen in der letzten Generierung ändern können, während alle anderen Regionen unverändert bleiben, ohne auf zusätzliche Inpainting-Modelle angewiesen zu sein. Unser Ansatz ist abstimmungsfrei und als Verbesserung der dem Anstoß folgenden Eigenschaft auf andere Frameworks anwendbar. Quantitative und qualitative Experimente zeigen, dass RAG eine überlegene Leistung bei Attributbindung und Objektbeziehung im Vergleich zu früheren abstimmungsfreien Methoden erzielt.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation
method conditioned on regional descriptions for precise layout composition.
Regional prompting, or compositional generation, which enables fine-grained
spatial control, has gained increasing attention for its practicality in
real-world applications. However, previous methods either introduce additional
trainable modules, thus only applicable to specific models, or manipulate on
score maps within cross-attention layers using attention masks, resulting in
limited control strength when the number of regions increases. To handle these
limitations, we decouple the multi-region generation into two sub-tasks, the
construction of individual region (Regional Hard Binding) that ensures the
regional prompt is properly executed, and the overall detail refinement
(Regional Soft Refinement) over regions that dismiss the visual boundaries and
enhance adjacent interactions. Furthermore, RAG novelly makes repainting
feasible, where users can modify specific unsatisfied regions in the last
generation while keeping all other regions unchanged, without relying on
additional inpainting models. Our approach is tuning-free and applicable to
other frameworks as an enhancement to the prompt following property.
Quantitative and qualitative experiments demonstrate that RAG achieves superior
performance over attribute binding and object relationship than previous
tuning-free methods.Summary
AI-Generated Summary