Génération de texte en image sensible à la région via liaison rigide et affinement doux
Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement
November 10, 2024
Auteurs: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI
Résumé
Dans cet article, nous présentons RAG, une méthode de génération de texte en image sensible à la région, conditionnée par des descriptions régionales pour une composition de mise en page précise. La sollicitation régionale, ou génération compositionnelle, qui permet un contrôle spatial détaillé, a suscité un intérêt croissant pour sa praticité dans les applications du monde réel. Cependant, les méthodes précédentes introduisent soit des modules entraînables supplémentaires, donc uniquement applicables à des modèles spécifiques, soit manipulent des cartes de scores au sein des couches d'attention croisée en utilisant des masques d'attention, ce qui entraîne une force de contrôle limitée lorsque le nombre de régions augmente. Pour surmonter ces limitations, nous divisons la génération multi-régions en deux sous-tâches, la construction de la région individuelle (Liaison Dure Régionale) qui garantit que la sollicitation régionale est correctement exécutée, et le raffinement global des détails (Affinement Doux Régional) sur les régions qui ignorent les frontières visuelles et améliorent les interactions adjacentes. De plus, RAG rend possible la retouche, où les utilisateurs peuvent modifier des régions spécifiques insatisfaites dans la dernière génération tout en laissant toutes les autres régions inchangées, sans recourir à des modèles d'inpainting supplémentaires. Notre approche est sans réglage et applicable à d'autres cadres comme une amélioration de la propriété suivant la sollicitation. Des expériences quantitatives et qualitatives démontrent que RAG atteint des performances supérieures en termes de liaison d'attributs et de relations d'objets par rapport aux méthodes sans réglage précédentes.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation
method conditioned on regional descriptions for precise layout composition.
Regional prompting, or compositional generation, which enables fine-grained
spatial control, has gained increasing attention for its practicality in
real-world applications. However, previous methods either introduce additional
trainable modules, thus only applicable to specific models, or manipulate on
score maps within cross-attention layers using attention masks, resulting in
limited control strength when the number of regions increases. To handle these
limitations, we decouple the multi-region generation into two sub-tasks, the
construction of individual region (Regional Hard Binding) that ensures the
regional prompt is properly executed, and the overall detail refinement
(Regional Soft Refinement) over regions that dismiss the visual boundaries and
enhance adjacent interactions. Furthermore, RAG novelly makes repainting
feasible, where users can modify specific unsatisfied regions in the last
generation while keeping all other regions unchanged, without relying on
additional inpainting models. Our approach is tuning-free and applicable to
other frameworks as an enhancement to the prompt following property.
Quantitative and qualitative experiments demonstrate that RAG achieves superior
performance over attribute binding and object relationship than previous
tuning-free methods.Summary
AI-Generated Summary