경계 감지 및 부드러운 개선을 통한 지역 인식 텍스트 대 이미지 생성

Region-Aware Text-to-Image Generation via Hard Binding and Soft Refinement

November 10, 2024
저자: Zhennan Chen, Yajie Li, Haofan Wang, Zhibo Chen, Zhengkai Jiang, Jun Li, Qian Wang, Jian Yang, Ying Tai
cs.AI

초록

본 논문에서는 정확한 레이아웃 구성을 위해 지역 설명에 의존하는 지역 인식 텍스트-이미지 생성 방법인 RAG를 제안합니다. 세밀한 공간 제어를 가능하게 하는 지역 프롬프팅 또는 구성 생성은 실제 응용 프로그램에서의 실용성으로 인해 점점 더 주목받고 있습니다. 그러나 이전 방법들은 추가 학습 가능한 모듈을 도입하여 특정 모델에만 적용되거나, 주의 마스크를 사용하여 교차 주의 계층 내에서 점수 맵을 조작함으로써 지역 수가 증가할 때 제어 강도가 제한되는 문제가 있습니다. 이러한 제한 사항을 처리하기 위해 우리는 다중 지역 생성을 지역 하드 바인딩(Regional Hard Binding)과 지역 경계를 무시하고 인접 상호 작용을 강화하는 지역 소프트 세부 조정(Regional Soft Refinement) 두 하위 작업으로 분리합니다. 또한 RAG는 사용자가 추가 inpainting 모델에 의존하지 않고 마지막 생성물에서 특정 불만족스러운 지역을 수정할 수 있는 다시 그리기를 가능하게 합니다. 저희 방법은 튜닝 없이 프롬프트 따르기 속성을 향상시키는 것으로 다른 프레임워크에 적용 가능합니다. 양적 및 질적 실험 결과는 RAG가 이전 튜닝 없는 방법보다 속성 바인딩 및 객체 관계에서 우수한 성능을 달성한다는 것을 입증합니다.
English
In this paper, we present RAG, a Regional-Aware text-to-image Generation method conditioned on regional descriptions for precise layout composition. Regional prompting, or compositional generation, which enables fine-grained spatial control, has gained increasing attention for its practicality in real-world applications. However, previous methods either introduce additional trainable modules, thus only applicable to specific models, or manipulate on score maps within cross-attention layers using attention masks, resulting in limited control strength when the number of regions increases. To handle these limitations, we decouple the multi-region generation into two sub-tasks, the construction of individual region (Regional Hard Binding) that ensures the regional prompt is properly executed, and the overall detail refinement (Regional Soft Refinement) over regions that dismiss the visual boundaries and enhance adjacent interactions. Furthermore, RAG novelly makes repainting feasible, where users can modify specific unsatisfied regions in the last generation while keeping all other regions unchanged, without relying on additional inpainting models. Our approach is tuning-free and applicable to other frameworks as an enhancement to the prompt following property. Quantitative and qualitative experiments demonstrate that RAG achieves superior performance over attribute binding and object relationship than previous tuning-free methods.

Summary

AI-Generated Summary

PDF296November 18, 2024