Edicho: 야생에서 일관된 이미지 편집
Edicho: Consistent Image Editing in the Wild
December 30, 2024
저자: Qingyan Bai, Hao Ouyang, Yinghao Xu, Qiuyu Wang, Ceyuan Yang, Ka Leong Cheng, Yujun Shen, Qifeng Chen
cs.AI
초록
검증된 필요성으로, 야외 이미지들 사이의 일관된 편집은 객체 자세, 조명 조건, 그리고 촬영 환경과 같은 다양한 관리할 수 없는 요소에서 발생하는 기술적인 어려움으로 남아 있습니다. Edicho는 확산 모델을 기반으로 한 훈련 없는 솔루션으로 이 어려움에 대처합니다. 이 솔루션은 명시적 이미지 대응을 사용하여 편집을 지시하는 기본적인 설계 원칙을 갖추고 있습니다. 구체적으로, 주요 구성 요소는 주의 조작 모듈과 정교하게 개선된 분류기 없는 가이드 (CFG) 소음 제거 전략을 포함하며, 두 가지 모두 사전 추정된 대응을 고려합니다. 이러한 추론 시간 알고리즘은 플러그 앤 플레이 특성을 갖추며, ControlNet 및 BrushNet과 같은 대부분의 확산 기반 편집 방법과 호환됩니다. 광범위한 결과는 Edicho의 다양한 설정에서의 일관된 이미지 간 편집의 효과를 입증합니다. 우리는 미래 연구를 용이하게 하기 위해 코드를 공개할 예정입니다.
English
As a verified need, consistent editing across in-the-wild images remains a
technical challenge arising from various unmanageable factors, like object
poses, lighting conditions, and photography environments. Edicho steps in with
a training-free solution based on diffusion models, featuring a fundamental
design principle of using explicit image correspondence to direct editing.
Specifically, the key components include an attention manipulation module and a
carefully refined classifier-free guidance (CFG) denoising strategy, both of
which take into account the pre-estimated correspondence. Such an
inference-time algorithm enjoys a plug-and-play nature and is compatible to
most diffusion-based editing methods, such as ControlNet and BrushNet.
Extensive results demonstrate the efficacy of Edicho in consistent cross-image
editing under diverse settings. We will release the code to facilitate future
studies.Summary
AI-Generated Summary