ChatPaper.aiChatPaper

LayerTracer: 확산을 통한 인지-맞춤형 계층 SVG 합성 Transformer

LayerTracer: Cognitive-Aligned Layered SVG Synthesis via Diffusion Transformer

February 3, 2025
저자: Yiren Song, Danze Chen, Mike Zheng Shou
cs.AI

초록

인지에 맞는 층으로 구성된 SVG를 생성하는 것은 기존 방법들이 과도하게 단일 층으로 간소화된 결과물이나 최적화로 인한 모양의 중복으로 이어지는 경향으로 인해 여전히 어려운 문제입니다. LayerTracer라는 확산 트랜스포머 기반 프레임워크를 제안하여 이 간극을 메우고자 합니다. 이 프레임워크는 디자이너들의 층으로 구성된 SVG 생성 과정을 학습하기 위한 새로운 순차적 디자인 작업 데이터셋으로부터 학습합니다. 우리의 방법은 두 단계로 작동합니다. 먼저, 텍스트 조건화된 DiT가 인간의 디자인 작업 흐름을 모방하는 다상 구성 청사진을 생성합니다. 그 다음, 층별 벡터화와 경로 중복 제거를 통해 깨끗하고 편집 가능한 SVG를 생성합니다. 이미지 벡터화를 위해 우리는 참조 이미지를 잠재 토큰으로 인코딩하는 조건부 확산 메커니즘을 소개하여 계층적 재구성을 안내하면서 구조적 무결성을 보존합니다. 광범위한 실험을 통해 LayerTracer가 생성 품질과 편집 가능성 측면에서 최적화 기반 및 신경망 기반 기준에 비해 우수한 성능을 보여주며, AI가 생성한 벡터를 전문적인 디자인 인지와 효과적으로 일치시키는 것을 입증하였습니다.
English
Generating cognitive-aligned layered SVGs remains challenging due to existing methods' tendencies toward either oversimplified single-layer outputs or optimization-induced shape redundancies. We propose LayerTracer, a diffusion transformer based framework that bridges this gap by learning designers' layered SVG creation processes from a novel dataset of sequential design operations. Our approach operates in two phases: First, a text-conditioned DiT generates multi-phase rasterized construction blueprints that simulate human design workflows. Second, layer-wise vectorization with path deduplication produces clean, editable SVGs. For image vectorization, we introduce a conditional diffusion mechanism that encodes reference images into latent tokens, guiding hierarchical reconstruction while preserving structural integrity. Extensive experiments demonstrate LayerTracer's superior performance against optimization-based and neural baselines in both generation quality and editability, effectively aligning AI-generated vectors with professional design cognition.

Summary

AI-Generated Summary

PDF183February 6, 2025