GCC: Генеративная цветовая постоянство через диффузию цветовой шкалы.
GCC: Generative Color Constancy via Diffusing a Color Checker
February 24, 2025
Авторы: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI
Аннотация
Методы постоянства цвета часто испытывают трудности с обобщением на различные камерные сенсоры из-за изменяющейся спектральной чувствительности. Мы представляем GCC, который использует модели диффузии для восстановления цветовых шахматных досок на изображениях для оценки освещения. Наши ключевые инновации включают (1) одношаговый детерминированный подход к восстановлению цветовых шахматных досок, отражающих освещение сцены, (2) технику лапласианского разложения, сохраняющую структуру доски, позволяя адаптацию цвета в зависимости от освещения, и (3) стратегию аугментации данных на основе маски для обработки неточных аннотаций цветовых шахматных досок. GCC демонстрирует превосходную устойчивость в сценариях между камерами, достигая уровня ошибок в худшем 25% на уровне 5.15° и 4.32° в двусторонних оценках. Эти результаты подчеркивают стабильность и способность к обобщению нашего метода на различные характеристики камер без необходимости специального обучения для каждого сенсора, делая его универсальным решением для прикладных задач в реальном мире.
English
Color constancy methods often struggle to generalize across different camera
sensors due to varying spectral sensitivities. We present GCC, which leverages
diffusion models to inpaint color checkers into images for illumination
estimation. Our key innovations include (1) a single-step deterministic
inference approach that inpaints color checkers reflecting scene illumination,
(2) a Laplacian decomposition technique that preserves checker structure while
allowing illumination-dependent color adaptation, and (3) a mask-based data
augmentation strategy for handling imprecise color checker annotations. GCC
demonstrates superior robustness in cross-camera scenarios, achieving
state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in
bi-directional evaluations. These results highlight our method's stability and
generalization capability across different camera characteristics without
requiring sensor-specific training, making it a versatile solution for
real-world applications.Summary
AI-Generated Summary