ChatPaper.aiChatPaper

GCC: Генеративная цветовая постоянство через диффузию цветовой шкалы.

GCC: Generative Color Constancy via Diffusing a Color Checker

February 24, 2025
Авторы: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI

Аннотация

Методы постоянства цвета часто испытывают трудности с обобщением на различные камерные сенсоры из-за изменяющейся спектральной чувствительности. Мы представляем GCC, который использует модели диффузии для восстановления цветовых шахматных досок на изображениях для оценки освещения. Наши ключевые инновации включают (1) одношаговый детерминированный подход к восстановлению цветовых шахматных досок, отражающих освещение сцены, (2) технику лапласианского разложения, сохраняющую структуру доски, позволяя адаптацию цвета в зависимости от освещения, и (3) стратегию аугментации данных на основе маски для обработки неточных аннотаций цветовых шахматных досок. GCC демонстрирует превосходную устойчивость в сценариях между камерами, достигая уровня ошибок в худшем 25% на уровне 5.15° и 4.32° в двусторонних оценках. Эти результаты подчеркивают стабильность и способность к обобщению нашего метода на различные характеристики камер без необходимости специального обучения для каждого сенсора, делая его универсальным решением для прикладных задач в реальном мире.
English
Color constancy methods often struggle to generalize across different camera sensors due to varying spectral sensitivities. We present GCC, which leverages diffusion models to inpaint color checkers into images for illumination estimation. Our key innovations include (1) a single-step deterministic inference approach that inpaints color checkers reflecting scene illumination, (2) a Laplacian decomposition technique that preserves checker structure while allowing illumination-dependent color adaptation, and (3) a mask-based data augmentation strategy for handling imprecise color checker annotations. GCC demonstrates superior robustness in cross-camera scenarios, achieving state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in bi-directional evaluations. These results highlight our method's stability and generalization capability across different camera characteristics without requiring sensor-specific training, making it a versatile solution for real-world applications.

Summary

AI-Generated Summary

PDF272February 25, 2025