Modelli di Spazio degli Stati per il Rilevamento dei Cambiamenti nel Telerilevamento
Change State Space Models for Remote Sensing Change Detection
April 15, 2025
Autori: Elman Ghazaei, Erchan Aptoula
cs.AI
Abstract
Nonostante il loro frequente utilizzo per il rilevamento dei cambiamenti, sia le ConvNets che i Vision Transformer (ViT) presentano limitazioni ben note: le prime faticano a modellare dipendenze a lungo raggio, mentre i secondi sono computazionalmente inefficienti, rendendoli difficili da addestrare su dataset su larga scala. Vision Mamba, un'architettura basata su modelli di spazio degli stati, è emersa come alternativa per affrontare le suddette carenze ed è già stata applicata al rilevamento dei cambiamenti nel telerilevamento, sebbene principalmente come backbone per l'estrazione di feature. In questo articolo viene introdotto il Change State Space Model, progettato specificamente per il rilevamento dei cambiamenti concentrandosi sulle modifiche rilevanti tra immagini bi-temporali, filtrando efficacemente le informazioni irrilevanti. Concentrandosi esclusivamente sulle feature modificate, il numero di parametri della rete viene ridotto, migliorando significativamente l'efficienza computazionale mantenendo un'elevata performance di rilevamento e robustezza contro il degrado dell'input. Il modello proposto è stato valutato su tre dataset di benchmark, dove ha superato ConvNets, ViT e controparti basate su Mamba con una frazione della loro complessità computazionale. L'implementazione sarà resa disponibile su https://github.com/Elman295/CSSM in caso di accettazione.
English
Despite their frequent use for change detection, both ConvNets and Vision
transformers (ViT) exhibit well-known limitations, namely the former struggle
to model long-range dependencies while the latter are computationally
inefficient, rendering them challenging to train on large-scale datasets.
Vision Mamba, an architecture based on State Space Models has emerged as an
alternative addressing the aforementioned deficiencies and has been already
applied to remote sensing change detection, though mostly as a feature
extracting backbone. In this article the Change State Space Model is
introduced, that has been specifically designed for change detection by
focusing on the relevant changes between bi-temporal images, effectively
filtering out irrelevant information. By concentrating solely on the changed
features, the number of network parameters is reduced, enhancing significantly
computational efficiency while maintaining high detection performance and
robustness against input degradation. The proposed model has been evaluated via
three benchmark datasets, where it outperformed ConvNets, ViTs, and Mamba-based
counterparts at a fraction of their computational complexity. The
implementation will be made available at https://github.com/Elman295/CSSM upon
acceptance.Summary
AI-Generated Summary