SAM2Long: Verbesserung von SAM 2 für die Segmentierung langer Videos mit einem Training-freien Memory Tree

SAM2Long: Enhancing SAM 2 for Long Video Segmentation with a Training-Free Memory Tree

October 21, 2024
Autoren: Shuangrui Ding, Rui Qian, Xiaoyi Dong, Pan Zhang, Yuhang Zang, Yuhang Cao, Yuwei Guo, Dahua Lin, Jiaqi Wang
cs.AI

Zusammenfassung

Das Segment Anything Model 2 (SAM 2) hat sich als leistungsstarkes Grundlagenmodell für die Objektsegmentierung in Bildern und Videos etabliert und ebnet den Weg für verschiedene nachgelagerte Videoanwendungen. Das entscheidende Design von SAM 2 für die Videosegmentierung ist sein Speichermodul, das objektbewusste Erinnerungen aus vorherigen Frames für die Vorhersage des aktuellen Frames anregt. Allerdings leidet sein gieriges Auswahl-Speicherdesign unter dem "Fehlerakkumulations"-Problem, bei dem eine fehlerhafte oder verpasste Maske kaskadenartig wirkt und die Segmentierung der nachfolgenden Frames beeinflusst, was die Leistung von SAM 2 bei komplexen Langzeitvideos einschränkt. Zu diesem Zweck stellen wir SAM2Long vor, eine verbesserte, trainingsfreie Strategie für die Videoobjektsegmentierung, die die Segmentierungsunsicherheit innerhalb jedes Frames berücksichtigt und die videoebenen optimalen Ergebnisse aus mehreren Segmentierungspfaden auf eine eingeschränkte Baum-Suchweise auswählt. In der Praxis halten wir eine feste Anzahl von Segmentierungspfaden während des gesamten Videos aufrecht. Für jedes Frame werden basierend auf den vorhandenen Pfaden mehrere Masken vorgeschlagen, die verschiedene Kandidatenzweige erzeugen. Anschließend wählen wir dieselbe feste Anzahl von Zweigen mit höheren kumulativen Punktzahlen als neue Pfade für das nächste Frame aus. Nach der Verarbeitung des letzten Frames wird der Pfad mit der höchsten kumulativen Punktzahl als endgültiges Segmentierungsergebnis ausgewählt. Dank seines heuristischen Suchdesigns ist SAM2Long robust gegenüber Verdeckungen und dem erneuten Erscheinen von Objekten und kann Objekte in komplexen Langzeitvideos effektiv segmentieren und verfolgen. Bemerkenswerterweise erzielt SAM2Long eine durchschnittliche Verbesserung von 3,0 Punkten bei allen 24 direkten Vergleichen, mit Zuwächsen von bis zu 5,3 Punkten in J&F bei Langzeitvideosegmentierungsbenchmarks wie SA-V und LVOS. Der Code ist unter https://github.com/Mark12Ding/SAM2Long verfügbar.
English
The Segment Anything Model 2 (SAM 2) has emerged as a powerful foundation model for object segmentation in both images and videos, paving the way for various downstream video applications. The crucial design of SAM 2 for video segmentation is its memory module, which prompts object-aware memories from previous frames for current frame prediction. However, its greedy-selection memory design suffers from the "error accumulation" problem, where an errored or missed mask will cascade and influence the segmentation of the subsequent frames, which limits the performance of SAM 2 toward complex long-term videos. To this end, we introduce SAM2Long, an improved training-free video object segmentation strategy, which considers the segmentation uncertainty within each frame and chooses the video-level optimal results from multiple segmentation pathways in a constrained tree search manner. In practice, we maintain a fixed number of segmentation pathways throughout the video. For each frame, multiple masks are proposed based on the existing pathways, creating various candidate branches. We then select the same fixed number of branches with higher cumulative scores as the new pathways for the next frame. After processing the final frame, the pathway with the highest cumulative score is chosen as the final segmentation result. Benefiting from its heuristic search design, SAM2Long is robust toward occlusions and object reappearances, and can effectively segment and track objects for complex long-term videos. Notably, SAM2Long achieves an average improvement of 3.0 points across all 24 head-to-head comparisons, with gains of up to 5.3 points in J&F on long-term video object segmentation benchmarks such as SA-V and LVOS. The code is released at https://github.com/Mark12Ding/SAM2Long.

Summary

AI-Generated Summary

PDF652November 16, 2024