ProtoGCD: Apprendimento Unificato e Imparziale di Prototipi per la Scoperta Generalizzata di Categorie
ProtoGCD: Unified and Unbiased Prototype Learning for Generalized Category Discovery
April 2, 2025
Autori: Shijie Ma, Fei Zhu, Xu-Yao Zhang, Cheng-Lin Liu
cs.AI
Abstract
La scoperta generalizzata di categorie (GCD) è un problema pragmatico ma poco esplorato, che richiede ai modelli di raggruppare automaticamente e scoprire nuove categorie sfruttando i campioni etichettati delle classi note. La sfida risiede nel fatto che i dati non etichettati contengono sia classi note che nuove. I primi approcci che utilizzano pseudo-etichettatura con classificatori parametrici gestiscono separatamente le classi note e nuove, portando a una precisione sbilanciata tra di esse. I metodi recenti che impiegano l'apprendimento contrastivo trascurano potenziali positivi e sono disaccoppiati dall'obiettivo di clustering, risultando in rappresentazioni distorte e risultati sub-ottimali. Per affrontare questi problemi, introduciamo un framework unificato e imparziale di apprendimento prototipico, denominato ProtoGCD, in cui le classi note e nuove sono modellate con prototipi congiunti e obiettivi di apprendimento unificati, {consentendo una modellazione unificata tra classi note e nuove}. Nello specifico, proponiamo un meccanismo di pseudo-etichettatura adattivo a doppio livello per mitigare il bias di conferma, insieme a due termini di regolarizzazione che aiutano collettivamente a apprendere rappresentazioni più adatte per la GCD. Inoltre, per considerazioni pratiche, elaboriamo un criterio per stimare il numero di nuove classi. Estendiamo inoltre ProtoGCD per rilevare outlier non visti, raggiungendo un'unificazione a livello di task. Esperimenti completi dimostrano che ProtoGCD raggiunge prestazioni all'avanguardia sia su dataset generici che su dataset fine-grained. Il codice è disponibile all'indirizzo https://github.com/mashijie1028/ProtoGCD.
English
Generalized category discovery (GCD) is a pragmatic but underexplored
problem, which requires models to automatically cluster and discover novel
categories by leveraging the labeled samples from old classes. The challenge is
that unlabeled data contain both old and new classes. Early works leveraging
pseudo-labeling with parametric classifiers handle old and new classes
separately, which brings about imbalanced accuracy between them. Recent methods
employing contrastive learning neglect potential positives and are decoupled
from the clustering objective, leading to biased representations and
sub-optimal results. To address these issues, we introduce a unified and
unbiased prototype learning framework, namely ProtoGCD, wherein old and new
classes are modeled with joint prototypes and unified learning objectives,
{enabling unified modeling between old and new classes}. Specifically, we
propose a dual-level adaptive pseudo-labeling mechanism to mitigate
confirmation bias, together with two regularization terms to collectively help
learn more suitable representations for GCD. Moreover, for practical
considerations, we devise a criterion to estimate the number of new classes.
Furthermore, we extend ProtoGCD to detect unseen outliers, achieving task-level
unification. Comprehensive experiments show that ProtoGCD achieves
state-of-the-art performance on both generic and fine-grained datasets. The
code is available at https://github.com/mashijie1028/ProtoGCD.Summary
AI-Generated Summary