ChatPaper.aiChatPaper

Улучшение представления для несбалансированной регрессии с помощью геометрических ограничений

Improve Representation for Imbalanced Regression through Geometric Constraints

March 2, 2025
Авторы: Zijian Dong, Yilei Wu, Chongyao Chen, Yingtian Zou, Yichi Zhang, Juan Helen Zhou
cs.AI

Аннотация

В обучении представлений равномерность (uniformity) относится к равномерному распределению признаков в латентном пространстве (например, на единичной гиперсфере). Предыдущие исследования показали, что улучшение равномерности способствует обучению недостаточно представленных классов. Однако большинство предыдущих работ было сосредоточено на задачах классификации; пространство представлений для несбалансированной регрессии остаётся малоизученным. Методы, основанные на классификации, не подходят для задач регрессии, поскольку они группируют признаки в отдельные кластеры, не учитывая непрерывную и упорядоченную природу, важную для регрессии. С геометрической точки зрения мы сосредоточились на обеспечении равномерности в латентном пространстве для несбалансированной регрессии с помощью двух ключевых функций потерь: охватывающей (enveloping) и однородности (homogeneity). Охватывающая функция потерь способствует равномерному распределению индуцированного следа на поверхности гиперсферы, в то время как функция потерь однородности обеспечивает гладкость, с равномерно распределёнными представлениями на постоянных интервалах. Наш метод интегрирует эти геометрические принципы в представления данных с помощью фреймворка Surrogate-driven Representation Learning (SRL). Эксперименты с реальными задачами регрессии и обучения операторов подчеркивают важность равномерности в несбалансированной регрессии и подтверждают эффективность наших геометрически обоснованных функций потерь.
English
In representation learning, uniformity refers to the uniform feature distribution in the latent space (i.e., unit hypersphere). Previous work has shown that improving uniformity contributes to the learning of under-represented classes. However, most of the previous work focused on classification; the representation space of imbalanced regression remains unexplored. Classification-based methods are not suitable for regression tasks because they cluster features into distinct groups without considering the continuous and ordered nature essential for regression. In a geometric aspect, we uniquely focus on ensuring uniformity in the latent space for imbalanced regression through two key losses: enveloping and homogeneity. The enveloping loss encourages the induced trace to uniformly occupy the surface of a hypersphere, while the homogeneity loss ensures smoothness, with representations evenly spaced at consistent intervals. Our method integrates these geometric principles into the data representations via a Surrogate-driven Representation Learning (SRL) framework. Experiments with real-world regression and operator learning tasks highlight the importance of uniformity in imbalanced regression and validate the efficacy of our geometry-based loss functions.

Summary

AI-Generated Summary

PDF62March 5, 2025