Processing math: 100%

Long-tail Learning 3

[CVPR 2024] CDMAD: Class-Distribution-Mismatch-Aware Debiasing for Class-Imbalance Semi-Supervised Learning

이 논문은 CVPR 2024에 출판되었으며, 저자는 Hyuck Lee, Heeyoung Kim으로 구성되어 있다. Motivation Pseudo-label 기반의 semi-supervised learning (SSL) 알고리즘을 class-imbalance 세팅에서 사용하는 경우 다음의 두 가지 문제가 발생한다. 1. Classifier가 majority class에 편향되는 경향이 있다. 2. 편향된 classifier로부터 생성된 pseudo-label들이 training에 사용된다. 이 문제를 해결하기 위해서는 classifier를 적절히 re-balance하는 것이 필요하다. 하지만 unlabeled set의 class distribution은 (2) 알 수 없는 경우가 많으며 (2) label..

논문 리뷰 2024.04.13

[ICCV 2023] Subclass-balancing Contrastive Learning for Long-tailed Recognition

이 논문은 ICCV 2023에 출판되었으며, 저자는 Chengkai Hou, Jieyu Zhang , Haonan Wang, Tianyi Zhou로 구성되어 있다. Motivation 기존에는 Long-tail Learning에서 발생하는 모델의 편향성 문제를 해결하기 위해 resampling과 reweighting 기법이 많이 활용되었다. 이러한 기법들은 성능의 향상을 도모했지만 여전히 제한된 minority sample 내에서 supervised loss를 학습하는 것이기 때문에 분명한 한계가 있다. 그래서 최근에는 Supervised Contrastive Learning (SCL) 을 활용하여 모델을 학습하는 연구들이 많이 등장을 하고 있으며, 이러한 연구는 long-tailed recognitio..

논문 리뷰 2024.04.06

[ICLR 2021] Long-tail Learning via Logit Adjustment

이 논문은 ICLR 2021에 출판되었으며, 저자는 Aditya Krishna Menon, Sadeep Jayasumana, Ankit Singh Rawat, Himanshu Jain, Andreas Veit, Sanjiv Kumar 로 구성되어 있다. Motivation 기존 Long-tail Learning에서는 다음의 두 가지 방식으로 문제를 해결하고 있었다. Classification weight의 post-hoc normalization Class별 페널티가 적용된 loss를 통한 학습 위의 두 가지 방식의 문제점을 먼저 살펴보도록 하자. 1. Classification weight의 post-hoc normalization wTyΦ(x)에서 wy는 모델의 마지..

논문 리뷰 2024.03.23