본 글에서는 클래스 불균형 문제에 대한 대표적 해결책 중 하나인 Logit Adjusted Cross Entropy를 중심으로, 이론적 배경과 직관적 관점에서의 확장 가능성을 분석해 보겠습니다. 핵심 문제 인식 클래스 불균형 문제에서 일반적으로 사용되는 Cross Entropy Loss (CE)는 대부분 majority class의 정확도를 높이는 방향으로 최적화되며, 그 과정에서 minority class의 오차가 희생되는 구조를 갖습니다.이를 보완하기 위한 기존 방법들은 주로 클래스별 샘플 수 기반의 post-hoc logit 보정 또는 loss weight 조정을 통해 불균형을 완화하려 시도해 왔습니다. ::Post-hoc weight 보정의 예::- 마지막 레이어의 weight vector에 대해..
🖥️ Computer Vision/📰 Paper
2025. 7. 16. 00:07
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- tensorflow
- GradientScaling
- DeepLearning
- code
- 논문리뷰
- logitadjustment
- imbalanceddata
- CriticV
- AdamOptimizer
- Example
- 딥러닝
- separable
- depthwise
- ScientificReports
- 다중세밀도
- Optimizer
- eigenvector
- PCA
- vlm
- 경량화 모델
- Focal loss
- 선형대수
- convolution
- classimbalance
- LossFunction
- 특징융합
- MGFA
- fisherconsistency
- MobileNet
- GradientDescent
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
글 보관함
반응형