
왜 손실 함수의 Fisher Consistency를 따지는가?손실 함수는 모델이 어떤 방향으로 학습할지를 결정짓는 나침반과 같습니다.하지만 이 나침반이 올바른 방향을 가리키고 있는지 우리는 어떻게 알 수 있을까.바로 이 질문에 답하는 개념이 바로 Fisher Consistency입니다.Fisher consistency는 손실 함수가 이론적으로 정답 방향으로 학습을 유도하는가를 판단하는 기준입니다.구체적으로 데이터가 무한히 주어져 실제 조건부 확률 분포(p(y|x))를 정확히 알 수 있다고 가정할 때, 그 확률 분포 하에서 손실 함수의 기대값을 최소화하는 예측 함수 f가 Bayes 최적 분류기와 동일한 출력을 낸다면, 우리는 그 손실 함수를 Fisher consistent하다고 부릅니다.왜 중요할까?현실에..
🖥️ Computer Vision/📰 Paper
2025. 7. 13. 14:57
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- computervisionresearch
- convolution
- focalloss
- depthwise
- Focal loss
- LossFunction
- longtaildistribution
- separable
- tensorflow
- machinelearningtheory
- classimbalance
- 딥러닝불균형데이터
- Example
- MobileNet
- dataaugmentation
- DeepLearning
- code
- imbalanceddata
- longtaillearning
- bayesclassifier
- 이론적안정성
- 경량화 모델
- deeplearningtheory
- classificationloss
- pairwisemargin
- deeplearningbasics
- logitadjustment
- fisherconsistency
- machinelearningtips
- effectivenumberofsamples
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
글 보관함