모델의 크기를 줄이더라도 마지막 Conv는 건드리지 않는 이유(with MobileNet V2)
📌 들어가며MobileNetV2에서는 모델을 경량화할 때 ‘width multiplier’를 사용해 채널 수를 줄입니다.그런데 특이하게도, width multiplier가 1보다 작을 경우 마지막 convolution layer에는 적용하지 않습니다.이 글에서는 왜 마지막 layer만은 줄이지 않는지, 그리고 줄였을 때 어떤 문제가 생기는지 알아보겠습니다.⸻✅ width multiplier란?간단히 말하면 모델 전체 채널 수를 비율로 줄이는 하이퍼파라미터입니다. • 예: ‘width multiplier = 0.5’ → 원래 128채널 → 64채널로 감소 • 이렇게 하면 모델 크기와 연산량이 같이 줄어들게 됩니다.⸻❗ 그런데, 왜 마지막 Conv에는 적용하지 않을까?1. 마지막 Conv는 정보를 가장 많..
카테고리 없음
2025. 6. 6. 13:48
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- MobileNet
- LossFunction
- 이론적안정성
- imbalanceddata
- depthwise
- machinelearningtheory
- pairwisemargin
- computervisionresearch
- deeplearningbasics
- code
- fisherconsistency
- convolution
- classificationloss
- bayesclassifier
- effectivenumberofsamples
- focalloss
- tensorflow
- DeepLearning
- longtaillearning
- Example
- 딥러닝불균형데이터
- 경량화 모델
- dataaugmentation
- deeplearningtheory
- machinelearningtips
- logitadjustment
- separable
- Focal loss
- classimbalance
- longtaildistribution
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
글 보관함