본문 바로가기 메뉴 바로가기

Nonenonenonenonnn

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Nonenonenonenonnn

검색하기 폼
  • 분류 전체보기 (33) N
    • 🖥️ Computer Vision (17) N
      • 📰 Paper (15) N
    • 📚 Algorithm (3)
    • 🎧 TIL (4)
    • ♾️ Math (2)
    • 👾 CS (6)
  • 방명록

EffectiveStepsize (1)
Adam Optimizer의 Effective Stepsize 이해하기

Adam Optimizer의 Effective Stepsize 이해하기Adam 옵티마이저는 각 파라미터의 업데이트 크기를 자동으로 조절하며 학습 안정성을 확보합니다. 하지만 어떤 경우에는 업데이트가 과도하게 커지고, 어떤 경우에는 α보다 작게 제한되기도 합니다.이 글에서는 Adam 논문의 effective stepsize에 대한 이론적 상한, Signal-to-Noise Ratio (SNR) 기반의 학습률 자동 조절(annealing), 그리고 gradient scaling 불변성의 의미를 정리합니다.1. Effective Stepsize 상한 구조Adam의 업데이트는 다음과 같은 식으로 표현됩니다.Δₜ = α · (m̂ₜ / √v̂ₜ)여기서 Δₜ는 현재 시점 t에서 파라미터 공간 상에 실제로 적용되는 ..

🖥️ Computer Vision/📰 Paper 2025. 7. 27. 20:57
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • separable
  • DeepLearning
  • HyperParametertuning
  • convolution
  • LossFunction
  • AutomaticAnnealing
  • OptimizationThory
  • Outlier처리
  • BiasCorrection
  • DeepLearningOptimization
  • AdamOptimizer
  • imbalanceddata
  • Focal loss
  • SignalToNoiseRatio
  • Optimizer
  • MobileNet
  • EffectiveStepsize
  • GradientDescent
  • OptimizerStability
  • 자동학습률조정
  • logitadjustment
  • code
  • fisherconsistency
  • Example
  • classimbalance
  • 경량화 모델
  • GradientScaling
  • tensorflow
  • depthwise
  • FirstOrderMethod
more
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바