본문 바로가기
AI#AI조회 23

Batch Normalization란?

정의

층마다 입력을 정규화해 학습을 안정화하는 기법. 이미지 모델의 표준.

Batch Norm이란?

미니배치 단위로 층 입력을 평균 0, 분산 1로 정규화하는 기법이다. 2015년 제안.

효과

  • 학습 속도 가속
  • 초기값에 둔감
  • 정규화 효과

변형

Layer Norm (Transformer 표준), Group Norm, RMSNorm.

🔗 함께 보면 좋은 용어

AI 전체 →