Batch Norm이란?
미니배치 단위로 층 입력을 평균 0, 분산 1로 정규화하는 기법이다. 2015년 제안.
효과
- 학습 속도 가속
- 초기값에 둔감
- 정규화 효과
변형
Layer Norm (Transformer 표준), Group Norm, RMSNorm.
층마다 입력을 정규화해 학습을 안정화하는 기법. 이미지 모델의 표준.
미니배치 단위로 층 입력을 평균 0, 분산 1로 정규화하는 기법이다. 2015년 제안.
Layer Norm (Transformer 표준), Group Norm, RMSNorm.