신경망 학습을 안정화하는 배치 정규화
배치 정규화(Batch Normalization, BN)
는 신경망이 더 빠르고 안정적으로 학습하도록 돕는 기법입니다.
데이터의 분포를 정규화하여 기울기 소실 문제를 줄이고, 학습 속도를 향상시킵니다.
배치 정규화가 왜 필요한가요?
딥러닝 모델이 깊어질수록, 각 층이 받는 입력 데이터의 분포가 계속 변하는 내부 공변량 변화(Internal Covariate Shift)
문제가 발생할 수 있습니다.
이는 앞쪽 층에서 데이터의 분포가 크게 달라질 경우, 뒷쪽 층이 안정적으로 학습하기 어려워지는 현상입니다.
이 문제를 해결하기 위해 배치 정규화 기법이 사용됩니다.
배치 정규화는 각 층에서 입력 데이터의 평균
과 분산
을 조정하여 분포 변화를 줄이고, 이를 통해 신경망이 보다 안정적으로 학습할 수 있도록 돕습니다.
쉽게 말하면, 배치 정규화는 신경망이 학습할 때 데이터의 분포를 일정하게 유지하여 안정적인 학습을 가능하게 합니다.