확률적 경사 하강법, 빠르고 효율적인 학습 방법
확률적 경사 하강법(Stochastic Gradient Descent, SGD)
은 신경망이 학습할 때, 하나의 데이터 샘플을 무작위로 선택하여 매번 가중치를 업데이트합니다.
이 방식은 계산량이 적고 빠르게 수렴할 수 있어, 대규모 데이터셋을 학습할 때 많이 사용됩니다.
확률적 경사 하강법이 진행되는 과정
확률적 경사 하강법은 다음과 같은 단계를 반복하면서 학습을 진행합니다.
-
데이터 샘플 하나를 선택
-
손실 함수 계산
-
기울기(Gradient) 계산
-
가중치 업데이트
-
다음 샘플 선택 후 반복
이 과정을 반복하면서 모델이 최적의 가중치를 찾아가게 됩니다.
확률적 경사 하강법의 동작 방식
SGD는 다음과 같은 단계를 통해 학습을 진행합니다.
1. 샘플 선택 및 손실 함수 계산
데이터셋에서 무작위로 하나의 샘플 (x, y)
을 선택한 후, 현재 가중치에서 손실을 계산합니다.
손실 함수 예제
입력 데이터: x = 2.0, 실제값 y = 5.0
모델 예측값: 4.2
손실(MSE) = (5.0 - 4.2)^2 = 0.64