안정적으로 학습하는 배치 경사 하강법
배치 경사 하강법(Batch Gradient Descent, BGD)
은 머신러닝과 딥러닝에서 모델이 학습할 때 전체 데이터셋을 사용하여 한 번에 가중치를 업데이트하는 방법입니다.
배치 경사 하강법은 모든 데이터 샘플을 활용하여 기울기를 계산하므로, 학습 과정이 안정적이며 손실 함수가 매 반복마다 일정하게 감소합니다.
하지만 데이터가 많아질수록 계산량이 증가하는 단점이 있습니다.
배치 경사 하강법 이 진행되는 과정
배치 경사 하강법은 다음과 같은 단계를 거쳐 학습을 진행합니다.
-
전체 데이터셋에서 손실 함수 계산
-
모든 샘플의 기울기(Gradient) 평균 계산
-
가중치 업데이트
-
위 과정을 반복하여 최적값을 찾음
이 방식은 신경망이 일정한 방향으로 학습할 수 있도록 도와줍니다.
배치 경사 하강법의 동작 방식
배치 경사 하강법은 다음과 같은 단계를 거쳐 학습을 진행합니다.
1. 손실 함수 계산
전체 데이터를 사용하여 모델의 예측값과 실제값의 차이를 계산하고, 이를 손실 함수로 변환합니다.
손실 함수 예제
실제값: [1.0, 2.0, 3.0]
예측값: [0.8, 1.9, 3.2]
손실(MSE) = 평균((1.0-0.8)^2, (2.0-1.9)^2, (3.0-3.2)^2)
2. 기울기 계산
모든 샘플의 기울기를 계산한 후 평균을 구하여, 손실을 최소화하는 방향을 찾습니다.
기울기 계산 예제
각 샘플의 기울기:
샘플1: -0.2
샘플2: -0.1
샘플3: 0.2
평균 기울기: (-0.2 + -0.1 + 0.2) / 3 = -0.03