학습과 손실
- 학습(Training):
Label이 있는 데이터로부터 모델을 학습시켜 적절한 가중치(Weight)와 편향(Bias)를 찾는 것 - 손실(Loss):
예측한 값과 실제 값간의 차이를 의미하며, 잘못된 예측에 대한 벌점과 같음. 모델의 예측이 실제 데이터보다 차이가 많이 날 수록 손실은 커지게 됨.
모델 학습의 목표: 모든 예(Example)에 대해서 가장 작은 손실(Loss)을 갖는 가중치(Weight)와 편향(Bias)의 집합을 찾는 것
위의 그래프에서 파란선은 예측(Prediction)을, 빨간선은 손실(Loss)를 의미합니다. 빨간색 선의 길이가 비교적 짧은 왼쪽 그래프가 오른쪽 그래프보다 더 좋은 예측을 하는 모델입니다.
제곱 손실(Squared Loss)
손실을 표현하는 함수 중 가장 잘 알려진 제곱 손실 함수는 손실 값을 양수로 표현하기 위해 각 손실에 제곱을 취해 모든 손실을 더한 것을 말합니다.
제곱 손실을 이용할 경우에는 손실의 차이를 양수로 다 더해 손실의 총 크기를 알기 쉽다는 장점이 있지만, 입력된 x의 개수가 다른 두 모델의 대해 손실 정도를 비교하기 어렵다는 단점이 있습니다. 이러한 단점을 보안하기 위해 실제로는 평균 제곱 오차(Mean Square Error)를 주로 사용합니다.
평균 제곱 오차(Mean Square Error)
예시의 수가 다른 두 모델을 비교할 수 없는 제곱 손실의 단점을 보완하는 방법이며, 아래의 식으로 표현할 수 있습니다.
- (x, y): 모델 학습에 사용되는 예(Example)
- x: 모델이 예측하는데 사용되는 특징(Feature)
- y: 라벨(Label) - prediction(x): 특징(x)와 가중치의 곱과 편향값의 합으로 된 함수 => y' = b + w*x
- D: 라벨이 있는 예가 포함된 데이터 세트
- N: D에 포함된 예의 수
'Muchine Learning > Google MLCC' 카테고리의 다른 글
03-02_손실 줄이기: 학습률(Learning Rate) (0) | 2018.08.12 |
---|---|
03-02_손실 줄이기: 경사하강법Gradient Descent) (0) | 2018.08.12 |
03-01_손실 줄이기: 반복 방식 (0) | 2018.08.12 |
02-01_ML로 전환하기: 선형회귀 (0) | 2018.08.11 |
01_머신러닝의 주요 용어 (0) | 2018.08.03 |