로지스틱 회귀는, 이진 분류로 답정 "두 가지" 일 때만 사용하는 회귀 방법이라고 설명을 드렸습니다.
그럼, sigmoid 함수가 어떻게 두가지 중 하나만을 나타낼 수 있는지 식을 통해 알아보도록 하겠습니다.
이 함수를 그래프로 그려 본다면, 다음과 같이 나타낼 수 있습니다.
sigmoid 함수의 변수 e^x를 따로 그래프로 그려 본다면,
다음과 같이 나타날 수 있을 것입니다.
그래프를 보시면 아시겠지만, x의 값이 커지면 무한대로 가고, 작아질수록 0에 가까워지는 것을 확인할 수 있습니다.
이 결과 값을, 시그모이드 함수에 다시 집어넣어보면,
이렇게 x값에 따라서 1과 0의 결과만을 가질 수 있는 것입니다.
다음으로는 cost를 구하는 식인 Binary Crossentropy 는
이렇게 표현합니다.
선형 회귀 모델에서는 cost값이 연속적인 숫자 형태를 갖고 있지만...
로지스틱 회귀에서는 지수함수로 인해 그래프 모양이 s자로 휘었던 것을 확인할 수 있습니다.
그래서 우리가 선형 회귀 방식 그대로 코스트 함수를 구하면 불규칙한 모양이 나올 것이고
시작하는 점에 따라서 최소값이 매번 달라질 것입니다.
그래서 정확한 값을 찾기 어렵기 때문에, cost함수도 0과 1의 값을 나누어서 정의를 한 것입니다.
밑에 식을 보시면 경우에 따라 두 가지의 식이 나타나 지는 것을 확일 할 수 있는데요,
이렇게 경우를 나누어 비용 함수를 구하였기 때문에 “Binary Crossentropy”이라고 불리어집니다.
저 두 가지의 식을 합치게 된다면 로지스틱 회귀의 cost인 식을 구할 수 있습니다.
지금까지의 수학공식 및 설명들이 이해가 안 되셔도 상관없습니다.
우리는 로지스틱 회귀가 무엇인지...! → "이진 분류"
로지스틱 회귀를 사용할 때, sigmoid함수를 사용한다!
로지스틱 회귀의 cost를 구하는 방법은, Binary Crossentropy이다!
라고만 이해하시면 됩니다.
'AI > Machine Learning' 카테고리의 다른 글
머신 러닝 - 소프트맥스 회귀(Softmax Regression / Classification) (0) | 2021.01.02 |
---|---|
머신 러닝 - 로지스틱 회귀(Logistic Regression) (0) | 2021.01.02 |
머신 러닝 - 다중 선형 회귀(Multi Variable Linear Regression) (0) | 2021.01.02 |
머신 러닝 - 선형 회귀(4)_학습률(Learning Rate) (0) | 2021.01.02 |
머신 러닝 - 선형 회귀(3)_경사하강(Gradient Descent) (0) | 2021.01.02 |