-
Logistic Regression (로지스틱 회귀) | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 11. 5. 17:26
Logistic Regression (로지스틱 회귀)
로지스틱 회귀에 대해 알아보자. 로지스틱 회귀는 세계적으로 가장 많이 쓰이는 머신러닝 알고리즘중 하나이다.
https://youtu.be/xuTiAW0OR40 Logistic Regression은 분류된 데이터에 위와 같이 회전된 S자 형태의 그래프를 그려주는것 이라고 할 수 있다.
Sigmoid Function(시그모이드 함수)
여기서 threshold라는 개념이 나오는데, 이 값을 이용해서 그 값에 만나는 포인트를 중심으로 True 또는 False로 값을 예측할 수 있게 된다. 여기서 아주 중요하게 쓰이는 함수가 하나 있는데, 바로 Sigmoid Function(시그모이드 함수)이다. 시그모이드 함수는 수학적으로 아래와 같이 표현할 수 있다.
ChatGPT e는 자연 상수 (약 2.71828)를 나타낸다. 즉, 만약 x값이 음수면, 음수가 작아지면 작아질수록(예: -10000), 값은 0에 가까워지고, 양수가 커지면 커질수록 값은 1에 가까워진다.
https://youtu.be/xuTiAW0OR40 여기서 중심이 되는 부분을 계산하게 되면, x축이 0일때 이고, 그렇게되면, 1/2, 즉 0.5가 된다. 그렇다면 이 시그모이드 함수를 어떻게 로지스틱 회귀에 이용할 수 있는지 알아보자. 먼저, Linear Regression의 모델을 다시 떠올려보자.
$ wx + b $
이 값을 z에 대입하고, sigmoid function에 대입하면, Logistic Regression 모델이 된다.
https://youtu.be/xuTiAW0OR40 Interpretation of Logistic Regression Output (로지스틱 회귀 결과 해석)
Logistic Regression의 결과를 어떻게 해석하는지 알아보자. 이 로지스틱 회귀의 아웃풋은, 해당 class(또는 category)가 1이될 확률(probability)를 나타낸다고 생각하면 된다.
ChatGPT 위 수식을 계산했을 때, f(z)가 0.7이라면, 이는 어떤 사이즈를 가진 환자의 종양이 악성(양성)일 확률이 70%라는 이야기이며, 다시 말해 음성일 확률은 30%라고 할 수 있다.
Reference
'Machine Learning > Stanford ML Specialization' 카테고리의 다른 글