[ML] 로지스틱 회귀(logistic regression)
·
Artificial Intelligence/Machine Learning
시그모이드 함수 (Sigmoid Function) $$ y = \frac{1}{1 + e^{-x}} $$시그모이드 함수는 위와 같은데, 그림으로 그려보면 아래와 같다.즉 $ (0, 0.5) $ 를 기준으로 점대칭이고, $ x $ 가 커지면 $ 1 $ 로, 작아지면 $ 0 $ 으로 수렴한다.시그모이드 함수를 $ x $ 에 대해 미분하면 다음과 같다.$$ \frac{\partial y}{\partial x} = y ( 1 - y) $$시그모이드 함수 자체는 성공 확률과 실패 확률의 비율에서 유도된다. 이를 오즈 함수(odds function)라 하는데 성공확률이 $ p $ 일 때 다음과 같다.$$ \mathrm{odds}(p) = \frac{p}{1-p} $$그러나 이 함수의 결과값의 범위는 $[0, \in..