[ ML ] 모두를 위한 TensorFlow (6) Logistic Classification 기본

본 글은 홍콩과기대 김성훈 교수님의 강의를 바탕으로 함
(참고 : https://hunkim.github.io/ml/ )


본 포스팅은 다중 선형 회귀에 이어 로지스틱의 기본 개념을 알아보는 포스팅입니다. 우선 아래는 회귀의 기본 개념들입니다. ▼

  • Hypothesis가 있고
  • 학습이라는 것은 예측치(가정)와 실제치의 차이 즉, cost를 줄여나가는 것
  • cost가 최저가 되는 점은 Gradient descent 알고리즘을 활용하여 찾음

Logistic classification 은 언제쓰일까

logistic classification 은 아래와 같은 경우에 쓰입니다. 주로 Binary한 분류에 쓰입니다. 스팸메일 분류: spam or ham, facebook feed: show or hide, 신용카드 이상거래 탐지:legitimate or fraud 등 ▼

악성 종양 진단
주가 예측

Linear Regression의 한계

  1. 선형 모델을 활용하게 될 때 기울기가 변화하게 되면 제대로 분류해낼 수 없는 경우가 생긴다. ▼

2. Binary한 분류의 경우는 결과값이 0,1이 나오는 것이 필요하지만 선형 모델은 이를 만족시켜 주지 못한다. 1이상의 예측값이 나올 수 있다. ▼


Logistic Hypothesis

위 문제점을 해결할 수 있는 함수가 sigmoid 혹은 logistic function이다.▼

  • g(z) : logistic, sigmoid function
  • z가 무한히 커지면 1에 수렴하고, 무한히 작아지면 0에 수렴
  • 어떤 값이라도 0과 1사이로 나오도록 조정

z자리에 W^T * X가 들어가면 아래와 같이 logistic classification의 hypothesis가 나온다. WX인지 W^T * X인지는 W벡터의 형태에 달라지는 것이기 때문에 큰 문제가 되지 않는다. ▼


logistic classification의 hypothesis 식을 알아보았으므로 이제 cost와 cost minimizing에 대해서 알아볼 것입니다.

— 
다른 글 보러 가기