[ ML ] 모두를 위한 TensorFlow (4) 다중 선형 회귀 기본

본 글은 홍콩과기대 김성훈 교수님의 강의를 바탕으로 함
(참고 : https://hunkim.github.io/ml/ )


본 포스팅은 단순 선형 회귀 분석에 이은 포스팅입니다. multi-variable linear regression 에 대해 알아보도록 하겠습니다. 우선 이전 시간에 배웠던 아래 개념들에 대해 개념을 짚고 넘어가는게 좋겠습니다. ▼

지난 시간 주요 개념을 복습해보자

multi-variable linear regression

multi-variable linear regression 는 feature를 여러개 갖는 회귀 모델입니다. 현실에서는 수십개에서 수만개까지의 feature가 존재하기 때문에 굉장히 많이사용되는 모델이라고 할 수 있습니다.

예를 든다면 score를 결정하는 요인에는 아래 두가지가 있을 수 있습니다. ▼

  • hours (공부에 투자한 시간)
  • attendance (출석)

수식으로 나타낸다면 H(x)함수와 cost 함수는 아래처럼 표현됩니다. ▼


Matrix

다중선형회귀에서 weight(W)과 varialbes(V)의 관계는 아래처럼 단순화될 수 있습니다. ▼

위 두 식은 같은의미

matrix는 다시한번 W와 X로 단순화 시켜서 표현할 수 있습니다. b는 bias를 뜻하는데 H(x) = WX+b가 아니라 H(x) = WX로 간단히 표현합니다. matrix안에 각각 b와 1을 넣어 bias를 포함시킨 것 입니다. 프로그래밍하기 쉽게 만들었다고 볼 수 있습니다.▼


Transpose

한국어로는 전치라고 부릅니다. 아래처럼 V와 W를 똑같이 4x1로 정의할 경우가 있습니다. 이 때 두 행렬을 곱하기 위해서 W를 전치행렬로 변환해줄 때 쓰입니다. 행렬곱을 안다면 T는 쉽게 이해할 수 있는 부분입니다.▼