김예나[혼공머신러닝 6–2] k-means 알고리즘과 엘보우저번 장에서는 어떤 데이터가 사과이고, 파인애플이고, 바나나인지 알고 있었기 때문에 각 클러스터의 평균을 쉽게 계산할 수 있었지만, 실전에서는 그것을 알 수가 없습니다. 따라서 어디가 클러스터의 중심인지를 직접 찾아내야 합니다. 그것을 찾아내기…Apr 13, 2022Apr 13, 2022
김예나[혼공머신러닝 6–1] 군집 알고리즘이번 장에서는 비정형 데이터를 처음 다루게 되는데, 그 중에서도 사진 데이터를 분류합니다. 우선, 데이터를 준비해 봅시다.Apr 13, 2022Apr 13, 2022
김예나[혼공머신러닝 05–3] 트리의 앙상블앞선 장에서 결정 트리에 관해 공부했는데, 이번 장에서는 그 트리들을 앙상블한 네 가지 알고리즘에 관해 배웠습니다.Apr 12, 2022Apr 12, 2022
김예나[혼공머신러닝 5–2] 교차 검증과 그리드 서치, 랜덤 서치우리는 그간 테스트 세트의 평가 값을 모델의 일반적인 성능으로 생각하고 사용해 왔는데, 모델의 하이퍼파라미터를 평가 값이 최대가 되는 곳에 맞췄을 때에는 모델이 테스트 세트에 잘 맞춰져 있는 것이지 일반적인 성능이 높다고 장담할 수가 없습니다. 이…Apr 12, 2022Apr 12, 2022
김예나[혼공머신러닝 5–1] 결정 트리이 책에서 결정 트리를 소개한 것은 로지스틱 회귀와 대비하여, 로지스틱 회귀의 훈련된 coef_와 intercept_ 값이 무엇인지는 볼 수 있어도 왜 그런 값을 도출하는지는 설명하기 어렵다는 점에 있었습니다. 결정 트리의 장점은 무엇을 기준으로…Apr 12, 2022Apr 12, 2022
김예나[혼공머신러닝 4–2] 로지스틱 손실 함수와 확률적 경사 하강법이 장에서는 확률적 경사 하강법과 손실함수라는 새로운 개념에 관해 배웠는데, 이런 개념을 도입한 까닭은 계속해서 새로운 데이터가 추가되어 매번 모든 데이터를 가지고 학습할 수 없는 경우, 새로운 방법이 필요하기 때문입니다. 그래서 제시된 것이 확률적…Apr 10, 2022Apr 10, 2022
김예나[혼공머신러닝 4–1] 최근접 이웃 분류기와 로지스틱 회귀최근접 이웃 분류에 관해 말하기에 앞서, 데이터를 준비합시다. 데이터의 형태는 다음과 같습니다.Apr 10, 2022Apr 10, 2022
김예나[혼공머신러닝 03–3] 특성 공학과 규제특성 공학과 규제에 관해 배우기에 앞서, pandas를 이용해 데이터를 불러오는 방법을 먼저 학습하였습니다.Apr 9, 2022Apr 9, 2022
김예나[혼공머신러닝 03–2] k-최근접 이웃 회귀의 한계, 선형 회귀와 다항 회귀k-최근접 이웃 회귀는 예측하고자 하는 데이터가 훈련 세트의 범위를 벗어난 경우 제대로 된 예측을 하지 못한다는 문제점이 있습니다. 따라서 이전까지 훈련 세트의 농어 길이 최대치가 45 안팎이었으므로, 길이 50의 농어나 길이 100의 농어를…Apr 8, 2022Apr 8, 2022