Primeiros passos com XGBoost (implementação em menos de 5 minutos)
Neste post vamos implementar um classificador XGBoost e comparar o mesmo com outros estimadores do Sklearn. Quero deixar este post o mais curto e objetivo possível. Você primeiro vai precisar instalar o XGBoost. Apenas uma linha no terminal:
$pip install xgboost
Em seguida, abra o ipython e copie e cole este código que compara vários classificadores do sklearn:
A saída será mais ou menos assim:
Por fim, vamos substituir o último estimador do exemplo anterior por XGBoostClassifier. Você precisa apenas precisa alterar três linhas:
from xgboost import XGBClassifier # <-- Importe XGBoost
h = .02 # step size in the meshnames = ["Nearest Neighbors", "Linear SVM", "RBF SVM", "Gaussian Process",
"Decision Tree", "Random Forest", "Neural Net", "AdaBoost",
"Naive Bayes", "XGBoost"] # <-- Adicionar nomeclassifiers = [
KNeighborsClassifier(3),
SVC(kernel="linear", C=0.025),
SVC(gamma=2, C=1),
GaussianProcessClassifier(1.0 * RBF(1.0)),
DecisionTreeClassifier(max_depth=5),
RandomForestClassifier(max_depth=5, n_estimators=10, max_features=1),
MLPClassifier(alpha=1),
AdaBoostClassifier(),
GaussianNB(),
XGBClassifier()]# <-- Substituir de QDA por XGB
A saída deve ser semelhante à seguinte:
Pronto! XGBoost foi instalado, inicializado e comparado com os estimadores mais populares de Sklearn! :)