Primeiros passos com XGBoost (implementação em menos de 5 minutos)

Fernando Marcos Wittmann
Data Science BR
Published in
2 min readNov 3, 2018

--

Neste post vamos implementar um classificador XGBoost e comparar o mesmo com outros estimadores do Sklearn. Quero deixar este post o mais curto e objetivo possível. Você primeiro vai precisar instalar o XGBoost. Apenas uma linha no terminal:

$pip install xgboost

Em seguida, abra o ipython e copie e cole este código que compara vários classificadores do sklearn:

A saída será mais ou menos assim:

Por fim, vamos substituir o último estimador do exemplo anterior por XGBoostClassifier. Você precisa apenas precisa alterar três linhas:

from xgboost import XGBClassifier # <-- Importe XGBoost
h = .02 # step size in the mesh
names = ["Nearest Neighbors", "Linear SVM", "RBF SVM", "Gaussian Process",
"Decision Tree", "Random Forest", "Neural Net", "AdaBoost",
"Naive Bayes", "XGBoost"] # <-- Adicionar nome
classifiers = [
KNeighborsClassifier(3),
SVC(kernel="linear", C=0.025),
SVC(gamma=2, C=1),
GaussianProcessClassifier(1.0 * RBF(1.0)),
DecisionTreeClassifier(max_depth=5),
RandomForestClassifier(max_depth=5, n_estimators=10, max_features=1),
MLPClassifier(alpha=1),
AdaBoostClassifier(),
GaussianNB(),
XGBClassifier()]# <-- Substituir de QDA por XGB

A saída deve ser semelhante à seguinte:

Pronto! XGBoost foi instalado, inicializado e comparado com os estimadores mais populares de Sklearn! :)

--

--

Fernando Marcos Wittmann
Data Science BR

Head of Data Science @ Awari | Machine Learning Expert | E-Learning