## Vamos criar os conjuntos de treino teste e desenvolver a arvore ## com todas as variáveis.library(caret)set.seed(21)indice<-createDataPartition(dados$medv, times=1, p=0.75, list=FALSE)conj_treino<-dados[indice,]conj_teste<-dados[-indice,]str(conj_treino)
x_treino<-model.matrix(medv~. , data =conj_treino)[, -1]y_treino<-conj_treino$medvx_teste<-model.matrix(medv~. , data =conj_teste)[, -1]y_teste=conj_teste$medv
1a tentativa Xgboost
library(xgboost)set.seed(21)cv<-xgb.cv(data =as.matrix(x_treino), label =as.matrix(y_treino), objective ="reg:squarederror", nrounds =100, nfold =5, eta =0.3, max_depth =6, verbose =FALSE)# cvelog<-as.data.frame(cv$evaluation_log)elog%>%summarize(ntrees.train =which.min(train_rmse_mean), # find the index of min(train_rmse_mean) ntrees.test =which.min(test_rmse_mean))# find the index of min(test_rmse_mean)