library(tidymodels)
regr-tree01
statlearning
trees
tidymodels
string
mtcars
Aufgabe
Berechnen Sie einfaches Prognosemodell auf Basis eines Entscheidungsbaums!
Modellformel: am ~ .
(Datensatz mtcars
)
Berichten Sie die Modellgüte (ROC-AUC).
Hinweise:
- Tunen Sie den Komplexitätsparameter des Baumes.
- Führen Sie eine \(v=2\)-fache Kreuzvalidierung durch (weil die Stichprobe so klein ist).
- Beachten Sie die üblichen Hinweise.
Lösung
Setup
library(tidymodels)
data(mtcars)
library(tictoc) # Zeitmessung
Für Klassifikation verlangt Tidymodels eine nominale AV, keine numerische:
<-
mtcars %>%
mtcars mutate(am = factor(am))
Daten teilen
<- initial_split(mtcars)
d_split <- training(d_split)
d_train <- testing(d_split) d_test
Modell(e)
<-
mod_tree decision_tree(mode = "classification",
cost_complexity = tune())
Rezept(e)
<-
rec1 recipe(am ~ ., data = d_train)
Resampling
<- vfold_cv(d_train, v = 2) rsmpl
Workflow
<-
wf1 workflow() %>%
add_recipe(rec1) %>%
add_model(mod_tree)
Tuning/Fitting
<-
fit1 tune_grid(object = wf1,
resamples = rsmpl)
Bester Kandidat
autoplot(fit1)
show_best(fit1)
# A tibble: 5 × 7
cost_complexity .metric .estimator mean n std_err .config
<dbl> <chr> <chr> <dbl> <int> <dbl> <chr>
1 1.15e- 7 roc_auc binary 0.5 2 0 Preprocessor1_Model01
2 2.55e-10 roc_auc binary 0.5 2 0 Preprocessor1_Model02
3 2.58e- 9 roc_auc binary 0.5 2 0 Preprocessor1_Model03
4 3.28e- 2 roc_auc binary 0.5 2 0 Preprocessor1_Model04
5 6.43e- 6 roc_auc binary 0.5 2 0 Preprocessor1_Model05
Finalisieren
<-
wf1_finalized %>%
wf1 finalize_workflow(select_best(fit1))
Last Fit
<-
final_fit last_fit(object = wf1_finalized, d_split)
collect_metrics(final_fit)
# A tibble: 3 × 4
.metric .estimator .estimate .config
<chr> <chr> <dbl> <chr>
1 accuracy binary 0.875 Preprocessor1_Model1
2 roc_auc binary 0.9 Preprocessor1_Model1
3 brier_class binary 0.119 Preprocessor1_Model1
Categories:
- statlearning
- trees
- tidymodels
- string