library(tidymodels)
library(tidyverse)
library(tictoc) # Rechenzeit messen, optional
# data(penguins, package = "palmerpenguins")
<- "https://vincentarelbundock.github.io/Rdatasets/csv/modeldata/penguins.csv"
d_path <- read_csv(d_path) d
tidymodels-penguins07
tidymodels
statlearning
trees
schoice
Aufgabe
Berechnen Sie ein Entscheidungsbaum-Modell mit tidymodels und zwar anhand des penguins Datensatzes.
Modellgleichung: body_mass_g ~ bill_length_mm
.
Berichten Sie die RMSE!
Hinweise:
- Tuning Sie \(Cp\) mit 20 verschiedenen den Werten.
- Löschen Sie alle Zeilen mit fehlenden Werten in den Prädiktoren.
- Beachten Sie die üblichen Hinweise.
- Natürlich gilt: Ceteris paribus. Halten Sie also die Modelle im Übrigen vergleichbar bzw. identisch.
Lösung
Setup
Wir dürfen keine fehlenden Werte in der Y-Variable haben (im Train-Set), sonst meckert Tidymodels:
<-
d2 %>%
d drop_na(body_mass_g)
CV
Daten aufteilen:
set.seed(42)
<- initial_split(d2)
d_split <- training(d_split)
d_train <- testing(d_split) d_test
CV
set.seed(42)
<- vfold_cv(d_train, v = 10) folds
Workflow
<-
rec1 recipe(body_mass_g ~ bill_length_mm, data = d_train) %>%
step_naomit(all_numeric_predictors())
<-
mod_tree decision_tree(
mode = "regression",
cost_complexity = tune()
)
<-
wflow workflow() %>%
add_recipe(rec1) %>%
add_model(mod_tree)
Fitten
tic()
<-
wflow_fit tune_grid(
wflow,resamples = folds,
control = control_grid(save_workflow = TRUE),
grid = 20,
metrics = metric_set(rmse)
)toc()
12.189 sec elapsed
Modellgüte
<- fit_best(x = wflow_fit)
bestfit1 <- last_fit(bestfit1, d_split)
lastfit1 collect_metrics(lastfit1)
# A tibble: 2 × 4
.metric .estimator .estimate .config
<chr> <chr> <dbl> <chr>
1 rmse standard 638. Preprocessor1_Model1
2 rsq standard 0.315 Preprocessor1_Model1
Categories:
- tidymodels
- statlearning
- trees
- schoice