data(mtcars)
library(tidyverse)
library(rstanarm)
library(bayesplot) # Histogramm-Plots für Post-Vert.
library(bayestestR) # rope
mtcars-rope1
bayes
regression
post
exam-22
qm2
mtcars
qm2-pruefung2023
Exercise
Im Datensatz mtcars
: Ist der (mittlere) Unterschied im Spritverbrauch zwischen den beiden Stufen von vs
vernachlässigbar klein?
Definieren Sie “vernachlässigbar klein” mit “höchstens eine Meile”.
- Geben Sie die Breite des 95% PI an (im Bezug zur gesuchten Größe).
- Geben Sie das 95% HDI an (im Bezug zur gesuchten Größe).
- Im Hinblick auf die Rope-Methode: Ist der Unterschied vernachlässigbar klein? (ja/nein/unentschieden)
Hinweise:
- Verwenden Sie ansonsten die Standardwerte (Defaults) der typischen (im Unterricht verwendeten) R-Funktionen.
- Runden Sie auf 2 Dezimalstellen.
- Verwenden Sie Methoden der Bayes-Statistik.
Solution
Setup:
Modell berechnen:
<- stan_glm(mpg ~ vs, data = mtcars,
m1 refresh = 0)
coef(m1)
(Intercept) vs
16.640670 7.905159
zu a)
95%-PI:
<- posterior_interval(m1, prob = .95,
post_m1_vs pars = "vs")
1] post_m1_vs[
[1] 4.704333
2] post_m1_vs[
[1] 11.10147
Breite des Intervalls:
<- post_m1_vs[2] - post_m1_vs[1]
breite <- breite %>% round(2)
breite breite
[1] 6.4
Die Antwort für a) lautet also 6.4.
mcmc_areas(m1)
zu b)
Wir nutzen den Befehl hdi()
aus {bayestestR}
.
hdi(m1)
Parameter | CI | CI_low | CI_high | Effects | Component |
---|---|---|---|---|---|
(Intercept) | 0.95 | 14.478912 | 18.83603 | fixed | conditional |
vs | 0.95 | 4.802616 | 11.17928 | fixed | conditional |
Mit dem Schalter ci = .89
bekäme man bspw. ein 89%-Intervall (s. Hilfe für den Befehl).
“hdi” und “hdpi” und “hpdi” sind synonym.
ggplot(mtcars) +
aes(x = vs, y = mpg) +
geom_point()+
geom_smooth(method = "lm")
zu c)
rope(m1,range = c(-1,1))
Parameter | CI | ROPE_low | ROPE_high | ROPE_Percentage | Effects | Component |
---|---|---|---|---|---|---|
(Intercept) | 0.95 | -1 | 1 | 0 | fixed | conditional |
vs | 0.95 | -1 | 1 | 0 | fixed | conditional |
plot(rope(m1, range = c(-1,1)))
Wir verwerfen also die H0-Rope.
Categories:
- bayes
- lm