library(tidyverse)
bayesbox
1 Setup
2 Aufgabe
Sie führen ein zweiwertiges (binomiales) Zufallsexperiment \(n\)-mal durch, dabei erzielen Sie \(k\) Treffer. Die Wiederholungen sind unabhängig voneinander, und die Trefferwahrscheinlichkeit \(\pi\) bleibt konstant.
(Eine Münze wiederholt werfen wäre das typische Beispiel für ein solches Zufallexperiment.)
Gehen Sie von folgenden Parameterwerten aus:
<- 8
n <- 5 k
Welcher Parameterwert \(\pi\) ist am wahrscheinlichsten, wenn Sie keine weiteren Informationen haben?
Sie überprüfen alle 11 Parameterwerte für \(\pi\) von 0 bis 1 in Schritten von 0.1.
Um diese Frage zu beantworten, berechnen Sie die Wahrscheinlichkeiten für alle möglichen Parameterwerte \(\pi\) von 0 bis 1 in Schritten von 0.1 anhand einer Bayesbox. Dabei gehen wir von einer Binomialverteilung aus:
\(k \sim Bin(n, \pi)\).
<- seq(from = 0, to = 1, by = 0.1) # Parameterwerte
pis pis
[1] 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Dann berechnen wir schon mal die Wahrscheinlichkeit der Daten gegeben jeweils eines Parameterwerts:
<- dbinom(k, size = n, prob = pis)
Likelihood Likelihood
[1] 0.00000000 0.00040824 0.00917504 0.04667544 0.12386304 0.21875000
[7] 0.27869184 0.25412184 0.14680064 0.03306744 0.00000000
Auf dieser Basis erstellen wir eine Bayes-Box, um die Posteriori-Wahrscheinlichkeiten für alle Parameterwerte zu berechnen, s. (list-gitter1?).
<-
d tibble(
# definiere die Hypothesen (die Parameterwerte, p):
p = pis,
# Lege den Priori-Wert fest:
Priori = 1/11) |>
mutate(
# berechne Likelihood für jeden Wasseranteil (Parameterwert):
Likelihood = Likelihood,
# berechne unstand. Posteriori-Werte:
unstd_Post = Likelihood * Priori,
# berechne Evidenz, d.i. die Summe aller unstand. Post-Werte:
Evidenz = sum(unstd_Post),
# berechne stand. Posteriori-Werte (summiert zu 1):
Post = unstd_Post / Evidenz)
Die Bayes-Box (Table 1) zeigt, wie sich die Post-Verteilung berechnet.
Leider ist die zentrale Spalte, die die Posteriors enthält, ausgeblendet. 🤬
id | p | Priori | Likelihood | unstd_Post | Evidenz |
---|---|---|---|---|---|
1 | 0.0 | 0.01 | 0.00 | 0 | 0.01 |
2 | 0.1 | 0.01 | 0.00 | 0 | 0.01 |
3 | 0.2 | 0.01 | 0.01 | 0 | 0.01 |
4 | 0.3 | 0.01 | 0.05 | 0 | 0.01 |
5 | 0.4 | 0.01 | 0.12 | 0 | 0.01 |
6 | 0.5 | 0.01 | 0.22 | 0 | 0.01 |
7 | 0.6 | 0.01 | 0.28 | 0 | 0.01 |
8 | 0.7 | 0.01 | 0.25 | 0 | 0.01 |
9 | 0.8 | 0.01 | 0.15 | 0 | 0.01 |
10 | 0.9 | 0.01 | 0.03 | 0 | 0.01 |
11 | 1.0 | 0.01 | 0.00 | 0 | 0.01 |
Aufgabe: Welcher Parameterwert \(\pi\) ist am wahrscheinlichsten laut der Bayesbox?
3 Lösung
Der wahrscheinlichste Parameterwert \(\pi\) ist derjenige, der die höchste Posteriori-Wahrscheinlichkeit hat. Die Posteriori-Wahrscheinlichkeit ist proportional zur unstandardisierten Posteriori-Wahrscheinlichkeit. Das bedeutet, dass der Parameterwert \(\pi\), der die höchste unstandardisierte Posteriori-Wahrscheinlichkeit hat, auch die höchste Posteriori-Wahrscheinlichkeit hat.
id | p | Priori | Likelihood | unstd_Post | Evidenz | Post |
---|---|---|---|---|---|---|
1 | 0.0 | 0.01 | 0.00 | 0 | 0.01 | 0.00 |
2 | 0.1 | 0.01 | 0.00 | 0 | 0.01 | 0.00 |
3 | 0.2 | 0.01 | 0.01 | 0 | 0.01 | 0.01 |
4 | 0.3 | 0.01 | 0.05 | 0 | 0.01 | 0.04 |
5 | 0.4 | 0.01 | 0.12 | 0 | 0.01 | 0.11 |
6 | 0.5 | 0.01 | 0.22 | 0 | 0.01 | 0.20 |
7 | 0.6 | 0.01 | 0.28 | 0 | 0.01 | 0.25 |
8 | 0.7 | 0.01 | 0.25 | 0 | 0.01 | 0.23 |
9 | 0.8 | 0.01 | 0.15 | 0 | 0.01 | 0.13 |
10 | 0.9 | 0.01 | 0.03 | 0 | 0.01 | 0.03 |
11 | 1.0 | 0.01 | 0.00 | 0 | 0.01 | 0.00 |
In diesem Fall ist das der folgende Parameterwert:
[1] 0.6