4  Rechnen mit Wahrscheinlichkeiten

Bayes:Start!

Bayes:Start!

4.1 Lernsteuerung

4.1.1 Position im Modulverlauf

Abbildung 1.1 gibt einen Überblick zum aktuellen Standort im Modulverlauf.

4.1.2 Überblick

Dieses Kapitel stellt uns einige grundlegenden Rechengesetze für Wahrscheinlichkeiten vor: Wann man die Wahrscheinlichkeiten zweier Ereignisse addiert oder multipliziert. Außerdem lernen wir den Begriff der Unabhängkeit kennen.

4.1.3 Lernziele

Nach Absolvieren des jeweiligen Kapitels sollen folgende Lernziele erreicht sein.

Sie können …

  • die Grundbegriffe der Wahrscheinlichkeitsrechnung erläuternd definieren
  • typische Relationen (Operationen) von Ereignissen anhand von Beispielen veranschaulichen
  • mit Wahrscheinlichkeiten rechnen

4.1.4 Begleitliteratur

Lesen Sie zur Begleitung dieses Kapitels Bourier (2011), Kap. 2-4.

4.1.5 Prüfungsrelevanter Stoff

Der Stoff dieses Kapitels deckt sich (weitgehend) mit Bourier (2011), Kap. 2-4. Weitere Übungsaufgaben finden Sie im dazugehörigen Übungsbuch, Bourier (2022).

Hinweis

In Ihrer Hochschul-Bibliothek kann das Buch als Ebook verfügbar sein. Prüfen Sie, ob Ihr Dozent Ihnen weitere Hilfen im geschützten Bereich (Moodle) eingestellt hat.\(\square\)

4.2 Überblick

Die Rechenregeln der Wahrscheinlichkeit erlauben es, für bestimmte Situationen eine Wahrscheinlichkeit hzu berechnen. Das hört sich vielleicht wild an, ist aber oft ganz einfach.

Beispiel 4.1 (Wahrscheinlichkeit für eine gerade Zahl beim Würfelwurf) Ein (normaler) Würfel wird geworfen. Was ist die Wahrscheinlichkeit für eine gerade Zahl, also für das Ereignis \(A=\{2, 4, 6\}\)? Diese Wahrscheinlichkeit beträgt \(Pr(\text{gerade Zahl}) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2\). \(\square\)

Beispiel 4.2 (Gezinkter Würfel) Ein gezinkter Würfel hat eine erhöhte Wahrscheinlichkeit für das Ereignis \(A=\)“6 liegt oben”, und zwar gelte \(Pr(A)=1/3\). Was ist die Wahrscheinlichkeit, keine 6 zu würfeln? \(\square\)1

4.3 Additionssatz

Der Additionssatz wird verwendet, wenn wir an der Wahrscheinlichkeit interessiert sind, dass mindestens eines der Ereignisse A und B eintritt. “Mindestens eines der Ereignisse A und” schreibt man \(A \cup B\) und sagt “A vereinigt B”.

4.3.1 Addition disjunkter Ereignisse

Gegeben sei \(\Omega = {1,2,3,4,5,6}\) beim normalen Würfelwurf. Als Sinnbild: \(\boxed{1\; 2\; 3\; 4\; 5\; 6}\). Gesucht sei die Wahrscheinlichkeit des Ereignis \(A=\{1,2\}\), das also eine 1 oder
eine 2 geworfen wird. Man beachte, dass die beiden Ergebnisse disjunkt sind, s. Abbildung 3.6: Wenn man eine 1 wirft, hat man keine 2 geworfen.

\(\boxed{\boxed{1\; 2}\; \color{gray}{ 3\; 4\; 5\; 6}}\)

Die Wahrscheinlichkeit für \(A\) ist die Summe der Wahrscheinlichkeiten der einzelnen Ereignisse (1 und 2):

\(Pr(1 \cup 2) = \frac{1}{6} + \frac{1}{6} = \frac{2}{6}\)

Definition 4.1 (Additionssatz für disjunkte Ereignisse) Die Wahrscheinlichkeit, dass mindestens eines der beiden Ereignisse eintritt, ist die Summe der Einzelwahrscheinlichkeiten, s. Theorem 4.1.

Theorem 4.1 (Additionssatz für disjunkte Ereignisse) \[Pr(A \cup B) = P(A) + P(B) \square\]

Beispiel 4.3 Was ist die Wahrscheinlichkeit, an einem Samstag oder Sonntag geboren zu sein? Unter der (vereinfachten) Annahme, dass alle Jahre zu gleichen Teilen aus allen Wochentagen bestehen und dass an allen Tagen gleich viele Babies geworden werden2, ist die Antwort \(Pr(A)=1/7 + 1/7 = 2/7\).\(\square\)

4.3.2 Addition allgemeiner Ereignisse

Unter allgemeinen Ereignissen verstehen wir hier sowohl disjunkte als auch nicht disjunkte. Bei der Addition der Wahrscheinlichkeiten für \(A\) und \(B\) wird der Schnitt \(A\cap B\) (der Überlappungsbereich) doppelt erfasst – sofern sie nicht disjunkt sind, aber wenn sie disjunkt sind, so ist der Schnitt gleich Null und wir machen auch dann nichts falsch. Der Überlappungsbereich muss daher noch abgezogen werden, s. Abbildung 4.1.

Definition 4.2 (Allgemeiner Additionssatz) Die Wahrscheinlichkeit, dass mindestens eines der beiden Ereignisse \(A\) und \(B\) eintritt, ist gleich der Summe ihrer Wahrscheinlichkeiten minus ihrer gemeinsamen Wahrscheinlichkeit, s. Theorem 4.2 und Abbildung 4.1. \(\square\)

Theorem 4.2 (Allgemeiner Additionssatz) \[Pr(A \cup B) = P(A) + P(B) - P(A\cap B) \square\]

Abbildung 4.1: Der allgemeine Additionssatz gibt die Wahrscheinlichkeit, dass mindestens eines der beiden Ereignisse eintritt.

Beispiel 4.4 (Lernen und Klausur bestehen) In einem Psychologie-Studiengang sind die Studis verdonnert, zwei Statistik-Module (\(S1, S2\)) zu belegen. Die meisten bestehen (\(B\)), einige leider nicht (\(N\)), s. Tabelle 4.1.

Ereignis \(S_1B\) sei “Klausur Statistik 1 bestanden” Ereignis \(S_2B\) ist analog für “Klausur Statistik 2”.

Wir suchen die Wahrscheinlichkeit des Ereignisses A, d.h. mindestens eine der beiden Klausuren zu bestehen: \(Pr(A) = Pr(S_1B \cup S_2B)\).

Tabelle 4.1: Daten von 100 Studis; L: Lerner, B: Bestanden, N: Negation/Nicht
. S1_B S1_NB Summe
S2_B 85 9 94
S2_NB 5 1 6
Summe 90 10 100
\[\begin{aligned} Pr(A) &= Pr(S_1B \cup S_2B) \\ &= Pr(S1_B) + Pr(S_2B) - Pr(S_1B \cap S_2B) \\ &= (90 + 94 - 85) / 100 = 99 / 100\\ \end{aligned}\]

Die Wahrscheinlichkeit, mindestens eine der beiden Klausuren zu bestehen liegt bei 99%.

Übungsaufgabe 4.1 (Peer Instruction: Keine Klausur bestanden) Wie hoch ist die Wahrscheinlichkeit, keine der beiden Klausuren zu bestehen?

  1. 1%
  2. 5%
  3. 6%
  4. 9%
  5. 10%
  6. 16% \(\square\)

4.4 Bedingte Wahrscheinlichkeit

4.4.1 Illustration zur bedingten Wahrscheinlichkeit

Definition 4.3 (Bedingte Wahrscheinlichkeit) Die bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit, dass \(A\) eintritt, gegeben dass \(B\) schon eingetreten ist. \(\square\)

Man schreibt: \(Pr(A|B).\) Lies: “A gegeben B” oder “A wenn B”.

Übungsaufgabe 4.2 Schauen Sie sich mal diese Animation von Victor Powell an zu bedingten Wahrscheinlichkeiten an. Sehenswert.

Abbildung 4.2 illustriert unbedingte Wahrscheinlichkeit, \(Pr(A), Pr(B)\), gemeinsame Wahrscheinlichkeit \(Pr(A \cap B)\), und bedingte Wahrscheinlichkeit, \(Pr(A|B)\).

(a) Unbedingte Wahrscheinlichkeit für Ereignis A: 50%=1/2
(b) Unbedingte Wahrscheinlichkeit für Ereignis B: 50%=1/2
(c) Wahrscheinlichkeit für Ereignis B gegeben A, \(Pr(B|A)=1/2\)

\(Pr(A \cap B)\) wird auch häufig (synonym) geschrieben als \(Pr(AB)\).

(d) Wahrscheinlichkeit für das gemeinsame Eintreten von A und B: \(Pr(AB)=1/4\)
Abbildung 4.2: Illustration von unbedingter, gemeinsamer und bedingter Wahrscheinlichkeit

Beispiel 4.5 (Bedingte Wahrscheinlichkeit) Sei \(A\) “Schönes Wetter” und \(B\) “Klausur steht an”. Dann meint \(Pr(A|B)\) die Wahrscheinlichkeit, dass das Wetter schön ist, wenn gerade eine Klausur ansteht.\(\square\)

Beispiel 4.6 (Von Päpsten und Männern) Man(n) beachte, dass die Wahrscheinlichkeit, Papst \(P\) zu sein, wenn man Mann \(M\) ist etwas anderes ist, als die Wahrscheinlichkeit, Mann zu sein, wenn man Papst ist: \(Pr(P|M) \ne Pr(M|P)\). Das hört sich erst verwirrend an, aber wenn man darüber nachdenkt, wird es plausibel.\(\square\)

Beispiel 4.7 Gustav Groß-Gütz verkauft eine Tinktur3, die schlau machen soll, “Gützis Gehirn Grütze”.4 Gustav trinkt die Grütze und sagt schlaue Dinge. Was schließen wir daraus? Sei \(H\) (wie Hypothese) “Gützis Grütze macht schlau”; sei \(D\) (wie Daten) die Beobachtung, dass Gustav schlaue Dinge gesagt hat. Ohne exakte Zahlen zu suchen, wie hoch ist wohl \(Pr(D|H)\)? In Worten: “Wie wahrscheinlich ist es, schlaue Dinge gesagt zu haben, wenn die Grütze wirklich schlau macht?”. Vermutlich ist diese Wahrscheinlichkeit sehr hoch. Aber wie hoch ist wohl \(Pr(H|D)\)? In Worten: “Wie wahrscheinlich ist es, dass die Grütze wirklich schlau macht, gegeben, dass wir gesehen hat, dass jemand etwas schlaues gesagt hat, nachdem er besagte Grütze getrunken hat?” Skeptische Geister werden der Meinung sein, \(Pr(H|D)\) ist gering. Das Beispiel zeigt u.a. \(Pr(H|D) \ne Pr(D|H).\square\)

4.4.2 Bedingte Wahrscheinlichkeit als Filtern einer Tabelle

Betrachten wir Tabelle 4.2. Dort sind sind vier Tage aufgelistet, mit jeweils Regen (oder kein Regen) bzw. an denen es kalt ist (oder nicht). Filtern wir z.B. die Tabelle so, dass nur kalte Tage übrig bleiben, dann gibt der Anteil der Zeilen, die “Regen” anzeigen, die bedingte Wahrscheinlichkeit \(Pr(\text{Regen}|\text{kalt})\) an.

Tabelle 4.2: Die Tabelle zeigt vier Tage, an denen es jeweils kalt ist (oder nicht) bzw. regnet (oder nicht). Die bedingte Wahrscheinlichkeit \(Pr(\text{Regen}|\text{kalt})\) entspricht dem Anteil der Zeilen mit Regen, wenn für ‘kalt’ ein Filter in der Tabelle gesetzt ist.

Also: Das Berechnen einer bedingten Wahrscheinlichkeit, \(Pr(A|B)\), ist vergleichbar zum Filtern einer Tabelle, s. Tabelle 4.3.

Tabelle 4.3: Eine bedingte Wahrscheinlichkeit kann man als gefilterte Tabelle verstehen
id kalt Regen
1 0 0
2 0 1
3 1 0
4 1 1
SUMME 2 2

Es ergeben sich folgende Wahrscheinlichkeiten:

\(Pr(A) = 2/4; Pr(B) = 2/4; Pr(A \cap B) = 1/4; Pr(A|B) = 1/2\)

Die Wahrscheinlichkeit für \(A\), wenn \(B\) schon eingetreten ist, berechnet sich so, s. Theorem 4.3 und Abbildung 4.2 (c).

Theorem 4.3 (Bedingte Wahrscheinlichkeit) \[Pr(A|B) = \frac{Pr(A \cap B)}{Pr(B)}\]

Außerdem gilt analog

\[Pr(B|A) = \frac{Pr(B \cap A)}{Pr(A)} \quad \square\]

Beispiel 4.8 (Lernen und Klausur bestehen) Sie bereiten sich gerade auf die Klausur bei Prof. Süß vor. Das heißt: Sie überlegen, ob Sie sich auf die Klausur vorbereiten sollten. Vielleicht lohnt es sich ja gar nicht? Vielleicht ist die Wahrscheinlichkeit zu bestehen, wenn man nicht gelernt hat, sehr groß? Aber da Sie nun mal auf Fakten stehen, haben Sie sich nach einiger Recherche folgende Zahlen besorgen können, s. Tabelle 4.4. In der Tabelle sind die Daten von 100 Studis ausgewiesen. Ein Teil hat sich vorbereitet, ordentlich gelernt, nenen wir sie die “Lerner”. Ein anderer Teil hat nicht gelernt, \(NL\) bzw. \(\neg L\). Ein Teil hat bestanden, \(B\), ein Teil nicht \(NB\) oder \(\neg B\).

Wir suchen die Wahrscheinlichkeit, zu bestehen, wenn man nicht gelernt hat: \(Pr(B |\neg L)\).

Tabelle 4.4: Daten von 100 Studis; L: Lerner, B: Bestanden, N: Negation/Nicht
. L NL Summe
B 80 1 81
NB 5 14 19
Summe 85 15 100
\[\begin{aligned} Pr(B |\neg L) &= \frac{Pr(B \cap \neg L)}{Pr(\neg L)} \\ &=\frac{1/100}{15/100} = 1/15 \\ \end{aligned}\]

Die Wahrscheinlichkeit, zu bestehen, wenn man nicht gelernt hat, liegt bei 1 von 15, also ca. 7%.5 \(\square\)

Beispiel 4.9 (Kalt und Regen) Die Wahrscheinlichkeit, dass es kalt ist, wenn es regnet, ist gleich der Wahrscheinlichkeit, dass es gleichzeitig kalt ist und regnet, geteilt durch die Wahrscheinlichkeit, dass es regnet.\(\square\)

4.5 Stochastische (Un-)Abhängigkeit

4.5.1 Unabhängigkeit

Stochastische Unabhängigkeit ist ein Spezialfall von Abhängigkeit: Es gibt sehr viele Ausprägungen für Abhängigkeit, aber nur eine für Unabhängigkeit. Können wir Unabhängigkeit nachweisen, haben wir also eine starke Aussage getätigt.

Definition 4.4 (Stochastische Unabhängigkeit) Zwei Ereignisse sind (stochastisch) unabhängig voneinander, wenn die Wahrscheinlichkeit von \(A\) nicht davon abhängt, ob \(B\) der Fall ist, s. Theorem 4.4. Anders gesagt:6

Theorem 4.4 (Stochastische Unabhängigkeit) \[ Pr(A) = Pr(A|B) =Pr(A|\neg B) \square\]

In Worten: Wenn die Wahrscheinlichkeit von A sich nicht ändert, wenn B eingetreten ist, so ist A von B (stochastisch) unabhängig.

Die Unabhängigkeit von \(A\) und \(B\) wird manchmal so in Kurzschreibweise ausgedrückt: \(\perp \!\!\! \perp(A, B) \square\).

Theorem 4.5 (Stochastische Unabhängigkeit 2) Setzt man Theorem 4.3 in Theorem 4.4 (linke Seite) ein, so folgt7

\[Pr(A \cap B) = Pr(A) \cdot Pr(B).\quad \square\]

In Worten: Die Wahrscheinlichkeit, dass A und B beide der Fall sind, ist gleich dem Produkt ihrer jeweiligen Wahrscheinlichkeiten.

Beispiel 4.10 (Augenfarbe und Statistikliebe) Ich vermute, dass die Ereignisse \(A\), “Augenfarbe ist blau”, und \(B\), “Ich liebe Statistik”, voneinander unabhängig sind.\(\square\)8

Beispiel 4.11 (Überleben auf der Titanic) S. Abbildung 4.3, links: Überleben (Ü) auf der Titanic ist offenbar abhängig von der Passagierklasse (\(K_1, K_2, K_3\)). In Abbildung 4.3, links gilt also \(Pr(Ü|K_1) \ne Pr(Ü|K_2) \ne Pr(Ü|K_3) \ne Pr(Ü)\).

Auf der anderen Seite: Das Ereignis Überleben (Ü) auf der Titanic ist unabhängig vom Ereignis Alter ist eine Primzahl (P), s. Abbildung 4.3, rechts. Also: \(Pr(Ü|P) = Pr(Ü|\neg P) = Pr(Ü)\), vgl. Tabelle 4.5.

Tabelle 4.5: Kontingenztablle (Häufigkeiten) für ‘Überleben auf der Titanic’ und ‘Alter ist Primzahl’. Wie man sieht, gibt es keine stochastische Abhängigkeit.
Age_prime n prop
0
non-prime 96 0.17
prime 453 0.83
1
non-prime 58 0.17
prime 282 0.83
(a) Überleben und Passagierklasse sind abhängig
(b) Überleben und ‘Geburstag ist eine Primzahl’ sind nicht abhängig
Abbildung 4.3: Abhängigkeit und Unabhängigkeit zweier Ereignisse

4.5.2 Stochastische Abhängigkeit

Liegt keine Unabhängigkeit vor, so spricht man von (stochastistischer) Abhängigkeit, s. Theorem 4.6. In diesem Fall verändert sich unser Wissen über die Wahrscheinlichkeit von \(A\), wenn wir wissen, dass \(B\) eingetroffen ist, s. Theorem 4.6.

Theorem 4.6 (Stochastische Abhängigkeit) \[Pr(A|B) \ne Pr(A) \ne Pr(A|\neg B) \quad \square\]

In Worten: Ändert sich die Wahrscheinlichkeit von A, wenn B der Fall ist, so sind A und B voneinander (stochastich) abhängig.

Theorem 4.6 gilt natürlich in dieser Form für alle anderen Variablen ebenso, s. z.B. Theorem 4.7. \(\square\)

Theorem 4.7 (Stochastische Abhängigkeit 2) \[Pr(B|A) \ne Pr(B) \ne Pr(B|\neg A) \quad \square\]

Beispiel 4.12 Die Ereignisse “Lernen” und “Klausur bestehen” seien voneinander abhängig. Unsere Einschätzung zur Wahrscheinlichkeit von K ändert sich, wenn wir wissen, dass L vorliegt. Genauso wird sich unsere Einschätzung zur Wahrscheinlichkeit von K ändern, wenn wir wissen, dass L nicht vorliegt. \(\square\)

Beispiel 4.13 (Zusammenhang von Covidsterblichkeit und Impfquote) Sind die Ereignisse Tod durch Covid bzw. Impfquote (\(A\)) und Land9 (\(B\)) voneinander abhängig (s. Abbildung 4.4)?

(a) Impfquote und Land sind voneinander abhängig
(b) Anteil Corona-Tote und Land sind voneinander abhängig
Abbildung 4.4: Impfquote und Sterblichkeit sind voneinander abhängig (bezogen auf Covid, auf Basis vorliegender Daten)

Ja, die beiden Ereignisse sind abhängig, da in beiden Diagrammen gilt: \(Pr(A|B) \ne Pr(A) \ne Pr(A|\neg B)\).\(\square\)10

4.5.3 Unabhängigkeit ist symmetrisch

Stochastische Unabhängigkeit ist symmetrisch: Wenn \(A\) unabhängig zu \(B\) ist auch \(B\) unabhängig zu \(A\), s. Theorem 4.8.

Theorem 4.8 (Symmetrie der Unabhängigkeit) \[Pr(A|B) = Pr(A) \leftrightarrow Pr(B|A) = Pr(B)\]

Man beachte, dass stochastische Unabhängigkeit und kausale Unabhängigkeit unterschiedliche Dinge sind (Henze, 2019): Stochastische Unabhängigkeit impliziert nicht kausale Unabhängigkeit. \(\square\)

Übungsaufgabe 4.3 (Peer Instruction: Welche Aussagen über stochastische Unabhängigkeit ist korrekt?)  

  1. Wenn X und Y unabhängig sind, dann hat X keinen Einfluss auf Y im Alltag.
  2. Zwei Ereignisse A und B sind unabhängig, wenn sie sich nicht überschneiden.
  3. Wenn X und Y unkorreliert sind, dann sind sie unabhängig.
  4. Wenn X und Y abhängig sind, dann können sie nicht gleichzeitig positive Korrelation haben.
  5. Wenn X und Y unabhängig sind, sind sie auch unkorreliert.

4.6 Multiplikationssatz

Gegeben seien die Ereignisse \(A\) und \(B\). Der Multiplikationssatz wird verwendet, wenn wir an der Wahrscheinlichkeit interessiert sind, dass beide Ereignisse \(A\) und \(B\) der Fall sind; Abbildung 4.2 (d) verdeutlicht dies für zwei unabhängige Ereignisse. Man schreibt “A und B” als \(A \cap B\) (lies “A geschnitten B” oder “A und B”) oder kurz \(AB\), um anzuzeigen, dass sowohl \(A\) als auch \(B\) eingetreten sind.

Beide Ereignisse A und B sind eingetreten

Beide Ereignisse A und B sind eingetreten

Beispiel 4.14 (Wieder kalt und Regen) Es ist eine Sache, zu fragen, wie wahrscheinlich ist ist, dass es kalt ist (bei Kälte), wenn es regnet (bei Regen): \(Pr(K|R)\). Anders gesagt: “Wie groß ist die Wahrscheinlichkeit für Kälte, gegeben dass es regnet?” Eine andere Sache ist es, nach der Wahrscheinlichkeit zu fragen, dass es gleichzeitig kalt ist und regnet, dass also beide Ereignisse (kalt und Regen) eintreten: \(Pr(K \cap R), Pr(KR)\). \(\square\)

4.6.1 Gemeinsame Wahrscheinlichkeit unabhängiger Ereignisse

Beispiel 4.15 Wir führen das Zufallsexperiment “Wurf einer fairen Münze” zwei Mal aus (Abbildung 4.5). Wie groß ist die Wahrscheinlichkeit, 2 Mal Kopf zu werfen? Dabei vereinbaren wir, dass “Kopf” als “Treffer” zählt (und “Zahl” als “Niete”).\(\square\)

flowchart TD
    A[Start] --> B1[T]
    A --> B2[N]

    %% Zweiter Wurf
    B1 --> C1[TT]
    B1 --> C2[TN]
    B2 --> C3[NT]
    B2 --> C4[NN]

Abbildung 4.5: Wir werfen zwei faire Münzen: Zweifach wiederholtes Zufallsexperiment

Abbildung 4.5 zeigt ein Baumdiagramm. Jeder Kasten (Knoten) zeigt ein Ergebnis des Zufallexperiments. Die Pfeile (Kanten) symbolisieren die Abfolge des Experiments: Vom “Start” (schwarzer Kreis) führen zwei mögliche Ergebniss ab, jeweils mit Wahrscheinlichkeit 1/2. Die untersten Knoten nennt man auch Blätter (Endknoten), sie zeigen das Endresultat des (in diesem Fall) zweifachen Münzwurfs. Der Weg vom Start zu einem bestimmten Blatt nennt man Pfad. Die Anzahl der Pfade entspricht der Anzahl der Blätter. In diesen Diagramm gibt es vier Pfade (und Blätter).

Den Wurf der ersten Münze nennen wir in gewohnter Manier \(A\); den Wurf der zweiten Münze \(B\).

Die Wahrscheinlichkeiten der resultierenden Ereignisse finden sich in Tabelle 4.6.

Tabelle 4.6: Wahrscheinlichkeiten der Ereignisse im zweimaligen Münzwurf
Ereignis Pr
0K 1/2 * 1/2 = 1/4
1K 1/4 + 1/4 = 1/2
2K 1/2 * 1/2 = 1/4

Sei \(K_1\) das Ereignis, mit der 1. Münze Kopf zu werfen; sei \(K_2\) das Ereignis, mit der 2. Münze Kopf zu werfen.

Wir suchen \(Pr(K_1 \cap K_2)\). Aufgrund der stochastischen Unabhängigkeit der beiden Ereignisse gilt: \(Pr(K_1 \cap K_2) = Pr(K_1) \cdot Pr(K_2)\).

Code
Pr_K1K2 <- 1/2 * 1/2
Pr_K1K2
## [1] 0.25

Definition 4.5 (Multiplikationssatz für unabhängige Ereignisse) Die Wahrscheinlichkeit, dass zwei (oder mehr) unabhängige Ereignisse \(A\) und \(B\) gemeinsam eintreten, ist gleich dem Produkt ihrer jeweiligen Wahrscheinlichkeiten, s. Theorem 4.9. \(\square\)

Theorem 4.9 (Multiplikationssatz für unabhängige Ereignisse) \[Pr(A \cap B) = Pr(A) \cdot Pr(B)\]

Man beachte, dass es egal ist, ob \(A\) gemeinsam mit \(B\) oder \(B\) gemeinsam mit \(A\) eintreten: \(Pr(A \cap B) = Pr(B \cap A)\). Man spricht in diesem Zusammenhang von der Symmetrie der Multiplikation. \(\square\)

Mit dieser App können Sie das Baumdiagramm für den zweifachen Münzwurf näher erkunden.

Wir führen das Zufallsexperiment “Wurf einer fairen Münze” drei Mal aus (Abbildung 4.6). Dabei vereinbaren wir wieder, dass “Kopf” (K) als “Treffer” gilt und “Zahl” (Z) als “Niete”.

graph TD
    A[Start] --> B1[T]
    A --> B2[N]

    %% Zweiter Wurf
    B1 --> C1[TT]
    B1 --> C2[TN]
    B2 --> C3[NT]
    B2 --> C4[NN]

    %% Dritter Wurf
    C1 --> D1[TTT]
    C1 --> D2[TTN]
    C2 --> D3[TNT]
    C2 --> D4[TNN]
    C3 --> D5[NTT]
    C3 --> D6[NTN]
    C4 --> D7[NNT]
    C4 --> D8[NNN]
Abbildung 4.6: Wir werfen drei faire Münzen: Das dreifach wiederholte binäre Zufallexperiment

Beim Wurf von “fairen” Münzen gehen wir davon aus, dass Kenntnis des Ergebnis des 1. Wurfes unsere Einschätzung des Ergebnis des 2. Wurfes nicht verändert etc. Anders gesagt: Wir gehen von (stochastischer) Unabhängigkeit aus.

Für z.B. das Ereignis \(A=\{ZZZ\}\) gilt: \(Pr(A) = 1/2 \cdot 1/2 \cdot 1/2 = (1/2)^3\). Da jeder Endknoten (jedes Blatt) gleichwahrscheinlich ist, ist die Wahrscheinlichkeit jedes Endknotens gleich.

Allgemeiner gilt: Für ein Zufallsexperiment, das aus \(k\) Wiederholungen besteht und in jeder Wiederholung die Wahrscheinlichkeit \(Pr(X)=p\) ist, so ist die Wahrscheinlichkeit für einen Endkonten \(Pr(X^k)=p^k\).

Tabelle 4.7: Ausgewählte Wahrscheinlichkeiten von Ereignissen im dreifachen Münzwurf
Ereignis Pr
0K 1/2 * 1/2 * 1/2 = 1/8
1K 1/8 + 1/8 + 1/8 = 3/8
2K 3 * 1/8 = 3/8
3K 1/2 * 1/2 * 1/2 = 1/8

Da die Endknoten disjunkte Elementarereignisse sind, kann man ihre Wahrscheinlichkeit addieren, um zu anderen (zusammengesetzten) Ereignissen zu kommen, vgl. Tabelle 4.7.

Abbildung 4.2 versinnbildlicht nicht nur die Bedingtheit zweier Ereignisse, sondern auch die (Un-)Abhängigkeit zweier Ereignisse, \(A\) und \(B\). In diesem Fall ist die Wahrscheinlichkeit von \(A\) gleich \(B\): \(Pr(A)=Pr(B)=.5\). Man sieht, dass die Wahrscheinlichkeit von \(A\) bzw. von \(B\) jeweils die Hälfte der Fläche (der Gesamtfläche, d.h von \(Pr(\Omega)=1\)) ausmacht. Die Schnittmenge der Fläche von \(A\) und \(B\) entspricht einem Viertel der Fläche: \(Pr(AB) = Pr(A) \cdot Pr(B) = 50\% \cdot 50\% = 25\%.\) In diesem Fall sind \(A\) und \(B\) unabhängig. Abbildung 4.2 zeigt weiterhin, dass gilt: \(Pr(A\cap B) = P(A) \cdot P(B) = P(B) \cdot P(A)\). Man beachte, dass diese Formel nur bei Unabhängigkeit (von A und B) gilt.

4.6.2 Gemeinsame Wahrscheinlichkeit allgemeiner Ereignisse

Ein Baumdiagramm bietet sich zur Visualisierung allgemeiner abhängiger Ereignisse an, s. Abbildung 4.7.

Beispiel 4.16 In einer Urne befinden sich fünf Kugeln, von denen vier rot sind und eine blau ist.

Hier ist unsere Urne:

\[\boxed{\color{red}{R, R, R, R}, \color{blue}B}\]

Wie groß ist die Wahrscheinlichkeit, dass bei zwei Ziehungen ohne Zurücklegen (ZOZ) zwei rote Kugeln gezogen werden (Bourier, 2011), S. 47. Ereignis A: “Kugel im 1. Zug hat die Farbe Rot”. Ereignis B: “Kugel im 2. Zug hat die Farbe Rot”.

Und jetzt ziehen wir. Hier ist das Baumdiagramm, s. Abbildung 4.7.

flowchart LR
  A[Start] -->|4/5|B[Zug 1 - A]
  A -->|1/5|C[Zug 1 - nA]
  B -->|3/4|D[Zug 2 - B]
  B -->|1/4|E[Zug 2 -  nB]
  D --- H[Fazit: AB - 4/5*3/4 = 12/20]
  E --- I[Fazit: AnB - 4/5*1/4 = 4/20]
  C -->|4/4|F[Zug 2 - B]
  C -->|0/4|G[Zug 2 - nB]
  F --- J[Fazit: nAB - 1/5*4/4 = 4/20]
  G --- K[Fazit: nAnB - 1/5*0/4 = 0/20]
  
  
Abbildung 4.7: Baumdiagramm für ein zweistufiges Zufallsereignis, wobei der 2. Zug (Stufe) abhängig ist vom 1. Zug.

Wie man in Abbildung 4.7 nachrechnen kann gilt also: \(Pr(A\cap B) = P(A) \cdot P(B|A) = 4/5 \cdot 3/4 = 12/20 = 3/5 \quad \square\)

Definition 4.6 (Gemeinsame Wahrscheinlichkeit) Die Wahrscheinlichkeit, dass zwei abhängige Ereignisse \(A\) und \(B\) gemeinsam eintreten, ist gleich dem Produkt der Wahrscheinlichkeit von \(A\) und der bedingten Wahrscheinlichkeit von \(B\) gegeben \(A\), s. Theorem 4.10. \(\square\)

Theorem 4.10 (Gemeinsame Wahrscheinlichkeit) \[Pr(A \cap B) = Pr(A) \cdot Pr(B|A) \quad \square\]

Beispiel 4.17 (Kalt und Regen) Von McElreath (2020) stammt diese Verdeutlichung der gemeinsamen Wahrscheinlichkeit. Was ist die Wahrscheinlichkeit für das gemeinsame Auftreten von kalt ❄ und Regen ⛈️? Die Wahrscheinlichkeit für kalt und Regen ist die Wahrscheinlichkeit von Regen ⛈, wenn’s kalt ❄ ist mal die Wahrscheinlichkeit von Kälte ❄.

Ebenfalls gilt: Die Wahrscheinlichkeit für kalt und Regen ist die Wahrscheinlichkeit von Kälte ❄, wenn’s regnet ⛈️ mal die Wahrscheinlichkeit von Regen ⛈️.

Das Gesagte als Emoji-Gleichung ist in Gleichung 4.1 dargestellt.

\[Pr(❄️ \text{ und } ⛈️) = P(⛈️ |❄️ ) \cdot P(❄️) = P(❄️ |⛈️ ) \cdot P(⛈️) \tag{4.1}\]

Man kann die “Gleichung drehen”11, s. Gleichung 4.2.

\[Pr(❄️ \text{ und } ⛈️) = P(⛈️ \text{ und } ❄️) \tag{4.2}\] \(\square\)

Beispiel 4.18 (Bertie Botts Bohnen jeder Geschmacksrichtung)  

Sei bloß vorsichtig mit denen. Wenn sie sagen jede Geschmacksrichtung, dann meinen sie es auch - Du kriegst zwar alle gewöhnlichen wie Schokolade und Pfefferminz und Erdbeere, aber auch Spinat und Leber und Kutteln. George meint, er habe mal eine mit Popelgeschmack gehabt.“

— Ron Weasley zu Harry Potter12

In einem Beutel liegen \(n=20\) Bertie Botts Bohnen jeder Geschmacksrichtung. Uns wurde verraten, dass fast alle gut schmecken, also z.B. nach Schokolade, Pfefferminz oder Marmelade. Leider gibt es aber auch \(x=2\) furchtbar scheußliche Bohnen (Ohrenschmalz-Geschmacksrichtung oder Schlimmeres). Sie haben sich nun bereit erklärt, \(k=2\) Bohnen zu ziehen. Und zu essen, und zwar direkt und sofort! Also, jetzt heißt es tapfer sein. Ziehen und runter damit!

Wie groß ist die Wahrscheinlichkeit, genau eine scheußliche Bohne zu erwischen?

Es gibt 2 Pfade für 1 Treffer bei 2 Wiederholungen (Züge aus dem Beutel), s. Abbildung 4.8: Man kann im ersten Zug eine scheußliche Bohne erwischen, aber nicht im zweiten Zug. Oder man man im zweiten Zug Pech haben (aber nicht im ersten). Die Summe der Wahrscheinlichkeiten beider Pfade ist die Wahrscheinlichkeit für genau eine scheußliche Bohne, das sind 19%.

graph LR
    A[Start: 20 Bohnen] --> B1[Bohne 1 gut = 18/20]
    A --> B2[Bohne 1 schlecht = 2/20]
    
    B1 --> C1[Bohne 2 gut = 17/19]
    B1 --> C2[Bohne 2 schlecht = 2/19]
    
    B2 --> C3[Bohne 2 gut = 18/19]
    B2 --> C4[Bohne 2 schlecht = 1/19]
    
    C1 --> D1[Ergebnis: gut, gut]
    C2 --> D2[Ergebnis: gut, schlecht]
    C3 --> D3[Ergebnis: schlecht, gut]
    C4 --> D4[Ergebnis: schlecht, schlecht]

Abbildung 4.8: Baumdiagramm für ein ein zweistufiges Zufallsereignis: Bertie Botts Bohnen.
Code
Pfad1 <- 2/20 * 18/19  # scheußliche Bohne im 1. Zug
Pfad2 <- 18/20 * 2/19  # scheußliche Bohne im 2. Zug


Gesamt_Pr <- Pfad1 + Pfad2 
Gesamt_Pr
## [1] 0.19

Nutzen Sie diese App, um das auszuprobieren. Sie müssen in der App noch die Zahl der Bohnen (\(n\)) und die Zahl der scheußlichen Bohnen (\(x\)) einstellen.\(\square\)

4.6.3 Kettenregel

Definition 4.7 (Kettenregel) Allgemein gesagt, spricht man von der Kettenregel der Wahrscheinlichkeitsrechnung, wenn man die gemeinsame Wahrscheinlichkeit auf die bedingte zurückführt, s. Theorem 4.11. \(\square\)

Theorem 4.11 (Kettenregel) \[Pr(A\cap B) = P(A) \cdot P(B|A) = P(B) \cdot P(A|B) \square\]

In Worten: Die Wahrscheinlichkeit von \(A\) gegeben \(B\) ist gleich der Wahrscheinlichkeit von \(A\) mal der Wahrscheinlichkeit von \(B\) gegeben \(A\).

Übungsaufgabe 4.4 (Baumdiagramm sucht Problem) Überlegen Sie sich eine Problemstellung (Aufgabenstellung), die mit dieser Baumdiagramm-App gelöst werden kann.\(\square\)

Übungsaufgabe 4.5 (Peer Instruction: Dreifacher Münzwurf) Fünf Studierende unterhalten sich, wie man einen dreifachen Münzwurf verstehen kann mit dem Ergebnis von drei Treffern. Welcher Studierende liegt falsch? Gehen Sie von einer faire Münze aus und Unabhängigkeit der Würfe.

  1. Wirft man die Münze drei Mal, so gibt es 6 Ergebnisse, die alle gleich wahrscheinlich sind. Aber nur ein Ergebnis ist gesucht, nämlich 3 von 3 Treffern. Also ist die Wahrscheinlichkeit 1/6, ca. 17%.
  2. Man kann einfach einen Computer fragen, z.B. R mit dbinom(x = 3, size = 3, prob = 1/2), da kommt ungefähr 12% raus.
  3. Wirft man die Münze drei Mal, so gibt es 8 Ergebnisse, die alle gleich wahrscheinlich sind. Aber nur ein Ergebnis ist gesucht, nämlich 3 von 3 Treffern. Also ist die Wahrscheinlichkeit 1/8, ca. 12,5%.
  4. Wer rechnen kann, ist klar im Vorteil \(\left( \frac{1}{2} \right)^3 = \left( \frac{1}{2^3} \right) = \left( \frac{1}{8} \right)\)
  5. Holt mich hier raus! \(\square\)

4.7 Totale Wahrscheinlichkeit

Beispiel 4.19 (Gesamter Ausschussanteil) Die folgende Aufgabe bezieht sich auf Bourier (2011), S. 56. Drei Maschinen (\(M_1, M_2, M_3\)) produzieren einen Artikel. Die Maschinen haben einen Anteil an der Produktion von 60, 10 bzw. 30% und eine Ausschussquote von 5,2 bzw. 4%. Sei \(M\) das Ereignis, dass ein Artikel von Maschine \(M\) stammt, und \(S\) (Schrott) das Ereignis, dass ein Artikel Ausschuss (Schrott) ist. Gesucht ist ist der Ausschussanteil insgesamt (über alle drei Maschinen). Anders gesagt: Wie hoch ist die Wahrscheinlichkeit \(Pr(S')\), dass ein zufällig gezogener Artikel Ausschuss ist? Abbildung 4.9 zeigt das Baumdiagramm für die Aufgabe. \(\square\)

flowchart LR
  A[Start] -->|0.6|B[M1]
  A -->|0.1|C[M2]
  A -->|0.3|D[M3]
  B -->|0.05|E[S]
  B -.->|0.95|F[Nicht-S]
  C -->|0.02|G[S]
  C -.->|0.98|H[Nicht-S]
  D -->|0.04|I[S]
  D -.->|0.96|J[Nicht-S]
Abbildung 4.9: Totale Wahrscheinlichkeit

Die Anteile an der Produktion und vom Ausschluss sind in Abbildung 4.10 verdeutlicht.

Code
source("R-code/plot_maschine_schrott.R")
plot_maschine_schrott
Abbildung 4.10: Anteile von Produktion und Ausschuss

Dazu addieren wir die Wahrscheinlichkeiten der relevanten Äste. Jeder Ast stellt wiederum das gemeinsame Auftreten der Ereignisse \(M_i\) und \(S\) dar.

Code
W_Ast1 <- 0.6 * 0.05  # Wahrscheinlichkeit für Ast 1
W_Ast2 <- 0.1 * 0.02  # ... Ast 2
W_Ast3 <- 0.3 * 0.04  # ... Ast 3
W_total <- W_Ast1 + W_Ast2 + W_Ast3  # totale W.
W_total
## [1] 0.044

Die totale Wahrscheinlichkeit (für Ausschuss) beträgt in diesem Beispiel also \(Pr(B') = 0.044 = 4.4\%\).13

Definition 4.8 (Totale Wahrscheinlichkeit) Bilden die Ereignisse \(M_1, M_2, ..., M_n\) ein vollständiges Ereignissystem und ist \(S\) ein beliebiges Ereignis dann gilt Theorem 4.12. \(\square\)

Theorem 4.12 (Totale Wahrscheinlichkeit) \[Pr(S') = \sum_{i=1}^n Pr(M_i) \cdot Pr(S|M_i).\square\]

In Worten: Die totale Wahrscheinlichkeit ist die Summe der gewichteten Teil-Wahrscheinlichkeiten.

In Abbildung 4.9 (Beispiel 4.19) gilt \(Pr(S') = 0.6 \cdot 0.05 + 0.1 \cdot 0.02 + 0.3 \cdot 0.04 = 0.03 + 0.002 + 0.012 = 0.04.\square\)

Übungsaufgabe 4.6 (Bertie Botts Bohnen jeder Geschmacksrichtung, Teil 2) Es ist die gleich Aufgabe wie Beispiel 4.18, aber jetzt lautet die Frage: Wie groß ist die Wahrscheinlichkeit, mindestens eine scheußliche Bohne bei 3 Zügen zu erwischen?14 \(\square\)

4.7.1 Baumsammlung

Baumdiagramme sind ein hilfreiches Werkzeug für wiederholte Zufallsexperimente. Daher ist hier eine “Baumsammlung”15 zusammengestellt.

4.8 Vertiefung

Bei Henze (2019) findet sich eine anspruchsvollere Einführung in das Rechnen mit Wahrscheinlichkeit; dieses Kapitel behandelt ein Teil des Stoffes der Kapitel 2 und 3 von Henze (2019).

Mit dieser App, die ein zweistufiges Baumdiagramm zeigt, können Sie das Verhalten von verschiedenen Arten von Wahrscheinlichkeiten weiter untersuchen.

Diese App lässt dich herausfinden, ob man wirklich krank ist, wenn der Arzt es bheauptet.

Das Video zu Bayes von 3b1b verdeutlicht das Vorgehen der Bayes-Methode auf einfache und anschauliche Weise.

Mittag & Schüller (2020) stellen in Kap. 11 die Grundlagen der Wahrscheinlichkeitstheorie vor. Ähnliche Darstellungen finden sich in einer großen Zahl an Lehrbüchern.

4.9 Aufgaben

Bearbeiten Sie die Aufgabe in der angegeben Literatur.

Die Webseite datenwerk.netlify.app stellt eine Reihe von einschlägigen Übungsaufgaben bereit. Sie können die Suchfunktion der Webseite nutzen, um die Aufgaben mit den folgenden Namen zu suchen:

4.9.1 Paper-Pencil-Aufgaben

  1. Additionssatz1
  2. Nerd-gelockert
  3. Urne1
  4. Urne2
  5. k-coins-k-hits
  6. sicherheit
  7. sicherheit2
  8. Klausuren-bestehen
  9. Gem-Wskt1
  10. Gem-Wskt2
  11. Gem-Wskt3
  12. Gem-Wskt4
  13. wuerfel05
  14. wuerfel06
  15. Bed-Wskt1
  16. Bed-Wskt2
  17. Bed-Wskt3
  18. voll-normal
  19. corona-blutgruppe
  20. totale-Wskt1
  21. wskt-quiz14
  22. wskt-quiz09
  23. prob-vereinigung
  24. bestehen_ohne_lernen

4.9.2 Aufgaben, für die man einen Computer braucht

  1. mtcars-abhaengig
  2. mtcars-abhaengig-var2
  3. mtcars-abhaengig_var3a
  4. wskt-df-r

4.10


  1. Die Wahrscheinlichkeit, keine 6 zu würfeln, liegt bei \(2/3\).↩︎

  2. vermutlich gibt es noch mehr Annahmen, die wir uns explizit machen sollten.↩︎

  3. genauer besehen sieht sie eher aus wie eine Grütze oder ein Brei↩︎

  4. Sie schmeckt scheußlich.↩︎

  5. \(Pr(L).85; Pr(\neg L) = .15; Pr(B) =.81; Pr(\neg B) = .19\)↩︎

  6. Exakte Gleichheit ist in dieser Welt empirisch schwer zu finden. Daher kann man vereinbaren, dass Unabhängigkeit erfüllt ist, wenn die Gleichheit “einigermaßen” oder “ziemlich” gilt, die Gleichheit gewissermaßen “praktisch bedeutsam” ist.↩︎

  7. Vgl. Theorem 4.9↩︎

  8. Wer Daten dazu hat oder eine Theorie, der melde sich bitte bei mir.↩︎

  9. hier mit den zwei Ausprägungen DEU und USA↩︎

  10. Daten von Our World in Data, https://ourworldindata.org/covid-deaths.↩︎

  11. Der Multiplikationssatz ist symmetrisch↩︎

  12. Quelle: https://harrypotter.fandom.com/de/wiki/Bertie_Botts_Bohnen_jeder_Geschmacksrichtung↩︎

  13. Einfacher als das Rechnen mit Wahrscheinlichkeiten ist es in solchen Fällen, wenn man anstelle von Wahrscheinlichkeiten absolute Häufigkeiten zum Rechnen verwendet.↩︎

  14. Die Wahrscheinlichkeit keine scheußliche Bohne zu ziehen ist \(17/20 \cdot 16/19 \cdot 15/18) \approx 0.6\). Daher ist die gesuchte Wahrscheinlichkeit (mindestens eine scheußliche Bohne) das Komplement davon: \(0.4\).↩︎

  15. Wald?↩︎