Bedingte Wahrscheinlichkeiten

Einführung

Wir betrachten ein mehrstufiges Zufallsexperiment mit den zwei Ereignissen

Das Baumdiagramm habe die Gestalt

Hat ein Schüler gelernt, so besteht er mit einer Wahrscheinlichkeit von 90 % die Prüfung, hat er nicht gelernt, besteht er die Prüfung nur mit einer Wahrscheinlichkeit von 20 %. Die Wahrscheinlichkeit, dass ein Schüler die Prüfung besteht, hängt also davon ab, ob er gelernt hat. Mit anderen Worten: Die Wahrscheinlichkeit für $B$ (und auch für $\overline{B}$) hängt davon ab, ob $A$ eingetreten ist (oder nicht). Diese Wahrscheinlichkeiten der zweiten Stufe des Baumdiagramms heißen bedingte Wahrscheinlichkeiten, da für sie eine Bedingung $-$ hier $A$ oder $\overline{A}$ $-$ vorliegt. Wir verwenden die folgenden Bezeichnungen

Es ergeben sich die folgenden Interpretationen:

Ähnliches gilt für die Wahrscheinlichkeiten $P_B(A)$, $P_B(\overline{A})$, $P_{\overline{B}}(A)$ und $P_{\overline{B}}(\overline{A})$.

Wichtig ist die Unterscheidung zwischen $P(A\cap B)$, $P_A(B)$ und $P_B(A)$:

1. Info
Wenn wir Wahrscheinlichkeiten im Sachzusammenhang interpretieren möchten, müssen wir darauf achten, wie $A$ und $B$ miteinander in Beziehung stehen:
\[\begin{align*} P(A\cup B)&: \text{Wkt. für $A$ oder $B$}\\ P(A\cap B)&: \text{Wkt. für $A$ und $B$}\\ P(A\cup B)-P(A\cap B) \text{ oder } P(A\cap\overline{B})+P(\overline{A}\cap B)&: \text{Wkt. für entweder $A$ oder $B$ }\\ P_A(B)&: \text{Wkt. für $B$ unter der Bedingung $A$}\\ P_B(A)&: \text {Wkt. für $A$ und der Bedingung $B$}\\ \end{align*}\]

Berechnungen

Formel für die bedingte Wahrscheinlichkeit

Die Pfadmultiplikationsregel besagt, dass $P(A)\cdot P_A(B) = P(A\cap B)$. Damit folgt unmittelbar

\[P_A(B)=\frac{P(A\cap B)}{P(A)}.\]

Für $P_A(B)$ ist auch die Bezeichnung $P(B|A)$ üblich. Wir nennen $P_A(B)$ die Wahrscheinlichkeit von $B$ unter der Bedingung $A$. Entsprechend gilt die Formel für andere Konstellationen, z.B. $P_B(A)=\frac{P(A\cap B)}{P(B)}$ oder $P_{\overline{A}}(B)=\frac{P(\overline{A}\cap B)}{P(\overline{A})}$.

Im Beispiel haben wir $P_A(B)=0{,}9$ und $P_{\overline{A}}(B)=0{,}2$. Die Wahrscheinlichkeit eine Prüfung zu bestehen ist also größer, wenn man gelernt hat.

Das Ganze und der Teil

Bedingte Wahrscheinlichkeiten lassen sich auch mit Hilfe relativer Häufigkeiten beschreiben. Allgemein können Wahrscheinlichkeiten als relative Häufigkeiten oder Anteile interpretiert werden:

\[\text{Wahrscheinlichkeit} = \text{Anteil} =\frac{\text{Teil}}{\text{Ganze}}.\]

Angenommen in unserem Beispiel haben 200 Schüler die Prüfung geschrieben. Dann haben

Für $P_A(B)$ betrachten wir nur die Schüler, die gelernt haben, das sind $126+14=140.$ Davon haben nun $126$ die Prüfung bestanden. Wir erhalten $P_A(B)=\frac{126}{140}=90\%$.

Zusammengefasst:

Das inverse Baumdiagramm

Es ist wichtig zu erwähnen, dass im Baumdiagramm

die Wahrscheinlichkeiten $P_B(A)$, $P_B(\overline{A})$, $P_{\overline{B}}(A)$ und $P_{\overline{B}}({\overline{A}})$ nicht abgelesen werden können. Um diese bedingten Wahrscheinlichkeiten ablesen zu können, benötigen wir $B$ und $\overline{B}$ auf der ersten und $A$ und $\overline{A}$ auf der zweiten Stufe. Mit anderen Worten: Wir müssen ein neues Baumdiagramm aufstellen, das sogenannte inverse Baumdiagramm, indem $A$ und $B$ vertauscht sind.

Dafür berechnen wir zunächst $P(B)=0{,}05+0{,}15=0{,}2$. Damit ist $P(\overline{B})=0{,}8$. Aus $P(A\cap B)=P(B)\cdot P_B(A)$ (1. Pfadendwahrscheinlichkeit des inversen Baumdiagramms) folgt dann $P_B(A)=0{,}05:0{,}2=0{,}25$. Analog berechnen wir die weiteren bedingten Wahrscheinlichkeiten.

Das inverse Baumdiagramm lautet schließlich

Hier treten nun die Wahrscheinlichkeiten mit $B$- und $\overline{B}$-Bedingung auf. Wir können z.B. ablesen, dass $P_{\overline{B}}(A)=0{,}5625$ ist. Für das Beispiel bedeutet dies: Die Wahrscheinlichkeit, dass ein Schüler, der die Prüfung nicht besteht, gelernt hat, beträgt 56,25 %.

Der Satz von Bayes

Aus der Defintion der bedingten Wahrscheinlichkeit

\[P_A(B)=\frac{P(A\cap B)}{P(A)}\]

folgt $P(A\cap B)=P(A)\cdot P_A(B)$. Für die bedingte Wahrscheinlichkeit mit $A$ und $B$ vertauscht gilt dann

\[\begin{align*} P_B(A)&=\frac{P(A\cap B)}{P(B)}\\ P_B(A)&=\frac{P(A)\cdot P_A(B)}{P(B)}.\\ \end{align*}\]

Mit letzterer Formel lassen sich bedingte Wahrscheinlichkeiten direkt umrechnen, sie wird auch Satz von Bayes genannt.

Im obigen Baumdiagramm gilt beispielsweise

\[\begin{align*} P_B(A)&=\frac{P(A)\cdot P_A(B)}{P(B)}\\ &=\frac{0{,}05\cdot 0{,}01}{0{,}2}\\ &=0{,}25. \end{align*}\]

Stochastische Unabhängigkeit

Eng verbunden mit dem Begriff der stochastischen Unabhängigkeit ist die stochastische Unabhängigkeit. Wir erinnern an das Einführungsbeispiel mit den zwei Ereignissen

und dem Baumdiagramm

Die Wahrscheinlichkeit von $B$ hängt hier davon ab, ob $A$ eingetreten ist. Wir sagen dazu auch, dass $A$ und $B$ stochastisch abhängig sind. Wäre dies nicht der Fall, hätte das Baumdiagramm also z.B. die Gestalt

so wäre die Wahrscheinlichkeit von $B$ nicht davon abhängig, ob $A$ eingetreten ist. Wir sagen dann, dass $A$ und $B$ stochastisch unabhängig sind. Mit anderen Worten: Zwei Ereignisse $A$ und $B$ sind stochastisch unabhängig, falls $P_A(B)=P_{\overline{A}}(B)$.

Auf unser Beispiel bezogen (mit dem 2. Baumdiagramm) bedeutet die stochastische Unabhängigkeit von $A$ und $B$, dass das Lernen für eine Prüfung unabhängig vom Bestehen der Prüfung ist.

Baumdiagramme und stochastische Unabhängigkeit

2. Info
Sind zwei Ereignisse $A$ und $B$ stochastisch unabhängig, so können wir diese Information beim Erstellen von Baumdiagrammen gezielt nutzen: Die beiden Wahrscheinlichkeitspaare auf der zweiten Stufe stimmen überein.

Ein Baumdiagramm mit stochastisch unabhängigen Ereignissen $A$ und $B$ habe die Gestalt

Wie lautet die Wahrscheinlichkeit 5 ? Da $A$ und $B$ stochastisch unabhängig sind gilt $P_A(B)=P_{\overline{A}}(B)$. Die Wahrscheinlichkeit 5 ist also $0{,}3$. Das restliche Baumdigramm kann nun wie gewohnt vervollständigt werden.

Haben wir ein vollständig ausgefülltes Baumdiagramm vorliegen, so können wir wie gewohnt verschiedene Wahrscheinlichkeiten bestimmen.

3. Info
Bestimmung von Wahrscheinlichkeiten anhand eines Baumdiagramms (1. Stufe A und 2. Stufe B):
\[\begin{align*} P(A)&: \text{entsprechnde Wkt. auf der 1. Stufe}\\ P(B)&: \text{Achtung: Diese Wahrscheinlchkeit kann nicht direkt abgelesen werden (wenn $A$ und $B$ stochastisch abhängig sind). Stattdessen verwenden wir $P(B)=P(A\cap B)+P(\overline{A}\cap B)$.}\\ P(A\cup B)&: \text{Summe der drei entsprechenden Pfadendwahrscheinlichkeiten}\\ P(A\cap B)&: \text{entsprechende Pfadendwahrscheinlichkeit}\\ P(A\cup B)-P(A\cap B) \text{ oder } P(A\cap\overline{B})+P(\overline{A}\cap B)&: \text{Summe der zwei entsprechenden Pfadendwahrscheinlichkeiten}\\ P_A(B)&: \text{entsprechnde Wkt. auf der 2. Stufe}\\ P_B(A)&: \text {Achtung: Diese Wkt. kann nicht direkt abgelesen werden, da keine $B$-Bedingung vorliegt. Stattdessen verwenden wir die Formel $P_B(A)=\frac{P(A\cap B)}{P(B)}$.}\\ \end{align*}\]

Weitere Formulierungen der stochastischen Unabhängigkeit

Es gibt mehrere ähnliche Aussagen, die alle die stochastische Unabhängigkeit beschreiben. Die folgenden Aussagen sind äquivalent:

  1. $P_A(B)=P_{\overline{A}}(B)$
  2. $P(B)=P_A(B)$
  3. $P(A\cap B)=P(A)\cdot P(B)$

Außerdem können hier beliebig $A$ durch $\overline{A}$ und $B$ durch $\overline{B}$ ersetzt werden. Das heißt: $A$ und $B$ sind genau dann stochastisch unabhängig, falls $A$ und $\overline{B}$ (oder $\overline{A}$ und $B$ oder $\overline{A}$ und $\overline{B}$) stochastisch unabhängig sind.

Exkurs: Beweise

Prüfen auf stochastische Unabhängigkeit

Um festzustellen, ob zwei Ereinisse $A$ und $B$ stochastisch abhängig oder unabhängig sind, müssen wir eine der obigen drei Formulierungen prüfen. Sind die bedingten Wahrscheinlichkeiten bekannt, weil z.B. das Baumdiagramm gegeben ist, können wir die stochastische Unabhängigkeit direkt mit der 1. Formulierung (“die Pfadwahrscheinlichkeiten der 2. Stufe sind gleich”) feststellen (siehe Beispiele oben).

Sind keine bedingten Wahrscheinlichkeiten bekannt, verwenden wir häufig die 3. Formulierung.

Beispiel: Cannabis und Amphetamine (1)

Wir betrachten die Ereignisse

Aus Studien sei bekannt, dass $P(A)=3\%$ und $P(B)=1\%$. Außerdem gelte $P(A\cap B)=0{,}02\%$.

Sind $A$ und $B$ stochastisch unabhängig?

Es gilt $P(A)\cdot P(B)=0{,}03\cdot 0{,}01=0{,}0003$. Da $P(A\cap B)=0{,}0002\neq0{,}0003$ sind $A$ und $B$ stochastisch abhängig.

Beispiel: Romeo und Julia (1)

Die Wahrscheinlichkeit, dass beide anwesend sind, beträgt 45 %. Die Wahrscheinlichkeit, dass beide fehlen, beträgt 10 %. Die Wahrscheinlichkeit, dass Romeo anwesend ist und Julia fehlt, beträgt 15 %.

Wir betrachten die Ereignisse:

Sind $A$ und $B$ stochastisch unabhängig?

Es gilt $P(A\cap B)=0{,}45$, $P(\overline{A}\cap \overline{B})=0{,}1$ und $P(A\cap \overline{B})=0{,}15$. Wir berechnen

\[\begin{align*} P(A) &= P(A\cap B) + P(A\cap \overline{B})\\ & = 0{,}45 + 0{,}15 \\ &= 0{,}6 \end{align*}\] \[\begin{align*} P(\overline{B}) & = P(A\cap \overline{B}) + P(\overline{A}\cap \overline{B}) \\ & = 0{,}15 + 0{,}1 \\ &= 0{,}25 \end{align*}\]

Nun ist $P(A)\cdot P(\overline{B})=0{,}6 \cdot 0{,}25 = 0{,}15$. Es gilt also $P(A)\cdot P(\overline{B}) = P(A\cap \overline{B})$. Damit sind $A$ und $\overline{B}$ stochastisch unabhängig, und somit auch $A$ und $B$. (Diese Berechnungen werden mit den Begriffen des nächsten Abschnitts übersichtlicher.)

Vier-Felder-Tafeln

Neben Baumdiagrammen können Zufallsexperimente mit zwei Ereignissen auch durch Vier-Felder-Tafeln dargestellt werden. Die allgemeine Form lautet

  $B$ $\overline{B}$ $\Sigma$
$A$ $P(A \cap B)$ $P(A \cap \overline{B})$ $P(A)$
$\overline{A}$ $P(\overline{A} \cap B)$ $P(\overline{A} \cap \overline{B})$ $P(\overline{A})$
$\Sigma$ $P(B)$ $P(\overline{B})$ $1$

Das Summenzeichen $\Sigma$ beschreibt, dass die äußeren Wahrscheinlichkeiten gleich der Summe zugehörigen inneren Wahrscheinlichkeiten sind:

Diese Beobachtung ist wichtig, wenn wir Vier-Felder-Tafeln aufstellen wollen.

Beispiel: Cannabis und Amphetamine (2)

Wir hatten die Ereignisse

Bekannt war, dass $P(A)=3\%$, $P(B)=1\%$ und $P(A\cap B)=0{,}02\%$. Damit ergibt sich

  $B$ $\overline{B}$ $\Sigma$
$A$ $0{,}0002$ $P(A \cap \overline{B})$ $0{,}03$
$\overline{A}$ $P(\overline{A} \cap B)$ $P(\overline{A} \cap \overline{B})$ $P(\overline{A})$
$\Sigma$ $0{,}01$ $P(\overline{B})$ $1$

Die übrigen Wahrscheinlichkeiten können wie folgt berechnet werden:

Damit lautet die vollständige Vier-Felder-Tafel

  $B$ $\overline{B}$ $\Sigma$
$A$ $0{,}0002$ $0{,}0298$ $0{,}03$
$\overline{A}$ $0{,}0098$ $0{,}9602$ $0{,}97$
$\Sigma$ $0{,}01$ $0{,}99$ $1$

Hier können wir z.B. ablesen, dass eine Person mit einer Wahrschheinlichkeit von 96,02 % weder Cannabis noch Amphetamine konsumiert.

Beispiel: Romeo und Julia (2)

Wir hatten die Ereignisse

Bekannt war $P(A\cap B)=0{,}45$, $P(\overline{A}\cap \overline{B})=0{,}1$ und $P(A\cap \overline{B})=0{,}15$. Damit ergibt sich

  $B$ $\overline{B}$ $\Sigma$
$A$ $0{,}45$ $0{,}15$ $P(A)$
$\overline{A}$ $P(\overline{A} \cap B)$ $0{,}1$ $P(\overline{A})$
$\Sigma$ $P(B)$ $P(\overline{B})$ $1$

Die übrigen Wahrscheinlichkeiten können wie folgt berechnet werden:

Damit lautet die vollständige Vier-Felder-Tafel

  $B$ $\overline{B}$ $\Sigma$
$A$ $0{,}45$ $0{,}15$ $0{,}6$
$\overline{A}$ $0{,}3$ $0{,}1$ $0{,}4$
$\Sigma$ $0{,}75$ $0{,}25$ $1$

Hier können wir z.B. ablesen, dass Romeo mit einer Wahrschheinlichkeit von 60 % anwesend ist.

4. Info
Rechenregel in Vier-Felder-Tafeln:

Wir können von ‘innen nach außen addieren’: Die Summe zweier innerer Wahrscheinlichkeiten einer Zeile (bzw. Spalte) ist die Wahrscheinlichkeit in der entsprechenden letzten Zeile (bzw. Spalte). Dies kann umgeformt werden, wenn z.B. eine Wahrscheinlichkeit in der letzten Zeile (bzw. Spalte) gegeben ist.

Haben wir eine vollständig ausgefüllte Vier-Felder-Tafel vorliegen, so können wir wie verschiedene Wahrscheinlichkeiten bestimmen.

5. Info
Bestimmung von Wahrscheinlichkeiten anhand einer Vier-Felder-Tafel:
  • $P(A)$ und $P(B)$ stehen in der letzten Zeile und Spalte.
  • Die $\cap$-Wahrscheinlichkeiten stehen per Definition im Inneren der Tafel.
  • Die $\cup$-Wahrscheinlichkeiten sind die Summe der drei zugehörigen inneren Wahrscheinlichkeiten.

Vier-Felder-Tafeln und stochastische Unabhängigkeit

Eine Formulierung der stochastischen Unabhängigkeit ist $P(A\cap B)=P(A)\cdot P(B)$. Diese Bedingung kann leicht anhand einer Vier-Felder-Tafel geprüft werden: Der innere Wert $P(A\cap B)$ ist das Produkt der entsprechenden äußeren Wahrscheinlichkeiten $P(A)$ und $P(B)$. Ist dies der Fall, so sagen wir, dass die Vier-Felder-Tafel multiplikativ ist.

6. Info
Sind zwei Ereignisse $A$ und $B$ stochastisch unabhängig, so können wir diese Information beim Erstellen von Vier-Felder-Tafeln gezielt nutzen: Wir können ‘von außen nach innen multiplizieren.’

Eine Vier-Felder-Tafel mit stochastisch unabhängigen Ereignissen $A$ und $B$ habe die Gestalt

  $B$ $\overline{B}$ $\Sigma$
$A$ $x$   $0{,}7$
$\overline{A}$      
$\Sigma$ $0{,}2$   $1$

Da $A$ und $B$ stochastisch unabhängig sind, ist die Vier-Felder-Tafel mutiplikativ, und es gilt $P(A\cap B)=P(A)\cdot P(B)$. Die Wahrscheinlichkeit $x$ ist also $0{,}2\cdot 0{,}7=0{,}14$. Die restliche Vier-Felder-Tafel kann nun wie gewohnt vervollständigt werden.

Haben wir eine vollständig ausgefüllte Vier-Felder-Tafel vorliegen, können wir sie interpretieren. Um dabei festzustellen, ob $A$ und $B$ stochastisch unabhägig sind, müssen wir prüfen, ob die Vier-Felder-Tafel multiplikativ ist.

Beispiel: Cannabis und Amphetamine (3)

Die Vier-Felder-Tafel hatte die Gestalt

  $B$ $\overline{B}$ $\Sigma$
$A$ $0{,}0002$ $0{,}0298$ $0{,}03$
$\overline{A}$ $0{,}0098$ $0{,}9602$ $0{,}97$
$\Sigma$ $0{,}01$ $0{,}99$ $1$

Wir erkennen, dass $0{,}03 \cdot 0{,}01 \neq 0{,}0002$ ist. Die Vier-Felder-Tafel ist nicht multiplikativ, und $A$ und $B$ sind stochastisch abhängig.

Beispiel: Romeo und Julia (3)

Die Vier-Felder-Tafel hatte die Gestalt

  $B$ $\overline{B}$ $\Sigma$
$A$ $0{,}45$ $0{,}15$ $0{,}6$
$\overline{A}$ $0{,}3$ $0{,}1$ $0{,}4$
$\Sigma$ $0{,}75$ $0{,}25$ $1$

Wir erkennen, dass $0{,}6 \cdot 0{,}75 = 0{,}45$ ist. Die Vier-Felder-Tafel ist multiplikativ, und $A$ und $B$ sind stochastisch unabhängig.

7. Info
Bestimmung von bedingten Wahrscheinlichkeiten anhand einer Vier-Felder-Tafel:
  • Bedingte Wahrscheinlichkeiten müssen mit Formeln der Art $P_B(A)=\frac{P(A\cap B)}{P(B)}$ berechnet werden.
  • $A$ und $B$ sind stochastisch unabhängig, wenn die Vier-Felder-Tafel multiplikativ ist.

Vergleich: Baumdiagramme und Vier-Felder-Tafeln

Baumdiagramme und Vierfeldertafeln stellen Wahrscheinlichkeiten, die beim Betrachten von zwei Ereignissen auftreten, auf unterschiedliche Weise dar. In Baumdiagrammen lassen sich die einzelnen Stufen eines Zufallsexperiments gut nachvollziehen: Zunächst tritt das Ereignis $A$ ein, anschließend das Ereignis $B$. Dabei können bedingte Wahrscheinlichkeiten wie $P_A(B)$ direkt abgelesen werden. Vierfeldertafeln hingegen behandeln die Ereignisse $A$ und $B$ symmetrisch. Sowohl $P(A)$ als $P(B)$ sind direkt aus den Tabellenwerten ersichtlich.

$A$ und $B$ sind stochastisch:
Vier-Felder-Tafel
\( B \) \( \overline{B} \) \( \Sigma \)
\( A \)
\( \overline{A} \)
\( \Sigma \)

Weitere Aufgaben

Stehen weder ein Baumdiagramm noch eine Vierfeldertafel zur Verfügung, können wir mit den vorgestellten Formeln arbeiten. Dabei kann es jedoch hilfreich sein, sich das Baumdiagramm oder die Vierfeldertafel gedanklich vorzustellen.

8. Info
Formel-Übersicht:
  • Satz von der Gegenwahrscheinlichkeit:
\[P(\overline{A})=1-P(A)\]
  • Satz von Sylvester:
\[P(A\cup B) = P(A)+ P(B) + P(A\cap B)\]
  • Formel für die bedingte Wahrscheinlichkeit:
\[P_A(B)=\frac{P(A\cap B)}{P(B)}\]
  • Zerlegungssatz:
\[P(A)=P(A\cap B) + P(A\cap \overline{B})\]
9. Info
Formel-Übersicht und Lösungsstrategie, wenn zwei der Wahrscheinlichkeiten $P(A)$, $P(B)$, $P(A\cup B)$ und $P(A\cap B)$ gegeben sind und stochastische Unabhängigkeit vorliegt:
  • Satz von der Gegenwahrscheinlichkeit:
\[P(\overline{A})=1-P(A)\]
  • Satz von Sylvester:
\[P(A\cup B) = P(A)+ P(B) + P(A\cap B)\]
  • Formel für die bedingte Wahrscheinlichkeit bei stochastischer Unabhängigkeit:
\[P_A(B)=P(B)\]
  • Zerlegungssatz:
\[P(A)=P(A\cap B) + P(A\cap \overline{B})\]
  • Stochastische Unabhängigkeit:
\[P(A)\cdot P(B)=P(A\cap B)\]

Venn-Diagramme

Bedingte Wahrscheinlichkeiten können auch in Venn-Diagrammen dargestellt werden. Das Ereignis, auf das die jeweilige Bedingung nicht zutrifft, wird weiß gefärbt. Das dunkle Blau bezeichnet den Teil, das dunkle zusammen mit dem hellen Blau das Ganze:

$P_A(B)$ $P_B(\overline{A})$ $P_A(\overline{B})$
10. Info
Venn-Diagramme mit bedingten Wahrscheinlichkeiten:

Das helle und das dunkle Blau bilden zusammen die Bedingung. Füllen das helle und dunkle Blau die ganze Fläche aus, gibt es also keine einschränkende Bedingung.

Login

Melde dich mit deinem Account an

Noch kein Account? Jetzt registrieren