Bedingte Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung (auch Konditionalität), dass das Eintreten eines anderen Ereignisses B bereits bekannt ist. Es wird geschrieben als P(A | B), der senkrechte Strich ist als „unter der Bedingung“ zu lesen und wie folgt zu verstehen: Wenn das Ereignis B eingetreten ist, beschränken sich die Möglichkeiten auf die Ergebnisse in B. Damit ändert sich auch die Wahrscheinlichkeit; diese neue Wahrscheinlichkeit für das Ereignis A ist gegeben durch P(A | B). Es handelt sich also nicht um eine (logische) Bedingung für A. Manchmal wird auch die Schreibweise PB(A) verwendet, die jedoch auch andere Bedeutungen haben kann.

Für einen verallgemeinerten, abstrakten Begriff von bedingten Wahrscheinlichkeiten siehe Bedingter Erwartungswert.

Inhaltsverzeichnis

Motivation und Definition

Mitunter möchte man untersuchen, wie stark der statistische Einfluss einer Größe auf eine andere ist. Beispielsweise möchte man wissen, ob Rauchen (R) krebserregend (K) ist. Die logische Implikation würde fordern, dass der Schluss R\rightarrow K für alle Instanzen gilt; das heißt also, dass jeder Raucher Krebs haben wird. Ein einziger Raucher, der keinen Krebs bekommt, würde den Satz „Rauchen ruft mit logischer Sicherheit Krebs hervor.", beziehungsweise „Jeder Raucher bekommt Krebs." ad absurdum führen. Dennoch, obwohl es Raucher ohne Krebs gibt, besteht ein statistischer Zusammenhang zwischen diesen beiden Ereignissen: Dieser Zusammenhang besteht darin, dass die Wahrscheinlichkeit, an Krebs zu erkranken, durch Rauchen erhöht wird. Diese Wahrscheinlichkeit ist die bedingte Wahrscheinlichkeit dafür, dass jemand Krebs bekommt unter der Bedingung, dass er Raucher ist. Stochastisch kann ebenso die Wahrscheinlichkeit untersucht werden, dass jemand raucht, unter der Bedingung, dass er Krebs hat. In der Wahrscheinlichkeitsrechnung ist somit zu beachten, dass der Begriff der Bedingung nicht an einen kausalen oder zeitlichen Zusammenhang gebunden ist. Die bedingte Wahrscheinlichkeit gibt ein Maß dafür an, wie stark der statistische Einfluss von R auf K ist. Sie kann als stochastisches Maß dafür angesehen werden, wie wahrscheinlich der Schluss R\rightarrow K ist. Sie sagt aber, wie alle statistischen Größen, nichts über die etwaige Kausalität des Zusammenhangs aus.

Mit dieser Motivation kommt man zu folgender Definition: Wenn A und B beliebige Ereignisse sind und P(B) > 0 ist, dann ist die bedingte Wahrscheinlichkeit von A, vorausgesetzt B (auch die Wahrscheinlichkeit von A, unter der Bedingung B), notiert wie P(A | B) (mit senkrechtem Strich zwischen A und B), definiert durch:

P(A|B) = \frac{P(A\cap B)}{P(B)}.

Darin ist P(A \cap B) die Wahrscheinlichkeit, dass A und B gemeinsam auftreten. P(A \cap B) wird gemeinsame Wahrscheinlichkeit oder Verbundwahrscheinlichkeit genannt. A \cap B bezeichnet dabei den mengentheoretischen Schnitt der Ereignisse A und B.

Multiplikationssatz

Durch Umformen der Definitionsformel entsteht der Multiplikationssatz für zwei Ereignisse:

P(A\cap B) = P(A|B) P(B).

Wenn A und B jedoch stochastisch unabhängig sind, gilt:

P(A\cap B) = P(A) P(B),

was dann führt zu:

P(A|B) = \frac{P(A)P(B)}{P(B)} = P(A).

Verallgemeinerung

Verallgemeinert man den obigen Ausdruck des Multiplikationssatzes, der für zwei Ereignisse gilt, erhält man den allgemeinen Multiplikationssatz. Man betrachte dazu den Fall mit n Zufallsereignissen A_1, A_2,\dots, A_n.

P\left(A_1\cap A_2\cap\dots\cap A_n\right)=
=P\left(A_1\right)\cdot\frac{P\left(A_1\cap A_2\right)}{P\left(A_1\right)}
\cdot\frac{P\left(A_1\cap A_2\cap A_3\right)}{P\left(A_1\cap A_2\right)}
\cdot\ldots\cdot\frac{P\left(A_1\cap\dots\cap A_n\right)}{P\left(A_1\cap\dots\cap A_{n-1}\right)}

= P(A_1)\cdot P\left(A_2\mid A_1\right)\cdot P\left(A_3\mid A_1\cap A_2\right)\cdot\ldots\cdot P\left(A_n\mid A_1\cap\dots\cap A_{n-1}\right)

Besonders anschaulich ist hier das Rechnen mit einem Entscheidungsbaum, da hier das Diagramm gleichsam „mitrechnet“: Die Daten sind leicht einzusetzen und führen sequenziell an den richtigen Rechengang heran.

Gesetz der totalen Wahrscheinlichkeit

Sind nur bedingte Wahrscheinlichkeiten und die Wahrscheinlichkeiten des bedingenden Ereignisses bekannt, ergibt sich die totale Wahrscheinlichkeit von A aus:

P(A) = P\left(A\mid B\right)\cdot P(B)+P\left(A\mid\overline B\right)\cdot P\left(\overline B\right),

wobei \overline B das Komplement von B bezeichnet.

Auch hier gibt es eine Verallgemeinerung. Gegeben seien die Ereignisse B1,B2,..., mit P(Bn) > 0 für jedes n, die eine Partition des Wahrscheinlichkeitsraums Ω bilden, dann gilt:

\,\!P(A) = \sum_n P\left(A\mid B_n\right)\cdot P\left(B_n\right).

Stetige Zufallsvariable

Für zwei Zufallsvariablen X, Y mit gemeinsamer Dichte fX,Y ist eine Dichte fY von Y gegeben durch

f_Y(y)=\int f_{X,Y}(x,y)\,dx.

Falls fY(y) > 0, kann man eine bedingte Dichte f_X(\,\cdot\,|Y=y) von X, gegeben (oder vorausgesetzt) das Ereignis {Y = y}, definieren durch

f_X(x|Y=y) \,=\, \frac{f_{X,Y}(x,y)}{f_Y(y)}.

Statt fX(x | Y = y) schreibt man auch fX | Y(x,y), für die bedingte Dichte. Die letztere Formel soll aber nicht verstanden werden wie die Dichte einer Zufallsvariable X | Y.

Die (eine) simultane Dichte von X und Y erhält man dann aus der Formel

\,\!f_{X,Y}(x,y)=f_Y(y)f_X(x|Y=y).

Daraus lässt sich eine Form des Gesetzes der totalen Wahrscheinlichkeit herleiten:

f_X(x)=\int f_{X,Y}(x,y)\,dy=\int f_Y(y)f_X(x|Y=y)\,dy.

Dieser Vorgang wird als Marginalisierung bezeichnet.

Hierbei ist zu beachten, dass standardmäßig Dichten, die die gleichen Integralwerte liefern, dieselbe Wahrscheinlichkeitsverteilung repräsentieren. Dichten sind daher nicht eindeutig festgelegt. Eine zulässige Wahl für fX,Y, fX, und fY ist jede messbare Funktion, die im Integral die korrekten Wahrscheinlichkeiten für P(X\in A, Y\in B), P(X\in A) bzw. P(Y\in B) für beliebige A, B ergibt. Die Funktion fX | Y muss

P(X\in A, Y\in B) = \int_B f_Y(y) \int_A f_{X|Y}(x,y)\,dx\,dy

erfüllen. Die oben angegebenen Formeln gelten somit nur bei passender Wahl der verschiedenen Dichten.

Beispiele

Junge oder Mädchen

Die als Zwei-Kinder-Problem [1] oder Geschwisterproblem bekannte Aufgabenstellung handelt von der Möglichkeit, bei Zwei-Kind-Familien aus der Kenntnis des Geschlechts eines der beiden Kinder Information über das Geschlecht des anderen Kinds zu bekommen. Dazu existieren unterschiedliche Fragestellungen, die sich alle auf eine bestimmte idealisierte Annahme beziehen:

In der Gesamtheit der Zwei-Kind-Familien gibt es von allen möglichen Geschlechterpaaren (älteres Kind, jüngeres Kind) gleichviele, also 25 % (Junge, Junge), 25 % (Junge, Mädchen), 25 % (Mädchen, Junge) und 25 % (Mädchen, Mädchen).

1. Fragestellung

Eine Mutter, die genau zwei Kinder hat, deren Geschlechter aber nicht bekannt sind, wird gefragt:

"Welches Geschlecht hat ihr ältestes Kind?" und sie antwortet: "Es ist ein Mädchen."
Wie groß ist die Wahrscheinlichkeit, dass auch das jüngste Kind ein Mädchen ist?

Die Antwort ist 1/2. Das Ergebnis lässt sich mit der folgenden Tabelle bestimmen. Die ersten beiden Spalten zeigen, welche Möglichkeiten bei zwei Kindern bestehen. Spalte 3 zeigt die Möglichkeiten, wenn man davon ausgeht, dass das älteste Kind ein Mädchen sein muss – die Zeilen 1 und 2 sind dann nicht möglich. Abzählen zeigt, dass eine von zwei gleichwahrscheinlichen Möglichkeiten auf ein weiteres Mädchen hinweist.

1. Kind 2. Kind Lösung zu Frage 1:
Jüngeres Kind ist…
Lösung zu Frage 2:
Anderes Kind ist…
1 Junge Junge (geht nicht) (geht nicht)
2 Junge Mädchen (geht nicht) Junge
3 Mädchen Junge Junge Junge
4 Mädchen Mädchen Mädchen Mädchen

2. Fragestellung

Eine Mutter, die genau zwei Kinder hat, deren Geschlechter aber nicht bekannt sind, wird gefragt:

"Haben Sie eine Tochter?" und sie antwortet: "Ja."
Wie groß ist die Wahrscheinlichkeit, dass sie zwei Töchter hat?

Die Antwort ist 1/3. Das Ergebnis lässt sich mit der obigen Tabelle bestimmen. Spalte 4 zeigt die Möglichkeiten, wenn man davon ausgeht, dass mindestens ein Mädchen da sein muss – die Zeile 1 ist dann nicht möglich. Abzählen zeigt, dass eine von drei gleichwahrscheinlichen Möglichkeiten auf ein weiteres Mädchen hinweist.

3. Fragestellung

Eine Mutter, die genau zwei Kinder hat, deren Geschlechter aber nicht bekannt sind, wird gefragt:

"Welches Geschlecht hat eines ihrer Kinder?" und sie antwortet: "Eines meiner Kinder ist ein Mädchen."
Wie groß ist die Wahrscheinlichkeit, dass auch das nicht genannte Kind ein Mädchen ist?

Die Lösung lässt sich mit Hilfe folgender Tabelle einfach ermitteln,

1. Kind 2. Kind Antwort der Mutter Anderes Kind ist…
1 Junge Junge Junge Junge
2 Junge Junge Junge Junge
3 Junge Mädchen Junge Mädchen
4 Junge Mädchen Mädchen Junge
5 Mädchen Junge Mädchen Junge
6 Mädchen Junge Junge Mädchen
7 Mädchen Mädchen Mädchen Mädchen
8 Mädchen Mädchen Mädchen Mädchen

Weil die Mutter jedes ihrer Kinder nennen kann, gibt es prinzipiell acht Möglichkeiten, die gleichwahrscheinlich sind, wenn wir unterstellen, dass die Mutter rein zufällig wählt (Diskrete Gleichverteilung). Weil die Mutter als Antwort eine Tochter genannt hat, beschränken sich die Möglichkeiten auf die Nummern 4, 5, 7 und 8. Sie bilden die Bedingung. Die Hälfte dieser Fälle, namentlich die Möglichkeiten 7 und 8, bildet das gefragte Ereignis, dass das andere Kind ebenfalls ein Mädchen ist. Also ist die gesuchte bedingte Wahrscheinlichkeit 1/2.

Wurfmaschine

Bedingte Wahrscheinlichkeit als Teilflächen

Ein anschauliches Beispiel erlaubt es, bedingte Wahrscheinlichkeiten anhand von Mengendiagrammen unmittelbar zu verstehen. Betrachtet wird eine Wurfmaschine, die in zufälliger Weise irgendwelche Objekte (z. B. Bälle, Dartpfeile) auf eine bestimmte Fläche M (z. B. eine Wand) wirft, so dass jeder Ort der Wand mit gleicher Wahrscheinlichkeit getroffen wird. Die Funktion F ordne der Fläche M bzw. einer bestimmten Teilfläche A der Wand (z. B. einem beliebigen mit einem Stift markierten Kreis) ihren Flächeninhalt F(M) bzw. F(A) zu. Dann ist die Wahrscheinlichkeit P(A), dass das Wurfgeschoss in A auftrifft, proportional dem Verhältnis der Teilfläche zur Gesamtfläche, also P(A)=F(A)/F(M).

Nun sei zusätzlich vorausgesetzt, dass das Wurfgeschoss innerhalb einer anderen Teilfläche B aufgetroffen ist, die mit der Teilfläche A überlappt. Dann ist die Wahrscheinlichkeit P(B), dass das Wurfgeschoss in B auftrifft, P(B)=F(B)/F(M). Die bedingte Wahrscheinlichkeit P(A|B), dass das Geschoss unter der zusätzlichen Voraussetzung auch gleichzeitig innerhalb der überlappenden Teilfläche A auftrifft, ist proportional dem Flächeninhalt desjenigen Teils der Fläche A, der auch in B liegt, also dem Flächeninhalt F(A∩B) der Schnittmenge A∩B. Umgekehrt ist für eine gleich groß ausfallende Schnittmenge A∩B umso weniger wahrscheinlich, dass ein in B auftreffendes Wurfgeschoss auch ich A∩B auftrifft, je größer F(B) vorausgesetzt war. Also ist P(A|B) umgekehrt proportional zu P(B).

Somit ergibt sich die Wahrscheinlichkeit eines Auftreffens in A bei zusätzlich vorausgesetztem Auftreffen in B als bedingte Wahrscheinlichkeit P(A|B)=F(A∩B)/F(B)=P(A∩B)/P(B), also definitionsgemäß.

Weitere Beispiele

  • Beispielsweise ist die bedingte Wahrscheinlichkeit P(„die Erde ist nass"|„es regnet“) (die Erde ist nass, wenn es regnet) meist groß, denn unter der Voraussetzung, dass es zu einem Zeitpunkt regnet, sollte man erwarten, dass die Erde nass wird. Bedingte Wahrscheinlichkeit fragt also nach, wie wahrscheinlich ein Ereignis ist, wenn ich ein anderes bereits kenne. In unserem Beispiel weiß ich, dass es regnet und frage mich, wie groß die Wahrscheinlichkeit ist, dass die Erde nass ist. Offensichtlich unterscheidet sich die bedingte Wahrscheinlichkeit von der unbedingten.
  • Die Wahrscheinlichkeit, dass jemand, der französisch spricht, ein Franzose ist, ist weder gleich groß der Wahrscheinlichkeit, dass jemand, der ein Franzose ist, auch französisch spricht, noch ergänzen sich beide Wahrscheinlichkeiten auf 100 %.
  • People v. Collins (1968): In diesem Strafprozess in Kalifornien wurde ein männlicher Bankräuber unter anderem deswegen verurteilt, weil der Täter gemäß Zeugenaussagen einen Bart und einen Schnurrbart trug. Wer einen Bart trägt, hat sehr oft auch einen Schnurrbart – das Gericht ging in seinem Fehlurteil aber nicht von bedingten Wahrscheinlichkeiten aus.

Siehe auch

Weblinks

Wikibooks Wikibooks: Bedingte Wahrscheinlichkeiten – Lern- und Lehrmaterialien

Einzelnachweise

  1. Martin Gardner: The Second Scientific American Book of Mathematical Puzzles and Diversions. Simon & Schuster 1954, ISBN 978-0226282534.

Wikimedia Foundation.

Synonyme:

Schlagen Sie auch in anderen Wörterbüchern nach:

  • bedingte Wahrscheinlichkeit — Begriff der ⇡ Wahrscheinlichkeitsrechnung. Sind A und B zwei ⇡ zufällige Ereignisse mit den Wahrscheinlichkeiten W(A) und W(B), wobei W(B)  ≠  0 ist, so ist:W(A | B) = W(A  ∩ B) / W(B),d.h. die bez. B bedingte Wahrscheinlichkeit von A. Diese gibt …   Lexikon der Economics

  • bedingte Wahrscheinlichkeit — konditionale Wahrscheinlichkeit …   Universal-Lexikon

  • Bedingte Erwartung — Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten bezüglich einer Teil σ Algebra stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie werden unter anderem bei der Formulierung von Martingalen verwendet.… …   Deutsch Wikipedia

  • Bedingte Entropie — In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X | Y)… …   Deutsch Wikipedia

  • Wahrscheinlichkeit — Die Wahrscheinlichkeit ist eine Einstufung von Aussagen und Urteilen nach dem Grad der Gewissheit (Sicherheit). Besondere Bedeutung hat dabei die Gewissheit von Vorhersagen. In der Mathematik hat sich mit der Wahrscheinlichkeitstheorie ein… …   Deutsch Wikipedia

  • Bedingte Häufigkeit — Berechnung der relativen Häufigkeit als Mengendiagramm Die relative Häufigkeit oder bedingte Häufigkeit ist ein Maß der deskriptiven Statistik und in der elementaren Wahrscheinlichkeitsrechnung. Sie gibt den Anteil der Objekte mit dem gleichen… …   Deutsch Wikipedia

  • Bedingte Strafnachsicht — Unter bedingter Strafnachsicht wird im österreichischen Strafrecht die Entscheidung eines Gerichts verstanden, eine verhängte Strafe für eine bestimmte Zeit (Probezeit) nicht oder nur zum Teil zu vollstrecken. So wird entweder die gesamte Strafe …   Deutsch Wikipedia

  • Bedingte Informationsentropie — Während ordinale Insolvenzprognosen lediglich eine Reihung von Unternehmen entsprechend den erwarteten Ausfallwahrscheinlichkeiten vornehmen, ordnen kardinale Insolvenzprognosen jedem Unternehmen explizit eine Ausfallwahrscheinlichkeit zu.[1]… …   Deutsch Wikipedia

  • konditionale Wahrscheinlichkeit — bedingte Wahrscheinlichkeit …   Universal-Lexikon

  • Konditionale Wahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”