Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie

Die Wahrscheinlichkeitstheorie oder Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik, das sich mit der Modellierung und der Untersuchung von Zufallsgeschehen beschäftigt. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrundeliegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik. Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariable und stochastische Prozesse.

Inhaltsverzeichnis

Axiomatischer Aufbau

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.

Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.

Definitionen

Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder Zufallsexperiment ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der Ergebnismenge Ω zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis \omega \in \Omega, sondern nur dafür ob es in einer bestimmten Teilmenge der Ergebnismenge liegt oder nicht, was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. Ein Ereignis ist also als eine Teilmenge von Ω definiert. Umfasst das Ereignis genau ein Element der Ergebnismenge, handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge, wobei diese Unterscheidung häufig vernachlässigt wird.

Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem Ereignisraum Σ über Ω, einer Menge von Teilmengen von Ω, für die gilt: Sie enthält Ω und ist ein σ-Körper, d.h. sie ist gegenüber den Mengenoperationen der Vereinigung und der Komplementbildung (relativ bzgl. Ω) abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung P des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß. Das Tripel (Ω,Σ,P) wird als Wahrscheinlichkeitsraum bezeichnet.

Axiome von Kolmogorow

Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt. Ein Wahrscheinlichkeitsmaß muss demnach die folgenden drei Axiome erfüllen:

  1. Für jedes Ereignis A aus Σ ist die Wahrscheinlichkeit von A eine reelle Zahl zwischen 0 und 1: 0\leq P(A)\leq 1.
  2. Das sichere Ereignis Ω hat die Wahrscheinlichkeit 1: P(Ω) = 1.
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse Ai inkompatibel, wenn sie paarweise disjunkt sind, also A_i \cap A_j = \emptyset für alle i \neq j gilt; es muss also gelten: P\left(A_1\dot\cup A_2\dot\cup\cdots\right) = \sum P(A_i). Diese Eigenschaft wird auch σ-Additivität genannt.

Beispiel: Die Ereignisse beim Werfen einer Münze mögen Zahl oder Adler lauten.

  • Dann ist die Ergebnismenge Ω = {Zahl,Adler}.
  • Als Ereignisraum kann die Potenzmenge \Pi(\Omega)\; gewählt werden, also \Sigma=\{\emptyset,\{\text{Zahl}\},\{\text{Adler}\},\Omega\}.
  • Für das Wahrscheinlichkeitsmaß P steht aufgrund der Axiome fest:
    • P(\emptyset)=0
    • P({Zahl}) = 1 − P({Adler})
    • P(Ω) = 1
Stochastik münze.PNG
Ergebnismenge und Teilmengen bei einem (nicht idealen) Münzwurf

Zusätzliches (außermathematisches) Wissen ist erforderlich, um P({Zahl}) = P({Adler}) = 0,5 anzusetzen. Dies kann ja durchaus von der Beschaffenheit der Münze abhängen. (siehe A-priori-Wahrscheinlichkeit)

Folgerungen

Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:

1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse (Gegenereignisse) komplementäre Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben: P(\Omega\setminus A) = 1-P(A).

Beweis: Es ist (\Omega\setminus A)\cup A = \Omega sowie (\Omega\setminus A) \cap A = \emptyset. Folglich nach Axiom (3): P(\Omega \setminus A) + P(A) = P(\Omega) und dann nach Axiom (2): P(\Omega \setminus A) + P(A) = 1. Umgestellt ergibt sich: P(\Omega \setminus A) = 1 - P(A).

2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die Wahrscheinlichkeit Null hat: P(\emptyset)=0.

Beweis: Es ist \emptyset\cup\Omega = \Omega und \emptyset\cap\Omega = \emptyset, also nach Axiom (3): P(\emptyset) + P(\Omega) = P(\Omega). Hieraus folgt P(\emptyset) = 0.

3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: P(A \cup B) = P(A) + P(B) - P(A \cap B).

Stochastikmengen1.PNG
Beweis: Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge A \cup B kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
Stochastikmengen2.PNG
Hieraus folgt nach (3): P(A \cup B) = P(A \setminus B) + P(A \cap B) + P(B \setminus A).
Andererseits ist nach (3) sowohl
P(A) = P(A \setminus B) + P(A \cap B) als auch
P(B) = P(A \cap B) + P(B \setminus A).
Addition liefert:
P(A)+P(B)=P(A\setminus B)+P(A\cap B)+P(A\cap B)+P(B\setminus A)=P(A \cup B)+P(A\cap B).
Umstellen ergibt P(A \cup B) = P(A) + P(B) - P(A \cap B).
Die Siebformel von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle n verschiedener (nicht notwendig disjunkter) Teilmengen.

Im weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.

Abzählbare Ergebnismenge

Probespazio.png
Beispiel: Ein Glücksrad mit Ergebnismenge Ω = {1,2,3}, Ereignisraum Σ (hier die Potenzmenge von Ω) und Wahrscheinlichkeitsmaß P.

Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden. Wenn Ω endlich oder abzählbar unendlich ist, kann man für die σ-Algebra Σ die Potenzmenge von Ω wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus Ω ist hier 1.

Überabzählbare Ergebnismenge

Die Wahrscheinlichkeit, mit einer als punktförmig angenommenen Dartspitze einen bestimmten Punkt auf einer Scheibe zu treffen, ist null. Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen, bestimmte Gebiete zu treffen. Wenn man diese Gebiete wiederum als infinitesimal annimmt, gelangt man zum Begriff der Wahrscheinlichkeitsdichte.

Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche Mengen oder auch (Borel)-messbar. Wenn die Wahrscheinlichkeit P(A) jeder Borelschen Menge A als Integral

P(A)=\int_A f(x)\,\mathrm{d}x

über eine Wahrscheinlichkeitsdichte f geschrieben werden kann, wird P absolut stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte eines absolut stetigen Wahrscheinlichkeitsmaßes P ist nur fast überall eindeutig bestimmt, d. h. sie kann auf einer beliebigen Lebesgue-Nullmenge, also einer Menge vom Lebesgue-Maß 0, abgeändert werden, ohne dass P verändert wird. Wenn die erste Ableitung der Verteilungsfunktion von P existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert.

Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsräume

Laplace-Experimente

Wenn man annimmt, dass nur endlich viele Elementarereignisse möglich und alle gleichberechtigt sind, d. h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, wo {Zahl} und {Adler} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem Laplace-Experiment. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge Ω an, die die Mächtigkeit | Ω | = n besitzt, d. h. sie hat n Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach P=\tfrac 1 n.

Beweis: Wenn | Ω | = n ist, dann gibt es n Elementarereignisse E_1, \ldots, E_n. Es ist dann einerseits \Omega = E_1 \cup \cdots \cup E_n und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
P(E_1) + \cdots + P(E_n) = P(\Omega) = 1.
Da nun andererseits P(E_1) = \cdots = P(E_n) = P sein soll, ist n \cdot P = 1 und daher umgestellt: P = \tfrac 1 n, wie behauptet.

Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist A ein Ereignis der Mächtigkeit | A | = m, so ist A die Vereinigung von m Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit P=\tfrac 1 n, also ist P(A)=m \cdot \tfrac 1 n = \tfrac m n. Man erhält also den einfachen Zusammenhang

P(A) = \frac{|A|}{|\Omega|}.

Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.

Das nachstehende Bild zeigt ein Beispiel beim Würfeln mit einem idealen Würfel.

Stochastik würfel.PNG
Das Ereignis H = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.

Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit n Karten oder das Ziehen einer Kugel aus einer Urne mit n Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig Methoden der Kombinatorik verwendet.

Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.

Bedingte Wahrscheinlichkeit

Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses A unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses B bereits bekannt ist. Natürlich muss B eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann P(A | B) oder seltener PB(A) für „Wahrscheinlichkeit von A unter der Voraussetzung B“, kurz „P von A, vorausgesetzt B“.

Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt eine Herz-Karte zu ziehen (Ereignis A), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist P(\text{Herz}) = \tfrac 8{32} = \tfrac 1 4. Das Gegenereignis ist dann Karo, Pik und Kreuz und hat deshalb die Wahrscheinlichkeit \tfrac{24}{32} = \tfrac 3 4.

Stochastik karten.PNG
Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel

Wenn nun aber bereits das Ereignis B „Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist P(A|B) = \tfrac 8{16} = \tfrac 1 2 die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.

Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von „A, vorausgesetzt B“ als

P(A \vert B) = \frac{P(A \cap B)}{P(B)}.

Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf B als neue Ergebnismenge beschränkt; d. h., dass gilt:

  1. 0 \le P(A \vert B) \le 1
  2. P(B \vert B)=1
  3. Wenn A_1,\ldots,A_k paarweise disjunkt sind, so ist P(A_1 \cup \cdots \cup A_k \vert B) = P(A_1 \vert B) + \cdots + P(A_k \vert B)

Beweis:

  1. P(A \vert B) ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt P(A \cap B) \ge 0 und P(B) \ge 0. Da B nicht das unmögliche Ereignis sein soll, ist sogar P(B) > 0. Also gilt auch für den Quotienten P(A \vert B) \ge 0. Ferner sind A \cap B und B\A disjunkt, und ihre Vereinigung ist B. Also ist nach Axiom (3): P(A \cap B) = P(B) - P(B \setminus A).
    Da P(B \setminus A) \ge 0 ist, folgt P(A \cap B) \le P(B) und daher P(A \vert B) \le 1.
  2. Es ist P(B \vert B) = \frac{P(B \cap B)}{P(B)} = \frac{P(B)}{P(B)} = 1.
  3. Es ist \begin{align}
  P(A_1 \cup \cdots \cup A_k \vert B) &= \frac{P((A_1 \cup \cdots \cup A_k) \cap B)}{P(B)}\\
    &= \frac{P((A_1\cap B)\cup\cdots\cup(A_k \cap B))}{P(B)}\\
    &= \frac{P(A_1 \cap B) + \cdots + P(A_k \cap B)}{P(B)}\\
    &= \frac{P(A_1 \cap B)}{P(B)} + \cdots + \frac{P(A_k \cap B)}{P(B)}
    &= P(A_1 \vert B) + \cdots + P(A_k \vert B).
\end{align}
Dies war zu zeigen.

Beispiel: Es sei wie oben A das Ereignis „Ziehen einer Herz-Karte“ und B das Ereignis „Es ist eine rote Karte“. Dann ist:

P(A \cap B) = \frac 8{32} = \frac 1 4

und

P(B)= \frac{16}{32} = \frac 1 2.

Folglich gilt:

P(A \vert B) = \frac{P(A \cap B)}{P(B)} = \frac{\frac 1 4}{\frac 1 2} = \frac 1 2.

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)

Das gleichzeitige Eintreten zweier Ereignisse A und B entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses A\cap B. Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit

P(A \cap B) = P(A) \cdot P(B \vert A) = P(B) \cdot P(A \vert B).

Beweis. Nach Definition der bedingten Wahrscheinlichkeit ist einerseits

P(A \vert B) = \frac{P(A\cap B)}{P(B)}

und andererseits auch

P(B \vert A) = \frac{P(A \cap B)}{P(A)}.

Umstellen nach P(A \cap B) liefert dann sofort die Behauptung.

Beispiel: Es wird eine Karte aus 32 Karten gezogen. A sei das Ereignis: „Es ist ein König“. B sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist A\cap B das gleichzeitige Eintreten von A und B, also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist P(A) = \tfrac 4{32} = \tfrac 1 8. Ferner ist P(B|A) = \tfrac 1 4, denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann P(A \cap B) = P(A) \cdot P(B\vert A) = \tfrac 1 8 \cdot \tfrac 1 4 = \tfrac 1{32} die Wahrscheinlichkeit für den Herz-König.

Bayestheorem

Die bedingte Wahrscheinlichkeit von A, vorausgesetzt B, lässt sich durch die bedingte Wahrscheinlichkeit von B, vorausgesetzt A, durch

P(A \mid B)=\frac{P(B\mid A)\cdot P(A)}{P(B)}

ausdrücken, wenn man die totalen Wahrscheinlichkeiten P(B) und P(A) kennt (Bayestheorem).

Abhängigkeit und Unabhängigkeit von Ereignissen

Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

Zwei Ereignisse A und B sind unabhängig, wenn P(A \cap B) = P(A) \cdot P(B) gilt.
Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.

Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch Umstellen nach P(A):

P(A) = \frac{P(A \cap B)}{P(B)} = P(A \vert B).

Das bedeutet: Die totale Wahrscheinlichkeit für A ist ebenso groß wie die Wahrscheinlichkeit für A, vorausgesetzt B; das Eintreten von B beeinflusst also die Wahrscheinlichkeit von A nicht.

Beispiel: Es wird eine aus 32 Karten gezogen. A sei das Ereignis „Es ist eine Herz-Karte“. B sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Bilder unter den Herz-Karten ist ebenso groß wie der Anteil der Bilder an allen Karten). Offenbar ist P(A) = \tfrac 8{32} = \tfrac 1 4 und P(B) = \tfrac{12}{32} = \tfrac 3 8. A \cap B ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist P(A \cap B) = \tfrac 3{32}. Und in der Tat stellt man fest, dass \tfrac 1 4 \cdot \tfrac 3 8 = \tfrac 3{32} ist.

Ein weiteres Beispiel für sehr kleine und sehr große Wahrscheinlichkeiten findet sich in Infinite-Monkey-Theorem.

Maßtheoretische Sichtweise

Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.

Wahrscheinlichkeitsräume

In dieser Sichtweise ist ein Wahrscheinlichkeitsraum (Ω,Σ,P) ein Maßraum mit einem Wahrscheinlichkeitsmaß P. Das bedeutet, die Ergebnismenge Ω ist eine beliebige Menge, der Ereignisraum Σ ist eine σ-Algebra mit Grundmenge Ω und P : \Sigma \to [0,1] ist ein Maß, das durch P(Ω) = 1 normiert ist.

Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:

  • Ω ist eine abzählbare Menge und Σ ist die Potenzmenge von Ω. Dann ist jedes Wahrscheinlichkeitsmaß P eindeutig festgelegt durch seine Werte P({ω}) auf den einelementigen Teilmengen von Ω und für alle A \in \Sigma gilt
P(A) = \sum_{\omega\in A} P(\{\omega\}).
P(A) = \int_A f(x) \, dx.

Umgekehrt wird für eine nichtnegative messbare Funktion f, welche die Normierungsbedingung \int_\Omega f(x) \, dx = 1 erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf Ω definiert.

  • \textstyle\Omega = \prod_{i\in I} \Omega_i ist ein kartesisches Produkt und \textstyle\Sigma = \bigotimes_{i\in I} \Sigma_i ist die Produkt-σ-Algebra von σ-Algebren Σi auf Ωi. Sind Wahrscheinlichkeitsmaße Pi auf Ωi gegeben, dann wird durch das Produktmaß \textstyle P = \bigotimes_{i\in I} P_i ein Wahrscheinlichkeitsmaß auf Ω definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente (\Omega_i, \Sigma_i, P_i)_{i\in I} modelliert.

Zufallsvariable

Eine Zufallsvariable ist aus maßtheoretischer Sicht eine messbare Funktion X auf einem Wahrscheinlichkeitsraum (Ω,Σ,P) in einen Messraum (Ω',Σ') bestehend aus einer Menge Ω' und einer σ-Algebra Σ' auf Ω'. Messbarkeit bedeutet dabei, dass für alle A' \in \Sigma' das Urbild X − 1(A') ein Element der σ-Algebra Σ ist. Die Verteilung von X ist dann nichts anderes als das Bildmaß

P_X := P \circ X^{-1} : \Sigma' \to [0,1], \quad P \circ X^{-1}(A') = P(X^{-1}(A')),

das von X auf dem Messraum (Ω',Σ') induziert wird und diesen zu einem Wahrscheinlichkeitsraum (Ω',Σ',PX) macht.

Der Erwartungswert einer reellwertigen Zufallsvariable X mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von X bezüglich des Wahrscheinlichkeitsmaßes P:

E(X) = \int_\Omega X \, dP.

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:

  • Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
  • Umgekehrt liefern statistische Daten über eingetretene Ereignisse Anhaltspunkte (in frequentistischer Interpretation sogar die einzigen akzeptablen Anhaltspunkte) für die Wahrscheinlichkeit künftiger Ereignisse.

Anwendungsgebiete

Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der mathematischen Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.

Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Erklärung ihrer Resultate.

Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.

Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

Siehe auch

Literatur

  • Heinz Bauer: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie. 4. Auflage. DeGruyter, Berlin 1991, ISBN 3-11-012191-3.
  • Richard M. Dudley: Real Analysis and Probability. Cambridge University Press, Cambridge 2003, ISBN 0-521-00754-2.
  • Hans-Otto Georgii: Stochastik. DeGruyter, Berlin 2004, ISBN 3-11-018282-3.
  • Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg, Braunschweig 2005, ISBN 3-528-67259-5.

Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Wahrscheinlichkeitstheorie — Wahr|schein|lich|keits|the|o|rie 〈f. 19; unz.〉 philosoph., mathemat. Lehre von den Gesetzmäßigkeiten zufälliger Ereignisse u. Prozesse * * * Wahr|schein|lich|keits|the|o|rie, die: philosophisch mathematische Theorie der… …   Universal-Lexikon

  • Wahrscheinlichkeitstheorie — tikimybių teorija statusas T sritis fizika atitikmenys: angl. probability theory vok. Wahrscheinlichkeitstheorie, f rus. теория вероятностей, f pranc. théorie des probabilités, f …   Fizikos terminų žodynas

  • Wahrscheinlichkeitstheorie — ⇡ Wahrscheinlichkeitsrechnung …   Lexikon der Economics

  • Wahrscheinlichkeitstheorie — Wahr|schein|lich|keits|the|o|rie …   Die deutsche Rechtschreibung

  • Geschichte der Wahrscheinlichkeitstheorie — Roulettespieler, um 1800. Das Glücksspiel war eine der frühesten Triebfedern der Wahrscheinlichkeitsrechnung …   Deutsch Wikipedia

  • Freie Wahrscheinlichkeitstheorie — Die freie Wahrscheinlichkeitstheorie ist ein Teilgebiet der Mathematik, das 1985 von Dan Voiculescu begründet wurde. Die Theorie entsprang der Suche nach einem besseren Verständnis von gewissen Algebren von Operatoren auf Hilberträumen.… …   Deutsch Wikipedia

  • Ereignis (Wahrscheinlichkeitstheorie) — Der Begriff Ereignis (auch Zufallsereignis) bezeichnet in der Wahrscheinlichkeitstheorie eine messbare Menge von Ergebnissen eines Wahrscheinlichkeitsraumes, grob gesprochen also in etwa eine Menge möglicher Ergebnisse eines Zufallsexperiments.… …   Deutsch Wikipedia

  • Bayes'sche Wahrscheinlichkeitstheorie — Der nach dem englischen Mathematiker Thomas Bayes benannte bayessche Wahrscheinlichkeitsbegriff (engl. Bayesianism) interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (engl. degree of belief ). Er unterscheidet sich damit von den… …   Deutsch Wikipedia

  • Bayessche Wahrscheinlichkeitstheorie — Der nach dem englischen Mathematiker Thomas Bayes benannte bayessche Wahrscheinlichkeitsbegriff (engl. Bayesianism) interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (engl. degree of belief ). Er unterscheidet sich damit von den… …   Deutsch Wikipedia

  • Rangfunktion (Wahrscheinlichkeitstheorie) — Eine Rangfunktion wird zur Repräsentation von Unsicherheit verwendet, sie drückt den Grad der Überraschung aus, der mit dem Eintritt des Ereignisses verbunden wird bzw. den Glaubensgrad. Ein Rang 0 bedeutet keine Überraschung, Rang 1 ein wenig… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”