Bedingter Erwartungswert

Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten, gegeben eine Zufallsvariable oder Teil-σ-Algebra, stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar.

Sie spielen eine zentrale Rolle in der Theorie der stochastischen Prozesse und werden unter anderem bei der Formulierung von Martingalen verwendet.

Inhaltsverzeichnis

Interpretation

Die Bildung des bedingten Erwartungswertes ist gewissermaßen eine Glättung einer Zufallsvariablen auf einer Teil-σ-Algebra. σ-Algebren modellieren verfügbare Information, und eine geglättete Version der Zufallsvariable, die schon auf einer Teil-σ-Algebra messbar ist, enthält weniger Information über den Ausgang eines Zufallsexperimentes. Mit der Bildung der bedingten Erwartung geht eine Reduktion der Beobachtungstiefe einher, die bedingte Erwartung reduziert die Information über eine Zufallsvariable auf eine in Hinsicht der Messbarkeit einfachere Zufallsvariable, ähnlich wie als Extremfall der Erwartungswert einer Zufallsvariablen die Information auf eine einzelne Zahl reduziert.

Geschichte

Das in einigen Aspekten sehr alte Konzept (schon Laplace hat bedingte Dichten berechnet) wurde von Kolmogorow 1933 unter Verwendung des Satz von Radon-Nikodym formalisiert. In Arbeiten von Paul Halmos 1950 und Joseph Doob 1953 wurden bedingte Erwartungen auf das heutige allgemeine Setting von Teil-σ-Algebren auf abstrakten Räumen übertragen.[1]

Einleitung

Wenn ein Ereignis B mit P(B) > 0 gegeben ist, gibt die bedingte Wahrscheinlichkeit P(A|B) = P(A\cap B)/P(B) an, wie wahrscheinlich das Ereignis A ist, wenn man Information über das Eintreten von B erhalten hat. Entsprechend gibt der bedingte Erwartungswert

E(Y|B) \,=\, \frac{E(1_B\cdot Y)}{P(B)},

an, welchen Wert man für die Zufallsvariable Y im Mittel erwartet, wenn man Information über das Eintreten von B erhalten hat. Hierbei ist 1B die Indikatorfunktion von B, d. h. eine Zufallsvariable, die den Wert 1 annimmt, wenn B eintritt, und 0, wenn nicht.

Beispiel: Y ist das Ergebnis beim Werfen eines regelmäßigen Würfels, eine Zahl zwischen 1 und 6. Das Ereignis, dass man eine 5 oder 6 würfelt, bezeichnen wir mit B. Dann ist

E(Y|B) \,=\, \frac{P(Y=5)\cdot5 + P(Y=6)\cdot6}{P(B)} \,=\, \frac{11/6}{2/6} \,=\, 5{,}5.

Dieser elementare Begriff von bedingten Wahrscheinlichkeiten und Erwartungswerten ist jedoch oft nicht ausreichend. Gesucht sind häufig vielmehr bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte in der Form

(a)  P(A\,|\,X=x)   bzw.   E(Y\,|\,X=x),

wenn man weiß, dass eine Zufallsvariable X einen Wert x hat,

(b)  P(A\,|\,X)   bzw.   E(Y\,|\,X),

wenn man den bei (a) gefundenen Wert als Zufallsvariable betrachtet,

(c)  P(A\,|\,\mathcal{B})   bzw.   E(Y\,|\,\mathcal{B}),

wenn man Information über das Eintreten bzw. Nichteintreten einer Menge (σ-Algebra) \mathcal{B} von Ereignissen hat.

Die Ausdrücke in (b) und (c) sind im Gegensatz zu (a) selbst Zufallsvariablen, da sie noch von der Zufallsvariable X bzw. der Realisierung der Ereignisse in \mathcal{B} abhängen.

Die angegebenen Varianten von bedingten Wahrscheinlichkeiten und Erwartungswerten sind alle miteinander verwandt. Tatsächlich genügt es, nur eine Variante zu definieren, denn alle lassen sich voneinander ableiten:

  • Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte beinhalten das gleiche: Bedingte Erwartungswerte lassen sich, genau wie gewöhnliche Erwartungswerte, als Summen oder Integrale aus bedingten Wahrscheinlichkeiten berechnen.[2] Umgekehrt ist die bedingte Wahrscheinlichkeit eines Ereignisses einfach der bedingte Erwartungswert der Indikatorfunktion des Ereignisses: P(A | ...) = E(1A | ...).
  • Die Varianten in (a) und (b) sind äquivalent. Die Zufallsvariable P(A | X) weist für das Ergebnis ω den Wert P(A | X)(ω) = P(A | X = X(ω)) auf, d. h. man erhält für P(A | X) den Wert P(A | X = x), wenn man für X den Wert x beobachtet. Umgekehrt kann man, wenn P(A | X) gegeben ist, immer einen von x abhängigen Ausdruck P(A | X = x) finden, so dass diese Beziehung erfüllt ist.[3] Entsprechendes gilt für bedingte Erwartungswerte.
  • Die Varianten in (b) und (c) sind ebenfalls äquivalent, weil man \mathcal{B} als die Menge aller Ereignisse der Form \{X\in E\} wählen kann (die von X erzeugte σ-Algebra σ(X)), und umgekehrt X als die Familie (1_B)_{B\in\mathcal{B}}.[4]

Diskreter Fall

Wir betrachten hier den Fall, dass P(X = x) > 0 für alle Werte x von X gilt. Dieser Fall ist besonders einfach zu behandeln, weil die elementare Definition uneingeschränkt anwendbar ist:

P(A\,|\,X=x)\,=\,\frac{P(A\cap\{X=x\})}{P(X=x)}

Die Funktion P(\,\cdot\,|\,X=x) (wobei \cdot das Argument bezeichnet) besitzt alle Eigenschaften eines Wahrscheinlichkeitsmaßes, es handelt sich um eine sogenannte reguläre bedingte Wahrscheinlichkeit. Die bedingte Verteilung P(Y\in\,\cdot\,|\,X=x) einer Zufallsvariable Y ist daher ebenfalls eine ganz gewöhnliche Wahrscheinlichkeitsverteilung. Der Erwartungswert dieser Verteilung ist der bedingte Erwartungswert von Y, gegeben X = x:

E(Y\,|\,X=x).

Beispiel

X und Y seien die Augenzahlen bei zwei unabhängigen Würfen mit einem regelmäßigen Würfel und Z = X + Y die Augensumme. Die Verteilung von Z ist gegeben durch \textstyle P(Z=z) = \frac{6-|7-z|}{36}, z = 2,...,12. Wenn wir aber das Ergebnis X des ersten Wurfs kennen und wissen, dass wir z. B. den Wert 4 gewürfelt haben, erhalten wir die bedingte Verteilung

P(Z=z\,|\,X=4) \,=\, \frac{P(X=4, Y=z-4)}{P(X=4)} \,=\, \begin{cases}\frac 1 6 & \text{ falls } z=5,...,10 \\ 0 & \text{ sonst} \end{cases}.

Der Erwartungswert dieser Verteilung, der bedingte Erwartungswert von Z, gegeben X = 4, ist

E(Z\,|\,X=4) \,=\, \tfrac16 (5 + 6 + \dots + 10) \,=\, 7{,}5.

Allgemeiner gilt für beliebige Werte x von X

E(Z\,|\,X=x) \,=\, \tfrac16 ((x+1) + \dots + (x+6)) \,=\, x + 3{,}5.

Wenn wir für x den Wert von X einsetzen, erhalten wir den bedingten Erwartungswert von Z, gegeben X:

E(Z|X) \,=\, X + 3{,}5.

Dieser Ausdruck ist eine Zufallsvariable; wenn das Ergebnis ω eingetreten ist, weist X den Wert X(ω) auf und E(Z | X) den Wert

E(Z|X)(\omega) \,=\, E(Z\,|\,X=X(\omega)) \,=\, X(\omega) + 3{,}5.

Satz über die totale Wahrscheinlichkeit

Die Wahrscheinlichkeit eines Ereignisses A lässt sich durch Zerlegen nach den Werten x von X berechnen:

P(A) = \sum_x P(X=x) \, P(A|X=x)

Allgemeiner gilt für jedes Ereignis B=\{X\in E\} in der σ-Algebra σ(X) die Formel

P(B \cap A) = \sum_{x \in E} P(X=x) \, P(A|X=x).

Mithilfe der Transformationsformel für das Bildmaß erhält man die äquivalente Formulierung

P(B \cap A) = \int_B P(A|X)\,dP.

Allgemeiner Fall

Im allgemeinen Fall ist die Definition weit weniger intuitiv als im diskreten Fall, weil man nicht mehr voraussetzen kann, dass die Ereignisse, auf die man bedingt, Wahrscheinlichkeit > 0 haben.

Ein Beispiel

Wir betrachten zwei unabhängige standardnormalverteilte Zufallsvariablen X und Y. Ohne große Überlegung kann man auch hier den bedingten Erwartungswert, gegeben X, der Zufallsvariable Z = 2X + Y − 3 angeben, d. h. den Wert, den man im Mittel für den Ausdruck 2X + Y − 3 erwartet, wenn man X kennt:

E(Z | X) = 2X − 3   bzw.   E(Z | X = x) = 2x − 3

Wie zuvor ist E(Z | X) selbst eine Zufallsvariable, für deren Wert nur die von X erzeugte σ-Algebra σ(X) entscheidend ist. (Setzt man etwa X' = 2X, also σ(X') = σ(X), so erhält man ebenfalls E(Z | X') = E(X' + Y − 3 | X') = X' − 3 = 2X − 3.)

Die Problematik ergibt sich aus folgender Überlegung: Die angegebenen Gleichungen gehen davon aus, dass Y für jeden einzelnen Wert von X standardnormalverteilt ist. Tatsächlich könnte man aber auch annehmen, dass Y im Fall X = 0 konstant den Wert 2 hat und nur in den übrigen Fällen standardnormalverteilt ist: Da das Ereignis X = 0 die Wahrscheinlichkeit 0 hat, wären X und Y insgesamt immer noch unabhängig und standardnormalverteilt. Man erhielte aber E(Z | X = 0) = − 1 statt E(Z | X = 0) = − 3. Das zeigt, dass der bedingte Erwartungswert nicht eindeutig festgelegt ist, und dass es nur sinnvoll ist, den bedingten Erwartungswert für alle Werte von X simultan zu definieren, da man ihn für einzelne Werte beliebig abändern kann.

Der Ansatz von Kolmogorow

Nachdem sich die elementare Definition nicht auf den allgemeinen Fall übertragen lässt, stellt sich die Frage, welche Eigenschaften man beibehalten möchte und auf welche man zu verzichten bereit ist. Der heute allgemein übliche Ansatz, der auf Kolmogorow (1933) zurückgeht[5] und der sich insbesondere in der Theorie der stochastischen Prozesse als nützlich erwiesen hat, verlangt nur zwei Eigenschaften:

(1) P(A | X) soll eine messbare Funktion von X sein. Auf die σ-Algebra \mathcal{B}=\sigma(X) übertragen bedeutet dies, dass P(A|\mathcal{B}) eine \mathcal{B}-messbare Zufallsvariable sein soll.

(2) In Analogie zum Satz über die totale Wahrscheinlichkeit soll für jedes B\in\mathcal{B} die Gleichung

\int_B P(A|\mathcal{B}) \, dP \; = \; P(B \cap A)

erfüllt sein.

Nicht gefordert wird unter anderem

  • dass bedingte Wahrscheinlichkeiten eindeutig festgelegt sind,
  • dass P(\,\cdot\,|\,\mathcal{B}) stets ein Wahrscheinlichkeitsmaß ist,
  • die Eigenschaft P(X = x | X = x) = 1.


Für bedingte Erwartungswerte hat (2) die Form

\int_B E(X|\mathcal{B}) \, dP \; = \; \int_B X \, dP

für alle Mengen B\in\mathcal{B}, für die die Integrale definiert sind. Mit Indikatorfunktionen lässt sich diese Gleichung schreiben als

E(\mathrm1_B E(X|\mathcal{B})) = E(\mathrm1_B X).

In dieser Form wird die Gleichung in der folgenden Definition verwendet.

Formale Definition

Glättungseigenschaft: P ist hier die Gleichverteilung auf [0,1], \mathcal{B} die von den Intervallen mit Endpunkten 0, ¼, ½, ¾, 1 erzeugte σ-Algebra und \mathcal{C} die von den Intervallen mit Endpunkten 0, ½, 1 erzeugte σ-Algebra. Die Bildung des bedingten Erwartungswertes bewirkt eine Glättung innerhalb der durch die σ-Algebren beschriebenen Bereiche.

Gegeben sei ein Wahrscheinlichkeitsraum (\Omega, \mathcal{A}, P) und eine Teil-σ-Algebra \mathcal{B} \subset \mathcal{A}.

(1) X sei eine Zufallsvariable, deren Erwartungswert existiert. Der bedingte Erwartungswert von X, gegeben \mathcal{B}, ist eine Zufallsvariable Z, die die beiden folgenden Bedingungen erfüllt:

  • Z ist \mathcal{B}-messbar und
  • für alle B \in \mathcal{B} gilt E(\mathrm1_B Z) = E(\mathrm1_B X)\,.

Zwei verschiedene bedingte Erwartungswerte von X gegeben \mathcal{B} („Versionen des bedingten Erwartungswerts“) unterscheiden sich höchstens auf einer (in \mathcal{B} enthaltenen) Nullmenge. Dadurch lässt sich die einheitliche Schreibweise E(X|\mathcal{B}) für einen bedingten Erwartungswert Z von X gegeben \mathcal B rechtfertigen.

Die Schreibweise E(X\,|\,X_1,\dots, X_n) bezeichnet den bedingten Erwartungswert von X, gegeben die von den Zufallsvariablen X_1,\dots,X_n erzeugte σ-Algebra \mathcal{B}=\sigma(X_1,\dots, X_n).


(2) Die bedingte Wahrscheinlichkeit eines Ereignisses A \in \mathcal{A}, gegeben \mathcal{B}, ist definiert als die Zufallsvariable

 P(A | \mathcal{B}) = E(\mathrm1_A | \mathcal{B}) ,

d. h. als der bedingte Erwartungswert der Indikatorfunktion von A.


Da die bedingten Wahrscheinlichkeiten  P(A | \mathcal{B}) verschiedener Ereignisse A\in\mathcal{A} somit ohne Bezug zueinander definiert sind und nicht eindeutig festgelegt sind, muss  P(\;\cdot\; | \mathcal{B})(\omega) im allgemeinen kein Wahrscheinlichkeitsmaß sein. Wenn dies jedoch der Fall ist, d. h. wenn man die bedingten Wahrscheinlichkeiten  P(A | \mathcal{B}) , A\in\mathcal{A} zu einem stochastischen Kern π von (\Omega,\mathcal{B}) nach (\Omega,\mathcal{A}) zusammenfassen kann,

 P(A | \mathcal{B})(\omega) = \pi(\omega; A)     für alle  \omega \in \Omega,\, A \in \mathcal{A},

spricht man von regulärer bedingter Wahrscheinlichkeit. Die Berechnung bedingter Erwartungswerte ist dann möglich mithilfe der Formel \textstyle E(X|\mathcal{B})(\omega) = \int \pi(\omega;d\omega') \,X(\omega') .


Faktorisierung: Der bedingte Erwartungswert E(X|X_1,\dots, X_n), der als eine Zufallsvariable (also eine Funktion von ω) definiert ist, lässt sich auch als eine Funktion von X_1,\dots, X_n darstellen: Es gibt eine messbare Funktion f, so dass

 E(X\,|\,X_1,\dots, X_n)(\omega) \, = \, f(X_1(\omega),\dots, X_n(\omega))     für alle  \omega \in \Omega.

Damit kann man formal auf einzelne Werte bedingte Erwartungswerte definieren:

 E(X\,|\,X_1=x_1,\dots, X_n=x_n) \, = \, f(x_1,\dots, x_n) .

Bei der Verwendung solcher Ausdrücke ist wegen der fehlenden Eindeutigkeit im allgemeinen Fall besondere Vorsicht geboten.


Existenz: Die allgemeine Existenz von bedingten Erwartungswerten für integrierbare Zufallsvariablen (Zufallsvariablen, die einen endlichen Erwartungswert besitzen), also insbesondere von bedingten Wahrscheinlichkeiten, folgt aus dem Satz von Radon-Nikodym; die Definition besagt nämlich nichts anderes, als dass E(X|\mathcal{B}) eine Dichte des signierten Maßes ν(B) = E(1BX) bezüglich des Maßes μ(B) = P(B) ist, beide definiert auf dem Messraum (\Omega,\mathcal{B}). Die Definition lässt sich noch geringfügig verallgemeinern, so dass man auch Fälle wie E(X | | X | ) = 0 für eine Cauchy-verteilte Zufallsvariable erfassen kann.[2]

Reguläre bedingte Wahrscheinlichkeiten, auch in faktorisierter Form, existieren in polnischen Räumen mit der Borel-σ-Algebra, allgemeiner gilt: Ist Z eine beliebige Zufallsvariable mit Werten in einem polnischen Raum, so existiert eine Version der Verteilung P(Z\in\,\cdot\,\, | X_1,\dots, X_n) in der Form eines stochastischen Kerns π:

 P(Z\in\,\cdot\,\, | X_1,\dots, X_n)(\omega) \, = \, \pi(X_1(\omega),\dots, X_n(\omega) \,; \;\cdot\;)     für alle  \omega \in \Omega

Spezialfälle

(1) Für die triviale σ-Algebra \mathcal{B} = \{\varnothing,\Omega\} ergeben sich einfache Erwartungswerte und Wahrscheinlichkeiten:

E(X|\mathcal{B})(\omega) = E(X)    für alle  \omega \in \Omega
P(A|\mathcal{B})(\omega) = P(A)    für alle  \omega \in \Omega

Entsprechend gilt E(X | Y)(ω) = E(X) und P(A | Y)(ω) = P(A) für alle \omega \in \Omega bei Bedingen auf den Wert einer konstanten Zufallsvariable Y.


(2) Einfache σ-Algebren: Ist B\in\mathcal{B} mit P(B) > 0, und besitzt B außer sich selbst und der leeren Menge keine Teilmengen in \mathcal{B}, so stimmt der Wert von  P(A \mid\mathcal{B}) auf B mit der herkömmlichen bedingten Wahrscheinlichkeit überein:

 P(A | \mathcal{B})(\omega) = \frac{P(A \cap B)}{P(B)}     für alle  \omega \in B

Das zeigt, dass die oben aufgeführten Berechnungen im diskreten Fall mit der allgemeinen Definition konsistent sind.


(3) Rechnen mit Dichten: Ist f_{X,Y} : (a,b)\times(c,d) \to (0,\infty) eine beschränkte Dichtefunktion der gemeinsamen Verteilung von Zufallsvariablen X,Y, so ist

 f_{X\mid Y}(x, y) = {f_{X,Y}(x,y) \over \int_a^b f_{X,Y}(u,y) du}

die Dichte einer regulären bedingten Verteilung P(X\in\,\cdot\,\, | Y) in der faktorisierten Form und für den bedingten Erwartungswert gilt

E(X | Y) = \int_a^b x f_{X\mid Y}(x,Y) \, dx.


(4) Auch in den folgenden Fällen lassen sich reguläre bedingte Verteilungen angeben:

  • wenn X unabhängig von \mathcal{B} ist, in der Form P(X\in\,\cdot\,\, | \mathcal{B}) = P(X\in\,\cdot\,),
  • wenn X \mathcal{B}-messbar ist, in der Form P(X\in\,\cdot\,\, | \mathcal{B}) = \delta_X (Diracmaß),
  • für das Paar (X,Y), wenn X \mathcal{B}-messbar ist, in der Form P((X,Y) \in \,\cdot\,\, | \mathcal{B}) = P((x,Y) \in \,\cdot\,\, | \mathcal{B}) \,|_{x=X}, sofern zur Berechnung des Ausdrucks auf der rechten Seite eine reguläre bedingte Verteilung von Y verwendet wird.

Rechenregeln

Alle folgenden Aussagen gelten nur fast sicher (P-fast überall), soweit sie bedingte Erwartungswerte enthalten. Anstelle von \mathcal{B} kann man auch eine Zufallsvariable schreiben.

  • Herausziehen unabhängiger Faktoren:
  • Herausziehen bekannter Faktoren:
    • Ist X \mathcal{B}-messbar, so gilt  E(X|\mathcal{B}) = X .
    • Ist X \mathcal{B}-messbar, so gilt  E(XY|\mathcal{B}) = X \, E(Y|\mathcal{B}) .
  • Turmeigenschaft: Für Teil-σ-Algebren \mathcal{C}\subset\mathcal{B}\subset\mathcal{A} gilt E(E(X|\mathcal{B})|\mathcal{C}) = E(X|\mathcal{C}).
  • Linearität: Es gilt  E(X_1 + X_2 | \mathcal{B}) = E(X_1 | \mathcal{B}) + E(X_2 | \mathcal{B}) und  E(a X | \mathcal{B}) = a \, E(X | \mathcal{B}) für a\in\R.
  • Monotonie: Aus  X_1 \le X_2 folgt  E(X_1 | \mathcal{B}) \le E(X_2 | \mathcal{B}) .
  • Bedingte Erwartungswerte als L2-Projektionen: Die vorherige Eigenschaft impliziert  E(Y(X - E(X|\mathcal{B}))) = 0 , d. h. der bedingte Erwartungswert  E(X|\mathcal{B}) ist im Sinne des Skalarprodukts von L2(P) die orthogonale Projektion von X auf den Raum der \mathcal{B}-messbaren Funktionen. Die Definition und der Beweis der Existenz der bedingten Erwartung kann über diesen Zugang auch auf der Theorie der Hilbert-Räume und dem Projektionssatz aufgebaut werden.
  • Martingalkonvergenz: Für eine Zufallsvariable X, die einen endlichen Erwartungswert besitzt, gilt E(X|\mathcal{B}_n) \to E(X|\mathcal{B}), wenn entweder \mathcal{B}_1 \subset \mathcal{B}_2 \subset ... eine aufsteigende Folge von Teil-σ-Algebren ist und \textstyle \mathcal{B} = \sigma(\bigcup_{n=1}^\infty \mathcal{B}_n) oder wenn \mathcal{B}_1 \supset \mathcal{B}_2 \supset ... eine absteigende Folge von Teil-σ-Algebren ist und \textstyle \mathcal{B} = \bigcap_{n=1}^\infty \mathcal{B}_n .

Weitere Beispiele

(1) Wir betrachten das Beispiel aus dem diskreten Fall von oben. X und Y seien die Augenzahlen bei zwei unabhängigen Würfen mit einem regelmäßigen Würfel und Z = X + Y die Augensumme. Die Berechnung des bedingten Erwartungswerts von Z, gegeben X, vereinfacht sich mithilfe der Rechenregeln; zunächst gilt

E(Z | X) = E(X + Y | X) = E(X | X) + E(Y | X).

Weil X eine messbare Funktion von X ist und Y unabhängig von X ist, gilt E(X | X) = X und E(Y | X) = E(Y). Also erhalten wir

E(Z | X) = X + E(Y) = X + 3,5.


(2) Wenn X und Y unabhängig und Poisson-verteilt mit Parametern λ und μ sind, dann ist die bedingte Verteilung von X, gegeben X + Y, eine Binomialverteilung:

P(X=k\,|\,X+Y) \,=\, \begin{cases}\binom{X+Y}{k}\,p^k\,(1-p)^{X+Y-k} & \text{ falls } k = 0,...,X+Y \\ 0 & \text{ sonst}\end{cases}.

Hierbei ist \textstyle p = \frac{\lambda}{\lambda+\mu}.


(3) Wir betrachten unabhängige exponentialverteilte Zufallsvariablen (oder „Wartezeiten“) T1,...,Tn mit Ratenparametern λ1,...,λn. Dann ist das Minimum T = min(T1,...,Tn) exponentialverteilt mit Parameter λ1 + ... + λn, und für i = 1,...,n gilt

P(T = T_i \,|\, T) \,=\, \frac{\lambda_i}{\lambda_1+...+\lambda_n}    fast sicher.

Einzelnachweise und Anmerkungen

  1. Olav Kallenberg: Foundations of Modern Probability, 2. Ausgabe. Springer, New York 2002, ISBN 0-387-95313-2, S. 573.
  2. a b Sehr allgemein kann man beispielsweise setzen \textstyle E(Y|...) = \lim_{n\to\infty}\frac{1}{2^n}\sum_{k=1}^{\infty}P(Y\ge \frac{k}{2^n}|...) - {\,}\textstyle \, \lim_{n\to\infty}\frac{1}{2^n}\sum_{k=1}^{\infty}P(Y\le -\frac{k}{2^n}|...) fast überall.
  3. Diese Faktorisierung ist immer als messbare Funktion möglich. Sie ist im allgemeinen nicht eindeutig, wenn X nicht surjektiv ist.
  4. Die mathematische Formulierung geht von folgender Abstraktion des Begriffs „bekannt“ aus: Wenn die Realisation einer Zufallsvariable oder von Ereignissen bekannt ist, ist nicht automatisch jede davon abhängige, sondern nur jede messbar davon abhängige Größe ebenfalls bekannt (oder genauer nur solche, die eine σ-Algebra erzeugen, die eine Teilmenge der anderen ist). In diesem Sinne eignen sich σ-Algebren zur Beschreibung von verfügbarer Information: Die σ-Algebra σ(X) besteht aus den Ereignissen, deren Realisation prinzipiell bekannt ist nach Erhalt der Information über den Wert von X. Die Menge \mathcal{B} wird allgemein als eine σ-Algebra angenommen.
  5. A. Kolmogoroff: Grundbegriffe der Wahrscheinlichkeitsrechnung. Springer, Berlin 1933. In der Einleitung des Buches ist die Theorie der bedingten Wahrscheinlichkeiten und Erwartungen als wesentliche Neuerung erwähnt. Für die Definition der bedingten Wahrscheinlichkeit bezüglich einer Zufallsvariable u verwendet Kolmogorow (S. 42) die Gleichung \mathsf{P}_{\{u\subset A\}}(B)=\mathsf{E}_{\{u\subset A\}}\mathsf{P}_u(B), d. h.P(B\,|\,\{u\in A\})=E(P(B|u)\,|\,\{u\in A\}), die für jede Wahl von A mit P(u\in A)>0 erfüllt sein soll (für das Bedingen auf \{u\in A\} wird die elementare Definition verwendet). Im anschließenden Beweis der Existenz und Eindeutigkeit zeigt Kolmogorow, dass die linke Seite der Gleichung mit P(B\cap\{u\in A\}) übereinstimmt, die rechte mit \textstyle\int_{\{u\in A\}}P(B|u)\,dP, was den oben angegebenen Ausdrücken entspricht, er arbeitet dann allerdings auf der Ebene des Bildraums von u weiter. Bei bedingten Erwartungen ist die Vorgehensweise ähnlich.

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Erwartungswert — Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik. Der Erwartungswert einer Zufallsvariablen ist jener Wert, der sich (in der Regel) bei oftmaligem Wiederholen des zugrunde liegenden Experiments als… …   Deutsch Wikipedia

  • Bedingte Erwartung — Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten bezüglich einer Teil σ Algebra stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie werden unter anderem bei der Formulierung von Martingalen verwendet.… …   Deutsch Wikipedia

  • Grundgesamtheitsmittelwert — Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Begriff der Stochastik. Der Erwartungswert ( oder μ) einer Zufallsvariablen (X) ist jener Wert, der sich (in der Regel) bei oftmaligem Wiederholen des zugrunde liegenden Experiments… …   Deutsch Wikipedia

  • Erwartung — 1. Begriff/Einordnung: Da bei zukunftsbezogenen Entscheidungen meist viele für die Entscheidungsfindung wichtige Größen unbekannt bzw. unsicher sind, können nur E. über die unbekannten Größen herangezogen werden. Nach Knight sind zwei… …   Lexikon der Economics

  • Konditionale Wahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Totale Wahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Verbundwahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Ergodensatz — Der Ergodensatz ist ein wichtiger Satz der Stochastik. Er liefert eine Form des Gesetzes der großen Zahlen für abhängige Zufallsvariablen und liefert die mathematische Grundlage der Ergodenhypothese der statistischen Physik. Formulierung des… …   Deutsch Wikipedia

  • Martignale — Pfade von zwei kompensierten zusammengesetzten Poisson Prozessen. Die Int …   Deutsch Wikipedia

  • Martingale — Pfade von zwei kompensierten zusammengesetzten Poisson Prozessen. Die Int …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”