Moment (Stochastik)


Moment (Stochastik)

Momente sind Kenngrößen von Zufallsvariablen. Sie sind Parameter der deskriptiven Statistik und spielen eine theoretische Rolle in der Stochastik. Die Begriffe Erwartungswert, Varianz, Schiefe und Wölbung zur Beschreibung einer Zufallsvariablen hängen eng mit deren Momenten zusammen.

Eine Verteilungsfunktion ist durch Angabe aller ihrer Momente bestimmt, falls diese existieren und die Reihe der momenterzeugenden Funktion konvergiert. Die Bestimmung einer Verteilung mit vorgegebenen Momenten wird als das Momentenproblem bezeichnet.

Es gibt Verteilungen, deren Momente nur bis zu einer bestimmten Ordnung existieren. Dazu gehören die t-Verteilungen, deren Momente nur für Ordnungen existieren, die kleiner als der Freiheitsgrad sind. Im Spezialfall der Cauchy-Verteilung existiert also nicht einmal das erste Moment (der Erwartungswert), das ist auch bei der Lévy-Verteilung der Fall.

Interpretiert man Verteilungen als Massebelegungen der Abszisse, dann ist das erste Moment – der Mittelwert – der Schwerpunkt und das zweite zentrale Moment – die Varianz – das Trägheitsmoment der Belegung bei Rotation um eine senkrecht zur Abszisse stehende, durch den Schwerpunkt verlaufende Achse.[1]

Inhaltsverzeichnis

Definition

Es sei X eine Zufallsvariable und k eine natürliche Zahl. Dann bezeichnet man als Moment der Ordnung k von X oder kürzer als k-tes Moment von X den Erwartungswert der k-ten Potenz von X (unter der Voraussetzung, dass dieser existiert):

 m_k := \operatorname{E}\left(X^k\right),

und als k-tes absolutes Moment von X wird der Erwartungswert der k-ten Potenz des Absolutbetrages | X | von X bezeichnet:

 M_k := \operatorname{E}\left(\left|X\right|^k\right).

In theoretischen Untersuchungen werden mitunter auch Momente nichtganzzahliger Ordnung κ betrachtet.

Die Existenz von Momenten einer bestimmten Ordnung liefert allgemein Aussagen über die Verteilung der Wahrscheinlichkeitsmasse.

Das erste Moment ist der Erwartungswert. Er wird meist mit μ bezeichnet und kann als Mittelwert oder „Zentralwert“ angesehen werden.

Darstellung für reelle Zufallsvariable

Ist X eine reelle Zufallsvariable mit der Verteilungsfunktion FX, dann folgt aus der Definition des Erwartungswertes

 m_k = \int\limits_{-\infty}^{\infty} x^k \mathrm{d}F_X(x).

Ist X eine stetige Zufallsvariable mit der Dichtefunktion fX, dann gilt

 m_k = \int\limits_{-\infty}^{\infty} x^k f_X(x)\;\mathrm{d} x,

und für eine diskrete Zufallsvariable mit Sprungpunkten xi und den Einzelwahrscheinlichkeiten pi ist

 m_k= \sum_{i=1}^\infty x_i^k \cdot p_i.

Zentrale Momente

Neben den oben definierten Momenten werden die zentralen Momente definiert, bei denen die Verteilung der Wahrscheinlichkeitsmasse um den Erwartungswert μ = E(X) der Zufallsvariablen X betrachtet wird:

 \mu_k := \operatorname{E}\left(\left(X-\mu\right)^k\right)

und

 \bar{\mu}_k := \operatorname{E}\left(\left|X-\mu\right|^k\right).

Das zweite zentrale Moment ist die Varianz:

 \mu_2 = \operatorname{E}\left(\left(X-\mu\right)^2\right).

Das dritte zentrale Moment ist nach Normierung die Schiefe. Das vierte zentrale Moment ist nach Normierung die Wölbung (Kurtosis und Exzess). Schiefe und Wölbung werden zusammen als höhere Momente bezeichnet und oft als Maß der Abweichung von der Normalverteilung benutzt.

Momente und charakteristische Funktion

Durch mehrfaches Ableiten der Formel für die charakteristische Funktion erhält man eine Darstellung der gewöhnlichen Momente durch die charakteristische Funktion als

\operatorname{E}(X^{k}) = \frac{\varphi_{X}^{(k)}(0)}{i^{k}} \quad (k=1,2,\dots)

Das k-te Moment kann auch mit der momenterzeugenden Funktion ermittelt werden.

Markow-Ungleichung

Die Bedeutung der Momente wird durch folgenden Satz deutlich:

Wenn das k-te absolute Moment Mk der Zufallsvariablen X existiert, dann gilt

 \operatorname{P}(|X| \geqq x) \leqq \frac{M_k}{x^k}.

Das ist die Markow-Ungleichung, die eine Aussage über die Wahrscheinlichkeit betragsmäßig großer Werte von X liefert. Im Spezialfall k = 2 folgt daraus mit der Varianz σ2 von X die bekannte Tschebyschow-Ungleichung

 \operatorname{P}(|X - \operatorname{E}(X)| \geqq x) \leqq \frac{\sigma^2}{x^2},

die eine Aussage über die Wahrscheinlichkeit großer Abweichungen der Zufallsvariablen X von ihrem Erwartungswert macht.

Verbundmomente

Der Momentenbegriff lässt sich auch auf mehrere Zufallsvariablen erweitern. Im Falle zweier Zufallsvariablen X und Y sind die zentralen gemeinsamen Momente (engl. joint moments) von X − ηX und Y − ηY

\mu_{kr} = \operatorname E\left((X-\eta_X)^k(Y-\eta_Y)^r\right) = \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} (x-\eta_X)^k(y-\eta_Y)^rf_{xy}(x,y)\,\operatorname{d}x\operatorname{d}y

mit \eta_X=\operatorname E(X) und \eta_Y=\operatorname E(Y).

Insbesondere ist μ11 die Kovarianz von X und Y.

Literatur

  • Athanasios Papoulis, S. Unnikrishna Pillai: Probability, Random Variables, and Stochastic Processes. McGraw-Hill Publishing Co.; 4Rev Ed edition (2002), ISBN 0-07-366011-6.

Einzelnachweise

  1. L. Schmetterer: Mathematische Statistik. Springer, Wien 1966, S. 61.

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Moment — der Moment (lateinisch mōmentum (auch mŏvimentum, mōmen) „Bewegung, Grund, Einfluss“ von lateinisch mŏvere „bewegen, entstehen“) bezeichnet: ein kurzes Zeitintervall in der Musik, insbesondere der von Karlheinz Stockhausen, ein… …   Deutsch Wikipedia

  • Moment (Integration) — Moment in der Integralrechnung ist das bestimmte Integral über das Produkt der Potenz n einer Integrationsvariablen i und einer Funktion f(i) dieser Integrationsvariablen: Dabei handelt es sich um eine mathematische Zusammenfassung verschiedener… …   Deutsch Wikipedia

  • Statistisches Moment — Momente sind Kenngrößen von Zufallsvariablen. Sie sind Parameter der deskriptiven Statistik und spielen eine theoretische Rolle in der Stochastik. Die Begriffe Erwartungswert, Varianz, Schiefe und Wölbung zur Beschreibung einer Zufallsvariablen… …   Deutsch Wikipedia

  • Zentrales Moment — Momente sind Kenngrößen von Zufallsvariablen. Sie sind Parameter der deskriptiven Statistik und spielen eine theoretische Rolle in der Stochastik. Die Begriffe Erwartungswert, Varianz, Schiefe und Wölbung zur Beschreibung einer Zufallsvariablen… …   Deutsch Wikipedia

  • Varianz (Stochastik) — Dichten zweier normalverteilter Zufallsvariablen mit gleichem Erwartungswert aber unterschiedlichen Varianzen. Die rote Kurve hat eine geringere Varianz (entsprechend der Breite) als die grüne. Die Wurzel der Varianz, die Standardabweichung, kann …   Deutsch Wikipedia

  • Grundgesamtheitsmittelwert — Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Begriff der Stochastik. Der Erwartungswert ( oder μ) einer Zufallsvariablen (X) ist jener Wert, der sich (in der Regel) bei oftmaligem Wiederholen des zugrunde liegenden Experiments… …   Deutsch Wikipedia

  • Gauss-Verteilung — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gaussfunktion — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gausskurve — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

  • Gausssche Verteilung — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia