Stochastischer Kern

Stochastischer Kern

In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω') überzugehen. Sie finden in der Bioinformatik eine breite Anwendung bei der Modellbildung unter Zuhilfenahme von Markow- und Hidden-Markow-Modellen. In der Quantenphysik werden oft Übergangswahrscheinlichkeiten zwischen quantenmechanischen Zuständen untersucht.

Diskreter Fall

Im diskreten Fall, wo Ω und Ω' endliche oder abzählbare Mengen sind, genügt es die Wahrscheinlichkeiten πi,j anzugeben, mit denen man vom Zustand i in den Zustand j gelangt. Diese Wahrscheinlichkeiten bilden eine Matrix \pi = (\pi_{i,j})_{i\in\Omega, j\in\Omega'}, die die Eigenschaft hat, dass alle Elemente zwischen 0 und 1 liegen und dass die Zeilensummen  \sum_{j\in\Omega'} \pi_{i,j} den Wert 1 haben. Eine solche Matrix wird als stochastische Matrix bezeichnet. Sie ordnet jeder Wahrscheinlichkeitsverteilung auf Ω mit einer Zähldichte \rho=(\rho_i)_{i\in\Omega} eine Zähldichte \rho\pi = (\sum_{i\in\Omega} \rho_i \pi_{i,j})_{j\in\Omega'} in Ω' zu.

Bemerkung: Bei manchen Definitionen werden Zeilen und Spalten der Matrix umgekehrt verwendet.

Allgemeiner Fall

Im allgemeinen Fall gibt man die Wahrscheinlichkeiten π(x;A) an, mit denen man von einem Zustand x zu einem beliebigen Ereignis A gelangt. Dazu seien  (\Omega, \mathcal A) und  (\Omega', \mathcal A') Messräume. Eine Abbildung  \pi : \Omega \times \mathcal A' \to [0,1] heißt stochastischer Kern oder Markow-Kern von  (\Omega, \mathcal A) nach  (\Omega', \mathcal A') , wenn gilt:

Jedem Wahrscheinlichkeitsmaß P auf  (\Omega, \mathcal A) ordnet π durch die Zuordnung  A \mapsto \int_\Omega P(dx) \pi(x; A) ein Wahrscheinlichkeitsmaß auf  (\Omega', \mathcal A') zu.

Bemerkung: Bei manchen Definitionen werden die Argumente von π in umgekehrter Reihenfolge geschrieben, π(A;x) oder auch π(A | x), in Anlehnung an bedingte Wahrscheinlichkeiten.


Wikimedia Foundation.

Игры ⚽ Поможем сделать НИР

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Markov-Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Markow-Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Übergangswahrscheinlichkeit — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen.… …   Deutsch Wikipedia

  • Bedingte Erwartung — Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten bezüglich einer Teil σ Algebra stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie werden unter anderem bei der Formulierung von Martingalen verwendet.… …   Deutsch Wikipedia

  • Stochastische Matrix — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”