Harris-Kette

Harris-Kette

Eine Harris-Kette, benannt nach dem Mathematiker Ted Harris, ist eine spezielle Markow-Kette auf einem messbaren Zustandsraum. Harris-Ketten sind unter anderem interessant, da man für diese Ergodensätze formulieren kann.

Definition

Sei (Ω,Σ) ein messbarer Raum. Sei (X_n)_{n \in \N} eine Markow-Kette auf (Ω,Σ) mit Markowkern π. Dann heißt (X_n)_{n \in \N} Harris-Kette falls ein Ereignis A \in \Sigma, ein Wahrscheinlichkeitsmaß φ auf (Ω,Σ), eine reelle Zahl b mit 0 < b < 1 und eine natürliche Zahl n_0 \in \N existieren, so dass gilt:

  1. Für jedes Elementarereignis x\in\Omega gilt  P_x(X_n \in A \mathrm{\ f\ddot ur\ ein\ } n \in\N) = 1.
  2. Für jedes x\in A, jedes Ereignis B\in\Sigma gilt  P_x(X_{n_0} \in B) \geq b \cdot \varphi(B)

Eigenschaften

Zu jeder Harriskette lässt sich eine identisch verteilte Harriskette finden, die fast sicher unendlich oft gemäß φ verteilt ist.


Wikimedia Foundation.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markowsche Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Marcus Harris — (* 19. April 1964[1], in der Grafschaft Middlesex, England) ist ein britischer Schauspieler. Er wurde Ende der 1970er Jahre durch die Rolle des Julian Kirrin aus der Fernsehserie Fünf Freunde europaweit bekannt. Inhaltsverzeichnis 1 Leben 2… …   Deutsch Wikipedia

  • Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”