Markoff

Markoff

Markow bezeichnet:

  • Markow (Ivenack), Ortsteil der Gemeinde Ivenack im Landkreis Demmin in Mecklenburg-Vorpommern

Markow ist ein russischer Familienname. Bekannte Namensträger sind:


Mathematik (nach A. A. M.):


Siehe auch:


Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Markoff — noun Russian mathematician (1856 1922) • Syn: ↑Markov, ↑Andrei Markov, ↑Andre Markoff • Derivationally related forms: ↑Markovian (for: ↑Markov) • Instance …   Useful english dictionary

  • Markoff-Zahl — Die ersten Einträge im Baum der Markoff Zahlen Eine Markoff Zahl (nach Andrei Andrejewitsch Markow) ist eine natürliche Zahl x, y oder z, die als Lösung der diophantischen Markoff Gleichung vorkommt. Die ersten Markoff Zahlen sind …   Deutsch Wikipedia

  • Markoff chain — Markov chain Mark ov chain, n. [after A. A. Markov, Russian mathematician, b. 1856, d. 1922.] (Statistics) A random process (Markov process) in which the probabilities of discrete states in a series depend only on the properties of the… …   The Collaborative International Dictionary of English

  • Markoff process — Markov process Mark ov pro cess, n. [after A. A. Markov, Russian mathematician, b. 1856, d. 1922.] (Statistics) a random process in which the probabilities of states in a series depend only on the properties of the immediately preceding state or… …   The Collaborative International Dictionary of English

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff chain — noun a Markov process for which the parameter is discrete time values • Syn: ↑Markov chain • Hypernyms: ↑Markov process, ↑Markoff process * * * noun see markov chain …   Useful english dictionary

  • Markoff process — noun a simple stochastic process in which the distribution of future states depends only on the present state and not on how it arrived in the present state • Syn: ↑Markov process • Hypernyms: ↑stochastic process • Hyponyms: ↑Markov chain,… …   Useful english dictionary

  • Markoff — adjective see Markovian …   New Collegiate Dictionary

  • markoff — mar·koff …   English syllables

  • Markoff chain — noun see Markov chain …   New Collegiate Dictionary

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”