markov chains

  • 1Markov chains — probability theory based on sequences of random variables (named for mathematician Andrei Markov) …

    Eponyms, nicknames, and geographical games

  • 2Examples of Markov chains — This page contains examples of Markov chains in action. Contents 1 Board games played with dice 2 A center biased random walk 3 A very simple weather model 3.1 Pr …

    Wikipedia

  • 3Markov decision process — Markov decision processes (MDPs), named after Andrey Markov, provide a mathematical framework for modeling decision making in situations where outcomes are partly random and partly under the control of a decision maker. MDPs are useful for… …

    Wikipedia

  • 4Markov Chain Monte Carlo — Verfahren (kurz MCMC Verfahren; seltener auch Markov Ketten Monte Carlo Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow Kette,… …

    Deutsch Wikipedia

  • 5Markov chain — A simple two state Markov chain. A Markov chain, named for Andrey Markov, is a mathematical system that undergoes transitions from one state to another, between a finite or countable number of possible states. It is a random process characterized …

    Wikipedia

  • 6Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 7Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 8Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 9Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 10Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia