chaîne de Markov
- Domaine
-
- mathématiques recherche opérationnelle
Définition :
Expression mathématique utilisée en recherche opérationnelle et dans la théorie des FILES D'ATTENTE pour désigner les phénomènes dans lesquels une séquence d'événements consécutifs est caractérisée par le fait que la probabilité pour chaque événement (n) de se produire ne dépend que du résultat de l'événement qui le précède (le n - 1e). Parmi les multiples applications des processus de Markov à l'analyse de phénomènes économiques, on peut citer l'exemple de la prévision boursière. Un processus markovien présente le grand avantage d'être entièrement défini lorsque l'on connaît l'état ou l'événement initial et les probabilités associées aux différentes transitions d'état à état.
Terme :
- chaîne de Markov n. f.
Terme associé :
- processus de Markov n. m.
Traductions
-
anglais
Auteur : Tézénas Du Montcel, Henri,Terme :
- markov-process