chaîne de Markov
- Domaine
-
- statistique
Définition :
Série chronologique aléatoire dont les valeurs futures ne dépendent que de l'état présent et ne peuvent prendre que des valeurs discrètes, utilisée pour la modélisation des séries chronologiques et de la prise de décisions séquentielle.
Terme :
- chaîne de Markov n. f.
Traductions
-
anglais
Auteur : World Meteorological Organization,Définition
Random series whose future values depend on the current state and can take only discrete values, used in time series models and sequential decision processes.
Terme :
- Markov chain
-
espagnol
Auteur : Organización Meteorológica Mundial,Définition
Serie temporal aleatoria de una variable discreta cuyos valores futuros dependen del valor presente, que se utiliza en modelos de series temporales y en la adopción de decisiones secuencial.
Terme :
- cadena de Markov