processus markovien
- Domaine
-
- statistique
Définition :
Processus stochastique dans lequel la dépendance au passé des réalisations futures se résume à la valeur de la réalisation actuelle.
Terme :
- processus markovien n. m.
Traductions
-
anglais
Auteur : World Meteorological Organization,Définition
Stochastic process in which the dependence of future values of the process on past values is summarized by the current value.
Terme :
- Markov process
-
espagnol
Auteur : Organización Meteorológica Mundial,Définition
Proceso estocástico en el que la dependencia de los valores futuros repecto a los valores pasados se reduce al valor presente.
Terme :
- proceso de Markov