VOOZH about

URL: https://fr.wikipedia.org/wiki/Processus_de_Markov

⇱ Processus de Markov — Wikipédia


Aller au contenu
Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov.

Un processus de Markov en temps discret est une séquence 👁 {\textstyle X_{1},}
👁 {\textstyle X_{2},}
👁 {\textstyle X_{3},\ \dots }
de variables aléatoires. L'ensemble de leurs valeurs possibles est appelé l’espace d'états, la valeur 👁 {\textstyle X_{n}\ }
étant l'état du processus à l'instant 👁 {\textstyle n.}
Selon les auteurs, le vocable « chaîne de Markov » désigne les processus de Markov à temps discret ou uniquement les processus de Markov à temps discret et à espace d'états discret, c.-à-d. les processus de Markov à temps discret dont l'espace d'états est fini ou dénombrable.

Si la loi conditionnelle de 👁 {\textstyle X_{n+1}\ }
sachant le passé, i.e. sachant 👁 {\textstyle \left(X_{k}\right)_{0\leq k\leq n}\ }
est une fonction de 👁 {\textstyle X_{n}\ }
seul, alors :

👁 {\displaystyle P(X_{n+1}=x\mid X_{0},X_{1},X_{2},\ldots ,X_{n})=P(X_{n+1}=x\mid X_{n}).\,}

👁 {\displaystyle x}
est un état quelconque du processus. L'identité ci-dessus identifie la probabilité markovienne.

Andreï Markov a publié les premiers résultats de ces processus en 1906.

Une généralisation à un espace d'états infini dénombrable a été donnée par Kolmogorov en 1936.

Les processus de Markov sont liés au mouvement brownien et à l'hypothèse ergodique, deux sujets de physique statistique qui ont été très importants au début du XXe siècle.

Types de processus de Markov

[modifier | modifier le code]

Espace d'états discret

[modifier | modifier le code]

Lorsque les variables aléatoires successives sont des variables discrètes munies d'une fonction de probabilité, on parle de chaîne de Markov.

Bien que les chaînes de Markov s'appliquent à des phénomènes dont l'aspect temporel est généralement sans intérêt, on peut associer aux valeurs successives 👁 {\displaystyle x_{i}\,}
les instants 👁 {\displaystyle t_{i}\,}
. La propriété markovienne selon laquelle la probabilité d'un état du système ne dépend que de son état précédent à travers une probabilité conditionnelle appelée probabilité de transition s'exprime par :

👁 {\displaystyle P(x_{n},t_{n}|x_{n-1},t_{n-1};x_{n-2},t_{n-2};...;x_{1},t_{1};x_{0},t_{0})=P(x_{n},t_{n}|x_{n-1},t_{n-1})\quad t_{n}>t_{n-1}>...>t_{1}>t_{0}\,}
.

Une chaîne de Markov est entièrement définie par la probabilité au premier ordre 👁 {\displaystyle P(x,t)\,}
et la probabilité de transition. On obtient par exemple la probabilité au second ordre par :

👁 {\displaystyle P(x_{1},t_{1};x_{2},t_{2})=P(x_{1},t_{1})P(x_{2},t_{2}|x_{1},t_{1})\quad t_{2}>t_{1}\,}
.

Elle est donc également définie par la probabilité au second ordre. Enfin, elle peut être définie par l'état initial et la probabilité de transition.

Espace d'états continu

[modifier | modifier le code]

Les chaînes de Markov trouvent des applications dans les domaines les plus divers mais les processus considérés dans les problèmes dynamiques, en particulier en vibrations, portent généralement sur des variables aléatoires continues.

Dans ces conditions, la probabilité d'obtenir une valeur donnée est généralement nulle et les probabilités d'apparition doivent être remplacées par des densités de probabilité dans la formule de la propriété markovienne :

👁 {\displaystyle p(x_{n},t_{n}|x_{n-1},t_{n-1};x_{n-2},t_{n-2};...;x_{1},t_{1};x_{0},t_{0})=p(x_{n},t_{n}|x_{n-1},t_{n-1})\quad t_{n}>t_{n-1}>...>t_{1}>t_{0}\,}

Temps discret et temps continu

[modifier | modifier le code]

Les considérations qui précèdent restent valables si les intervalles de temps deviennent infiniment petits. Cette remarque est particulièrement intéressante dans le cas d'une équation différentielle. Si elle est du premier ordre, la mise en différences finies fait apparaître un mécanisme markovien. Pour les ordres supérieurs et les systèmes différentiels, la décomposition en équations du premier ordre conduit à un système markovien à plusieurs dimensions.

Propriétés des processus de Markov à temps discret

[modifier | modifier le code]

Un processus de Markov est caractérisé par la distribution conditionnelle :

👁 {\displaystyle P(X_{n+1}\mid X_{n})\,}

qui est aussi appelée probabilité de transition d'un pas du processus. La probabilité de transition pour deux, trois pas ou plus se déduit de la probabilité de transition d'un pas, et de la propriété de Markov :

👁 {\displaystyle P(X_{n+2}\mid X_{n})=\int P(X_{n+2},X_{n+1}\mid X_{n})\,\mathrm {d} X_{n+1}=\int P(X_{n+2}\mid X_{n+1})\,P(X_{n+1}\mid X_{n})\,\mathrm {d} X_{n+1}}

De même,

👁 {\displaystyle P(X_{n+3}\mid X_{n})=\int P(X_{n+3}\mid X_{n+2})\int P(X_{n+2}\mid X_{n+1})\,P(X_{n+1}\mid X_{n})\,\mathrm {d} X_{n+1}\,\mathrm {d} X_{n+2}}

Ces formules se généralisent à un futur arbitrairement lointain 👁 {\displaystyle n+k}
en multipliant les probabilités de transition et en intégrant 👁 {\displaystyle k-1}
fois.

La loi de distribution marginale 👁 {\displaystyle P(X_{n})}
est la loi de distribution des états au temps 👁 {\displaystyle n}
. La distribution initiale est 👁 {\displaystyle P(X_{0})}
. L'évolution du processus après un pas est décrite par :

👁 {\displaystyle P(X_{n+1})=\int P(X_{n+1}\mid X_{n})\,P(X_{n})\,\mathrm {d} X_{n}}

Ceci est une version de l'équation de Frobenius-Perron. Il peut exister une ou plusieurs distributions d'états 👁 {\displaystyle \pi }
telles que :

👁 {\displaystyle \pi (X)=\int P(X\mid Y)\,\pi (Y)\,\mathrm {d} Y}

👁 {\displaystyle Y}
est un nom arbitraire pour la variable d'intégration. Une telle distribution 👁 {\displaystyle \pi }
est appelée une distribution stationnaire. Une distribution stationnaire est une fonction propre de la loi de distribution conditionnelle, associée à la valeur propre 1.

Dans le cas des chaînes de Markov à espace d'états discret, certaines propriétés du processus déterminent s'il existe ou non une distribution stationnaire, et si elle est unique ou non.

  • une Chaîne de Markov est irréductible si tout état est accessible à partir de n'importe quel autre état.
  • un état est récurrent positif si l'espérance du temps de premier retour en cet état, partant de cet état, est finie.

Quand l'espace des états d'une chaîne de Markov n'est pas irréductible, il peut être partitionné en un ensemble de classes communicantes irréductibles. Le problème de la classification a son importance dans l'étude mathématique des chaînes de Markov et des processus stochastiques.

Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une distribution stationnaire.

Si une chaîne de Markov est récurrente positive et irréductible, alors :

  • il existe une unique distribution stationnaire ;
  • et le processus construit en prenant la distribution stationnaire comme distribution initiale est ergodique.

Donc, la moyenne d'une fonction 👁 {\displaystyle f}
sur les instances de la chaîne de Markov est égale à sa moyenne selon sa distribution stationnaire :

👁 {\displaystyle \lim _{n\rightarrow \infty }\;{\frac {1}{n}}\;\sum _{k=0}^{n-1}f(X_{k})=\int f(X)\,\pi (X)\,\mathrm {d} X}

C'est vrai en particulier lorsque 👁 {\displaystyle f}
est la fonction identité.

La moyenne de la valeur des instances est donc, à long terme, égale à l'espérance de la distribution stationnaire.

De plus, cette équivalence sur les moyennes s'applique aussi si 👁 {\displaystyle f}
est la fonction indicatrice d'un sous-ensemble 👁 {\displaystyle A}
de l'espace des états :

👁 {\displaystyle \lim _{n\rightarrow \infty }\;{\frac {1}{n}}\;\sum _{k=0}^{n-1}\chi _{A}(X_{k})=\int _{A}\pi (X)\,\mathrm {d} X=\mu _{\pi }(A)}

👁 {\displaystyle \mu _{\pi }}
est la mesure induite par 👁 {\displaystyle \pi }
.

Cela permet d'approximer la distribution stationnaire par un histogramme d'une séquence particulière.

Si l'espace des états est fini, alors la distribution de probabilité peut être représentée par une matrice stochastique appelée matrice de transition, dont le 👁 {\displaystyle (i,j)}
ème élément vaut :

👁 {\displaystyle P(X_{n+1}=j\mid X_{n}=i)\,}

Applications

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]

Bibliographie

[modifier | modifier le code]
  • Étienne Pardoux, Processus de Markov et applications : algorithmes, réseaux, génome et finance, Paris, Dunod,
  • Pierre Désesquelles, Les Processus de Markov en biologie, sociologie, géologie, chimie, physique et applications industrielles, Paris, Ellipses,

Liens externes

[modifier | modifier le code]
v · m
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application