1.9. Chaines de Markov à temps discret#
On commence par une définition d’une chaine de Markov sur un espace générale \(E\) mesurable. Cette définition met l’accent sur le côté dynamique d’une chaine de Markov vue comme une suite récurrente aléatoire.
(chaine de Markov simulable)
Une chaine de Markov (dite simulable) sur \(E\) est une suite \((X_n)_{n \ge 0}\) de variables aléatoires à valeurs dans \(E\) telle que
où
\((\xi_n)_{n \ge 1}\) est une suite de variables aléatoires indépendantes à valeurs dans \(V\) (ensemble mesurable), indépendante de \(X_0\),
\(\Phi: \mathbf{N} \times E \times V\) est une application (déterministe) mesurable à valeurs dans \(E\).
L’espace \(E\) s’appelle l’espace des états de la chaine de Markov \((X_n)_{n \ge 0}\)
La suite \((\xi_n)_{n \ge 1}\) s’appelle la suite des innovations et l’ensemble \(V\) est l’espace des innovations.
Si \(\Phi\) ne dépend pas de l’itération \(n\) et que \((\xi_n)_{n \ge 1}\) est i.i.d., on dit que la chaine est homogène.
Il est important d’avoir indépendance entre les \(\xi_{k+1}\) et le passé de la chaine \((X_0, \dots, X_k)\).
\(\mathbf{Z}\))
(la marche aléatoire symétrique surL’espace d’état est \(\mathbf{N}\), l’espace des innovations est \(V = \{-1, 1\}\), la condition initiale est \(X_0 = 0\) (ou encore \(X_0 \sim \delta_0\) i.e. la loi de \(X_0\) est la dirac en \(0\)) et les innovations sont \((\xi_n)_{n \ge 1}\) une suite i.i.d. telle que \(\mathbf{P}\big(\xi_1 = 1\big) = \mathbf{P}\big(\xi_1 = -1\big) = \frac{1}{2}\). La dynamique est donnée par \(\Phi(x, \xi) = x + \xi\) c’est à dire
\(\mathbf{R}\))
(une marche aléatoire surL’espace d’état est \(\mathbf{R}\), l’espace des innovations est \(V = \mathbf{R}\), la condition initiale est \(X_0 = 0\) et les innovations sont \((\xi_n)_{n \ge 1}\) une suite i.i.d. telle que \(\xi_1 \sim \mathcal{N}(0, h)\) où \(h > 0\) est un paramètre fixé. La dynamique est la même que l’exemple précédant
Dans ce cas la loi de \((X_1, \dots, X_n)\) est calculable. C’est un vecteur Gaussien centré de matrice de covariance \(\operatorname{cov}(X_i, X_j) = \min(ih, jh)\).
Il s’agit d’un mouvement Brownien standard aux instants \(t_k = k h\), \(k =1, \dots, n\).
1.9.1. Chaine de Markov sur un espace d’états discret#
Soit \(E\) un espace d’états discret (fini ou débombrable). On considère une suite de variables aléatoires \((X_n)_{n \ge 0}\) à valeurs dans \(E\). La loi \(\pi_n\) de \(X_n\) est donnée pour tout borélien \(A\) par
La loi \(\pi_n\) est la loi marginale (en \(n\)) de la suite (ou processus) \((X_n)_{n \ge 0}\). Il ne faut pas la confondre avec la loi du processus qui s’obtient à partir des lois marginales fini-multidimensionnelles de \((X_n)_{n \ge 1}\) (hors programme dans ce cours).
On rappelle la définition classique d’une chaine de Markov sur \(E\) en commencant par la notion de matrice stochastique.
Une matrice \(P= \big( P(x, y)_{x, y \in E} \big)\) est une matrice stochastique (ou matrice markovienne ou matrice de transition) sur \(E\) si
Une matrice stochastique a pour chaque vecteur ligne \(P(x, .) = \big( P(x, y) \big)_{y \in E}\) une loi de probabilité sur \(E\).
Une suite \((X_n)_{n \ge 0}\) est une chaine de Markov de matrice de transition \(P\) et de loi initiale \(\pi_0\) si \(\forall n \ge 0\), \(\forall x_0, \dots, x_n \in E\),
ou de façon équivalente (par récurrence)
On déduit immédiatement de cette définition que
1.9.2. Propriétés algébriques#
Si \(E\) est dénombrable on considère les fonctions \(f:E \to \mathbf{R}\) comme des vecteurs colonnes (de taille finie ou infinie) et les mesures \(\mu\) sur \(E\) comme des vecteurs lignes. Alors \(Pf\) est une fonction de \(E \to \mathbf{R}\) définie par
et \(\mu P\) est une mesure sur \(E\) définie par
D’autre part le produit de 2 matrices stochastiques \(P\) et \(Q\) est donné par
et on pose \(P^0 = \operatorname{Id}\) et \(P^n = P^{n-1} P = P P^{n-1}\).
1.9.3. Interprétation probabiliste#
Il est important de bien interpréter ces relations algébriques avec le formalisme probabiliste. En effet comme \(P(x, .)\) est la loi conditionnelle de \(X_{n+1}|X_n = x\) (pour tout \(n \ge 0\)) on a
De plus si \(X_0 \sim \mu\) alors la loi de \(X_n\) est donnée par \(\mu P^n\). En effet
et d’après (1.8) on a
On en déduit que \(\mathbf{P} \big(X_n = y|X_0 = x\big) = P^n(x, y)\) et par suite que \(\mathbf{P} \big(X_n = y| X_0 \sim \mu\big) = \mu P^n(y)\).
Toute chaine de Markov \((X_n)_{n \ge 0}\) à valeurs dans \(E\) dénombrable (au sens de la définition Definition 1.7) est simulable au sens de la définition Definition 1.5.
Proof. Soit \((X_n)_{n \ge 0}\) une chaine de Markov de loi initiale \(\pi_0\) et de matrice de transition \(P\) sur \(E\). On dénombre l’espace d’états et on le note \(E = \big\{x_j, j \ge 0\big\}\). Le but est de construire \(X_{n+1}\) à partir de \(X_n\) et d’une variable aléatoire auxiliaire \(\xi_{n+1}\) indépendante du passé. On connait la loi conditionnelle de \(X_{n+1}|X_n = x\) car cette loi est donnée par \(P(x, .)\) (\(x\)–ème ligne de la matrice \(P\)). Conditionnellement à l’événement \(\{X_n = x\}\) la variable aléatoire \(X_{n+1}\) est donc de fonction de répartition
et l’inverse généralisée s’écrit
Pour \(U \sim \mathcal{U}\big(]0,1[\big)\) on a donc \(\Phi(x, U) \sim X_{n+1}|X_n = x\). La chaine de Markov \((X_n)_{n \ge 0}\) de loi initiale \(\pi_0\) et de matrice de transition \(P\) peut donc s’écrire sous la forme itérative
On vérifie que si \((X_n)_{n \ge 0}\) satisfait (1.15) alors \(\forall x_0, \dots, x_n \in E\),
et \(\mathbf{P} \big(\Phi(x_{k-1}, U_1) = x_k\big) = P(x_{k-1}, x_k)\) pour tout \(k \ge 1\).
Ce résultat se généralise à \(E = \mathbf{R}^d\) par exemple.
See also
Pour en savoir plus sur les chaines de Markov sur un espace d’état dénombrable, vous pouvez consulter les ouvrages suivants (avec exercices corrigés): [Graham, 2008], [Cottrell et al., 2005] ou [Mazliak et al., 1998].