Processus de Poisson

1.11. Processus de Poisson#

Soit \((S_n)_{n \ge 1}\) suite i.i.d. de loi exponentielle de paramètre \(\lambda > 0\). On pose

\[\begin{equation*} T_0 = 0 \quad \text{et} \quad \forall n \ge 0, \quad T_{n+1} = T_n + S_{n+1}. \end{equation*}\]

Pour tout \(t \ge 0\) on définit la variable aléatoire \(N_t\) à valeurs dans \(\mathbf{N}\) par

\[\begin{equation*} N_t = \sum_{n \ge 1} n \mathbf{1}_{[T_n, T_{n+1}[}(t) \end{equation*}\]

ou de façon équivalente

\[\begin{equation*} \forall n \ge 0, \quad N_t = n \quad \Leftrightarrow \quad T_n \le t < T_{n+1} \end{equation*}\]

Definition 1.8

On appelle processus de Poisson d’intensité \(\lambda > 0\) l’ensemble \(\big\{N_t, t \ge 0\big\}\) que l’on note \((N_t)_{t \ge 0}\).

Le processus de Poisson est un processus de comptage qui compte le nombre de sauts \(T_n\) qu’il ya eu avant un instant donné \(t\). On a en particulier \(N_0 = 0\) et pour tout \(s \le t\), \(N_s \le N_t\). Le nom de ce processus vient du fait que la loi marginale du processus est une loi de Poisson.

Proposition 1.9

Pour tout \(t \ge 0\), \(N_t \sim \mathcal{P}(\lambda t)\).

Proof. Tout d’abord on détermine la densité du vecteur \((T_1, \dots, T_n)\) à partir de la densité de \((S_1, \dots, S_n)\). Par construction \(S_1 = T_1\) et \(S_{k+1} = T_{k+1} - T_k\). Or le vecteur \((S_1, \dots, S_{n})\) est un vecteur aléatoire dont les composantes sont indépendantes et de loi \(\mathcal{E}(\lambda)\) \ie la densité de \((S_1, \dots, S_{n})\) est donnée par

\[\begin{equation*} g(s_1, \dots, s_{n}) = \lambda^n e^{-\lambda (s_1 + \cdots + s_{n})} \mathbf{1}_{\mathbf{R}_+^n}(s_1, \dots, s_{n}) \end{equation*}\]

On a \((T_1, \dots, T_n) = M (S_1, \dots, S_{n})\) (avec \(M\) matrice de déterminant \(1\)) et cette transformation envoie \(\mathbf{R}_+^n\) dans \(D = \big\{(t_1,\dots,t_n) \in \mathbf{R}_+^n, t_1 \le t_2 \le \cdots \le t_n\big\}\). Le vecteur \((T_1, \dots, T_n)\) admet alors pour densité

\[\begin{equation*} f_{(T_1, \dots, T_n)}(t_1, \dots, t_n) = \lambda^n e^{-\lambda t_n} \mathbf{1}_D(t_1,\dots,t_n). \end{equation*}\]

Soit \(t \ge 0\) et \(n \ge 1\) fixés. On calule maintenant \(\mathbf{P}\big(N_t = n\big)\) pour déterminer la loi de \(N_t\). Par définition

\[\begin{equation*} \mathbf{P}\big(N_t = n\big) = \mathbf{P}\big(T_n \le t, S_{n+1} > t - T_n\big). \end{equation*}\]

Or \(S_{n+1}\) est indépendendante de \((T_1, \dots, T_n)\) donc la densité de \((T_1,\dots, T_n, S_{n+1})\) est le produit des densités et

\[\begin{equation*} \mathbf{P}\big(N_t = n\big) = \int_D \int_0^{+\infty} \mathbf{1}_{t_n \le t, s > t - t_n} \lambda^n e^{-\lambda t_n} \lambda e^{-\lambda s} \operatorname{d}\!s \operatorname{d}\!t_1 \dots \operatorname{d}\!t_n. \end{equation*}\]

L’intégrale par rapport à \(s\) donne \(\int_0^{+\infty} \mathbf{1}_{s > t-t_n} \lambda e^{-\lambda s} \operatorname{d}\!s = e^{-\lambda(t-t_n)}\), et les intégrations successives par rapport à \(t_1, \dots, t_n\) donnent \(\int_D \mathbf{1}_{t_n \le t} \operatorname{d}\!t_1 \dots \operatorname{d}\!t_n = \frac{t^n}{n!}\), d’où

\[\begin{equation*} \mathbf{P} \big(N_t = n\big) = \frac{(\lambda t)^n}{n!} e^{-\lambda t}, \end{equation*}\]

c’est à dire \(N_t \sim \mathcal{P}(\lambda t)\).

Remark 1.3

Pour simuler une loi de Poisson on peut utiliser cette proposition. En effet on a

\[\begin{equation*} N_t = \min\big\{n \ge 0, \quad T_n \le t < T_{n+1} \big\}. \end{equation*}\]

Or \(T_{n+1} = T_n - \frac{1}{\lambda} \log(U_{n+1})\) donc \(T_{n+1} = -\frac{1}{\lambda} \log\Big(\prod_{k=1}^{n+1} U_k \Big)\) et on peut réécrire

\[\begin{equation*} N_t = \min\Big\{ n \ge 0, \quad -\frac{1}{\lambda} \log\Big(\prod_{k=1}^n U_k \Big) \le t < -\frac{1}{\lambda} \log\Big(\prod_{k=1}^{n+1} U_k \Big) \Big\}. \end{equation*}\]

On évite l’évaluation de fonctions logarithmes en considérant l’algorithme suivant, algorithme classique pour simuler une loi de Poisson de paramètre \(\lambda t\)

\[\begin{equation*} N_t = \min\Big\{n \ge 0, \quad \prod_{k=1}^{n+1} U_k < e^{-\lambda t} \le \prod_{k=1}^{n} U_k \Big\}. \end{equation*}\]

Pour simuler une trajectoire du processus \((N_t)_{t \ge 0}\) sur \([0, T]\) il est possible de procéder de la façon suivante: on simules les instants de saut \((T_n)_{n \ge 0}\) jusqu’à \(T_n \le T < T_{n+1}\) puis on compte les sauts. C’est la méthode standard mais qui peut être coûteuse si le processus saute beaucoup (intensité \(\lambda\) grande) ou si l’horizon de temps \(T\) est grand. Une alternative est de simuler d’abord le nombre de sauts qu’il y a sur \([0,T]\) (simulation d’une loi de Poisson de paramètre \(\lambda T\) par un algorithme adapaté) puis conditionnellement à ce nombre de sauts sur \([0,T]\) de simuler les instants de sauts. Cela est possible grâce à la proposition suivante (très importante pour faire des calculs efficaces).

Proposition 1.10

La loi conditionnelle de \((T_1, \dots, T_n)\) sachant \(\{N_T = n\}\) est la loi de \(n\) variables aléatoires indépendantes de loi uniforme sur \([0,T]\) réordonnées dans l’ordre croissant \ie loi de densité sur \(\mathbf{R}_+^n\)

(1.16)#\[ f(t_1, \dots, t_n) = n! T^{-n} \mathbf{1}_{0 \le t_1 < \cdots < t_n <T}\]

La densité \(f\) donnée en \eqref{eq:densite_stat_ordre} est celle du réordemment croissant de \((U_1, \dots, U_n) \sim \mathcal{U}\big([0,T]^n\big)\) appellé aussi statistiques d’ordres, noté \((U_{(1)}, \dots, U_{(n)})\), vérifiant

\[\begin{equation*} U_{(1)} = \min(U_1, \dots, U_n) \le U_{(2)} \le \cdots \le U_{(n)} = \max(U_1, \dots, U_n). \end{equation*}\]

Montrons ce résultat. Soit \(\mathcal{S}_n\) l’ensemble des permutations de \(\{1,\dots,n\}\) et \(D = \{(t_1, \dots, t_n)/ 0 < t_1 < \cdots < t_n\}\). Alors pour tout borélien \(B \in \mathcal{B}(\mathbf{R}^n)\), on a

(1.17)#\[\begin{equation} \mathbf{P} \big( \big(U_{(1)}, \dots, U_{(n)}\big) \in B \big) = \sum_{\sigma \in \mathcal{S}_n} \mathbf{P} \big( \big(U_{\sigma(1)}, \dots, U_{\sigma(n)} \big) \in B \cap D \big). \end{equation}\]

Il est important de remarquer que la loi de \((U_1, \dots, U_n)\) reste inchangée si on permute ses coordonnées (invariance par permutation) et donc

(1.18)#\[\begin{equation} \mathbf{P} \big( \big(U_{(1)}, \dots, U_{(n)} \big) \in B \big) = n! \mathbf{P} \big( (U_{1}, \dots, U_{n}) \in B \cap D \big). \end{equation}\]

La densité du vecteur \(\big(U_{(1)}, \dots, U_{(n)} \big)\) est donc

(1.19)#\[\begin{equation} f_{(U_{(1)}, \dots, U_{(n)})}(u_1, \dots, u_n) = n! T^{-n} \mathbf{1}_{[0,T]^n \cap D}(u_1, \dots, u_n), \end{equation}\]

qui correspond à \eqref{eq:densite_stat_ordre}.

En pratique on peut utiliser ce résultat pour simuler 1 trajectoire du processus de poisson d’intensité \(\lambda\) sur \([0,T]\):

  • on simule \(N_T \sim \mathcal{P}(\lambda T)\) (par une méthode adhoc rapide)

  • conditionnellement au tirage \(N_T = n\) on tire \((U_1, \dots, U_n) \sim \mathcal{U} \big([0,T]^n \big)\) et on réordonne ce vecteur, on pose alors \((T_1, \dots, T_n) = (U_{(1)}, \dots, U_{(n)})\). \end{itemize}