Inverse de la fonction de répartition

1.3. Inverse de la fonction de répartition#

Dans toute cette section \(X\) est une variable aléatoire réelle définie sur un espace de probabilité \((\Omega, \mathcal{A}, \mathbf{P})\).

Definition 1.1

On appelle fonction de répartition de \(X\) la fonction \(F:\mathbf{R} \to [0,1]\) définie par \(F(x) = \mathbf{P}(X \le x)\) pour tout \(x \in \mathbf{R}\). En anglais cette fonction s’appelle cumulative distribution function (cdf).

On rappelle des propriétés usuelles.

Property 1.1

La fonction de répartition \(F\) de \(X\) vérifie

  • \(F\) est croissante et continue à droite,

  • si \(X\) est finie \(p.s.\), \(\lim_{x \to -\infty} F(x) = 0\) et \(\lim_{x \to +\infty} F(x) = 1\),

  • pour tout \(x\in \mathbf{R}\), la limite à gauche de \(F\) en \(x\) existe et vaut \(F(x-) = \mathbf{P}(X < x)\). Ainsi \(F(x) - F(x-) = \mathbf{P}(X = x)\) et la fonction \(F\) possède au plus un nombre dénombrable de points de discontinuité.

Dans toute la suite on considère une variable aléatoire réelle \(X\) finie \(p.s.\) ie \(\mathbf{P}(|X| < +\infty) = 1\).

Proposition 1.1

La fonction de répartition caractérise la loi: deux variables aléatoires réelles ont même loi si et seulement si elles ont même fonction de répartition.

Si \(X\) est une variable aléatoire dont la loi est absolument continue par rapport à la mesure de Lebesgue et de densité \(f\) telle que \(f(x) > 0\) \(p.p.\) alors sa fonction de répartition est strictement croissante. En effet on a

\[ \forall x \in \mathbf{R}, \quad F(x) = \mathbf{P}(X \le x) = \int_{-\infty}^x f(y) \operatorname{d}\! y. \]

La fonction \(F\) est donc une bijection de \(\mathbf{R}\) dans \(]0,1[\) et il existe une fonction réciproque \(F^{-1}\) (inverse pour la composition) telle que \(F(F^{-1}(x)) = F^{-1}(F(x)) = x\). La fonction réciproque est strictement croissante et continue. De plus on vérifie aisément que

\[ X \sim F^{-1}(U) \quad \text{avec} \quad U \sim \mathcal{U}\big(]0,1[\big). \]

En effet, pour tout \(x\in \mathbf{R}\), \(\mathbf{P}\big(F^{-1}(U) \le x\big) = \mathbf{P}\big(U \le F(x)\big) = F(x)\). Pour simuler selon la loi de \(X\), c’est à dire obtenir une réalisation \(X(\omega)\) on peut alors transformer un nombre pseudo-aléatoire en appliquant la fonction \(F^{-1}\).

Cette approche peut se généraliser à des variables aléatoires réelles quelconques (lois discrètes ou mélanges par exemple). Pour cela on introduit l’inverse généralisée \(F^{-1}\) d’une fonction croissante continue à droite \(F\) par la définition

\[ \forall u \in ]0, 1[, \quad F^{-1}(u) = \inf \big\{x \in \mathbf{R}, F(x) \ge u\big\}. \]

Definition 1.2

On appelle fonction quantile de \(X\) l’inverse généralisée de la fonction de répartition \(F\) de \(X\). Pour \(p \in ]0,1[\), la quantité \(F^{-1}(p)\) s’appelle le quantile ou fractile d’ordre \(p\) de la loi de \(X\).

Proposition 1.2

La fonction quantile est croissante continue à gauche et vérifie

(1.3)#\[ \forall x \in \mathbf{R}, \, u \in ]0,1[, \quad F(x) \ge u \, \Leftrightarrow \, x \ge F^{-1}(u). \]

Proof. Montrons (1.3). Soit \(x \in \mathbf{R}\) et \(u \in ]0,1[\). Le sens direct est trivial, en effet par définition de \(F^{-1}\), si \(F(x) \ge u\) alors \(x \ge F^{-1}(u)\). Pour le sens réciproque, si \(x \ge F^{-1}(u)\) alors pour tout \(\varepsilon > 0\) on a \(x + \varepsilon > F^{-1}(u)\) ce qui implique \(F(x + \varepsilon) \ge u\) (définition de \(F^{-1}\)). En faisant tendre \(\varepsilon\) vers 0 on obtient par continuité à droite de \(F\) que \(F(x) \ge u\).

Proposition 1.3

Soit \(X\) une variable aléatoire réelle de fonction de répartition \(F\) et \(U\) une variable aléatoire uniforme sur \(]0,1[\). Alors \(X\) et \(F^{-1}(U)\) ont même loi.

Proof. Il suffit de vérifier que la fonction de répartition de \(F^{-1}(U)\) est \(F\). Soit \(x \in \mathbf{R}\),

\[\begin{equation*} \big\{F^{-1}(U) \le x\big\} = \big\{U \le F(x)\big\} \end{equation*}\]

d’après (1.3), donc \(\mathbf{P}\big(F^{-1}(U) \le x\big) = \mathbf{P}\big( U\le F(x)\big) = F(x)\).

Example 1.1 (Loi exponentielle)

Soit \(X \sim \mathcal{E}(\lambda)\) avec \(\lambda > 0\). On rappelle que la fonction de répartition de \(X\) est \(F(x) = 1 - \exp(- \lambda x)\) donc la fonction quantile est

\[\begin{equation*} \forall u \in ]0,1[, \quad F^{-1}(u) = - \frac{1}{\lambda} \log(1 - u). \end{equation*}\]

Donc pour obtenir une réalisation de \(X\) il suffit de poser \(X = -\frac{1}{\lambda} \log(U)\) avec \(U \sim \mathcal{U}(]0,1[)\) (on rappelle que \(U\) et \(1-U\) ont même loi).

Example 1.2 (Loi de Cauchy)

On considère la loi de Cauchy de paramètre \(c > 0\) i.e. la loi de densité \(f(x) = \frac{c}{\pi (x^2 + c^2)}\). On vérifie que \(F(x) = \frac{1}{\pi} \Big(\arctan\big(\frac{x}{c}\big) + \frac{\pi}{2}\Big)\) et donc

\[\begin{equation*} X = c \tan\big(\pi (U - 1/2)\big) \sim \text{Cauchy}(c). \end{equation*}\]

1.3.1. Simulation d’une loi discrète sur un espace d’états fini#

Soit \(E = \{x_1, \dots, x_N\}\) un espace d’état fini et \(X:(\Omega, \mathcal{A}, \mathbf{P}) \to E\) variable aléatoire de fonction de masse \(p(k) = \mathbf{P}(X = x_k)\) pour tout \(k = 1,\dots,N\). Alors la fonction de répartition s’écrit

\[\begin{equation*} \forall x \in \mathbf{R}, \quad F(x) = \sum_{k = 1}^N p(k) \mathbf{1}_{x_k \le x}. \end{equation*}\]

On introduit la notation \(\bar p(k) = p(1) + \dots + p(k)\) (et \(p(0) = 0\)) de sorte que

\[\begin{equation*} \forall x \in \mathbf{R}, \quad F(x) = \sum_{k = 1}^N \bar p(k) \mathbf{1}_{x_k \le x < x_{k+1}}. \end{equation*}\]

La fonction quantile s’écrit alors

(1.4)#\[ \forall u \in [0,1], \quad F^{-1}(u) = \sum_{k = 1}^N x_k \mathbf{1}_{\bar p(k-1) < u \le \bar p(k)}. \]

Example 1.3 (Loi de Bernoulli)

Soit \(p \in ]0,1[\). Il suffit de poser

\[\begin{equation*} X = \mathbf{1}_{U \le p} \sim \mathcal{B}(p) \quad \text{si $U \sim \mathcal{U}(]0,1[)$}. \end{equation*}\]

Example 1.4 (Loi binomial)

Par la méthode de l’inverse de la fonction de répartition cela nécessite de précalculer les \(\bar p(k) = p(1) + \cdots + p(k)\) avec \(p(k) = \binom{n}{k} p^{k} (1-p)^{n-k}\) et de rechercher l’intervale \(]\bar p(k-1), \bar p(k)]\) pour une réalisation de \(U\) donnée cf. (1.4).
Une alternative est d’utiliser la définition probabiliste et donc de renvoyer la somme de \(n\) variables aléatoires de Bernoulli. La comparaison sera faite en TP.