Variable de contrôle

2.7. Variable de contrôle#

Un changement de représentation de \(I = \mathbf{E}[X]\) (avec \(X \in \mathbf{L}^2\)) est d’utiliser la linéarité de l’espérance et d’introduire une variable aléatoire auxiliaire \(Y \in \mathbf{L}^2\) de sorte que

(2.12)#\[\begin{equation} I = \mathbf{E}[X] = \mathbf{E}[X-Y] + \mathbf{E}[Y]. \end{equation}\]

La variable aléatoire auxiliaire \(Y\) est appelée variable de contrôle pour \(X\) si

  • \(\mathbf{E}[Y]\) est explicite ou calculable efficacement par une méthode déterministe, il faut connaître cette quantité avec un coût négligeable par rapport à une méthode de Monte Carlo.

  • \(\operatorname{var}(X-Y) < \operatorname{var}(X)\) et \(\operatorname{cost}(X-Y) \simeq \operatorname{cost}(X)\), plus généralement on peut supposer \(\operatorname{effort}(X-Y) < \operatorname{effort}(X)\).

Il faut donc considérer \(Y\) proche de \(X\) et positivement corrélée avec \(X\). En effet

\[\begin{equation*} \operatorname{var}(X-Y) = \operatorname{var}(X) + \operatorname{var}(Y) - 2 \operatorname{cov}(X, Y), \end{equation*}\]

donc si \(Y\) est indépendante de \(X\) on augmente la variance (on dégrade l’estimateur), de même si \(\operatorname{cov}(X, Y) \le 0\).

Il peut être difficile de prouver que \(\operatorname{var}(X-Y) < \operatorname{var}(X)\) pour un choix de \(Y\) mais on peut trouver la meilleure variable de contrôle dans une classe donnée.

2.7.1. Variable de contrôle optimale#

Supposons que \(Y\) vérifie le point 1. (\(\mathbf{E}[Y]\) est explicite ou facilement calculable) et que \(\operatorname{cost}(X-Y) \simeq \operatorname{cost}(X)\). Alors \(\lambda Y\) vérifie ces mêmes conditions pour tout \(\lambda \in \mathbf{R}\) et on peut chercher \(\lambda^*\) qui minimise \(\operatorname{var}(X - \lambda Y)\).

Proposition 2.5

Etant donné \(Y\) variable aléatoire, la meilleure variable de contrôle dans la classe \(\{\lambda Y, \lambda \in \mathbf{R}\}\) est obtenue en considérant \(\lambda^* Y\) avec

\[\begin{equation*} \lambda^* = \frac{\operatorname{cov}(X, Y)}{\operatorname{var}(Y)} \quad \text{et dans ce cas} \quad \operatorname{var}(X - \lambda^*Y) = \operatorname{var}(X) - \frac{\operatorname{cov}(X,Y)^2}{\operatorname{var}(Y)}. \end{equation*}\]

Proof. On considère la fonction \(\Phi(\lambda) = \operatorname{var}(X - \lambda Y)\) qui est un polynôme du second degré

\[\begin{equation*} \Phi(\lambda) = \operatorname{var}(X) + \lambda^2 \operatorname{var}(Y) - 2 \lambda \operatorname{cov}(X, Y). \end{equation*}\]

Ce polynôme atteint son minimum en \(\lambda^*\) et on vérifie que \(\Phi(\lambda^*) = \operatorname{var}(X) - \frac{\operatorname{cov}(X, Y)^2}{\operatorname{var}(Y)}\).

En particulier la méthode de la variable de contrôle optimale est efficace dès qu’on considère \(Y\) corrélée avec \(X\). Au contraire si on a \(\operatorname{cov}(X, Y) = 0\) la meilleure variable de contrôle est obtenue avec \(\lambda = 0\)… Si on considère la variable de contrôle centrée \(\tilde Y = Y - \mathbf{E}[Y]\) alors on a

\[\begin{equation*} \lambda^* = \frac{\operatorname{cov}(X, \tilde Y)}{\operatorname{var}(\tilde Y)} = \frac{\mathbf{E}[X \tilde Y]}{\mathbf{E}[\tilde Y^2]}. \end{equation*}\]

En pratique on peut construire un estimateur pour déterminer \(\lambda^*\) à partir des réalisations \((X_k, \tilde Y_k)_{k \ge 1}\) utilisées dans l’estimateur Monte Carlo

(2.13)#\[\begin{equation} \lambda_n = \frac{\sum_{k=1}^n X_k \tilde Y_k}{\sum_{k=1}^n \tilde Y_k^2} \end{equation}\]

Par la LFGN on a \(\lim_{n \to +\infty} \lambda_n = \lambda^*\) \(p.s.\). Il est alors possible de considérer un estimateur de la forme

(2.14)#\[\begin{equation} J^*_n = \frac{1}{n} \sum_{k=1}^n \big(X_k - \lambda_n \tilde Y_k\big), \end{equation}\]

ou encore de la forme adaptative suivante

(2.15)#\[\begin{equation} \bar J^*_n = \frac{1}{n} \sum_{k=1}^n \big(X_k - \lambda_{k-1} \tilde Y_k\big). \end{equation}\]

Pour bien comprendre la différence entre ces 2 estimateurs \(J^*_n\) et \(\bar J^*_n\) il est recommandé de les écrire sous la forme récursive, c’est à dire d’exprimer \(J^*_{n+1}\) à partir de \(J^*_n\), et \(\bar J^*_{n+1}\) à partir de \(\bar J^*_n\). Ces deux estimateurs vérifient un TCL avec la variance optimale \(\Phi(\lambda^*) = \operatorname{var}(X) - \frac{\mathbf{E}[X \tilde Y]^2}{\mathbf{E}[\tilde Y^2]}\).

Remark 2.1 (Lien avec la méthode des variables antithétiques)

Uniquement dans le cas \(X = f(U)\) pour illustrer simplement mais tout reste vrai en toute généralité. La méthode antithétique présentée dans la section précédente correspond à la variable de contrôle

\[\begin{equation*} Y = \frac{1}{2} \big(f(U) - f(1-U)\big)\quad \text{avec} \quad \mathbf{E}[Y] = 0. \end{equation*}\]

En effet on vérifie que \(X - Y = \frac{1}{2} \big(f(U) + f(1-U)\big)\).