2.7. Variable de contrôle#
Un changement de représentation de \(I = \mathbf{E}[X]\) (avec \(X \in \mathbf{L}^2\)) est d’utiliser la linéarité de l’espérance et d’introduire une variable aléatoire auxiliaire \(Y \in \mathbf{L}^2\) de sorte que
La variable aléatoire auxiliaire \(Y\) est appelée variable de contrôle pour \(X\) si
\(\mathbf{E}[Y]\) est explicite ou calculable efficacement par une méthode déterministe, il faut connaître cette quantité avec un coût négligeable par rapport à une méthode de Monte Carlo.
\(\operatorname{var}(X-Y) < \operatorname{var}(X)\) et \(\operatorname{cost}(X-Y) \simeq \operatorname{cost}(X)\), plus généralement on peut supposer \(\operatorname{effort}(X-Y) < \operatorname{effort}(X)\).
Il faut donc considérer \(Y\) proche de \(X\) et positivement corrélée avec \(X\). En effet
donc si \(Y\) est indépendante de \(X\) on augmente la variance (on dégrade l’estimateur), de même si \(\operatorname{cov}(X, Y) \le 0\).
Il peut être difficile de prouver que \(\operatorname{var}(X-Y) < \operatorname{var}(X)\) pour un choix de \(Y\) mais on peut trouver la meilleure variable de contrôle dans une classe donnée.
2.7.1. Variable de contrôle optimale#
Supposons que \(Y\) vérifie le point 1. (\(\mathbf{E}[Y]\) est explicite ou facilement calculable) et que \(\operatorname{cost}(X-Y) \simeq \operatorname{cost}(X)\). Alors \(\lambda Y\) vérifie ces mêmes conditions pour tout \(\lambda \in \mathbf{R}\) et on peut chercher \(\lambda^*\) qui minimise \(\operatorname{var}(X - \lambda Y)\).
Etant donné \(Y\) variable aléatoire, la meilleure variable de contrôle dans la classe \(\{\lambda Y, \lambda \in \mathbf{R}\}\) est obtenue en considérant \(\lambda^* Y\) avec
Proof. On considère la fonction \(\Phi(\lambda) = \operatorname{var}(X - \lambda Y)\) qui est un polynôme du second degré
Ce polynôme atteint son minimum en \(\lambda^*\) et on vérifie que \(\Phi(\lambda^*) = \operatorname{var}(X) - \frac{\operatorname{cov}(X, Y)^2}{\operatorname{var}(Y)}\).
En particulier la méthode de la variable de contrôle optimale est efficace dès qu’on considère \(Y\) corrélée avec \(X\). Au contraire si on a \(\operatorname{cov}(X, Y) = 0\) la meilleure variable de contrôle est obtenue avec \(\lambda = 0\)… Si on considère la variable de contrôle centrée \(\tilde Y = Y - \mathbf{E}[Y]\) alors on a
En pratique on peut construire un estimateur pour déterminer \(\lambda^*\) à partir des réalisations \((X_k, \tilde Y_k)_{k \ge 1}\) utilisées dans l’estimateur Monte Carlo
Par la LFGN on a \(\lim_{n \to +\infty} \lambda_n = \lambda^*\) \(p.s.\). Il est alors possible de considérer un estimateur de la forme
ou encore de la forme adaptative suivante
Pour bien comprendre la différence entre ces 2 estimateurs \(J^*_n\) et \(\bar J^*_n\) il est recommandé de les écrire sous la forme récursive, c’est à dire d’exprimer \(J^*_{n+1}\) à partir de \(J^*_n\), et \(\bar J^*_{n+1}\) à partir de \(\bar J^*_n\). Ces deux estimateurs vérifient un TCL avec la variance optimale \(\Phi(\lambda^*) = \operatorname{var}(X) - \frac{\mathbf{E}[X \tilde Y]^2}{\mathbf{E}[\tilde Y^2]}\).
(Lien avec la méthode des variables antithétiques)
Uniquement dans le cas \(X = f(U)\) pour illustrer simplement mais tout reste vrai en toute généralité. La méthode antithétique présentée dans la section précédente correspond à la variable de contrôle
En effet on vérifie que \(X - Y = \frac{1}{2} \big(f(U) + f(1-U)\big)\).