2.4. Réduction de variance et effort d’un estimateur#
Soit un estimateur de Monte Carlo \(I_n\) défini pour \((X_k)_{k \ge 1}\) suite i.i.d. de carré intégrable i.e.
On définit les différentes quantité:
Variance empirique (variance de l’estimateur) \(\operatorname{var}(I_n) = \frac{1}{n} \sigma^2\).
Variance asymptotique (variance apparaissant dans le TCL) \(\sigma^2\).
Coût de l’estimateur si \(\kappa\) représente le coût numérique de \(X_1\) alors \(\operatorname{cost}(I_n) = n \kappa\).
Effort de l’estimateur produit du coût de l’estimateur et de la variance empirique, ce qui aussi le produit du coût unitaire et de la variance asymptotique (par linéarité de l’estimateur):
Si on veut une erreur plus petite que \(\varepsilon\) (avec probabilité 0.95, \(\alpha=0.05\)), c’est à dire qu’on veut une taille d’intervalle de confiance de \(\varepsilon\) il faut prendre \(n \ge 1\) tel que
c’est à dire \(n \ge 4 q_\alpha^2 \sigma^2 \varepsilon^{-2}\). Pour atteindre cette précision fixée de \(\varepsilon\), le coût de l’estimateur est alors de
Le but est donc de trouver un estimateur dont l’effort est le plus petit possible. Si les coûts numériques sont équivalents cela revient à trouver l’estimateur de variance (asymptotique) la plus petite possible. On présente dans la suite plusieurs méthodes qui permettent de réduire la variance d’un estimateur.