Réduction de variance et effort d’un estimateur

2.4. Réduction de variance et effort d’un estimateur#

Soit un estimateur de Monte Carlo \(I_n\) défini pour \((X_k)_{k \ge 1}\) suite i.i.d. de carré intégrable i.e.

\[\begin{equation*} I_n = \frac{1}{n} \sum_{k=1}^n X_k \quad \text{et} \quad \sigma^2 = \operatorname{var}(X_1). \end{equation*}\]

On définit les différentes quantité:

  • Variance empirique (variance de l’estimateur) \(\operatorname{var}(I_n) = \frac{1}{n} \sigma^2\).

  • Variance asymptotique (variance apparaissant dans le TCL) \(\sigma^2\).

  • Coût de l’estimateur si \(\kappa\) représente le coût numérique de \(X_1\) alors \(\operatorname{cost}(I_n) = n \kappa\).

  • Effort de l’estimateur produit du coût de l’estimateur et de la variance empirique, ce qui aussi le produit du coût unitaire et de la variance asymptotique (par linéarité de l’estimateur):

\[ \operatorname{effort}(I_n) = n \kappa \frac{1}{n} \sigma^2 = \kappa \sigma^2 = \operatorname{effort}(I). \]

Si on veut une erreur plus petite que \(\varepsilon\) (avec probabilité 0.95, \(\alpha=0.05\)), c’est à dire qu’on veut une taille d’intervalle de confiance de \(\varepsilon\) il faut prendre \(n \ge 1\) tel que

\[ 2 q_\alpha \frac{\sigma}{\sqrt{n}} \le \varepsilon, \]

c’est à dire \(n \ge 4 q_\alpha^2 \sigma^2 \varepsilon^{-2}\). Pour atteindre cette précision fixée de \(\varepsilon\), le coût de l’estimateur est alors de

\[ 4 q_\alpha^2 \kappa \sigma^2 \varepsilon^{-2} = 4 q_\alpha^2 \operatorname{effort}(I) \varepsilon^{-2}. \]

Le but est donc de trouver un estimateur dont l’effort est le plus petit possible. Si les coûts numériques sont équivalents cela revient à trouver l’estimateur de variance (asymptotique) la plus petite possible. On présente dans la suite plusieurs méthodes qui permettent de réduire la variance d’un estimateur.