Réduction de variance et effort d’un estimateur

2.4. Réduction de variance et effort d’un estimateur#

Soit un estimateur de Monte Carlo \(I_n\) défini pour \((X_k)_{k \ge 1}\) suite i.i.d. de carré intégrable i.e.

\[\begin{equation*} I_n = \frac{1}{n} \sum_{k=1}^n X_k \quad \text{et} \quad \sigma^2 = \operatorname{var}(X_1). \end{equation*}\]

On définit les différentes quantité:

  • Variance empirique (variance de l’estimateur) \(\operatorname{var}(I_n) = \frac{1}{n} \sigma^2\).

  • Variance asymptotique (variance apparaissant dans le TCL) \(\sigma^2\).

  • Coût de l’estimateur si \(\kappa\) représente le coût numérique de \(X_1\) alors \(\operatorname{cost}(I_n) = n \kappa\).

  • Effort de l’estimateur produit du coût et de la variance empirique

\[\begin{equation*} \operatorname{effort}(I_n) = n \kappa \frac{1}{n} \sigma^2 = \kappa \sigma^2. \end{equation*}\]

Le but est donc de trouver un estimateur dont l’effort est le plus petit possible. Si les coûts numériques sont équivalents cela revient à trouver l’estimateur de variance (asymptotique) la plus petite possible. On présente dans la suite plusieurs méthodes qui permettent de réduire la variance d’un estimateur.