2.13. Sensibilités#
On s’intéresse maintenant à la dérivée d’une quantité qui a la représentation probabiliste \(I(\theta) = \mathbf{E}[X^{(\theta)}]\) où \(X^{(\theta)}\) est une variable aléatoire réelle qui dépend d’un paramètre réel \(\theta\). Dans toute cette partie on note
De plus on considère la représentation suivante: il existe \(G\) telle que \(z \mapsto G(\theta, z)\) mesurable pour tout \(\theta \in \mathbf{R}\) et \(Z\) une variable aléatoire simulable telle que \(X^{(\theta)} = G(\theta, Z)\). Cette représentation existe toujours, elle peut être donnée par la modélisation ou bien en considérant \(Z \sim \mathcal{U}\big(]0,1[\big)\) et \(G(\theta,.)\) la fonction quantile de \(X^{(\theta)}\). Ainsi
Le calcul de la sensibilité de la quantité \(I(\theta)\) par rapport au paramètre \(\theta\) est très important dans de nombreuses applications.
2.13.1. Méthodes des différences finies#
Une approche classique en analyse numérique est de remplacer la dérivée de la fonction \(I\) par une approximation aux différences finies. Pour la dérivée du premier ordre, on peut considérer les 2 approximations suivantes pour \(h\) suffisamment petit
\(J(\theta) = \frac{I(\theta + h) - I(\theta)}{h} + \mathcal{O}(h)\)
\(J(\theta) = \frac{I(\theta + h) - I(\theta-h)}{2h} + \mathcal{O}(h^2)\)
Ces 2 approximations sont notamment valides dès que \(I\) est \(\mathcal{C}^2\) avec dérivée seconde Lipschitz \ie \(|I''(\theta_1) - I''(\theta_2)| \le K |\theta_1 - \theta_2|\). Dans la suite \(K\) désigne la constante de Lipschitz de \(I''\).
2.13.1.1. Monte Carlo biaisé#
Un estimateur naturel \(J_{n,h}(\theta)\) de \(J(\theta)\) est une combinaison d’une approximation aux différences finies et un estimateur Monte Carlo (pour approcher les quantités \(I(\theta)\), \(I(\theta+h)\) et \(I(\theta-h)\)). Un tel estimateur est un exemple d’estimateur Monte Carlo biaisé c’est à dire qu’il y a deux sources d’erreur
Erreur de biais c’est l’erreur d’approximation dirigée par le paramètre \(h > 0\)
Erreur statistique c’est l’erreur de la méthode de Monte Carlo dirigée par le paramètre \(n \ge 1\)
Erreur totale c’est la somme des 2 erreurs précédentes \(E_{h,n} = E_{h} + E_{n} = J_{n,h}(\theta) - J(\theta)\). L’erreur totale est souvent mesurée par la norme \(\mathbf{L}^2\), et on utilise la décomposition biais-variance pour étudier \(\|E_{h,n}\|_{2}^2 = \mathbf{E}\big[E_{h,n}^2 \big]\). On rappelle la décomposition biais-variance dans ce cadre
car \(E_h\) est déterministe par définition et \(\mathbf{E}[E_n] = 0\). On a donc
Le contrôle de l’erreur totale est important pour bien choisir les 2 paramètre \(h\) et \(n\). Dans une méthode de Monte Carlo non biaisé, on choisit le paramètre \(n \ge 1\) à partir d’une taille d’intervalle de confiance fixée a priori qui mesure la précision que l’on veut atteindre. Lorsqu’il y a en plus une erreur de biais il est plus judicieux de raisonner en norme \(\mathbf{L}^2\) (mais on peut en déduire un intervalle de confiance biaisé par la suite). Pour que l’erreur totale en norme \(\mathbf{L}^2\) soit plus petite que \(\varepsilon > 0\) (fixé) on impose la contrainte sur le couple de paramètres \((h, n)\) qui est \(\| E_{h,n} \|_2 \le \varepsilon\). Sous cette contrainte, on cherche le couple qui minimise l’effort de l’estimateur c’est à dire
2.13.1.2. Estimateurs indépendants#
Si on a un code Monte Carlo que l’on appelle successivement 2 fois, une première fois pour le calcul de \(I(\theta+h)\) et la seconde fois pour le calcul de \(I(\theta)\) (ou \(I(\theta-h)\)), alors ces 2 estimateurs Monte Carlo sont indépendants. Les estimateurs Monte Carlo aux différences finies s’écrivent alors
où \((X^{(\theta+h)}_k)_{k \ge 1}\) et \((\tilde X^{(\theta)}_k)_{k \ge 1}\) sont des suites de v.a. i.i.d. et indépendantes. On peut réécrire ces estimateurs en utilisant la représentation \(X^{(\theta)} = G(\theta, Z)\)
où \((Z_k)_{k \ge 1}\) est une suite i.i.d.
Il est important de remarquer que ces estimateurs ne sont pas satisfaisants car par indépendance la variance de ces estimateurs est la somme des variances des estimateurs. Ainsi si on note \(\big(\sigma^{(1)}_{h}(\theta)\big)^2\) (respectivement \(\big(\sigma^{(2)}_{h}(\theta)\big)^2\)) la variance asymptotique de \(J^{(1)}_{n,h}\) (respectivement \(J^{(2)}_{n,h}\)) on a
Lorsque \(h\) tend vers \(0\), l’erreur de biais \(\mathbf{E}\big[J^{(1)}_{n,h}(\theta) \big]- J(\theta)\) tend vers 0 (car \(\mathbf{E}\big[J^{(1)}_{n,h}(\theta)\big] = \frac{I(\theta+h) - I(\theta)}{h}\)) mais l’erreur statistique (erreur de Monte Carlo) tend vers l’infini car la variance explose en \(h^{-2}\). Il ne faut donc implémenter l’approche différences finies avec des estimateurs indépendants.
2.13.1.3. Estimateurs avec mêmes aléas#
L’idée est d’utiliser le même aléa (la même réalisation) \(Z_k\) pour construire \(X^{(\theta+h)}_k = G(\theta+h, Z_k)\) et \(X^{(\theta)}_k = G(\theta, Z_k)\). Dans toute la suite on considère donc les estimateurs
où \((Z_k)_{k \ge 1}\) est une suite i.i.d.
Supposons que \(\big(\theta \mapsto X^{(\theta)} = G(\theta, Z)\big)\) est Lipschitz en norme \(\mathbf{L}^2\) i.e. \(\exists h_0 > 0\), \(\exists C_2 > 0\),
On suppose la fonction \(I \in \mathcal{C}^2\) et \(I''\) Lipschitz. Alors pour tout \(h \in ]0, h_0]\),
où \(C_1^{(1)} = \frac{\sup_{\xi \in ]\theta-h_0, \theta+h_0[} |I''(\xi)|^2}{4}\) et \(C_1^{(2)} = K^2/4\) (\(K\) la constante de Lipschitz de \(I''\)).