Différentiabilité en moyenne quadratique (statistiques)

De testwiki
Aller à la navigation Aller à la recherche

La différentiabilité en moyenne quadratique est une propriété de certains modèles statistiques introduite par Lucien Le Cam, détaillée dans un article de 1970[1]. La différentiabilité en moyenne quadratique d'un modèle garantit certains résultats asymptotiques, tels que la normalité asymptotique de l'estimateur du maximum de vraisemblance associé, ou la normalité asymptotique locale.

Définition

Soit Pθ un modèle statistique dépendant d'un paramètre θk de dimension k*, générant une variable aléatoire X dans un espace 𝒳. Notons p(θ0;x) la vraisemblance d'une observation x sous ce modèle avec une valeur θ0 du paramètre θ.

Le modèle Pθ est dit différentiable en moyenne quadratique en θ0 s'il existe une fonction mesurable s:k×𝒳 telle que, pour tout h de k dans un voisinage de 0,

𝒳[p(θ0+h;x)p(θ0;x)12hTs(θ0,x)p(θ0;x)]2dx=o(||h||2)[2].

Remarques

  • Dans la plupart des cas, la fonction s correspond à la dérivée de la log-vraisemblance : s(θ;x)=θlog(p(θ;x)), souvent appelée fonction score du modèle. En effet, lorsque p(θ0;x) est dérivable par rapport à θ, 12s(θ0,x)p(θ0;x) correspond généralement à la dérivée de p(θ0;x) par rapport à θ, c'est-à-dire à 12θp(θ0;x)/p(θ0;x)=12θlog(p(θ0;x))p(θ0;x).
  • Cette définition désigne en réalité la différentiabilité en moyenne quadratique de la racine carrée de la vraisemblance de ce modèle. Pour être rigoureux, il faudrait donc parler d'un modèle dont la racine carrée de la vraisemblance est différentiable en moyenne quadratique. Cependant, l'appellation différentiabilité en moyenne quadratique est plus concise et plus couramment utilisée.

Différentiabilité dans l'espace L2

Comme dit précédemment, la différentiabilité en moyenne quadratique d'une loi de probabilité correspond en réalité à la différentiabilité de la racine carrée de la vraisemblance dans l'espace des fonctions L2 (fonctions dont le carré est intégrable) muni de la norme 2[3].

Pour mieux voir cela, considérons une loi de probabilité dépendant d'un paramètre θk, dont nous noterons la vraisemblance pθ(x).

La racine carrée de cette vraisemblance peut être vue comme une application qui, à une valeur de paramètre θ fait correspondre une fonction pθ:xpθ(x) dont le carré est intégrable (d'intégrale 1 puisque pθ est une densité), c'est-à-dire un élément de L2 :

p:kL2θpθ.

Cette application est différentiable dans L2 en θ0 s'il existe un élément Dpθ0 de L2 tel que pour tout h dans un voisinage de 0, pθ0+h=pθ0+hDpθ0+o(h) lorsque h tend vers 0. Cette égalité porte sur des fonctions de L2, le terme o(h) désigne donc ici une fonction dont la norme 2 est négligeable devant h . Cette égalité peut donc se réécrire comme

x(pθ0+h(x)pθ0(x)Dpθ(x))2dx=o(h) .

Exemples

Une démarche classique pour montrer la différentiabilité en moyenne quadratique d'une loi de probabilité est la suivante :

  • Effectuer un développement limité de la racine carrée de la vraisemblance: p(x;θ+h)=p(x;θ)+h2s(x;θ)p(x;θ)+o(h),
  • Montrer que (p(x;θ+h)p(x;θ)h2s(x;θ)p(x;θ))2/h2 peut être dominé par une fonction g(x;θ), intégrable et indépendante de h, pour tout h dans un voisinage de 0, (par exemple en utilisant la dérivée seconde de la racine carrée de la vraisemblance et l'inégalité de Taylor-Lagrange),
  • Conclure en utilisant le théorème de convergence dominée.

Distribution exponentielle

La loi exponentielle, paramétrée par sa moyenne θ, ou par son intensité λ, est différentiable en moyenne quadratique en toute valeur du paramètre différent de 0. La fonction score associée est s(θ;x)=xθθ2.

Modèle:Démonstration

Contre exemple

La loi uniforme sur l'intervalle [0;θ] n'est pas différentiable en moyenne quadratique. En effet, lorsque X1,,Xn sont générés de façon iid suivant une loi uniforme sur [0;θ], l'estimateur du maximum de vraisemblance de θ est donné par θ^=max{X1,,Xn} et n'est pas asymptotiquement normal. Or l'estimateur du maximum de vraisemblance associé à un modèle différentiable en moyenne quadratique est nécessairement asymptotiquement normal.

Propriétés

Normalité asymptotique du maximum de vraisemblance

Si des échantillons aléatoires de tailles n, X1,,Xn, sont générés de manière iid selon une loi de probabilité pθ différentiable en moyenne quadratique, alors l'estimateur du maximum de vraisemblance est asymptotiquement normal avec pour variance asymptotique l'inverse de l'information de Fisher. Plus précisément, lorsque n tend vers l'infini,

n(θ^MVθ)𝒩(0,Jθ1)

θ^MV est l'estimateur du maximum de vraisemblance, défini comme θ^MV=argmaxθ{i=1nlog(pθ(Xi))}, Jθ désigne l'information de Fisher définie comme Jθ=var[θlog(pθ(X))] et où désigne la convergence en loi.

Normalité asymptotique locale

Une loi de probabilité pθ différentiable en moyenne quadratique donne un modèle statistique localement asymptotiquement normal lorsqu'on génère des données iid selon cette loi.

Voir aussi

Références

Modèle:Références

Modèle:Portail