Test du multiplicateur de Lagrange

De testwiki
Version datée du 3 janvier 2024 à 01:29 par imported>Louen342 (lien)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Modèle:À sourcer

Modèle:Ébauche Modèle:Infobox Méthode scientifique

Le test du multiplicateur de Lagrange (LM) ou test de score ou test de Rao est un principe général pour tester des hypothèses sur les paramètres dans un cadre de vraisemblance. L'hypothèse sous le test est exprimée comme une ou plusieurs contraintes sur les valeurs des paramètres. La statistique du test LM ne nécessite une maximisation que dans cet espace contraint des paramètres (en particulier si l'hypothèse à tester est de la forme θ=θ0 alors θ^=θ0). Ceci contraste avec les tests de Wald, qui sont basés sur des maximisations dans l'espace non contraint, et les tests de rapport de vraisemblance qui nécessitent deux maximisations : une dans l'espace contraint et l'autre dans l'espace non contraint. Le nom du test est motivé par le fait qu'il peut être considéré comme tester si les multiplicateurs de Lagrange impliqués dans l'application des contraintes sont significativement différents de zéro. Le terme « multiplicateur de gamme » lui-même est un mot mathématique plus large inventé après le travail du dix-huitième siècle mathématicien Joseph-Louis Lagrange.

Le principe de test LM a trouvé une large applicabilité à de nombreux problèmes d'intérêt pour l'économétrie. De plus, l’idée de tester le coût de l’imposition des restrictions, bien qu’initialement formulées dans un cadre probabiliste, a été étendu à d'autres environnements d'estimation, y compris la méthode de moments et l'estimation robuste.

Test

On reprend l'estimateur du maximum de vraisemblance θ^ (dans l'espace contraint), défini comme la valeur à laquelle la vraisemblance de θ au vu des observations (x1,,xi,,xn) d'un n-échantillon indépendamment et identiquement distribué selon la loi 𝒟θ est maximale.

(x1,,xi,,xn;θ)=f(x1;θ)×f(x2;θ)××f(xn;θ)=i=1nf(xi;θ)

Le score, défini comme le gradient de la log-vraisemblance par rapport aux paramètres :

s(θ)log(x1,,xi,,xn;θ)θ

est d'espérance nulle autour de θ^ sous l'hypothèse nulle (sous certaines hypothèse de régularité).

Plus précisément, s(θ^) converge en loi vers une loi normale centrée, dont la variance est l'information de Fisher (θ^).

La statistique utilisée est :

Sts(θ^)(θ^)1s(θ^)

Sous l'hypothèse nulle, Modèle:Mvar suit asymptotiquement une loi du χ² dont le nombre de degrés de libertés est le nombre de contraintes imposées par l'hypothèse nulle (en particulier, lorsqu'elle est de la forme θ=θ0 ce nombre est la dimension de θ).

Si Modèle:Mvar prend des valeurs trop grandes, l'hypothèse nulle est rejetée.

Modèle:Palette Modèle:Portail