Erreur quadratique moyenne
En statistiques, l’erreur quadratique moyenne d’un estimateur d’un paramètre de dimension 1 (Modèle:Lang (), en anglais) est une mesure caractérisant la « précision » de cet estimateur. Elle est plus souvent appelée « erreur quadratique » (« moyenne » étant sous-entendu) ; elle est parfois appelée aussi « risque quadratique ».
L’erreur quadratique moyenne est définie par : Modèle:Théorème
Propriétés
Signe
Expression
On peut exprimer l’erreur quadratique moyenne en fonction du biais et de la variance de l’estimateur : Modèle:Théorème
Minimisation
Remarque : la valeur de étant inconnue par nature (sinon, on n’en chercherait pas un estimateur), cette formule n’a d’intérêt pratique que si le coefficient se simplifie en une constante indépendante de , c’est-à-dire si et seulement si est proportionnel à (voir exemple plus bas).
Utilité
Comparaison d’estimateurs
Si les deux estimateurs à comparer sont sans biais, l’estimateur le plus efficace est simplement celui dont la variance est la plus petite. De même, si un estimateur a à la fois un plus grand biais (en valeur absolue) et une plus grande variance qu’un autre estimateur, ce dernier est évidemment meilleur.
Cependant, si un estimateur a un plus grand biais (en valeur absolue) mais une plus petite variance, la comparaison n’est plus immédiate : l’erreur quadratique moyenne permet alors de trancher.
Convergence de l'estimateur
Il est possible de déterminer si un estimateur est convergent en probabilité à partir de son erreur quadratique moyenne, on a en effet: Modèle:Théorème
La démonstration est faite à la page convergence de variables aléatoires.
Généralisation
Dans un cadre plus général pour un modèle multiparamétrique où l'on cherche à estimer plusieurs paramètres ou pour estimer une fonction de un ou plusieurs paramètres, l'erreur quadratique moyenne pour un estimateur de est défini par:
où A est une matrice symétrique définie positive (qui définit donc un produit scalaire).