Estimateur (statistique)

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Voir homonymes Modèle:Sources à lier

Visualisation d'un estimateur consistent d'une quantité gamma. Plus la taille de l'échantillon (ici 100, 178, 400) est grande, plus la variance de l'estimateur diminue, meilleure est l'estimation du paramètre.

En statistique, un estimateur est une fonction des observables permettant d'estimer une caractéristique d'une loi de probabilité[1] telle que ses moments (comme son espérance ou sa variance). Il peut par exemple servir à estimer certaines caractéristiques d'une population totale à partir de données obtenues sur un échantillon comme lors d'un sondage. La définition et l'utilisation de tels estimateurs constitue la statistique inférentielle.

La qualité des estimateurs s'exprime par leur convergence, leur biais, leur efficacité et leur robustesse. Diverses méthodes permettent d'obtenir des estimateurs de qualités différentes.

Illustrations de la notion

Si l'on cherche à évaluer la taille moyenne des enfants de 10 ans, on peut effectuer un sondage sur un échantillon de la population des enfants de 10 ans (par exemple en s'adressant à des écoles réparties dans plusieurs milieux différents). La taille moyenne calculée sur cet échantillon, appelée moyenne empirique, est un estimateur de la taille moyenne des enfants de 10 ans.

Si l'on cherche à évaluer la surface totale occupée par la jachère dans un pays donné, on peut effectuer un sondage sur plusieurs portions du territoire de même taille, calculer la surface moyenne occupée par la jachère et appliquer une règle de proportionnalité.

Si l'on cherche à déterminer le pourcentage d'électeurs décidés à voter pour le candidat A, on peut effectuer un sondage sur un échantillon représentatif. Le pourcentage de votes favorables à A dans l'échantillon est un estimateur du pourcentage d'électeurs décidés à voter pour A dans la population totale.

Si l'on cherche à évaluer la population totale de poissons dans un lac, on peut utiliser la méthode CMR (Capture-marquage-recapture) : on commence par ramasser Modèle:Mvar poissons, on les bague pour pouvoir les identifier ultérieurement, les relâche, les laisse se mélanger aux autres poissons. On tire alors un échantillon de poissons du lac, on calcule la proportion p de poissons bagués. La valeur n/p est un estimateur de la population totale de poissons dans le lac. S'il n'y a aucun poisson bagué dans l'échantillon, on procède à un autre tirage.

Un estimateur est très souvent une moyenne, une population totale, une proportion ou une variance.

Définition formelle

Soit (Ω,,) un espace de probabilité. On s'intéresse à une variable aléatoire Modèle:Mvar de loi de probabilité inconnue. On suppose que l'on va réaliser plusieurs observations (n observations) de cette variable aléatoire.

Formellement, observer n fois la réalisation de la variable Modèle:Mvar est équivalent à observer une seule fois la réalisation d'un n-uplet Modèle:Math de variables indépendantes et identiquement distribuées qui suivent la même loi que Modèle:Mvar. Ce n-uplet est appelé un échantillon à Modèle:Mvar éléments de la variable aléatoire Modèle:Mvar.

On cherche à estimer un paramètre Modèle:Mvar qui dépend de la loi de Modèle:Mvar (par exemple son espérance ou sa variance). Pour cela, on définit un estimateur θ^(X). Il est lui-même une variable aléatoire car il est une fonction (disons f) de la variable échantillon qui est le n-uplet Modèle:Math défini ci-dessus. Ainsi :

θ^(X)=f(X1,X2,,Xn)

Par exemple, un estimateur de l'espérance (ou moyenne) de Modèle:Mvar est : 1n(X1+X2++Xn). Comme on l'a dit cet estimateur est une variable aléatoire et pour cet exemple on peut nommer cette variable "espérance de l'échantillon" (puisqu'on calcule la moyenne (ou l'espérance) des valeurs xi prises par les Xi).

Formellement, un estimateur ne peut prendre qu'un nombre fixe Modèle:Mvar d'arguments. En pratique, on considère généralement une suite d'estimateurs θ^n pour chaque taille d'échantillon, qu'on appelle également estimateur.

Un estimateur ne doit évidemment jamais dépendre de θ, il ne dépend que des observations empiriques (i.e. de la réalisation de l'échantillon).

Qualité d'un estimateur

Un estimateur θ^ étant une fonction de variables aléatoires, il est possible de calculer son espérance 𝔼(θ^) et sa variance Var(θ^). L'objectif est donc de maîtriser l'erreur commise par l'estimateur θ^ par rapport à la vraie valeur du paramètre à estimer θ. Un estimateur est parfois interprété comme une variable aléatoire par abus de langage mais cela peut prêter à confusion.

Biais

Modèle:Article détaillé Une variable aléatoire fluctue autour de son espérance. On peut donc souhaiter que l'espérance de θ^ soit égale à θ, autrement dit qu'en « moyenne » l'estimateur ne se trompe pas. Modèle:Théorème

Lorsque l'espérance 𝔼(θ^) de l'estimateur égale θ, i.e. le biais est égal à zéro, l'estimateur est dit sans biais.

Par exemple, l'estimateur 1n(X1+X2++Xn) de l'espérance de Modèle:Mvar vu ci-dessus est un estimateur sans biais. Dit autrement : l'espérance de la variable "espérance de l'échantillon" est égale à l'espérance de X.

Dans la première édition de son ouvrage Dynamic programming[2], Richard Bellman s'en prend violemment à la recherche trop systématique des estimateurs sans biais, en rappelant à l'aide d'exemples que des estimateurs biaisés peuvent avoir une convergence plus rapide, et donc une plus grande efficacité pratique.

Erreur quadratique moyenne

Modèle:Article détaillé L'erreur quadratique moyenne (Modèle:Lang en anglais) est l'espérance du carré de l'erreur entre la vraie valeur et sa valeur estimée.

Modèle:Théorème

Convergence

On souhaite aussi pouvoir, en augmentant la taille de l'échantillon, diminuer l'erreur commise en prenant θ^ à la place de Modèle:Mvar. Si c'est le cas, on dit que l'estimateur est convergent (on voit aussi consistant), c'est-à-dire qu'il converge vers sa vraie valeur. La définition précise en mathématique est la suivante : Modèle:Théorème On l'interprète comme le fait que la probabilité de s'éloigner de la valeur à estimer de plus de Modèle:Mvar tend vers 0 quand la taille de l'échantillon augmente.

Il existe enfin un type de convergence plus forte, la convergence presque sûre, définie ainsi pour un estimateur : Modèle:Théorème

Exemple : La moyenne empirique est un estimateur convergent de l'espérance d'une variable aléatoire. La loi faible des grands nombres assure que la moyenne converge en probabilité vers l'espérance et la loi forte des grands nombres qu'elle converge presque sûrement.

Efficacité

La variable aléatoire fluctue autour de son espérance. Plus la variance Var(θ^) est faible, moins les variations sont importantes. On cherche donc à ce que la variance soit la plus faible possible. Un estimateur sans biais pour lequel la borne de Cramér-Rao devient égalité est dit efficace.

Robustesse

Modèle:Article détaillé

Il arrive que lors d'un sondage, une valeur extrême et rare apparaisse (par exemple un enfant de 10 ans mesurant Modèle:Unité). On cherche à ce que ce genre de valeur ne change que de manière très faible la valeur de l'estimateur. On dit alors que l'estimateur est robuste.

Exemple : En reprenant l'exemple de l'enfant, la moyenne n'est pas un estimateur robuste car ajouter l'enfant très grand modifiera beaucoup la valeur de l'estimateur. La médiane par contre n'est pas modifiée dans un tel cas.

Il existe différents outils pour caractériser la robustesse d'un estimateur. On peut par exemple regarder sa fonction d'influence, quantifiant le biais induit par une proportion infinitésimale de valeurs extrêmes, ou bien sa fonction de changement de variance.

Estimateurs classiques

On se placera dans le cas simple d'un tirage aléatoire de n individus dans une population en comportant N. On s'intéresse au caractère quantitatif Y de moyenne Modèle:Surligner et de variance Modèle:Math. Dans l'échantillon tiré, le caractère quantitatif est Modèle:Mvar, sa moyenne est Modèle:Surligner et sa variance est σ2=1ni=1n(yiy)2. Les valeurs Modèle:Surligner et Modèle:Math varient selon l'échantillon et sont donc des variables aléatoires possédant chacune une espérance, une variance et un écart type.

Estimateur de la moyenne de Y

On prend en général comme estimateur de Modèle:Surligner la valeur : Modèle:Retrait appelée moyenne empirique de Y. On démontre que c'est un estimateur sans biais, c'est-à-dire que 𝔼(y)=Y

Estimateur de la variance de Y

On pourrait penser que Modèle:Math est un bon estimateur de Modèle:Math. Cependant des calculs prouvent que cet estimateur est biaisé, l'espérance de Modèle:Math est toujours inférieure à Modèle:Math. On prouve qu'un estimateur sans biais de Modèle:Math est :

On peut remarquer que, pour N grand, le calcul avec remise et le calcul sans remise donnent des résultats presque équivalents. (le quotient Modèle:Sfrac est alors proche de 1). On prend donc en général, pour estimateur sans biais de V(Y) la valeur : Modèle:Retrait appelée variance empirique sans biais de Modèle:Mvar.

Efficacité, convergence et intervalle de confiance

La manière dont Modèle:Surligner fluctue autour de son espérance 𝔼(Y) dépend de sa variance Modèle:Math. Cette variance se calcule grâce à Modèle:Math.

  • V(y)=V(Y)n dans le cas d'un tirage avec remise,
  • V(y)=NnN1V(Y)n dans le cas d'un tirage sans remise (qui vaut bien 0 lorsque n = N : l'échantillon est identique à la population, donc on mesure la moyenne réelle, donc l'incertitude de la mesure est nulle).

On peut remarquer que, pour N très grand devant n, les deux valeurs sont très voisines. Par la suite, on ne s'intéressera donc qu'au cas du tirage avec remise en considérant que N est très grand.

On s'aperçoit que plus n est grand, plus Modèle:Math est petit. Donc, plus la taille de l'échantillon est grande, plus l'estimateur Modèle:Surligner est efficace.

L'inégalité de Bienaymé-Tchebychev précise que, pour tout réel strictement positif Modèle:Mvar, Modèle:Retrait donc que Modèle:Retrait Or V(Y)nε2 converge vers 0 quand n tend vers l'infini. Il en est de même de (|yY|>ε) : l'estimateur Modèle:Surligner est convergent.

Enfin, il résulte du théorème central limite que pour n relativement grand, la variable aléatoire Modèle:Surligner suit (approximativement) une loi normale d'espérance Modèle:Mvar et de variance Modèle:Sfrac, variance que l'on peut estimer être voisine de Modèle:Sfrac. Pour toute loi normale, dans 95 % des cas, la variable aléatoire s'éloigne de son espérance de moins de deux fois son écart type. Dans le cas du sondage, cela signifie qu'il y a 95 % de chances que l'estimateur Modèle:Surligner s'éloigne de Modèle:Surligner de moins de 2sn. L'intervalle [Y2σ(Y)n,Y+2σ(Y)n] est appelé intervalle de confiance à 95 %. On peut remarquer que, pour diviser par 10 la longueur de l'intervalle de confiance, ce qui consiste à augmenter la précision de l'estimateur, il faut multiplier par 102 = 100 la taille de l'échantillon.

On parle souvent de la précision d'une enquête : c'est le rapport σ(y)Y entre l'écart type et la moyenne de la variable aléatoire Modèle:Surligner. Si l'enquête est précise à 2 % par exemple, c'est que ce rapport est de 2 %. Cela signifie que l'intervalle de confiance à 95 % est de Modèle:Math

Influence des techniques de sondages sur les estimateurs

Découper la population en strates homogènes peut réduire de manière significative la valeur de la variance de l'estimateur et donc le rendre plus efficace.

Utiliser un tirage aléatoire à probabilités inégales, procéder à un sondage en plusieurs étapes ou par grappe change évidemment les formules calculées précédemment.

Enfin, l'utilisation d'informations auxiliaires permet parfois d'effectuer une correction sur l'estimateur pour le rapprocher de la valeur réelle.

Construction d'estimateurs

Méthode du maximum de vraisemblance

Modèle:Article détaillé

Comme son nom l'indique, cette méthode consiste à maximiser une fonction appelée fonction de vraisemblance, contenant le paramètre que l'on souhaite estimer. Elle aura ainsi de fortes chances d'être très proche de ce paramètre.

La fonction de vraisemblance, au vu d'un n-échantillon Modèle:Math : Modèle:Retrait

L'estimateur obtenu par cette méthode est généralement le meilleur possible, mais cela peut être fastidieux et surtout nécessite de maîtriser des règles mathématiques plus difficiles que la méthode des moments (voir ci-dessous).

Méthode des moments

Modèle:Article détaillé

La méthode des moments permet d'estimer des paramètres : pour cela, on pose l'égalité entre moments théoriques et empiriques correspondants puis, en résolvant les équations écrites, on exprime les paramètres en fonction de ces moments.

Estimateurs et loi de probabilité

Le fait de pouvoir estimer une espérance et une variance permet alors d'estimer les paramètres d'une loi de probabilité (loi normale, loi de PoissonModèle:Etc.).

En probabilité, on cherche parfois à valider une loi de probabilité théorique à l'aide d'une expérience statistique. Dans le cas d'une variable discrète finie, on prend comme estimateur de chaque probabilité Modèle:Mvar, la fréquence Modèle:Mvar dans l'échantillon. Les valeurs Modèle:Mvar étant des variables aléatoires, il est normal que ces estimateurs ne coïncident pas complètement avec les valeurs Modèle:Mvar. Pour vérifier si les différences trouvées sont significatives ou non, on effectue des tests d'adéquations dont le plus connu est le test du χ².

Notes et références

Modèle:Références

Voir aussi

Bibliographie

Articles connexes

Liens externes

Modèle:Palette Modèle:Portail

  1. Modèle:Ouvrage
  2. Modèle:Ouvrage contient notamment le poème satirique Hiawatha Designs an Experiment, repris dans Modèle:Article
  3. Modèle:Ouvrage, énoncé p. 158 (16) - avec notations différentes - et démonstration p. 173
  4. Modèle:Harvsp, énoncé Modèle:P. (19) - avec notations différentes