Théorie de l'estimation

De testwiki
Version datée du 29 octobre 2024 à 22:20 par imported>Nicolas ANCEAU
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

En statistique, la théorie de l'estimation s'intéresse à l'estimation de paramètres à partir de données empiriques mesurées ayant une composante aléatoire. Les paramètres décrivent un phénomène physique sous-jacent tel que sa valeur affecte la distribution des données mesurées. Un estimateur essaie d'approcher les paramètres inconnus à partir des mesures. En théorie de l'estimation, deux approches sont généralement considérées[1]:

  • l'approche probabiliste (décrite ici) suppose que les données mesurées sont aléatoires avec une distribution de probabilités dépendant des paramètres d'intérêt
  • l'approche ensembliste suppose que le vecteur des données mesurées appartient à un ensemble qui dépend du vecteur des paramètres.

Exemples

On souhaite estimer la proportion d'une population d'électeurs qui va voter pour un candidat donné dans une élection. Cette proportion est le paramètre recherché ; l'estimation est basé sur un petit échantillon aléatoire de votants. De façon alternative, on veut évaluer la probabilité d'un électeur de voter pour un candidat particulier, en se basant sur des données démographiques, comme son âge.

Avec un radar, on veut trouver la taille des objets (avions, bateaux, etc.) en analysant le temps aller-retour des échos reçus d'ondes pulsées. Comme les ondes réfléchies sont toutes perturbées par un bruit électrique, leurs valeurs mesurées sont aléatoires, et le temps de transit doit être estimé.

De façon générale, les mesures de signaux électriques sont souvent associés à un bruit.

Bases

Pour un modèle donné, plusieurs "ingrédients" statistiques sont requis pour implémenter l'estimateur. Le premier est un échantillon statistique – un ensemble de données discrètes dans un vecteur aléatoire de taille N :

𝐱=[x[0]x[1]x[N1]].

on associe un vecteur de M paramètres :

θ=[θ1θ2θM],

dont on veut estimer les valeurs. Enfin, il faut la densité de probabilité, discrète ou continue, de la loi sous-jacente de probabilité qui ont généré les données, et donc conditionnelle aux valeurs des paramètres :

p(𝐱|θ).

Il est aussi possible pour les paramètres d'avoir une loi de probabilité (voir statistiques bayésiennes). Il est alors nécessaire de définir la probabilité bayésienne

π(θ).

Après que le modèle est formé, l'objectif est d'estimer les paramètres, dont on note les estimateurs θ^.

Un estimateur classique est l'estimateur des moindres carrés, qui est celui qui minimise l'erreur entre les paramètres estimés et leurs valeurs réelles

𝐞=θ^θ.

Cette erreur est ensuite élevée au carré et la valeur attendue est minimale pour l'estimateur des moindres carrés.

Estimateurs

Modèle:Article détaillé

Les estimateurs les plus communément utilisés et étudiés sont :

Exemples

Constante inconnue avec bruit blanc gaussien

Dans un signal discret x[n] mesuré avec N échantillons indépendants constitués d'une constante A avec un bruit blanc gaussien additif (AWGN) w[n] de moyenne nulle et de variance σ2 connue (i.e., w𝒩(0,σ2)). Le vecteur de paramètres à estimer se réduit uniquement à A. Le signal modèle s'écrit :

x[n]=A+w[n]n=0,1,,N1

On a alors deux estimateurs possibles pour A :

Les deux estimateurs ont une espérance de A :

𝔼[A^1]=𝔼[x[0]]=A
𝔼[A^2]=𝔼[1Nn=0N1x[n]]=1N[n=0N1𝔼[x[n]]]=1N[NA]=A

Cependant, en étudiant leurs variances, la différence de qualité entre les deux estimateur apparait :

Var(A^1)=Var(x[0])=σ2
Var(A^2)=Var(1Nn=0N1x[n])=independence1N2[n=0N1Var(x[n])]=1N2[Nσ2]=σ2N

La moyenne de l'échantillon semble alors un bien meilleur estimateur car sa variance est plus petite dès que N > 1.

Maximum de vraisemblable

Modèle:Article détaillé

Sur le même exemple, on utilise l'estimateur du maximum de vraisemblance, la fonction densité de probabilité du bruit pour un échantillon Modèle:Math est

p(w[n])=1σ2πexp(12σ2w[n]2)

et la probabilité de Modèle:Math devient (Modèle:Math peut être vu comme suivant une loi normale 𝒩(A,σ2))

p(x[n];A)=1σ2πexp(12σ2(x[n]A)2)

Par indépendance, la probabilité de Modèle:Math devient

p(𝐱;A)=n=0N1p(x[n];A)=1(σ2π)Nexp(12σ2n=0N1(x[n]A)2)

On prend le logarithme naturel de l'expression :

lnp(𝐱;A)=Nln(σ2π)12σ2n=0N1(x[n]A)2

dont on tire l'estimateur du maximum de vraisemblance :

A^=argmaxlnp(𝐱;A)

En prenant la dérivée de la log-vraisemblance :

Alnp(𝐱;A)=1σ2[n=0N1(x[n]A)]=1σ2[n=0N1x[n]NA]

qu'on cherche à annuler

0=1σ2[n=0N1x[n]NA]=n=0N1x[n]NA

La résolution de cette équation donne l'estimateur du maximum de vraisemblance :

A^=1Nn=0N1x[n]

qui est ici la moyenne empirique.

Borne inférieure de Cramér–Rao

Modèle:Article détaillé

Pour trouver la borne inférieure de Cramér–Rao (CRLB) de l'estimateur de la moyenne de l'échantillon, on doit d'abord établir l'information de Fisher :

(A)=𝔼([Alnp(𝐱;A)]2)=𝔼[2A2lnp(𝐱;A)]

et en reprenant le même processus que précédemment :

Alnp(𝐱;A)=1σ2[n=0N1x[n]NA]

La dérivée seconde donne :

2A2lnp(𝐱;A)=1σ2(N)=Nσ2

et trouver la valeur attendue négative est trivial car la dérivée est une constante déterministe : 𝔼[2A2lnp(𝐱;A)]=Nσ2

On réinjecte l'information de Fisher dans le calcul :

Var(A^)1

ce qui donne

Var(A^)σ2N

En comparant ce résultat à la variance de la moyenne empirique (déterminé auparavant) montre que la moyenne empirique atteint la borne de Cramér–Rao pour toutes valeurs de Modèle:Mvar et Modèle:Mvar. Ainsi, la moyenne de l'échantillon est un (et même forcément le seul) estimateur efficace, et est donc l'estimateur sans biais de variance minimale (MVUE), en plus d'être l'estimateur de maximum de vraisemblance.

Maximum d'une distribution uniforme

Modèle:Article détaillé

Un des exemples non triviaux les plus simples d'estimation est celui de l'estimation du maximum d'une distribution uniforme. Il est utilisé classiquement pour illustrer les principes de bases de la théorie de l'estimation, en mettant en lumière des questions d'a priori et des erreurs dans l'utilisation de l'estimation par maximum de vraisemblance et des fonctions de vraisemblance.

Soit une distribution uniforme discrète Modèle:Math de maximum inconnu, alors l'estimateur sans biais à variance minimale du maximum est

k+1km1=m+mk1

Modèle:Mvar est le maximum de l'échantillon et Modèle:Mvar la taille de l'échantillon, sans remplacement[2]Modèle:,[3]. Ce cas est connu sous le nom du problème du char d'assaut allemand, car il fut appliqué à l'estimation du nombre maximal de chars allemands produits pendant la Seconde Guerre Mondiale.

La formule peut être comprise de façon intuitive comme :

"le maximum de l'échantillon plus la différence moyenne entre les observations de l'échantillon",

la différence étant ajouté pour compenser le biais négatif du maximum de l'échantillon comme estimateur du maximum de la population[N 1]

Il a une variance de[2]

1k(Nk)(N+1)(k+2)N2k2 pour kN

donc un écart-type proche de Modèle:Math, la taille moyenne (de la population) de la différence entre échantillons ; on pourra comparer avec Modèle:Sfrac. On peut voir ce résultat comme un cas simple d'estimation de l'espacement maximum.

Le maximum de l'échantillon est l'estimateur du maximum de vraisemblance du maximum de la population, mais comme vu au-dessus, il est biaisé.

Applications

De nombreux domaines utilisent la théorie de l'estimation :

Des mesures sont susceptibles d'être perturbées par un bruit ou une incertitude et c'est grâce à la théorie des probabilités que des solutions optimales sont étudiées afin d'en tirer autant d'information que possible.

Voir aussi

Modèle:Catégorie principale Modèle:Début de colonnes

Modèle:Fin de colonnes

Notes

  1. Le maximum de l'échantillon n'excède jamais le maximum de la population, mais peut lui être inférieur, ce qui en fait un estimateur biaisé : il va tendre à sous-estimer le maximum de la population.

Références

Citations

Modèle:Références

Sources

Modèle:Refbegin

Modèle:Refend

Liens externes

Modèle:Traduction/Référence Modèle:Autres projets

Modèle:Palette Traitement du signal

Modèle:Portail