Estimateur de Laplace–Bayes

De testwiki
Version datée du 17 décembre 2024 à 05:07 par imported>WikiCleanerBot (v2.05b - Bot T3 PCS#64 - Correction syntaxique (Lien interne avec cible identique au texte))
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

En théorie des probabilités et en statistiques, l'estimateur de LaplaceBayes (ou règle de succession de Laplace) est une formule permettant de donner une approximation du terme a posteriori de la formule de Bayes. Elle a été introduite au début du XIXe siècle pour répondre au problème : quelle est la probabilité que le Soleil se lève demain[1] ?

Expression mathématique

Soit X1,...,Xn,Xn+1 des variables aléatoires indépendantes à valeur binaire (0 ou 1). On suppose qu'elles suivent toutes une distribution de Bernoulli de même paramètre p. Autrement dit, la probabilité que Xi = 1 vaut p), la valeur de p étant inconnue. Alors :

P(Xn+1=1X1++Xn=s)=s+1n+2.

On parle de succès quand Xi = 1. La formule précédent dit donc que la probabilité d'avoir un succès à l'étape n+1 sachant qu'il y a eu s succès entre l'étape 1 et l'étape n vaut s+1n+2.

Application historique

Modèle:Section vide ou incomplète Laplace a utilisé la règle de succession pour calculer la probabilité que le soleil se lève demain, étant donné qu'il s'est levé tous les jours depuis les 5 000 dernières années. On obtient un facteur d'environ 5 000×365,25, ce qui donne une cote de 1826251:1 en faveur du lever du soleil demain.

Cependant, l'hypothèse de base pour utiliser la règle de succession serait qu'on n'ait aucune connaissance préalable de la question de savoir si le soleil se lèvera ou non demain.

Démonstration

Soit p, la probabilité de succès sur chaque essai. Cette probabilité est supposée constante mais inconnue et incertaine. On la considère donc comme une variable aléatoire et on lui attribue une distribution de probabilité pour exprimer cette incertitude. Soit Xi ayant la valeur 1 si l’on observe un « succès » sur le ième essai, et ayant la valeur 0 dans le cas contraire. Chaque Xi a ainsi pour valeur 0 ou 1 et suit donc une distribution de Bernoulli.

On suppose que ces Xi soient conditionnellement indépendants pour une probabilité p donnée. On peut alors utiliser le théorème de Bayes pour trouver la distribution de probabilité conditionnelle de p étant donné les données Xi (i = 1, ..., n).

Pour la mesure de la probabilité a priori de p, on attribue à cette v.a. une loi non informative de probabilité a priori, c'est-à-dire une distribution uniforme sur l’intervalle ouvert ]0;1[ ayant donc comme fonction de densité :

f(p)={0si p01si 0<p<10si p1

Pour la vraisemblance des observations x1,,xn{0,1}, on calcule la fonction de vraisemblance :

(p)=P(X1=x1,,Xn=xnp)=i=1npxi(1p)1xi=ps(1p)ns

s = x1 + ... + xn est le nombre de succès et n est le nombre d’essais (X en majuscule désigne la variable aléatoire et x minuscule, les données réellement observées).

En utilisant les deux définitions précédentes, on peut alors déterminer la densité de probabilité de la distribution a posteriori :

f(pX1=x1,,Xn=xn)=(p)f(p)01(r)f(r)dr=ps(1p)ns01rs(1r)nsdr

On calcule alors la constante de normalisation :

01rs(1r)nsdr=s!(ns)!(n+1)!

(voir la fonction bêta pour plus d’informations sur les intégrales de cette forme).

La fonction de densité de la loi a posteriori est donc :

f(pX1=x1,,Xn=xn)=(n+1)!s!(ns)!ps(1p)ns.

Il s’agit d’une loi bêta ayant pour espérance mathématique :

𝔼(pX1=x1Xn=xn)=01pf(pX1=x1,,Xn=xn)dp=s+1n+2.

Ainsi on a :

P(Xn+1=1X1=x1Xn=xn)=𝔼(pX1=x1Xn=xn)=s+1n+2.

Notes et références

Modèle:Références

Articles connexes

Modèle:Portail