Probabilité a priori
Dans le théorème de Bayes, la probabilité a priori (ou Modèle:Lang[note 1]) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou Modèle:Lang[note 1]) correspondante qui s'appuie sur les connaissances postérieures à cette observation.
Formalisation
Théorème de Bayes
Le théorème de Bayes s'énonce de la manière suivante :
- , si .
désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant . est la vraisemblance de A sachant B.
Lois
Modèle:Page connexe Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :
- la loi de la variable aléatoire avant observation est appelée loi a priori, notée généralement [1]Modèle:,[2] ;
- la loi de la variable aléatoire après observation est appelée loi a posteriori.
Extension du modèle
Soit Modèle:Mvar une variable aléatoire dont la loi de probabilité associée dépend de , et Modèle:Mvar l'observation.
Le théorème de Bayes s’énonce alors : .
La probabilité a priori est et la probabilité a posteriori devient .
La loi a priori est toujours et la loi a posteriori est alors la loi de conditionnellement à l'observation de et s'écrit donc [1]Modèle:,[2].
Choix d’une loi de probabilité a priori
Les lois a priori peuvent être créées à l'aide d'un certain nombre de méthodes[3]Modèle:Rp.
- Une loi a priori peut être déterminée à partir d'informations antérieures, telles que des expériences précédentes.
- Elle peut être obtenue à partir de l'évaluation purement subjective d'un expert expérimenté.
- Une loi a priori non informative peut être créée pour refléter un équilibre entre les résultats lorsque aucune information n'est disponible.
- Les lois a priori peuvent également être choisies en fonction d'un certain principe, comme la symétrie ou la maximisation de l'entropie compte tenu des contraintes ; les exemples sont la loi a priori de Jeffreys ou l’a priori de référence de Berger-Bernardo.
- Enfin, lorsqu'il existe une famille d’Modèle:Lien, le choix d'un a priori dans cette famille simplifie le calcul de la loi a posteriori.
Articles connexes
- Inférence bayésienne
- Probabilité a posteriori
- Probabilité conditionnelle
- Statistique bayésienne
- Fonction de vraisemblance
- Théorème de Bayes
Notes et références
Notes
- ↑ 1,0 et 1,1 Les mots Modèle:" et Modèle:", d'origine anglaise, signifient Modèle:" et Modèle:" et sont utilisés pour décrire des concepts de l'inférence bayésienne, ou pour formuler de nouveaux (voir par exemple les œuvres de Judea Pearl ou Introduction to Bayesian Statitics de Karl-Rudolf Koch). Ils sont aussi utilisés en français comme synonymes, par exemple par Sophie Gourgou, Xavier Paoletti, Simone Mathoulin-Pélissier dans Méthodes Biostatistiques appliquées à la recherche clinique en cancérologie ou Bas Van Fraassen, Catherine Chevalley dans Lois et symétrie, Modèle:P..
Références
Bibliographie
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Article
- Modèle:Article
- Modèle:Article
- Modèle:Article
- réimprimé dans Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Article
- Modèle:Ouvrage
- Modèle:Ouvrage
- ↑ 1,0 et 1,1 Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
- ↑ 2,0 et 2,1 Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
- ↑ Modèle:Ouvrage