Probabilité a priori

De testwiki
Aller à la navigation Aller à la recherche

Dans le théorème de Bayes, la probabilité a priori (ou Modèle:Lang[note 1]) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou Modèle:Lang[note 1]) correspondante qui s'appuie sur les connaissances postérieures à cette observation.

Formalisation

Théorème de Bayes

Le théorème de Bayes s'énonce de la manière suivante :

(A|B)=(B|A)(A)(B), si (B)0.

(A) désigne ici la probabilité a priori de A, tandis que (A|B) désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de A sachant B. (B|A) est la vraisemblance de A sachant B.

Lois

Modèle:Page connexe Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :

  • la loi de la variable aléatoire θ avant observation est appelée loi a priori, notée généralement π(θ)[1]Modèle:,[2] ;
  • la loi de la variable aléatoire θ après observation est appelée loi a posteriori.

Extension du modèle

Soit Modèle:Mvar une variable aléatoire dont la loi de probabilité associée dépend de θ, et Modèle:Mvar l'observation.

Le théorème de Bayes s’énonce alors : (θ|x)=(x|θ)(θ)(x).

La probabilité a priori est (θ) et la probabilité a posteriori devient (θ|x).

La loi a priori est toujours π(θ) et la loi a posteriori est alors la loi de θ conditionnellement à l'observation x de X et s'écrit donc π(θ|x)[1]Modèle:,[2].

Choix d’une loi de probabilité a priori

Les lois a priori peuvent être créées à l'aide d'un certain nombre de méthodes[3]Modèle:Rp.

  • Une loi a priori peut être déterminée à partir d'informations antérieures, telles que des expériences précédentes.
  • Elle peut être obtenue à partir de l'évaluation purement subjective d'un expert expérimenté.
  • Une loi a priori non informative peut être créée pour refléter un équilibre entre les résultats lorsque aucune information n'est disponible.

Articles connexes

Notes et références

Notes

Modèle:Traduction/Référence

  1. 1,0 et 1,1 Les mots Modèle:" et Modèle:", d'origine anglaise, signifient Modèle:" et Modèle:" et sont utilisés pour décrire des concepts de l'inférence bayésienne, ou pour formuler de nouveaux (voir par exemple les œuvres de Judea Pearl ou Introduction to Bayesian Statitics de Karl-Rudolf Koch). Ils sont aussi utilisés en français comme synonymes, par exemple par Sophie Gourgou, Xavier Paoletti, Simone Mathoulin-Pélissier dans Méthodes Biostatistiques appliquées à la recherche clinique en cancérologie ou Bas Van Fraassen, Catherine Chevalley dans Lois et symétrie, Modèle:P..

Références

Modèle:Références

Bibliographie

Modèle:Portail

  1. 1,0 et 1,1 Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
  2. 2,0 et 2,1 Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
  3. Modèle:Ouvrage