Loi gamma-normale

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Infobox Distribution statistiques

En théorie des probabilités et en statistiques, la loi gamma-normale (ou Gamma- Gaussienne) est une distribution bivariée continue à quatre paramètres. Elle est la prieure conjuguée de la loi normale de moyenne et variance inconnues[1].

Définition

Soit une paire de variable aléatoires (X,T).

Si la distribution conditionnelle de X sachant T est normale de moyenne μ et variance 1/λT

X|T𝒩(μ,(λT)1),

et si la distribution marginale de T est une loi gamma

T|α,βGamma(α,β),

alors (X,T) suit une loi gamma-normale, que l'on note

(X,T)NormalGamma(μ,λ,α,β).

Fonction de densité

La fonction de densité conjointe de (X,T) a la forme

f(x,τ|μ,λ,α,β)=βαλΓ(α)2πτα12eβτeλτ(xμ)22

Distributions marginales

Par définition, la distribution marginale de τ est une loi gamma.

La distribution marginale de X est une loi de Student non-standardisée de paramètres (ν,μ,σ2)=(2α,μ,βλα).

Calibrage

Si (X,T)NormalGamma(μ,λ,α,β),

alors pour tout b > 0,

(bX,bT)NormalGamma(bμ,λ,α,b2β).

Famille exponentielle

Les lois gamma-normales forment une famille exponentielle de paramètre naturel (α12,βλμ22,λμ,λ2) et de statistique suffisante (lnτ,τ,τx,τx2).

Moments des statistiques suffisantes

Ces moments se calculent à l'aide de la fonction génératrice des moments de la statistique suffisante :

E(lnT)=ψ(α)lnβ,

ψ(α) est la fonction digamma,

E(T)=αβ,
E(TX)=μαβ,
E(TX2)=1λ+μ2αβ.

Distribution a posteriori des paramètres

Soit X distribuée selon une normale de moyenne μ et variance 1/τ inconnues

X𝒩(μ,τ1)

Supposons que la distribution a priori de (μ,τ) suive une distribution gamma-normale (μ0,λ0,α0,β0),

π(μ,τ)τα012exp[β0τ]exp[λ0τ(μμ0)22].

Étant donné un échantillon 𝐗 constitué de n variables aléatoires indépendantes et identiquement distribuées (i.i.d) {x1,...,xn}, la distribution a posteriori de μ et τ conditionnellement à cet échantillon se calcule par la formule de Bayes.

𝐏(τ,μ|𝐗)𝐋(𝐗|τ,μ)π(τ,μ),

𝐋 est la vraisemblance des données observées pour ces paramètres.

Pour des données i.i.d, la vraisemblance conjointe de l'échantillon est égale au produit des vraisemblances individuelles :

𝐋(𝐗|τ,μ)=i=1n𝐋(xi|τ,μ).

Ainsi,

𝐋(𝐗|τ,μ)i=1nτ1/2exp[τ2(xiμ)2]τn/2exp[τ2i=1n(xiμ)2]τn/2exp[τ2i=1n(xix¯+x¯μ)2]τn/2exp[τ2i=1n((xix¯)2+(x¯μ)2)]τn/2exp[τ2(ns+n(x¯μ)2)],

x¯=1ni=1nxi, moyenne d'échantillon, et s=1ni=1n(xix¯)2, variance d'échantillon.

La distribution a posteriori des paramètres devient ainsi

𝐏(τ,μ|𝐗)𝐋(𝐗|τ,μ)π(τ,μ)τn/2exp[τ2(ns+n(x¯μ)2)]τα012exp[β0τ]exp[λ0τ(μμ0)22]τn2+α012exp[τ(12ns+β0)]exp[τ2(λ0(μμ0)2+n(x¯μ)2)]

Développant le terme de la deuxième exponentielle, on a :

λ0(μμ0)2+n(x¯μ)2=λ0μ22λ0μμ0+λ0μ02+nμ22nx¯μ+nx¯2=(λ0+n)μ22(λ0μ0+nx¯)μ+λ0μ02+nx¯2=(λ0+n)(μ22λ0μ0+nx¯λ0+nμ)+λ0μ02+nx¯2=(λ0+n)(μλ0μ0+nx¯λ0+n)2+λ0μ02+nx¯2(λ0μ0+nx¯)2λ0+n=(λ0+n)(μλ0μ0+nx¯λ0+n)2+λ0n(x¯μ0)2λ0+n,

ce qui donne :

𝐏(τ,μ|𝐗)τn2+α012exp[τ(12ns+β0)]exp[τ2((λ0+n)(μλ0μ0+nx¯λ0+n)2+λ0n(x¯μ0)2λ0+n)]τn2+α012exp[τ(12ns+β0+λ0n(x¯μ0)22(λ0+n))]exp[τ2(λ0+n)(μλ0μ0+nx¯λ0+n)2]

Cette dernière expression est bien celle d'une distribution Gamma-Normale,

𝐏(τ,μ|𝐗)NormalGamma(λ0μ0+nx¯λ0+n,λ0+n,α0+n2,β0+12(ns+λ0n(x¯μ0)2λ0+n))

Interprétation bayesienne des paramètres

  • La nouvelle moyenne est la moyenne pondérée de l'ancienne pseudo-moyenne et de la moyenne d'échantillon observée, avec des poids relatifs proportionnels aux nombres de (pseudo-)observations.
  • Le nombre de pseudo-observations (λ0) est adapté simplement en y additionnant le nombre correspondant de nouvelles observations (n).
  • La concentration (l'inverse de la variance) a priori revient à estimer sur base de 2α pseudo-observations (c.à.d. un nombre éventuellement différent de pseudo-observations, afin de permettre de contrôler séparément la variance de la moyenne et de la concentration) de moyenne μ et variance βα.
  • Une nouvelle somme d'écarts quadratiques est constituée de l'addition des sommes d'écarts quadratiques respectives. Toutefois, un "terme d'interaction" doit être ajouté parce que les deux ensembles d'écarts étaient mesurés par rapport à des moyennes distinctes, ce qui sous-estime l'écart quadratique total réel.

Par conséquent, si on a une moyenne a priori μ0 basée sur nμ observations et une concentration a priori τ0 basée sur nτ observations, la distribution a priori de (μ,τ) est

𝐏(τ,μ|𝐗)NormalGamma(μ0,nμ,nτ2,nτ2τ0)

et la distribution a posteriori après échantillon de n observations de moyenne μ et variance s sera

𝐏(τ,μ|𝐗)NormalGamma(nμμ0+nμnμ+n,nμ+n,12(nτ+n),12(nττ0+ns+nμn(μμ0)2nμ+n))

Distributions associées

Notes

Modèle:Reflist

Sources

  • Bernardo, J.M.; Smith, A.F.M. (1993) Bayesian Theory, Wiley. Modèle:ISBN
  • Dearden et al. "Bayesian Q-learning", Proceedings of the Fifteenth National Conference on Artificial Intelligence (AAAI-98), July 26–30, 1998, Madison, Wisconsin, USA.

Voir aussi

Modèle:Palette

Modèle:Portail

  1. Bernardo & Smith (1993, Modèle:P.)