Méthode des moments (probabilité)

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Voir homonymes En mathématiques et plus particulièrement en théorie des probabilités, la méthode des moments consiste à prouver une convergence en loi en démontrant la convergence de tous les moments[1].

Soit X une variable aléatoire réelle dont tous les moments existent, c'est-à-dire

E|Xk|<k1.

Supposons que la loi de X soit complètement déterminée par ses moments, c'est-à-dire que si Y est une autre variable aléatoire telle que

𝔼[Xk]=𝔼[Yk]k1

alors X et Y ont la même loi.

Sous ces conditions, si (Xn) est une suite de variables aléatoires telle que

limnE[Xnk]=E[Xk]

pour toutes les valeurs de k, alors la suite (Xn) converge en loi vers X.

La méthode des moments a été introduite par Pafnuty Chebyshev pour prouver le théorème central limite ; Chebyshev a cité des contributions antérieures d'Irénée-Jules Bienaymé[2]. Plus récemment, elle a été appliquée par Eugene Wigner pour prouver la loi du demi-cercle et a depuis trouvé de nombreuses applications dans la théorie des matrices aléatoires[3].

Références

Modèle:Reflist

Voir aussi

Problème des moments Modèle:Portail