Inégalité de Chernoff

De testwiki
Version datée du 21 janvier 2025 à 05:17 par imported>WikiCleanerBot (v2.05b - Bot T3 PCS#67 - Correction syntaxique (Ponctuation avant une référence - Orthographe et typographie))
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Modèle:Voir homonymes Modèle:Ébauche

En théorie des probabilités, l'inégalité de Chernoff permet de majorer la queue d'une loi de probabilité, c'est-à-dire qu'elle donne une valeur maximale de la probabilité qu'une variable aléatoire dépasse une valeur fixée. On parle également de borne de Chernoff. Elle est nommée ainsi en l'honneur du mathématicien Herman Chernoff.

Il s'agit d'une inégalité de concentration, c'est-à-dire que cette inégalité fournit des bornes sur la probabilité qu'une variable aléatoire dévie d'une certaine valeur[1].

Énoncés

Il existe de nombreux énoncés, et de nombreux cas particuliers.

Cas général

Soit X une variable aléatoire réelle dont la fonction génératrice des moments est telle que, pour un certain réel t,

ϕ(t)=𝔼[etX]<+.

Alors[2], pour tout a0, l'inégalité de Markov appliquée à la variable aléatoire etX stipule que [3]

si t>0,(Xa)eta𝔼[etX] et
si t<0,(Xa)eta𝔼[etX].

Avec des variables symétriques et une espérance nulle

Soient X1,X2,,Xn des variables aléatoires indépendantes, telles que 𝔼[Xi]=0 et |Xi|1 pour tout i. On pose X=i=1nXi et on appelle σ2 la variance de X.

Alors, on a pour tout 0k2σ:

(Xkσ)ek2/4 ainsi que (Xkσ)ek2/4,
et donc aussi (|X|kσ)2ek2/4.

Avec des variables symétriques booléennes

Soient X1,X2,,Xn des variables aléatoires booléennes (i.e. à valeurs dans {0,1}) indépendantes, de même espérance p, alors ε>0,

(1ni=1nXi>p+ε)e2ε2n, et (1ni=1nXi<pε)e2ε2n.

Démonstration

Il existe plusieurs manières de démontrer ces inégalités[4].

Cas général

Modèle:Démonstration

Avec des variables symétriques booléennes

Modèle:Démonstration

Applications

Ces inégalités sont très utilisées en informatique théorique, notamment en théorie de la complexité et en algorithmique, où elles permettent de prouver des résultats sur les algorithmes probabilistes.

Voir aussi théorie des grandes déviations.

Extensions

On peut écrire des généralisations intéressantes pour les matrices aléatoires, appelées en anglais Modèle:Lien[5].

Références

Modèle:Références

Voir aussi

Bibliographie

Modèle:Traduction/Référence

Modèle:Portail