Inégalité de Chernoff
Modèle:Voir homonymes Modèle:Ébauche
En théorie des probabilités, l'inégalité de Chernoff permet de majorer la queue d'une loi de probabilité, c'est-à-dire qu'elle donne une valeur maximale de la probabilité qu'une variable aléatoire dépasse une valeur fixée. On parle également de borne de Chernoff. Elle est nommée ainsi en l'honneur du mathématicien Herman Chernoff.
Il s'agit d'une inégalité de concentration, c'est-à-dire que cette inégalité fournit des bornes sur la probabilité qu'une variable aléatoire dévie d'une certaine valeur[1].
Énoncés
Il existe de nombreux énoncés, et de nombreux cas particuliers.
Cas général
Soit une variable aléatoire réelle dont la fonction génératrice des moments est telle que, pour un certain réel ,
Alors[2], pour tout , l'inégalité de Markov appliquée à la variable aléatoire stipule que [3]
- et
Avec des variables symétriques et une espérance nulle
Soient des variables aléatoires indépendantes, telles que et pour tout i. On pose et on appelle σ2 la variance de X.
Alors, on a pour tout :
- ainsi que ,
- et donc aussi .
Avec des variables symétriques booléennes
Soient des variables aléatoires booléennes (i.e. à valeurs dans ) indépendantes, de même espérance p, alors ,
- , et .
Démonstration
Il existe plusieurs manières de démontrer ces inégalités[4].
Cas général
Avec des variables symétriques booléennes
Applications
Ces inégalités sont très utilisées en informatique théorique, notamment en théorie de la complexité et en algorithmique, où elles permettent de prouver des résultats sur les algorithmes probabilistes.
Voir aussi théorie des grandes déviations.
Extensions
On peut écrire des généralisations intéressantes pour les matrices aléatoires, appelées en anglais Modèle:Lien[5].
Références
Voir aussi
Bibliographie
- Modèle:En Kirill Levchenko (UCSD), Chernoff bound