Inégalité de Hoeffding

De testwiki
Aller à la navigation Aller à la recherche

En théorie des probabilités, l’inégalité de Hoeffding est une inégalité de concentration concernant les sommes de variables aléatoires indépendantes et bornées. Elle tire son nom du mathématicien et statisticien finlandais Wassily Hoeffding. Il existe une version plus générale de cette inégalité, concernant une somme d'accroissements de martingales, accroissements là encore bornés : cette version plus générale est parfois connue sous le nom d'inégalité d'Azuma-Hoeffding.

Énoncé

Modèle:Théorème

Bornes pour la dispersion de la loi binomiale de paramètres n et p=0,5, obtenues respectivement à l'aide de l'inégalité de Bienaymé-Tchebychev et à l'aide de l'inégalité de Hoeffding.

Cas de la loi binomiale

Dans cette section, nous allons comparer l'inégalité de Hoeffding et l'inégalité de Bienaymé-Tchebychev dans le cas de la loi binomiale. Supposons que pour tout k entre 1 et n, on ait

(Xk=1)=1(Xk=0)=p.

Alors  Sn représente le nombre de piles obtenus à un jeu de pile ou face avec n lancers et où p est la probabilité d'avoir pile sur un lancer.  Sn  suit la loi binomiale de paramètres n et p. Nous avons les inégalités suivantes, pour tout x>0 :

On voit que dans ce cas (et c'est assez représentatif de la situation généraleModèle:Référence nécessaire) l'inégalité de Hoeffding est beaucoup plus précise pour  x  suffisamment grand.

Démonstration

Inégalité préliminaire

La démonstration fait usage de la proposition suivante : Modèle:Théorème D'abord, on peut supposer Modèle:Math et Modèle:Math. En effet, si c0, alors Modèle:Mvar est une variable aléatoire presque-sûrement positive d'espérance nulle, donc Modèle:Math presque-sûrement et la proposition est évidente ; le raisonnement est analogue pour d0. Par convexité de la fonction  xesx,  on a, pour  cY(ω)d, 

esY(ω)dY(ω)dc esc + Y(ω)cdc esd.

En passant à l'espérance, puisque  (cYd)=1,  on en déduit que

𝔼[esY]f(s)=ddc esc + cdc esd.

On pose

(dc)s=uln(f(s))=ψ(u),cdc=p,1p=ddc.

Puisque Modèle:Math et Modèle:Math, on a bien p[0,1] d'où la pertinence de la notation. Il suit que

ψ(u)=pu+ln(1p+peu).

On remarque alors que  ψ(0)=ψ(0)=0.  De plus

ψ(u)=(1p)peu(1p+peu)2=αβ(α+β)214.

Alors, en vertu de la formule de Taylor-Lagrange à l'ordre 1,

ψ(u)=ψ(0)+ψ(0)u+R2(u)u28.

Démonstration de l'inégalité de Hoeffding

On applique ensuite l'inégalité de Markov. Pour cela, on pose:

Yi=Xi𝔼[Xi],ci=ai𝔼[Xi],di=bi𝔼[Xi],

et on remarque que

(ciYidi)=1,dici=biai,Sn𝔼[Sn]=Y1+Y2++Yn.

Pour tout  s>0,  on a donc, en vertu d'un corollaire de l'inégalité de Markov, de l'indépendance des  Xi,  et donc des  Yi,  et de la proposition précédente :

(Sn𝔼[Sn]t)𝔼[es(Sn𝔼[Sn])]est=𝔼[es(Y1+Y2++Yn)]est=est i=1n𝔼[esYi]exp(st+s2 i=1n(biai)28).

L'inégalité est en particulier vraie pour

s0=4ti=1n(biai)2,

qui réalise le minimum de la borne de droite, ce qui démontre la première inégalité. La deuxième inégalité se démontre en remplaçant  Yi  par  Yi=𝔼[Xi]Xi,  et  Sn𝔼[Sn]  par  𝔼[Sn]Sn,  dans le calcul précédent, en posant

ci=𝔼[Xi]bi,di=𝔼[Xi]ai,

et en remarquant que

(ciYidi)=1,dici=biai,𝔼[Sn]Sn=Y1+Y2++Yn.

La troisième inégalité est une conséquence directe des deux premières.

Énoncé "en tout temps"

Dans son article de 1963, Hoeffding a donné un énoncé légèrement plus général de son inégalité, utilisant l'inégalité de Doob. Plus précisément, sous les mêmes hypothèses, pour tout  t>0, 

(mn,Sm𝔼[Sm]t)exp(2t2i=1n(biai)2),(mn,Sm𝔼[Sm]t)exp(2t2i=1n(biai)2),(mn,|Sm𝔼[Sm]|t)2exp(2t2i=1n(biai)2).

Voir aussi

Pages liées

Bibliographie

  • C. McDiarmid, On the method of bounded differences. In Surveys in Combinatorics, London Math. Soc. Lectures Notes 141, Cambridge Univ. Press, Cambridge 1989, 148–188.
  • W. Hoeffding, "Probability inequalities for sums of bounded random variables", J. Amer. Statist. Assoc. 58, 13–30, 1963

Modèle:Portail