Entropie de Rényi

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Ébauche Modèle:Voir homonymes

L'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire.

Définition

Étant donnés une variable aléatoire discrète X à n valeurs possibles (x1,x2,xn), ainsi qu'un paramètre réel α strictement positif et différent de 1, l' entropie de Rényi d'ordre α de X est définie par la formule :

Modèle:Bloc emphase

Cas particuliers

L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de α.

Entropie de Hartley

Le cas α=0 donne :

H0(X)=logn=log|X|

ce qui correspond au logarithme du cardinal de X, qui correspond à l'entropie de Hartley.

Entropie de Shannon

D'après la règle de L'Hôpital, on peut trouver une limite à Hα(X) quand α tend vers 1 :

limα1Hα(X)=i=1npilogpi

Cette expression correspond à l'entropie de Shannon.

Entropie de collision

Dans le cas où α=2, on trouve l'entropie dite de collision, appelée parfois simplement « entropie de Rényi » :

H2(X)=logi=1npi2=logP(X=Y)

Y est une variable aléatoire indépendante et identiquement distribuée par rapport à X.

Entropie min

En faisant tendre α vers l'infini, on trouve l'entropie min :

H(X)=logsupi=1..npi

Propriétés

Décroissance selon α

Hα est une fonction décroissante de α.

Preuve

Soit P={p1,p2,...,pn} une distribution de probabilité

dHαdα=ddα(11αlogi=1nP(X=xi)α)=11α2i=1nqilog(piqi)=11α2DKL(Q||P)

avec Q la distribution de probabilité des qi=piαj=1npjα et DKL la Divergence de Kullback-Leibler de Q par rapport P.

Puisque cette divergence est positive, la dérivée de l'entropie de Rényi en devient négative et donc Hα est bien décroissante en α.

Preuve alternative

Soit P={p1,p2,...,pn} une distribution de probabilité,

Hα(X)=11αlogi=1nPX(xi)α=log𝔼[PX(X)α1]1α1=log𝔼[PX(X)α1]β1α11β1log𝔼[PX(X)α1β1α1]1β1=log𝔼[PX(X)β1]1β1=11βlogi=1nPX(xi)β=Hβ(X)

L'inégalité provient de l'Inégalité de Jensen appliquée dans les cas suivants à 𝔼[xc], en notant c=β1α1 :

  • Si, c>1 et donc xc est convexe et 1β1>0.
  • Si, c<0 donc xc est convexe et 1β1>0.
  • Si, c>0 donc xc est concave 1β1<0.
  • Si (α=1)(β=1)l'application de l'inégalité est immédiate.

Ce qui donne la croissance de αHα.

Relations entre les entropies de différents ordres

L'entropie de Rényi est donc une fonction décroissante de son ordre.

De plus, on remarque que H22H puisque H2=log(i=1npi2)log(supi(pi2))=2log(supi(pi))=2H.

Divergence de Rényi

Pour deux distributions de probabilités P={p1,p2,...,pn} et Q={q1,q2,...,qn}, la divergence de Rényi de P selon Q est définie comme :

Dα(PQ)=1α1log(i=1npiαqiα1)

La limite D1(PQ)existe et correspond à la Divergence de Kullback-Leibler.

Voir aussi

Article connexe

Bibliographie

Modèle:Portail