Inégalité de Gibbs

De testwiki
Version datée du 18 octobre 2024 à 20:18 par imported>Pld (supp. cat. inutile)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche
Willard Gibbs.

En théorie de l'information, l'inégalité de Gibbs, nommée en l'honneur de Willard Gibbs, porte sur l'entropie d'une distribution de probabilités. Elle sert à prouver de nombreux résultats en théorie de l'information.

Enoncé

Soient deux distributions de probabilités P={p1,p2,...pn} et Q={q1,q2,...,qn}, alors

i=1npilog(pi)i=1npilog(qi).

Le cas d'égalité se produit si et seulement si pi=qi pour tout i.

Démonstration

D'après l'inégalité de Jensen, puisque le logarithme est concave,

i=0npilog(qipi)log(i=0npiqipi)=log(1)=0.

Cela équivaut à

i=0npilog(pi)i=0npilog(qi)

et montre donc l'inégalité.

Comme le logarithme n'est pas linéaire, le cas d'égalité dans l'inégalité de Jensen, et à fortiori dans la première inégalité ci-dessus, est réalisé si et seulement si tous les pi/qi sont égaux, ce qui équivaut au fait que pi=qi pour tout i car ce sont des distributions de probabilités.

Voir aussi

Bibliographie

Modèle:Portail