Divergence de Kullback-Leibler

De testwiki
Aller à la navigation Aller à la recherche

En théorie des probabilités et en théorie de l'information, la divergence de Kullback-LeiblerModèle:SfnModèle:,Modèle:Sfn (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSAModèle:Refnec, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.

Introduction et contexte

On considère deux distributions de probabilités, notées P et Q. Typiquement, P représente les données, les observations, ou une distribution de probabilités calculée avec précision, tandis que la distribution Q représente typiquement une théorie, un modèle, une description ou une approximation de P. La divergence de Kullback-Leibler s'interprète comme la différence moyenne du nombre de bits nécessaires au codage d'échantillons de P en utilisant un code optimisé pour Q plutôt que le code optimisé pour P.

Définition

Il existe plusieurs définitions selon les hypothèses sur les distributions de probabilités.

Premières définitions

Pour deux distributions de probabilités discrètes P et Q sur un ensemble X. La divergence de Kullback–Leibler de P par rapport à Q est définie par[1]

DKL(PQ)=xXP(x)logP(x)Q(x)

P(x) et Q(x) sont les valeurs respectives en x des fonctions de masse pour P et Q. En d'autres termes, la divergence de Kullback-Leibler est l'espérance de la différence des logarithmes de P et Q, en prenant la probabilité P pour calculer l'espérance.

Pour des distributions P et Q continues de densités respectives p et q, on utilise une intégrale

DKL(PQ)=p(x)logp(x)q(x)dx.

Définitions générales

On peut généraliser les deux cas particuliers ci-dessus en considérant P et Q deux mesures définies sur un ensemble X, absolument continues par rapport à une mesure μ : le théorème de Radon-Nikodym-Lebesgue assure l'existence des densités p et q avec dP=pdμ et dQ=qdμ, on pose alors

DKL(PQ)=Xplogpqdμ

sous réserve que la quantité de droite existe. Si P est absolument continue par rapport à Q, (ce qui est nécessaire si DKL(PQ) est finie) alors pq=dPdQ est la dérivée de Radon-Nikodym de P par rapport à Q et on obtient

DKL(PQ)=XlogdPdQdP=XdPdQlogdPdQdQ,

où l'on reconnait l'entropie de P par rapport à Q.

De même, si Q est absolument continue par rapport à P, on a

DKL(PQ)=XlogdQdPdP

Dans les deux cas, on constate que la divergence de Kullback-Leibler ne dépend pas de la mesure μ.

Lorsque les logarithmes de ces formules sont pris en base 2 l'information est mesurée en bits; lorsque la base est Modèle:Formule, l'unité est le nat.

Exemple

Two distributions to illustrate Kullback–Leibler divergence

Kullback[2] donne l'exemple suivant (Table 2.1, Example 2.1). Soit P et Q les distributions données dans la table et la figure. P est la distribution sur la partie gauche de la figure, il s'agit d'une distribution binomiale avec Modèle:Nobr et Modèle:Nobr. Q est la distribution de la partie droite de la figure, une distribution uniforme discrète avec trois valeurs Modèle:Nobr, chacune de probabilité Modèle:Nobr.

Le tableau suivant donne les fonctions de masse des distributions P et Q. Par exemple, pour la distribution P, la probabilité d'avoir la valeur 1 est 0,48.

0 1 2
Distribution P 0,36 0,48 0,16
Distribution Q 0,333 0,333 0,333

La divergence KL est calculée comme suit. On utilise le logarithme naturel.

DKL(QP)=xXQ(x)ln(Q(x)P(x))=0,333ln(0,3330,36)+0,333ln(0,3330,48)+0,333ln(0,3330,16)=0,02596+(0,12176)+0,24408=0,09637

Propriétés

Positivité
DKL(PQ)0
Égalité presque sûre
P=p.s.Q ssi DKL(PQ)=0

Modèle:Démonstration

Additivité

Soit deux distributions séparables P12(x1,x2)=P1(x1).P2(x2) et Q12(x1,x2)=Q1(x1).Q2(x2)

D(P12Q12)=D(P1Q1)+D(P2Q2)
  • Dans le formalisme de la géométrie de l'information développé par S.AmariModèle:Sfn, la divergence de Kullback-Leibler est la divergence associée à deux connexions affines duales fondamentales : la connexion m (mélange, combinaison additive des distributions) et la connexion e (exponentielle, combinaison multiplicative des distributions). La divergence de Kullback-Leibler obéit localement à la métrique de Fisher et correspond à l'intégration de la distance entre deux points (distributions) le long d'une géodésique de type e ou m (selon que l'on considère un sens ou l'autre : D(PQ) ou D(QP)).Modèle:Cn
  • La distance symétrique (induite par la connexion de Levi-Civita, autoduale) associée à la métrique de Fisher est la distance de Hellinger DH(PQ)=2i(PiQi)2.

Discussion

Bien que perçue souvent comme une distance, elle n'en remplit pas les conditions : elle n'est pas symétrique et ne respecte pas l'inégalité triangulaire.

La divergence de Kullback-Leibler entre dans la catégorie plus large des f-divergences, introduite indépendamment par CsiszárModèle:Sfn en 1967 et par Ali et SilveyModèle:Sfn en 1966. Par son appartenance à cette famille, elle respecte des propriétés de conservation de l'information : invariance, monotonicitéModèle:Sfn.

De manière complémentaire, la divergence de Kullback-Leibler est également une divergence de BregmanModèle:Sfn, associée à la fonction potentiel ψ(x)=xlogxx. La conséquence est que cette divergence, par transformation de Legendre de ψ est associée à un couple dual de système de coordonnées (x,logx) permettant de représenter les distributions de la famille exponentielle.

Notes et références

Modèle:Références

Annexes

Bibliographie

Voir aussi

Modèle:Portail

  1. Modèle:Ouvrage
  2. Modèle:Ouvrage. Republished by Dover Publications in 1968; reprinted in 1978: Modèle:ISBN.