Divergence de Kullback-Leibler
En théorie des probabilités et en théorie de l'information, la divergence de Kullback-LeiblerModèle:SfnModèle:,Modèle:Sfn (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSAModèle:Refnec, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Introduction et contexte
On considère deux distributions de probabilités, notées P et Q. Typiquement, P représente les données, les observations, ou une distribution de probabilités calculée avec précision, tandis que la distribution Q représente typiquement une théorie, un modèle, une description ou une approximation de P. La divergence de Kullback-Leibler s'interprète comme la différence moyenne du nombre de bits nécessaires au codage d'échantillons de P en utilisant un code optimisé pour Q plutôt que le code optimisé pour P.
Définition
Il existe plusieurs définitions selon les hypothèses sur les distributions de probabilités.
Premières définitions
Pour deux distributions de probabilités discrètes P et Q sur un ensemble X. La divergence de Kullback–Leibler de P par rapport à Q est définie par[1]
où P(x) et Q(x) sont les valeurs respectives en x des fonctions de masse pour P et Q. En d'autres termes, la divergence de Kullback-Leibler est l'espérance de la différence des logarithmes de P et Q, en prenant la probabilité P pour calculer l'espérance.
Pour des distributions P et Q continues de densités respectives p et q, on utilise une intégrale
- .
Définitions générales
On peut généraliser les deux cas particuliers ci-dessus en considérant P et Q deux mesures définies sur un ensemble X, absolument continues par rapport à une mesure : le théorème de Radon-Nikodym-Lebesgue assure l'existence des densités p et q avec et , on pose alors
sous réserve que la quantité de droite existe. Si P est absolument continue par rapport à Q, (ce qui est nécessaire si est finie) alors est la dérivée de Radon-Nikodym de P par rapport à Q et on obtient
- ,
où l'on reconnait l'entropie de P par rapport à Q.
De même, si Q est absolument continue par rapport à P, on a
Dans les deux cas, on constate que la divergence de Kullback-Leibler ne dépend pas de la mesure .
Lorsque les logarithmes de ces formules sont pris en base 2 l'information est mesurée en bits; lorsque la base est Modèle:Formule, l'unité est le nat.
Exemple

Kullback[2] donne l'exemple suivant (Table 2.1, Example 2.1). Soit P et Q les distributions données dans la table et la figure. P est la distribution sur la partie gauche de la figure, il s'agit d'une distribution binomiale avec Modèle:Nobr et Modèle:Nobr. Q est la distribution de la partie droite de la figure, une distribution uniforme discrète avec trois valeurs Modèle:Nobr, chacune de probabilité Modèle:Nobr.
Le tableau suivant donne les fonctions de masse des distributions P et Q. Par exemple, pour la distribution P, la probabilité d'avoir la valeur 1 est 0,48.
| 0 | 1 | 2 | |
|---|---|---|---|
| Distribution P | 0,36 | 0,48 | 0,16 |
| Distribution Q | 0,333 | 0,333 | 0,333 |
La divergence KL est calculée comme suit. On utilise le logarithme naturel.
Propriétés
- Positivité
- Égalité presque sûre
- ssi
- Additivité
Soit deux distributions séparables et
- Dans le formalisme de la géométrie de l'information développé par S.AmariModèle:Sfn, la divergence de Kullback-Leibler est la divergence associée à deux connexions affines duales fondamentales : la connexion m (mélange, combinaison additive des distributions) et la connexion e (exponentielle, combinaison multiplicative des distributions). La divergence de Kullback-Leibler obéit localement à la métrique de Fisher et correspond à l'intégration de la distance entre deux points (distributions) le long d'une géodésique de type e ou m (selon que l'on considère un sens ou l'autre : ou ).Modèle:Cn
- La distance symétrique (induite par la connexion de Levi-Civita, autoduale) associée à la métrique de Fisher est la distance de Hellinger
Discussion
Bien que perçue souvent comme une distance, elle n'en remplit pas les conditions : elle n'est pas symétrique et ne respecte pas l'inégalité triangulaire.
La divergence de Kullback-Leibler entre dans la catégorie plus large des f-divergences, introduite indépendamment par CsiszárModèle:Sfn en 1967 et par Ali et SilveyModèle:Sfn en 1966. Par son appartenance à cette famille, elle respecte des propriétés de conservation de l'information : invariance, monotonicitéModèle:Sfn.
De manière complémentaire, la divergence de Kullback-Leibler est également une divergence de BregmanModèle:Sfn, associée à la fonction potentiel . La conséquence est que cette divergence, par transformation de Legendre de est associée à un couple dual de système de coordonnées permettant de représenter les distributions de la famille exponentielle.
Notes et références
Annexes
Bibliographie
- Modèle:Article.
- Modèle:Ouvrage.
- Modèle:Article.
- Modèle:Article.
- Modèle:Article.
- Modèle:Article.
- Modèle:Ouvrage.
Voir aussi
- ↑ Modèle:Ouvrage
- ↑ Modèle:Ouvrage. Republished by Dover Publications in 1968; reprinted in 1978: Modèle:ISBN.