Entropie différentielle
Aller à la navigation
Aller à la recherche
Modèle:Sources L'entropie différentielle est un concept de la théorie de l'information qui étend le concept de l'entropie de Shannon aux lois de probabilités continues.
Définitions
Pour une variable aléatoire Modèle:Mvar avec une distribution de probabilité Modèle:Mvar et définie sur un ensemble , on définit l'entropie différentielle Modèle:Math par :
Pour un couple de variables aléatoires Modèle:Math de loi jointe Modèle:Math, alors l'entropie différentielle conditionnelle de Modèle:Mvar sachant Modèle:Mvar vaut :
Propriétés
- On a :
- L'entropie différentielle d'une loi continue peut être négative, contrairement à celle d'une loi discrète.
- Majoration : Soit Modèle:Mvar une variable aléatoire continue de variance Modèle:Math. Alors on a
avec égalité si et seulement si Modèle:Mvar suit une loi normale.
Entropie différentielle pour plusieurs distributions
Dans le tableau qui suit, est la fonction gamma, est la fonction digamma, est la fonction bêta, et Modèle:Formule est la constante d'Euler-Mascheroni.
| Distribution | Fonction de distribution de probabilités | Entropie |
|---|---|---|
| Loi uniforme continue | ||
| Loi normale | ||
| Loi exponentielle | ||
| Loi de Cauchy | ||
| Loi du χ² |
| |
| Distribution Gamma | ||
| Loi logistique | ||
| Statistique de Maxwell-Boltzmann | ||
| Distribution de Pareto | ||
| Loi de Student | ||
| Distribution de Weibull | ||
| Loi normale multidimensionnelle |