Entropie conditionnelle

De testwiki
Aller à la navigation Aller à la recherche

Modèle:À sourcer

En théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire Y, lorsque l'on connait exactement une variable aléatoire X. On note H(Y|X) l'entropie conditionnelle de Y sachant X. On dit aussi parfois entropie de Y conditionnée par X[1]. Comme les autres entropies, elle se mesure généralement en bits.

Définitions

On peut introduire l'entropie conditionnelle de plusieurs façons, soit directement à partir des probabilités conditionnelles, soit en passant par l'entropie conjointe. Les deux définitions sont équivalentes.

Définition directe

On définit l'entropie conditionnelle à partir de la probabilité conditionnelle de Y relativement à X :

H(Y|X):=y𝒴,x𝒳(X=x,Y=y)log2((Y=y|X=x))

𝒴 et 𝒳 sont respectivement les supports des variables Y et X.

Par l'entropie conjointe

Étant donné deux variables aléatoires X et Y avec pour entropies respectives H(X) et H(Y), et pour entropie conjointe H(X,Y), l'entropie conditionnelle de Y sachant X est définie par :

H(Y|X)H(X,Y)H(X)

Équivalence des définitions

Ces deux définitions sont équivalentes, c'est-à-dire qu'avec la première définition de H(Y|X),

H(Y|X)=H(X,Y)H(X)

Modèle:Démonstration

Propriétés

  • H(Y|X)=H(Y) si et seulement si Y et X sont indépendantes.

Modèle:Démonstration

  • Règle de la chaîne : avec X1,...Xn variables aléatoires,
H(X1,...,Xn)=i=1nH(Xi|X1,...,Xi1)

Modèle:Démonstration

Intuition

Intuitivement, si le système combiné contient H(X,Y) bits d'information, et si nous connaissons parfaitement la variable aléatoire X, pour coder le système on peut économiser H(X) bits, et on n'a plus besoin que de H(Y|X) bits.

Références

Modèle:Références

Voir aussi

Modèle:Portail