Entropie min

De testwiki
Version datée du 14 avril 2022 à 19:58 par 2a04:cec0:104d:7e64:e154:8f62:3f13:c488 (discussion)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Modèle:Ébauche

En probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est :

H(X)=mini=1n(logpi)=(maxilogpi)=logmaxipi

La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b.

L'entropie min est toujours inférieure ou égale à l'entropie de Shannon; avec égalité si toutes les valeurs de X sont équiprobables. L'entropie min est importante dans la théorie des extracteurs de hasard.

La notation H(X) vient d'une famille paramétrée d'entropies appelée entropie de Rényi,

Hk(X)=logi(pi)kk1

Modèle:Portail