« Théorème du codage de source » : différence entre les versions

De testwiki
Aller à la navigation Aller à la recherche
imported>MagisCdc
 
(Aucune différence)

Dernière version du 3 mars 2025 à 21:25

Modèle:À déjargoniser Modèle:À sourcer Modèle:Ébauche Le théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source.

Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source. Cependant, on peut avoir une compression avec une longueur moyenne de code arbitrairement proche de l'entropie lorsque la longueur de la chaîne tend vers l'infini.

Enoncés du théorème

Théorème du codage de source

Soit une variable aléatoire X, posons Xn=X1X2...Xn la suite de n variables aléatoires i.i.d de loi X et en notant L(Y,δ) la longueur minimale d'un code pour Y à erreur de probabilité au plus δ.

Le théorème énonce que limnL(Xn,δ)n=H(X), c'est-à-dire, lorsque n tend vers l'infini, que Xn ne peut être compressée en moins de n H(X) bits sans perte d'information presque certaine. On peut en revanche trouver un code à probabilité d'erreur négligeable approchant cette borne d'arbitrairement près.

Théorème du codage de source pour les codes par symboles

On considère une suite de n symboles provenant d'une source a-aire stationnaire (suite de variables i.i.d), le théorème se simplifie en: H(X)log2(a)𝔼[l(X)]<H(X)log2(a)+1 avec l(X) la longueur d'un code optimal pour X.

Preuves

Preuve du théorème de codage de source

Soit donc X une variable aléatoire, notons Xn=X1X2...Xn la suite de n réalisations différentes de X ((Xi)in suivent la même loi que X et sont indépendantes). Le théorème affirme que limnL(Xn,δ)n=H(X), encadrons donc cette limite par deux inégalités.

Preuve d'atteignabilité

Pour n et ϵ>0, on définit un ensemble de réalisations typiques de Xn ainsi : Sδ={xnAn/ (Xn=xn)2n(H(X)+ϵ)}.

On a alors, avec hX(x)=log(p(X=x)) et H l'entropie :

(X1...XnSδ)=X{(Xn=xn)2n(H(X)+ϵ)}=X{log(Xn=xn)n(H(X)+ϵ)}=X{log((X1=x1)...(Xn=xn))n(H(X)+ϵ)}=X{i=1nhX(Xi)n(H(X)+ϵ)}=X{1ni=1nhX(X)H(X)+ϵ}

Puisque H(X)=E(hX(X)), la loi faible des grands nombres nous assure limn{X1...XnSδ}=1.

Pour n assez grand, {X1...XnSδ}1δ et comme |Sδ|2n(H(X)+ϵ) on peut coder cet ensemble avec moins de n(H(X)+ϵ) bits.

Ainsi L(Xn,δ)nH(X)+ϵ pour tout ϵ et n correspondant assez grand, donc limnL(Xn,δ)nH(X).

Preuve inverse

Pour ϵ>0, soit SAn tel que |S|2n(H(X)ϵ), posons Ss et Sb tels que S=SsSb de cette façon :

Ss=S{xn| (X=xn)2n(H(X)ϵ/2)}Sb=S{xn| (X=xn)>2n(H(X)ϵ/2)}

Maintenant,

(X1...XnS)=(X1...XnSs)+(X1...XnSb)|S|2n(H(X)ϵ/2)+{(Xn=X1...Xn)>2n(H(X)ϵ/2)}2nϵ/2+{i=1nhX(Xi)<n(H(X)ϵ/2)}2nϵ/2+{1ni=1nhX(X)<(H(X)ϵ/2)}

Le premier terme tendant vers 0, et par la loi faible des grands nombres le second aussi, on a donc limn(X1...XnS)=0 donc la probabilité de pouvoir encoder Xn avec n(H(X)ϵ) caractères ou moins tend vers 0. Ainsi, à partir d'un nδ assez grand, elle passera en dessous de δ et donc pour tout n>nδ on aura L(Xn,δ)nH(X)ϵ.

Comme ceci est vrai pour tout ϵ: limnL(Xn,δ)nH(X), ce qui achève d'encadrer la limite souhaitée.

Preuve pour les codes par symboles

Soit X une variable aléatoire et l un code optimal pour X (c'est-à-dire d'espérance de longueur minimale).

Pour tout in, avec l(xi) la longueur du code de xi, on définit qi=al(xi)C avec a la taille de l'alphabet sur lequel X prend des valeurs et C une constante de normalisation telle que qi=1. Alors tout d'abord

H(X)=i=1npilog2pii=1npilog2qi

d'après l'Inégalité de Gibbs.

H(X)i=1npilog2al(xi)+i=1npilog2C=i=1npilog2al(xi)+log2Ci=1nl(xi)pilog2a𝔼[l(X)]log2a

d'après l'Inégalité de Kraft. On a donc bien la borne inférieure.

Comme C=al(xi)1, on a logC0.

On peut tenter de fixer l(xi)=logapi pour avoir logapil(xi)<logapi+1.

Ensuite, al(xi)pi donc al(xi)1 et l'inégalité de Kraft nous donne l'existence d'un code préfixe pour X avec ces longueurs de mots là.

Finalement,

E[l(X)]=pil(xi)<pi(loga(pi)+1)=pilog2(pi)log2(a)+1=H(X)log2(a)+1

Ce qui nous donne la borne supérieure et achève la preuve.

Voir aussi

Bibliographie


Modèle:Portail