Canal de communication (théorie de l'information)

De testwiki
Version datée du 27 juin 2023 à 14:55 par imported>Sehidinan (growthexperiments-addlink-summary-summary:3|0|0)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Modèle:Homonymes

En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire.

La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.

Définition et enjeux

Le canal de communication dans le diagramme schématique des systèmes de communication.

On peut décomposer simplement un système de communication en trois grandes parties[S 1] : une source d'information (associée à un transmetteur), un destinataire (associé à un récepteur), et le canal de communication, qui assure la liaison entre les deux. Selon les modèles de canaux, l'information transmise peut être discrète ou continue.

Souvent, le canal est équipé d'un modèle probabiliste qui décrit le signal sortant en fonction du signal entrant. Cela correspond à des situations réelles comme la transmission d'un signal logique sur un fil ou d'un message sur l'Internet, car les canaux réels ne sont pas entièrement fiables et les erreurs ne se produisent pas de façon systématique.

L'objectif du destinataire est donc de reconstituer le message original à partir de l'information transmise par le canal, ce qui donne lieu à l'usage de codes et plus spécifiquement de codes correcteurs d'erreurs.

Canal de communication discret

Modèle:Voir aussi

Définitions

Modèle:Théorème

Le télégraphe est un exemple de système dans lequel le canal de communication est dit discret : on transmet une suite de symboles élémentaires (code Morse). Les signaux logiques comme le binaire sont également discrets.

Débit et capacité

Modèle:Voir aussi Le débit d'information D est défini en fonction du nombre de signaux N(T) pouvant circuler pendant une durée T.

La capacité d'un canal de communication constitue une limitation de la quantité d'information que la source peut transmettre vers le récepteur. Elle est définie comme le maximum du débit.

Modèle:Théorème

Modèle:Théorème

Modèle probabiliste

Canal de communication.

On considère un canal W dont l'alphabet d'entrée est S et l'alphabet de sortie est S. Cela signifie que les symboles du message émis sont des lettres de S et que ceux du message reçu sont des lettres de S. Le canal est défini par une loi de probabilité décrivant la probabilité de la sortie en fonction de l'entrée.

Supposons que l'on envoie un symbole sS dans le canal ; la probabilité que le symbole sortant soit sS est notée W(s|s). Si les deux alphabets sont identiques, la probabilité que le symbole soit transmis de façon fidèle est W(s|s).

Dans le cas général, on modélise le symbole transmis par une variable aléatoire X de loi P(X=si)=pi (avec Spi=1). Différents choix existent pour cette loi, notamment :

  • La loi uniforme : pi=1|S|
  • Lorsque le message transmis est un mot wS*, une définition naturelle est pi=|w|si|w| : la proportion d'apparition de la lettre si dans w.

Dans cette situation, le symbole en sortie du canal est aussi une variable aléatoire,

Y

, dont la loi dépend de celle de

X

 :

P(Y=s)=sSP(X=s)×W(s|s)

On retrouve alors la capacité du canal en observant l'information mutuelle

I(X;Y)

entre l'entrée et la sortie. L'information mutuelle représente informellement la quantité d'information de

X

qui a été préservée par le passage dans le canal. La capacité du canal de communication est alors définie par :

C=suppXI(X;Y)

La borne supérieure porte sur la distribution de probabilité de

X

. Pour exploiter toute la capacité du canal, il faut donc choisir judicieusement les symboles que l'on y envoie, car tous ne sont pas traités également.

Principaux types

Modèle:...

Canaux parallèles

Lorsque

W

est un canal d'entrée

S

et de sortie

S

, on définit pour tout

n1

le canal

W×n

qui représente

n

copies indépendantes et parallèles de

W

. Il prend son entrée dans

Sn

et produit une sortie dans

S'n

selon la distribution de probabilité :

W×n(y1yn|x1xn)=W(y1|x1)××W(yn|xn)

Canal de communication continu

Modèle:...

Mesure de la performance d'un canal

Lorsqu'on veut transmettre par un canal un message m{1M} parmi M messages possibles, on choisit un code représenté par deux fonctions :

  • Un encodeur E:{1M}S
  • Un décodeur D:S{1M}

Le message est transmis par le canal puis réinterprété à l'aide du décodeur pour donner une estimation m^ du message original. Plusieurs mesures peuvent être utilisées pour interpréter la performance du canal, notamment :

  • La probabilité d'erreur Perr=(m^m). Dans le cas d'un canal discret (et en supposant que m est tiré uniformément), cette probabilité s'exprime par :
    Perr=11Mm=1MsSW(s|E(m))𝟏{D(s)=m}
  • La probabilité d'erreur maximale, qui représente le pire cas pour la transmission :
    Perr,max=maxm0{1M}(m^m0|m=m0)

Il y a un compromis naturel entre le nombre M de messages différents transmis et la probabilité d'erreur de transmission Perr. On s'intéresse souvent au meilleur Mque l'on peut obtenir pour une certaine valeur maximale de Perr>0, noté Mopt(W,Perr).

La valeur particulière

Mopt(W,0)

est appelée capacité à zéro-erreur de

W

et est définie en faisant tendre

Perr>0

vers la limite :

C0(W)=Mopt(W,0)=limϵ0(limn1nlogMopt(W×n,ϵ))

Notes et références

Références

Modèle:Références

Notes

Modèle:Références

Voir aussi

Articles connexes

Modèle:Portail
Erreur de référence : Des balises <ref> existent pour un groupe nommé « S », mais aucune balise <references group="S"/> correspondante n’a été trouvée