Théorie de la détection du signal

De testwiki
Aller à la navigation Aller à la recherche

La théorie de la détection du signal est une application de la théorie de la décision concernant la détection d'une information ou d'un motif dans un signal mesuré en présence de bruit. Cette théorie décrit comment choisir de manière optimale un critère permettant de discerner l'information jugée utile - le signal - du bruit environnant, en tenant compte de la nature probabiliste de la source du signal, des différentes sources de bruit et du récepteur, à savoir l'outil de mesure du signal. Elle définit en outre des critères de qualité de la détection obtenue et plus généralement de la performance du récepteur.

Les débuts de la théorie de la détection du signal remontent au développement des récepteurs radar.

Les principales applications de cette théorie sont, outre le radar, les télécommunications, le contrôle qualité, et l'astronomie d'observation.

Cas de la détection binaire

C'est le cas le plus simple, dans lequel on cherche à différencier deux états possibles, généralement la présence ou l'absence d'une information dans un ou plusieurs signaux déterministes en présence de bruit aléatoire. Cela revient aussi à un problème de classification automatique supervisée dans le cas où il y a deux classes. On considère un ensemble de n signaux pouvant être émis aléatoirement par l'une de deux sources H1 et H2, avec des probabilités p1 et p2 (telles que p1+p2=1), appelées probabilités a priori. Ceci produit une variable aléatoire continue X sur un espace d'observation χn dont les probabilités conditionnelles sont définies par les fonctions densité de probabilité fX|H1 et fX|H2.

On cherche une partition de l'espace d'observation χ=χ1χ2 telle que χ1χ2=. Etant donnée une réalisation x de X, c'est à dire une mesure du signal, on lui associe les décisions :

  • D1 si x est dans χ1
  • D2 si x est dans χ2
schéma de principe
Relations entre les hypothèses, l'espace d'observation et les décisions

Il y a donc quatre types d'événement possibles :

  • Décision D1 sous l'hypothèse H1, appelé vrai négatif
  • Décision D1 sous l'hypothèse H2, appelé faux négatif
  • Décision D2 sous l'hypothèse H1, appelé faux positif
  • Décision D2 sous l'hypothèse H2, appelé vrai positif

auxquels sont associés les probabilités conditionnelles P(Di|Hj)=χifX|Hj(x)dx.

La règle de décision se base sur le rapport de vraisemblance Λ(x)=fX|H2(x)fX|H1(x) et une valeur de seuil λs tels que

Λ(x)λs conduit à prendre la décision D2

et

Λ(x)<λs conduit à prendre la décision D1

.

Cette règle permet d'exprimer les probabilités conditionnelles de décision en fonction du rapport de vraisemblance :

  • P(D1|Hj)=0λsfΛ|Hj(λ)dλ
  • P(D2|Hj)=λsfΛ|Hj(λ)dλ

avec fΛ|Hj la fonction densité de probabilité associée à la probabilité conditionnelle de la variable aléatoire Λ sous hypothèse Hj.

La performance de la détection est quantitifée au moyen :

  • des probabilités totales de bonne ou mauvaise détection P(BD)=P(D1|H1)p1+P(D2|H2)p2 et P(MD)=P(D2|H1)p1+P(D1|H2)p2, qui dépendent du niveau de seuil λs choisi,
  • de la caractéristique opérationnelle du récepteur représentant graphiquement l'évolution du taux de vrai positifs P(D2|H2) et du taux de faux positifs P(D2|H1) en fonction du seuil λs.

Critère de Bayes

Toutes les décisions ne sont pas équivalentes quant à leur utilité. On associe donc un coût à chaque événement Ci,j correspondant à la décision Di sous hypothèse Hj. En général les mauvaises décisions sont plus coûteuses et on a C2,1>C1,1 et C1,2>C2,2. On cherche ensuite le niveau de seuil λs qui minimise le coût moyen

C=i=12j=12Ci,jP(Di|Hj)pj

.

Celui ci est obtenu pour

λs=(C1,1C2,1)p1(C2,2C1,2)p2

c'est le seuil obtenu selon le critère de Bayes.

Modèle:Boîte déroulante

Maximum a posteriori

Si on choisit de pénaliser uniquement et uniformément les mauvaises détections C1,2=C2,1=1 et C1,1=C2,2=0, le coût moyen devient C=P(D2|H1)p1+P(D1|H2)p2=P(MD). Ce choix particulier revient à minimiser la probabilité totale de mauvaise détection. Le niveau de seuil devient alors

λs=p1p2

On peut montrer que dans ce cas la règle de décision peut se reformuler sous la forme suivante :

P(H2|X)P(H1|X) conduit à la décision D2
P(H1|X)>P(H2|X) conduit à la décision D1

P(Hj|X) étant la probabilité conditionnelle a posteriori de l'hypothèse Hj.

Cette règle revient donc à choisir à chaque fois le maximum de la probabilité a posteriori[1].

Modèle:Boîte déroulante

Critère minimax

Le critère de Bayes suppose la connaissance des probabilités a priori, ce qui n'est pas toujours le cas. On va donc essayer de se placer dans le pire cas du critère de Bayes, c'est à dire rechercher une des probabilités a priori, par exemple p1, de sorte à avoir

maxp1minλs(p1)C(p1,λs)

C(p1,λs) étant le coût moyen précédemment défini.

La valeur de seuil reste celle définie par le critère de Bayes

λs(p1)=(C1,1C2,1)p1(C2,2C1,2)(1p1)

et la probabilité qui maximise le coût C(p1,λ(p1)) est solution de l'équation caractéristique

C2,2C1,1+(C1,2C2,2)P(D1|H2)(C2,1C1,1)P(D2|H1)=0

Les deux probabilités conditionnelles P(Di|Hj),ij dépendent implicitement de p1 au travers de λs.

Modèle:Boîte déroulante

On peut représenter graphiquement le critère minimax en remarquant que puisque P(D1|H2)+P(D2|H2)=1 l'équation caractéristique est aussi l'équation d'une droite dans le plan (P(D2|H1),P(D2|H2)). Son intersection avec la courbe caractéristique opérationnelle du récepteur donne directement les probabilités conditionnelles satisfaisant le critère minimax.

intersection COR et minimax
Intersection de la droite représentative de l'équation caractéristique avec la courbe caractéristique opérationnelle du récepteur

Critère de Neyman-Pearson

Les critères précédents supposent tous qu'il est possible de définir le coût associé aux différentes décisions. Toutefois lorsque ceci n'est pas possible, il existe une autre approche consistant à fixer a priori le taux de faux positif P(D2|H1) à une valeur α et à rendre maximum le taux de bonne détection P(D2|H2).

Ceci revient à chercher un niveau de seuil λs intervenant dans la règle de décision

Λ(x)λs

tel que

P(D2|H1)=λsfΛ|H1(λ)dλ=α

Modèle:Boîte déroulante

On peut interpréter graphiquement le critère de Neyman-Pearson à l'aide de la courbe caractéristique opérationnelle du récepteur. Le taux de faux positif en abscisse est directement donné par le niveau désiré α. D'autre part, une propriété de la caractéristique opérationnelle du récepteur est que sa pente est égale au niveau de seuil λs. Le critère de Neyman-Pearson revient donc à mesurer la pente de la courbe au point d'abscisse α considéré.

Application au cas d'un signal en présence de bruit gaussien

On se place dans le cas où une seule mesure (n = 1) est produite par deux hypothèses

  • H1 : la variable aléatoire X est distribuée suivant une loi normale d'espérance mathématique μ1 et de variance σ2,
  • H2 : la variable aléatoire X est distribuée suivant une loi normale d'espérance μ2 (que l'on suppose plus grande que μ1) et de même variance σ2.

Autrement dit, le signal peut prendre deux valeurs déterministes μ1 et μ2 auxquelles un bruit gaussien est ajouté.

Le critère du maximum a posteriori fournit la règle de décision suivante sur la valeur mesurée x :

xxs conduit à la décision D2
x<xs conduit à la décision D1

avec une valeur de seuil xs=μ1+μ22+σ2μ2μ1log(p1p2)

deux gaussiennes de même variance mais moyennes différentes
Fonctions densité de probabilité conditionnelle pour les deux hypothèses, distribuées suivant deux lois normales de même variance et d'espérances μ1 et μ2 et probabilités conditionnelles de mauvaise détection P(Di|Hj),ij pour une valeur xs du seuil de détection

Les probabilités conditionnelles sont données ici par :

  • P(D1|Hj)=Φ(xsμjσ)
  • P(D2|Hj)=1Φ(xsμjσ)

dans lesquelles Φ est la fonction de répartition de la loi normale centrée réduite, soit encore Φ(x)=1+erf(x/2)2, erf étant la fonction d'erreur.

La probabilité totale de mauvaise détection résultant de ce choix est donc

P(MD)=P(D2|H1)p1+P(D1|H2)p2=(1Φ(xsμ1σ))p1+Φ(xsμ2σ)p2

Une autre facçon d'évaluer la détection est de tracer la courbe de la caractéristique opérationnelle du récepteur, c'est à dire P(D2|H2) en fonction de P(D2|H1) lorsqu'on fait varier xs de à +.

ROC curve
Caractéristique opérationnelle du récepteur correspondant à différentes valeurs du ratio σμ2μ1

Notes et références

Modèle:Références

Voir aussi

Modèle:Portail