Loi enveloppée

De testwiki
Aller à la navigation Aller à la recherche

En théorie des probabilités et dans les statistiques directionnelles, une loi de probabilité enveloppée est une loi de probabilité continue qui décrit les points de données qui se trouvent sur une n -sphère unitaire. En une dimension, une distribution enveloppée est constituée de points sur le cercle unité. Si ϕ est une variable aléatoire sur la droite réelle avec pour fonction de densité de probabilité p(ϕ), alors z=eiϕ est une variable circulaire suivant la loi enveloppée pw(θ) et θ=arg(z) est une variable angulaire dans l'intervalle (π,π] suivant la loi enveloppée pw(θ).

Toute fonction de densité de probabilité p(ϕ) sur la droite peut être "enveloppée" autour de la circonférence d'un cercle de rayon unité[1]. Ainsi, la densité de la variable enveloppée

θ=ϕmod2π sur un intervalle de longueur 2π

est

pw(θ)=k=p(θ+2πk)

qui est une Modèle:Lien de période 2π. On préfère généralement l'intervalle (π<θπ) sur lequel on a ln(eiθ)=arg(eiθ)=θ.

Théorie

Dans la plupart des situations, un processus impliquant des statistiques circulaires produit des angles (ϕ) qui se situent dans l'intervalle (,), et sont décrits par une fonction de densité de probabilité « non enveloppée » p(ϕ). Cependant, une mesure donnera un angle θ qui se situe dans un intervalle de longueur 2π (par exemple, ]0,2π]). En d’autres termes, une mesure ne peut pas dire si l’angle réel ϕ ou un angle enveloppé θ=ϕ+2πa, où a est un entier inconnu, a été mesuré.

Si on souhaite calculer l'espérance d’une fonction de l’angle mesuré, ce sera :

f(θ)=p(ϕ)f(ϕ+2πa)dϕ.

On peut exprimer l'intégrale comme une somme d'intégrales sur des périodes de 2π :

f(θ)=k=2πk2π(k+1)p(ϕ)f(ϕ+2πa)dϕ.

En changeant la variable d'intégration en θ=ϕ2πk et en échangeant l'ordre d'intégration et de sommation, on a :

f(θ)=02πpw(θ)f(θ+2πa)dθ

pw(θ) est la fonction de densité de la loi enveloppée et a est un autre entier inconnu (a=a+k). L'entier inconnu a introduit une ambiguïté dans l'espérance de f(θ), similaire au problème du calcul de la Modèle:Lien. Ceci peut être résolu en introduisant le paramètre z=eiθ, dans la mesure où z a une relation sans ambiguïté avec le véritable angle ϕ :

z=eiθ=eiϕ.

Calculer l'espérance d'une fonction de z donne des réponses sans ambiguïté :

f(z)=02πpw(θ)f(eiθ)dθ.

Pour cette raison, le paramètre z est préféré aux angles mesurés θ dans l’analyse statistique circulaire. Cela suggère que la fonction de distribution enveloppée peut elle-même être exprimée en fonction de z par :

f(z)=pw~(z)f(z)dz

pw~(z) est défini de telle sorte que pw(θ)|dθ|=pw~(z)|dz|. Ce concept peut être étendu au contexte multivarié par une extension de la somme simple à un certain nombre de F sommes qui couvrent toutes les dimensions de l'espace des fonctionnalités :

pw(θ)=k1,...,kF=p(θ+2πk1𝐞1++2πkF𝐞F)

𝐞k=(0,,0,1,0,,0)𝖳 est le k e vecteur de base euclidienne.

Expression en termes de fonctions caractéristiques

Une distribution enveloppée fondamentale est le peigne de Dirac, qui est une fonction delta de Dirac enveloppée :

Δ2π(θ)=k=δ(θ+2πk).

En utilisant la fonction delta, une distribution générale enveloppée peut être écrite

pw(θ)=k=p(θ)δ(θθ+2πk)dθ.

En échangeant l'ordre de sommation et d'intégration, toute distribution enveloppée peut être écrite comme la convolution de la distribution non enveloppée et d'un peigne de Dirac :

pw(θ)=p(θ)Δ2π(θθ)dθ.

Le peigne de Dirac peut également être exprimé comme une somme d’exponentielles, on peut donc écrire :

pw(θ)=12πp(θ)n=ein(θθ)dθ.

En échangeant à nouveau l'ordre de sommation et d'intégration :

pw(θ)=12πn=p(θ)ein(θθ)dθ.

En utilisant la définition de ϕ(s), la fonction caractéristique de p(θ), on obtient une série de Laurent autour de zéro pour la distribution enveloppée en termes de fonction caractéristique de la distribution non enveloppée :

pw(θ)=12πn=ϕ(n)einθ

ou

pw~(z)=12πn=ϕ(n)zn

De manière analogue aux distributions linéaires, ϕ(m) est appelée la fonction caractéristique de la distribution enveloppée (ou plus précisément, la suite caractéristique)[2]. Il s'agit d'un exemple de la formule de sommation de Poisson, et on peut voir que les coefficients de la série de Fourier pour la distribution enveloppée sont simplement les coefficients de la transformée de Fourier de la distribution non enveloppée à des valeurs entières.

Moments

Les moments de la distribution enveloppée pw(z) sont définis comme :

zm=pwz(z)zmdz.

En exprimant pw(z) en termes de fonction caractéristique et en échangeant l'ordre d'intégration et de sommation, on obtient :

zm=12πn=ϕ(n)zmndz.

Par le théorème des résidus on en déduit

zmndz=2πδmn

δk est la fonction delta de Kronecker. Il s'ensuit que les moments sont simplement égaux à la fonction caractéristique de la distribution non enveloppée pour les arguments entiers :

zm=ϕ(m).

Génération de variables aléatoires

Si X est une variable aléatoire tirée d'une loi de probabilité linéaire P, alors Z=eiX est une variable circulaire distribuée selon la loi enveloppé P, et θ=arg(Z) est la variable angulaire distribuée selon la loi enveloppée P, avec π<θπ.

Entropie

L'entropie informationnelle d'une distribution circulaire avec densité de probabilité pw(θ) est définie comme:

H=Γpw(θ)ln(pw(θ))dθ

Γ est un intervalle de longueur 2π[1]. Si la densité de probabilité et son logarithme peuvent être exprimés sous forme de série de Fourier (ou plus généralement, par n'importe quelle transformée intégrale sur le cercle), la Modèle:Lien de la série peut être utilisée pour obtenir une expression sous forme fermée de l'entropie.

Les moments de la loi ϕ(n) sont les coefficients de Fourier du développement en série de Fourier de la densité de probabilité :

pw(θ)=12πn=ϕneinθ.

Si le logarithme de la densité de probabilité peut également être exprimé sous forme de série de Fourier :

ln(pw(θ))=m=cmeimθ

cm=12πΓln(pw(θ))eimθdθ.

Ensuite, en échangeant l’ordre d’intégration et de sommation, l’entropie peut s’écrire :

H=12πm=n=cmϕnΓei(mn)θdθ.

En utilisant l'orthogonalité de la base de Fourier, l'intégrale peut être réduite à :

H=n=cnϕn.

Pour le cas particulier où la densité de probabilité est symétrique par rapport à la moyenne, cm=cm et le logarithme peut s'écrire :

ln(pw(θ))=c0+2m=1cmcos(mθ)

et

cm=12πΓln(pw(θ))cos(mθ)dθ

et, puisque la normalisation exige que ϕ0=1, l'entropie peut s'écrire :

H=c02n=1cnϕn.

Voir également

Références

Modèle:Traduction/Référence Modèle:Références

Modèle:Palette Lois de probabilités

Modèle:Portail