Loi de von Mises-Fisher

De testwiki
Version datée du 17 janvier 2024 à 15:44 par imported>Kelam (Relation avec la loi normale : +LI à venir)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Dans les statistiques directionnelles, la loi de von Mises-Fisher (du nom de Richard von Mises et Ronald Fisher), est une loi de probabilité sur la Modèle:Math-sphère dans p. Si Modèle:Math, la loi se réduit à la loi de von Mises sur le cercle.

Définition

La fonction de densité de probabilité de la loi de von Mises-Fisher pour le vecteur unitaire aléatoire de dimension Modèle:Mvar aléatoire 𝐱 est donnée par :

fp(𝐱;μ,κ)=Cp(κ)exp(κμ𝖳𝐱),

κ0,μ=1 et la constante de normalisation Cp(κ) est égale à

Cp(κ)=κp/21(2π)p/2Ip/21(κ),

Iv désigne la fonction de Bessel modifiée de première espèce à l'ordre Modèle:Mvar. Si Modèle:Math, la constante de normalisation se réduit à

C3(κ)=κ4πsinhκ=κ2π(eκeκ).

Les paramètres μ et κ sont appelés respectivement la direction moyenne et le paramètre de concentration. Plus la valeur de κ est élevée, plus la masse de la loi est concentrée autour de la direction moyenne μ . La distribution est unimodale pour κ>0, et est uniforme sur la sphère pour κ=0.

La loi de von Mises-Fisher pour Modèle:Math est aussi appelée loi de Fisher[1]Modèle:,[2]. Elle a d'abord été utilisée pour modéliser l'interaction de dipôles électriques dans un champ électrique [3]. D'autres applications se trouvent dans la géologie, la bio-informatique et la fouille de textes.

Remarque sur la constante de normalisation

Dans le manuel de Mardia et Jupp[3], la constante de normalisation donnée pour la densité de probabilité de Von Mises-Fisher est apparemment différente de celle donnée ici, soit Cp(κ). Dans ce livre, la constante de normalisation est spécifiée comme suit :

Cp*(κ)=(κ2)p/21Γ(p/2)Ip/21(κ)

L'explication vient du fait que Mardia et Jupp donnent la densité "par rapport à la loi uniforme", alors que la densité est ici spécifiée de la manière classique, par rapport à la mesure de Lebesgue. La densité (par rapport à la mesure de Lebesgue) de la loi uniforme est l'inverse de la [[N-sphère|surface de la Modèle:Math-sphère]], de sorte que la fonction de densité uniforme est donnée par la constante :

Cp(0)=Γ(p/2)2πp/2

Il s'ensuit alors que :

Cp*(κ)=Cp(κ)Cp(0)

Alors que la valeur de Cp(0) a été dérivée ci-dessus via l'aire de la surface, le même résultat peut être obtenu en fixant κ=0 dans la formule ci-dessus pour Cp(κ). Cela peut être fait en notant que le développement en série pour Ip/21(κ) divisé par κp/21 n'a qu'un terme non nul en κ=0. (Pour évaluer ce terme, il faut utiliser la convention 00=1).

Relation avec la loi normale

À partir d'une loi normale de covariance isotrope κ1𝐈 et de moyenne μ de longueur r>0, dont la fonction de densité est :

Gp(𝐱;μ,κ)=(κ2π)pexp(κ𝐱μ22),

la loi de von Mises-Fisher est obtenue en imposant 𝐱=1 . En développant

𝐱μ2=𝐱2+μ22μ𝖳𝐱,

et en utilisant le fait que les deux premiers termes de droite sont fixes, la densité de von Mises-Fisher, fp(𝐱;r1μ,rκ) est récupéré en recalculant la constante de normalisation en intégrant 𝐱 sur la sphère unité. Si r=0, on obtient la distribution uniforme, de densité fp(𝐱;0,0) .

Plus succinctement, la restriction de toute densité normale multivariée isotrope à l'hypersphère unitaire, donne une densité de Von Mises-Fisher, à normalisation près.

Cette construction peut être généralisée en partant d'une distribution normale avec une matrice de covariance générale, auquel cas en conditionnant sur 𝐱=1 donne la distribution de Fisher-Bingham.

Estimation des paramètres

Direction moyenne

Une série de N vecteurs unitaires indépendants xi sont tirées selon une loi de von Mises-Fisher. L'estimation du maximum de vraisemblance de la direction moyenne μ est simplement la moyenne arithmétique normalisée, une statistique suffisante[3]:

μ=x¯R¯, avec x¯=1NiNxi et R¯=x¯,

Paramètre de concentration

En utilisant la fonction de Bessel du premier type pour définir

Ap(κ)=Ip/2(κ)Ip/21(κ).

Alors :

κ=Ap1(R¯).

Ainsi κ est la solution à

Ap(κ)=1Ni=1Nxi=R¯.

Une simple approximation de κ est (Sra, 2011)

κ^=R¯(pR¯2)1R¯2,

Une inversion plus précise peut être obtenue en itérant plusieurs fois la méthode de Newton

κ^1=κ^Ap(κ^)R¯1Ap(κ^)2p1κ^Ap(κ^),
κ^2=κ^1Ap(κ^1)R¯1Ap(κ^1)2p1κ^1Ap(κ^1).

Erreur standard

Pour N ≥ 25, l'erreur type sphérique estimée de la direction moyenne de l'échantillon peut être calculée comme suit [4]:

σ^=(dNR¯2)1/2

d=11NiN(μ𝖳xi)2

Il est alors possible d'approximer un intervalle de confiance sphérique à 100(1α)% (soit un cône de confiance) sur μ avec angle semi-vertical :

q=arcsin(σ^eα)aveceα=ln(α).

Par exemple, pour un cône de confiance à 95 %, α=0,05,eα=ln(0,05)2,996, Et ainsi q=arcsin(1,731σ^).

Espérance

L'espérance de la loi de Von Mises-Fisher n'est pas sur l'hypersphère unitaire, mais a plutôt une longueur inférieure à un. Cette longueur est donnée par la constante Ap(κ) définie supra. Pour une loi de Von Mises-Fisher de direction moyenne μ et de concentration κ>0, l'espérance est :

Ap(κ)μ .

Pour κ=0, l'espérance est à l'origine. Pour κ>0 fini, la longueur de l'espérance, est strictement comprise entre zéro et 1 et est une fonction croissante monotone de κ.

La moyenne empirique (arithmétique) d'une collection de points sur l'hypersphère unité se comporte de manière similaire, étant proche de l'origine pour les données largement répandues et proches de la sphère pour les données concentrées. En effet, pour la loi de Von Mises-Fisher, l'espérance de l'estimateur du maximum de vraisemblance basée sur un ensemble de points est égale à la moyenne empirique de ces points.

Entropie et divergence de Kullback-Leibler

L'espérance peut être utilisée pour calculer l'entropie différentielle et la divergence de Kullback-Leibler.

L'entropie différentielle de fp(𝐱;μ,κ) est:

logfp(Ap(κ)μ;μ,κ)=logCp(κ)κAp(κ) .

Il faut noter que l'entropie est une fonction de κ seulement.

La divergence KL entre fp(𝐱;μ0,κ0) et fp(𝐱;μ1,κ1) est :

logfp(Ap(κ0)μ0;μ0,κ0)fp(Ap(κ0)μ0;μ1,κ1)

Transformation

Les lois de Von Mises-Fisher (VMF) sont fermées sous les transformées linéaires orthogonales. Soit 𝐔 une matrice orthogonale carrée. On suppose 𝐱VMF(μ,κ) et on applique la transformation linéaire inversible : 𝐲=𝐔𝐱 . La transformée inverse est 𝐱=𝐔𝖳𝐲, car l'inverse d'une matrice orthogonale est sa transposée : 𝐔1=𝐔𝖳 . Le jacobien de la transformation est 𝐔, pour lequel la valeur absolue de son déterminant est 1, également à cause de l'orthogonalité. En utilisant ces faits et la forme de la densité VMF, il s'ensuit que :

𝐲VMF(𝐔μ,κ).

On peut vérifier que puisque μ et 𝐱 sont des vecteurs unitaires, puis par l'orthogonalité, 𝐔μ et 𝐲 le sont également.

Généralisations

La loi matricielle de von Mises-Fisher (également connue sous le nom de loi matricielle de Langevin [5]Modèle:,[6] ) a la densité

fn,p(𝐗;𝐅)exp(tr(𝐅𝖳𝐗))

définie sur la variété de Stiefel de n×p p-cadres orthonormés 𝐗, où 𝐅 est une matrice réelle n×p [7]Modèle:,[8].

Distribution de l'angle polaire

Pour p=3, l'angle θ entre 𝐱 et μ vérifie cosθ=μ𝖳𝐱 . Il a la répartition

p(θ)=d2xf(x;μ,κ)δ(θarc cos(μ𝖳𝐱)) ,

qui peut être facilement évalué comme

p(θ)=2πC3(κ)sinθeκcosθ .

Articles connexes

Références

Modèle:Traduction/Référence Modèle:Références

Notes et références

Modèle:Palette Lois de probabilités Modèle:Portail