Monte Carlo Hamiltonien

De testwiki
Aller à la navigation Aller à la recherche

En physique computationnelle et en statistiques, l' algorithme de Monte Carlo hamiltonien (également connu sous le nom de Monte Carlo hybride), est une méthode de Monte Carlo par chaîne de Markov dont l'objectif est d'obtenir une séquence d'échantillons aléatoires qui convergent selon une distribution de probabilité cible, typiquement difficile à échantillonner directement. Cette séquence peut notamment être utilisée pour estimer des intégrales par rapport à une distribution cible (calcul d'espérances mathématiques).

Le Monte Carlo hamiltonien correspond à une instance de l'algorithme de Metropolis – Hastings où les déplacements proposés dans l'espace d'états sont issus d'un processus gouverné par une dynamique hamiltonienne[1]Modèle:,[2]et simulée à l'aide d'un intégrateur numérique réversible et préservant le volume (généralement la méthode saute-mouton).

Comparé à l'utilisation d'une distribution de proposition de marche aléatoire gaussienne dans l'algorithme Metropolis – Hastings, la méthode de Monte Carlo Hamiltonien réduit la corrélation entre les états échantillonnés successivement en proposant des déplacements vers des états distants qui maintiennent une forte probabilité d'acceptation en raison des propriétés de conservation d'énergie approximatives de la dynamique hamiltonienne simulée avec de l'utilisation d'un intégrateur symplectique . La corrélation réduite signifie que moins d'échantillons de chaîne de Markov sont nécessaires pour approcher les intégrales par rapport à la distribution de probabilité cible pour une erreur de Monte Carlo donnée. L'algorithme a été proposé à l'origine par Simon Duane, Anthony Kennedy, Brian Pendleton et Duncan Roweth en 1987 [3] pour des calculs en chromodynamique quantique sur un réseau .

Algorithme

Supposons que la distribution cible à échantillonner soit f(𝐱) et qu'une chaîne d'échantillons 𝐗0,𝐗1,𝐗2, soit requise. Les équations de la mécanique hamiltonienne se lisent

dxidt=Hpi

et

dpidt=Hxi

xi et pi sont les i ème composante du vecteur position et impulsion respectivement et où le hamiltonien H est de la forme

H(𝐱,𝐩)=U(𝐱)+12𝐩TM1𝐩

U(𝐱) est l' énergie potentielle et M est une matrice symétrique et définie positive. Dans le but d'échantilloner d'une mesure cible f, l'énergie potentielle est typiquement donnée par

U(𝐱)=lnf(𝐱)


Supposons qu'après n étapes, la chaîne soit dans l'état 𝐗n=𝐱net introduisons 𝐱n(0)=𝐱n . L'algorithme consiste à proposer un nouvel état 𝐗n+1*=𝐱n(LΔt), où 𝐱n est une approximation numérique de la dynamique hamiltonienne par la méthode saute-mouton avec Δt comme pas de discrétisation et où L est un entier positif décrivant le nombre de pas à simuler à chaque étape. Le nouvel état proposé 𝐗n+1*=𝐱n(LΔt) est ensuite accepté ou rejeté selon la règle de l'algorithme de Metropolis – Hastings.


Plus formellement, soit 𝐱n(0)=𝐱n et soit 𝐩n(0) tiré de la loi gaussienne N(𝟎,M) de moyenne 𝟎 et de matrice de covariance M. La méthode saute-mouton consiste à faire évoluer les vecteurs position 𝐱n et impulsion 𝐩n après le temps Δt de la façon suivante.

𝐩n(t+Δt2)=𝐩n(t)Δt2U(𝐱)|𝐱=𝐱n(t)
𝐱n(t+Δt)=𝐱n(t)+ΔtM1𝐩n(t+Δt2)
𝐩n(t+Δt)=𝐩n(t+Δt2)Δt2U(𝐱)|𝐱=𝐱n(t+Δt)

Ces équations doivent être appliquées à 𝐱n(0) et 𝐩n(0) à L reprises afin d'obtenir 𝐱n(LΔt) et 𝐩n(LΔt) .

Comme la méthode saute-mouton est une méthode numérique et ne résout pas exactement les équations de la mécanique hamiltonienne, une étape Metropolis – Hastings est utilisée en complément. La transition de 𝐗n=𝐱n à 𝐗n+1 est donnée par

𝐗n+1|𝐗n=𝐱n={𝐱n(LΔt)with probability α(𝐱n(0),𝐱n(LΔt))𝐱n(0)otherwise

α(𝐱n(0)n,𝐱n(LΔt))=min(1,exp[H(𝐱n(LΔt),𝐩n(LΔt))]exp[H(𝐱n(0),𝐩n(0))])

Cette opération est ensuite répétée afin d'obtenir 𝐗n+1,𝐗n+2,𝐗n+3, .

Voir aussi

Articles connexes

Bibliographie

  • Modèle:Article
  • Liu, Jun S. (2004). Stratégies de Monte Carlo en informatique scientifique . Série Springer dans les statistiques, Springer. 189-203.Modèle:ISBN.

Liens externes

Notes et références

Modèle:Portail