Physique statistique hors d'équilibre

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Infobox Discipline

La physique statistique hors d'équilibre étudie les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie.

À la différence de la thermodynamique hors équilibre les méthodes utilisées relèvent du domaine de la physique statistique et permettent de donner les lois caractérisant un phénomène ainsi que les coefficients présents dans ces lois par l'étude des fluctuations dans le milieu au voisinage de l'équilibre thermodynamique.

Dans cet article on adopte la convention de sommation d'Einstein.

Histoire

À la fin du Modèle:S- la thermodynamique va voir un extraordinaire développement avec les travaux de Rudolf Clausius qui établit la seconde loi de la thermodynamique et introduit la notion d'entropie en 1862[1]. Cette théorie trouvera son pendant en théorie cinétique des gaz avec les travaux de Ludwig Boltzmann en 1872 (théorème H) et 1877 (formule de Boltzmann)[2].

En 1866 James Clerk Maxwell publie la loi de diffusion dans un milieu à plusieurs espèces[3].

Albert Einstein[4] en 1905 et Paul Langevin[5] en 1908 donnent la description du mouvement brownien conduisant au premier calcul d'un coefficient de transport. À la même époque Marian Smoluchowski développe les méthodes associées aux processus aléatoires[6].

Willard Gibbs (1902)[7] et Albert Einstein (1910)[8] établissent la théorie des fluctuations autour de l'équilibre.

Les progrès ultérieurs seront liés à la connaissance des processus aléatoires avec Norbert Wiener[9] (1930) et Alexandre Khintchine[10] (1934) qui démontrent le théorème qui porte leur nom, Herbert Callen et Theodore Welton pour le théorème de fluctuation-dissipation (1951)[11], Melville Green (1954)[12] et Ryogo Kubo (1957)[13] pour leurs travaux sur le lien entre coefficients de transport et propriétés temporelles du système (relation de Green-Kubo).

Ensemble de Gibbs, variables conservatives, fluctuations

Les systèmes auxquels on s'intéresse, qu'ils soient solides, liquides ou gazeux, sont constitués d'un très grand nombre de particules. À l'équilibre il est décrit par un nombre faible de variables extensives (conservatives) décrivant une collection d'états du système appelé ensemble de Gibbs. L'ensemble des états microscopiques contenus dans cet ensemble est décrit à chaque instant par une fonction de distribution (densité de probabilité conjointe) f dans l'espace des phases que l'on supposera normalisée à 1. Si l'on se limite à des particules sans degré de liberté interne, celles-ci sont décrites par leurs positions 𝐱i et leur quantité de mouvement 𝐩i. Les valeurs macroscopiques temporelles de chaque variable conservative Ai sont définies par les moments :

  • d'ordre 0 (valeur moyenne) :
Ai(𝐱,t)=ai:=V0ai(𝐱,𝐩)f(𝐱,𝐩,t)d𝐩d𝐱
V étant le volume élémentaire définissant l'ensemble de Gibbs.
  • d'ordre 2, caractérisant les corrélations des écarts aux valeurs moyennes :
    • la variance : aiaj ;
    • la covariance : (aiAi)(ajAj)=aiajaiaj.

La distribution gaussienne

Outre la généralité de cette distribution telle que l'établit le théorème central limite, celle-ci peut être obtenue à partir d'arguments thermodynamiques.

Obtention de la distribution

À l'équilibre thermodynamique, la loi de Boltzmann permet de lier la fonction de distribution à l'entropie S par :

f(ai)=CeS(ai)k

S est une fonction positive, concave, continûment différentiable[14] et l'équilibre est défini par SAi|S=S0=0

On peut donc écrire un développement en série de Taylor conduisant à une distribution gaussienne des fluctuations des valeurs à l'équilibre xi=aiAi0 :

fCeS0(Ai0)ke12βijxixj,βij=1k2SAiAj0

la matrice β=βi,j est symétrique semi-définie positive et la normalisation de f permet d'obtenir la constante[15] :

...fdx1...dxN=1CeS0k=detβ(2π)N2

Si les fluctuations sont indépendantes alors β est diagonale et β1 est la matrice des covariances.

Propriétés

On définit les quantités thermodynamiques conjuguées par :

Xi=Sxi=βijxj

On peut montrer[15] une relation importante de ces quantités avec les fluctuations :

Xixj=detβ(2π)N2...xiβjlxle12βmnxmxndx1...dxN=δij

Cette propriété constitue un résultat important pour l'établissement des relations de réciprocité d'Onsager.

En utilisant l'équation de définition de Xi on obtient :

xixj=(β)ij1,XiXj=βij

On définit une approximation linéaire des fluctuations de la variable thermodynamique g par :

Δg=gxixi

On peut calculer la moyenne quadratique :

(Δg)2=gxigxjxixj

On peut ainsi exprimer les fluctuations des quantités thermodynamiques fondamentales[15]Modèle:,[16], par exemple la vitesse ou la température :

(Δvx)2=kTm,(ΔT)2=RT2MCV

R est la constante universelle des gaz, M la masse molaire et CV est la chaleur spécifique à volume constant. L'expression pour la vitesse peut être trouvée directement par le calcul à partir de la distribution maxwellienne des vitesses.

La fluctuation relative de la température peut être calculée (γ=CP/CV):

(ΔT)2T=γ1

Processus temporel

Processus aléatoires gaussiens

L'évolution de l'ensemble de Gibbs en 𝐱 obéit à un processus aléatoire (ou stochastique) caractérisé par l'évolution g(t). Dans nombre de cas ce processus peut être supposé :

  • gaussien : les densités conjointes sont des distributions maxwelliennes (gaussiennes) ;
  • stationnaire : les densités sont indépendantes de l'échantillonnage en temps ;
  • ergodique en moyenne : toute réalisation du processus (échantillon) caractérise complètement celui-ci. Ceci s'exprime en disant que la moyenne
g=limτ1τtt+τg(t)dt
est indépendante de t.

De plus l'analyse harmonique[17] montre que les descriptions temporelle et en moyenne d'ensemble sont équivalentes :

g=g

Fonction de corrélation, densité spectrale

On peut décomposer la distribution composée par une réalisation g(t) dans l'intervalle [0,T] et 0 au dehors en série de Fourier[17] :

g(t)=n=bieiωnt,ωn=2πnT,0tT.

On peut alors définir la transformation du processus G(t) dont g(t) est une réalisation par :

G(t)=n=Bieiωnt,0tT.

Les coefficients Bn sont des combinaisons linéaires des bn. Ce sont des variables aléatoires indépendantes.

La fonction de corrélation pour les fluctuations des processus Gi est définie par :

Cij(𝐱,𝐱,tt)=Gi(𝐱,t)Gj(𝐱,t)

On s'intéresse plus particulièrement aux fonctions d'autocorrélation Cii qui permet de mesurer l'étendue temporelle des corrélations. Dans le cas d'un processus gaussien :

C(τ)=12τceττc

τc est le temps de corrélation. La densité spectrale de puissance du processus est dès lors connue par le théorème de Wiener–Khintchine :

Γ(ω)=ωc2ω2+ωc2,ωc=τc1

On a de façon évidente :

C(τiτj)C(τjτk)=C(τiτk)

Un processus qui obéit à cette relation est markovien d'après le théorème d'arrêt de Doob.

Réponse linéaire d'un système au voisinage de l'équilibre thermodynamique

Modèle:Article détaillé

Susceptibilité

On suppose un système à l'équilibre perturbé par un champ externe. La perturbation est décrite par l'hamiltonien perturbatif[16]Modèle:,[17] :

(t)=α(t)A

A est la grandeur conjuguée associée à α.

On cherche à connaître la réponse de A à une telle fluctuation, dans le domaine linéaire. Celle-ci est le produit de convolution :

A=tχ~(tt)α(t)dt

χ~ est la fonction de réponse invariante en temps et causale : elle ne dépend que de tt et est nulle pour t>t. En supposant une perturbation impulsionnelle, on peut intégrer l'équation :

A=χ~(t)

χ~ est donc la réponse impulsionnelle ou fonction de Green retardée, qui ne dépend que des propriétés du système non perturbé.

On prendra à présent la perturbation sous forme d'une fonction harmonique α=e(eiωt) :

A(t)=tχ~(tt)e(eiωt)dt[0.6em]=e[eiωt0χ~(τ)eiωτdτ][0.6em]=e[eiωtχ(ω)]

où l'on a introduit la transformée de Fourier au sens des distributions :

χ(ω)=χ+iχ=(χ~)=0χ~(t)eiωtdt

Les parties réelle χ et imaginaire χ de χ obéissent aux relations de Kramers-Kronig.

Dissipation

La puissance instantanée reçue par le système soumis au champ α(t) harmonique est :

W=α(t)ddtA=ωcosωt(χsinωt+χcosωt)

dont la valeur moyenne vaut :

W=12ωχ

La dissipation est donc liée à la partie imaginaire de la fonction d'autocorrélation de la fluctuation : c'est le théorème de fluctuation-dissipation.

Un exemple classique : le mouvement brownien

Le mouvement brownien se définit par le mouvement stochastique d'une particule de faible dimension dans un fluide. Il est représenté par l'équation de Langevin :

md𝐕dt=mβ𝐕+F(t)
  • 𝐕 vitesse ;
  • m masse ;
  • β coefficient lié à la traînée (donnée par exemple par la loi de Stokes) ;
  • F force aléatoire résultant des chocs avec les molécules.

On suppose que :

  • F(t) est de moyenne nulle :
F(t)=0,
  • F(t) obéit à un processus gaussien de temps caractéristique τC<<β1. On assimilera donc la fonction d'autocorrélation à une fonction de Dirac :
C(τ)=F(t)F(t+τ)dτ=Dδ(τ)

La résolution de l'équation de Langevin pour une vitesse initiale V0 est la suivante[18] :

V=V0eβt+1m0tF(t)eβ(tt)dt

Soit en moyenne :

V=V0eβt

La vitesse moyenne relaxe vers 0 avec un temps caractéristique β1.

On peut également calculer la variance :

σ2=V(t)V(t)=D2m2β(1e2βt)

Aux temps grands :

σ2D2m2β,t>>τC

On peut également écrire la variance sous la forme :

σ2=V2(t)V(t)2

L'énergie moyenne est :

E(t)=m2V2(t)

La limite de cette quantité aux temps longs est :

E(t)D4mβ,t>>τC

L'équipartition de l'énergie avec les particules environnantes permet d'écrire :

E=kT2

D'où l'expression de β :

β=D2mkT=Cδ(τ)2mkT

Cette relation qui lie le coefficient de frottement à la fonction d'autocorrélation illustre la relation de Green-Kubo.

Références

Ouvrages de référence

Articles connexes

Modèle:Portail