Récurrence et transience d'une chaîne de Markov
Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente.
Temps de séjour et temps de premier retour
Pour chaque état i d'une chaîne de Markov, on a les définitions suivantes : Modèle:Théorème
Récurrence et transience (définition informelle)
Informellement, pour une chaîne de Markov irréductible, un état du système modélisé par la chaîne de Markov est dit récurrent si une trajectoire typique du système passe infiniment souvent par cet état. Il y a en fait dichotomie :
- soit la probabilité que la trajectoire du système passe infiniment souvent par vaut 1, et l'état est dit récurrent,
- soit cette probabilité vaut 0, auquel cas est dit transient.
- les états récurrents (ceux pour lesquels ) se subdivisent en états récurrents positifs et récurrents nuls :
- un état est dit récurrent positif si le système y passe une fraction non négligeable de son temps : bien sûr mais ne doit pas être trop petit devant :
- en notation de Landau, Cela entraîne que les instants de passage en sont, en un certain sens, régulièrement espacés, à une distance les uns des autres en moyenne,
- un état est dit récurrent nul si le système y passe une fraction négligeable de son temps :
- i.e. mais Le système passe infiniment souvent par l'état mais les instants de passage en sont alors de plus en plus espacés au cours du temps.
Toujours dans le cas d'une chaîne de Markov irréductible, si un état est récurrent positif, tous les états le sont et la suite est appelée probabilité stationnaire de la chaîne de Markov. La probabilité stationnaire joue un rôle très important dans l'étude de la chaîne de Markov. Modèle:Article détaillé
Critères de récurrence et de transience
Notations. Lorsqu'on étudie une chaîne de Markov particulière, sa matrice de transition est en général bien définie et fixée tout au long de l'étude, mais la loi initiale peut changer lors de l'étude et les notations doivent refléter la loi initiale considérée sur le moment :
- si à un moment de l'étude on considère une chaîne de Markov de loi initiale définie par alors les probabilités sont notées et les espérances sont notées
- en particulier, si on dit que la chaîne de Markov part de les probabilités sont notées et les espérances sont notées
Exemples
Marche aléatoire sur un groupe fini

Modèle:Exemple Modèle:Exemple Plus généralement, tous les états d'une marche aléatoire sur un groupe fini sont récurrents positifs, car la loi uniforme discrète sur est une probabilité stationnaire, indépendamment du pas de la marche : en effet, la matrice de transition d'une marche aléatoire sur un groupe discret est bistochastique (i.e. non seulement la somme des termes d'une ligne vaut 1, quelle que soit la ligne, mais la somme des termes d'une colonne de vaut 1, quelle que soit la colonne). Si tous les coefficients du vecteur ligne valent 1, on vérifie alors sans peine que Ainsi la mesure uniforme, qui est proportionnelle à est stationnaire.
Marche aléatoire simple sur les entiers relatifs
Dans cet exemple, et Si la chaîne est irréductible, donc tous les états ont même nature. Par exemple on a
alors que
Marche aléatoire biaisée
- Si on observe la forme de la fraction ci-dessus, comme la marche est transiente si et seulement si en vertu du quatrième critère de transience exprimé dans la partie « Critères de récurrence et de transience ».
- On peut aussi voir que entraîne la transience de la chaîne de Markov en construisant cette chaîne à l'aide d'une suite de variables aléatoires i.i.d. de la manière suivante : posons
- Alors a même loi que mais la loi forte des grands nombres pour les suites de v.a. i.i.d. entraîne que, presque sûrement en
- donc, avec probabilité 1, la suite de nombres réels converge vers et visite la valeur 0, au plus, un nombre fini de fois : 0 est donc transient, et tous les entiers de sa classe ( en l'occurrence) avec lui.
- Dans le cas où la méthode précédente ne permet pas de démontrer la récurrence de 0, puisque la loi forte des grands nombres stipule alors la convergence de la suite vers 0, ce qui n'entraîne pas nécessairement que la suite prenne la valeur 0 une infinité de fois : pour aboutir à la conclusion d'une infinité de visites en 0, il faut invoquer un résultat plus précis que la loi forte des grands nombres, à savoir la loi du logarithme itéré.
- Pour décider de la récurrence ou de la transience aussi bien dans le cas que dans le cas on peut aussi calculer explicitement la loi du premier temps T de retour en 0, partant de 0, pour la marche aléatoire simple, et trancher ainsi l'alternative :
- En effet
- où désigne le n-ème nombre de Catalan. On trouve alors que la série génératrice de T, satisfait
- Ainsi
- est strictement inférieur à 1 si et seulement si
Marche aléatoire symétrique
- Par ailleurs, pour la mesure de probabilité est solution du système si et seulement si
- i.e. si et seulement si les forment une progression arithmétique :
- La contrainte de positivité sur les impose i.e. est une suite constante. Ainsi est infinie ou nulle, suivant la valeur de strictement positive ou bien nulle, donc une mesure invariante ne peut en aucun cas être une mesure de probabilité, ce qui fait qu'il n'existe pas de probabilité stationnaire : tous les états sont récurrents nuls.
- Puisque, asymptotiquement, les nombres de Catalan se comportent comme
- on peut aussi voir directement, grace la formule explicite de la loi du temps T de retour en 0, donnée à la section précédente, que
- n'est pas le terme général d'une série convergente, et que, par conséquent,