Processus autorégressif

De testwiki
Aller à la navigation Aller à la recherche

Un processus autorégressif est un modèle de régression pour séries temporelles dans lequel la série est expliquée par ses valeurs passées plutôt que par d'autres variables.

Définition

Un processus autorégressif d'ordre p, noté AR(p) est donné par : Modèle:Théorème

φ1,,φp sont les paramètres du modèle, c est une constante et εt un bruit blanc.

En utilisant L l'opérateur des retards, on peut l'écrire : (1φ1Lφ2L2φpLp)Xt=c+εt.

Processus AR(1)

Un processus autorégressif d'ordre 1 s'écrit :

Xt=c+φXt1+εt.


Représentation en moyenne mobile

On peut formuler le processus AR(1) de manière récursive par rapport aux conditions précédentes :

Xt=ck=0t1φk+φtX0+k=0t1φkεtk.

En remontant aux valeurs initiales, on aboutit à :

Modèle:Théorème

Modèle:Démonstration

Il est à noter que les sommes vont ici jusqu'à l'infini. Cela est dû au fait que les séries temporelles sont souvent supposées commencer depuis t0= et non pas t0=0. Certains auteurs considèrent cependant que la série commence en t0=0 et ajoutent alors la valeur initiale X0 dans la formule.

On peut voir que Xt est le bruit blanc convolué avec le noyau φk plus une moyenne constante. Si le bruit blanc est gaussien, alors Xt est aussi un processus normal.

Représentation dans le domaine de la fréquence

La Densité spectrale de puissance est la Transformée de Fourier de la fonction d'autocovariance. Dans le cas discret, cela s'écrit :

Φ(ω)=12πn=Bneiωn=12π(σ21+φ22φcos(ω)).

Ce développement est périodique dû à la présence du terme en cosinus au dénominateur. En supposant que le temps d'échantillonnage (Δt=1) est plus petit que le decay time (τ), alors on peut utiliser une approximation continue de Bn:

B(t)σ21φ2φ|t|

qui présente une forme lorentzienne pour la densité spectrale :

Φ(ω)=12πσ21φ2γπ(γ2+ω2)

γ=1/τ est la fréquence angulaire associée à τ.

Moments d'un processus AR(1)

Pour calculer les différents moments d'un processus AR(1), soit son espérance, sa variance, son autocovariance et son autocorrélation, on va supposer que les bruits blancs sont indépendamment et identiquement distribués, d'espérance nulle et de variance σ2 (que l'on note εiiid(0,σ2)).

Espérance

E[Xt]=φtX0+ci=0t1φi

Démonstration par raisonnement par récurrence

  • P(0) (initialisation): E[X0]=X0, parce que X0 est déterministe. L'expression est :
φ0X0+ci=01φi=1X0+0=X0
  • P(t+1) (hérédité ) :
E[Xt+1]=E[c+φXt+εt]

Comme E est un opérateur linéaire :

E[Xt+1]=c+φE[Xt]

Avec l'hypothèse d'induction :

E[Xt+1]=c+φ(φtX0+ci=0t1φi)
E[Xt+1]=c+φt+1X0+ci=0t1φi+1

Par un changement de variables dans la somme, i → i-1 :

E[Xt+1]=φt+1X0+c+ci=1tφi

Et, avec c=ci=00φi:

E[Xt+1]=φt+1X0+ci=0tφi

Variance

Var[Xt]=i=0tφ2iσ2

Modèle:Démonstration

Autocovariance

Cov[Xt,Xtj]=φji=0φ2iσ2

Modèle:Démonstration

Autocorrélation

Corr[Xt,Xtj]Cov[Xt,Xtj]Var(Xt)Var(Xtj)=φj1φ2(tj)+21φ2t+2

Conditions de stationnarité

Le paramètre φ détermine si le processus AR(1) est stationnaire ou non : |φ|={<1Le processus est stationnaire=1Marche aléatoire : le processus est donc non stationnaire>1Le processus est explosif

  • φ<1

Sous la condition X0=c1φ, les résultats suivants viennent du fait que si |q|<1 alors la série géométrique n=0aqn=a1q.

si |φ|<1:

E[Xt]=c1φ
Var[Xt]=σ21φ2
Cov[Xt,Xtj]=φj1φ2σ2
Corr[Xt,Xtj]=φj

On peut voir que la fonction d'autocovariance décroît avec un taux de τ=1/ln(φ). On voit ici que l'espérance et la variance sont constantes et que l'autocovariance ne dépend pas du temps : le processus est donc stationnaire.

  • φ=1

Lorsque φ=1, le processus s'écrit : Xt=c+Xt1+εt et donc, en considérant contrairement à avant que t0=0, Xt=ct+X0+i=0t1εti

si |φ|=1:

E[Xt]=ct+E[X0]
Var[Xt]=tσ2
Cov[Xt,Xtj]=(tj)σ2

Processus AR(p)

Un processus AR(p) s'écrit :

Xt=c+φ1Xt1+φ2Xt2++φpXtp+εt.

Moments

Les différents moments d'un processus stationnaire (voir section suivante) sont[1] :

E(Xt)=c1φ1φ2φp

Var(Xt)=φ1γ1+φ2γ2++φpγp+σ2

Cov(Xt,Xtj)=φ1γj1+φ2γj2++φpγjp

Les formules de la variance et de la covariance correspondent aux équations dites de Yule et walker (voir plus bas).

Condition de stationnarité

Modèle:Théorème

La condition est souvent formulée différemment, selon laquelle les racines doivent être en dehors du cercle complexe unitaire.

Exemple: AR(1)

Le polynôme des retards d'un processus AR(1) Xt=φXt1+εt s'écrit: (1φL)Xt=εt. Sa résolution (en remplaçant l'opérateur retard L par la simple valeur x) donne 1φx=0x=1φ. La condition que la solution soit plus grande que 1 revient à |1φ|>1|φ|<1

Exemple: AR(2)

Le polynôme des retards d'un processus AR(2) Xt=φ1Xt1+φ2Xt2+εt s'écrit: (1φ1Lφ2L2)Xt=εt. La résolution de l'équation du second degré (1φ1xφ2x2) amène aux conditions suivantes[2] :

  • φ1+φ2<1
  • φ2φ1<1
  • |φ2|<1

Exemple: AR(p)

Le polynôme des retards d'un processus AR(p) Xt=φ1Xt1+φ2Xt2++φpXtp+εt s'écrit: (1φ1Lφ2L2φpLp)Xt=εt. La résolution de l'équation (1φ1xφ2x2φpxp) amène aux conditions nécessaires (mais pas suffisantes) suivantes[3] :

  • φ1+φ2++φp<1
  • |φp|<1

Équations de Yule-Walker

Les équations de Yule-Walker établissent une correspondance directe entre les paramètres du modèle (les φ et c) et ses autocovariances. Elles sont utiles pour déterminer la fonction d'autocorrélation ou estimer les paramètres. Elles établissent que :

Modèle:Théorème

Les coefficients γj représentent la fonction d'autocovariance de X d'ordre j.

Lorsque l'on inclut également l'autocovariance d'ordre 0 (en fait la variance), il faut également rajouter la variance des résidus pour la première équation. Ce terme supplémentaire ne se retrouve que dans la première équation car on a fait l'hypothèse d'indépendance des résidus (et donc Cov(ε)=0).

Modèle:Théorème

σε est la déviation (écart-type) du bruit blanc et δj le Symbole de Kronecker, qui vaut 1 si j=0 et 0 autrement.

Il est aussi possible d'exprimer ces équations en fonction de l'autocorrélation : Modèle:Théorème

Exemples

AR(1)

Pour un processus AR(1), on a :

γj=φγj1j=1,,p

On remarque que l'on retrouve rapidement, avec j=1, le résultat obtenu plus haut :

ρ1=γ1γ0=φ
Var[Xt]=σ21φ2 en prenant l'équation supplémentaire pour γ0=φγ1+σε2, qui devient alors γ0=φγ0φ+σε2=φ2γ0+σε2(1φ2)γ0=σ2γ0=σ21φ2
AR(p)
{γ1=φ1γ0+φ2γ1++φpγ(p1)γ2=φ1γ1+φ2γ0++φpγ(p2)γp=φ1γp1+φ2γp2++φpγ0

Que l'on peut écrire sous forme matricielle :

[γ1γ2γ3]=[γ0γ1γ2γ1γ0γ1γ2γ1γ0][φ1φ2φ3]

Preuve

L'équation définissante du processus AR est

Xt=i=1pφiXti+εt.

En multipliant les deux membres par Xt − j et en prenant l'espérance, on obtient

E[XtXtj]=E[i=1pφiXtiXtj]+E[εtXtj].

Or, il se trouve que E[XtXtj]=γj+E[Xt]E[Xtj]. Dans le cas où on considère le processus X de moyenne nulle (c=0), E[XtXtj] se ramène à la fonction d’auto-corrélation. Les termes du bruit blancs sont indépendants les uns des autres et, de plus, Xtj est indépendant de εtj est plus grand que zéro. Pour j>0,E[εtXtj]=0. Pour j=0,

E[εtXt]=E[εt(i=1pφiXti+εt)]=i=1pφiE[εtXti]+E[εt2]=0+σε2,

Maintenant, on a pour j ≥ 0,

γj=E[i=1pφiXtiXtj]+σε2δj.

Par ailleurs,

E[i=1pφiXtiXtj]=i=1pφiE[XtXtj+i]=i=1pφiγji,

qui donne les équations de Yule-Walker :

γj=i=1pφiγji+σε2δj.

pour j ≥ 0. Pour j < 0,

γj=γj=i=1pφiγ|j|i+σε2δj.

Estimation

En partant du modèle AR(p) sans constante donné par :

Xt=i=1pφiXti+εt.

Les paramètres à estimer sont les φii=1,,p et σε2.

Méthode de Yule-Walker

La méthode consiste à reprendre les équations de Yule-Walker en inversant les relations : on exprime les coefficients en fonction des autocovariances. On applique alors le raisonnement de la Méthode des moments: on trouve les paramètres estimés d'après les autocovariances estimées.

En prenant l'équation sous sa forme matricielle :

[γ0γ1γ2γ3]=[γ1γ2γ31γ0γ1γ20γ1γ0γ10γ2γ1γ000][φ1φ2φ3σε2]

Le vecteur des paramètres θ^=(φ^1σ^ε2) peut alors être obtenu.

La matrice du système est une matrice de Toeplitz. Un algorithme que l'on peut employer pour l'inversion du système est l'algorithme de Levinson-Durbin.

Maximum de vraisemblance inconditionnel

L'estimation d'un modèle AR(P) par la méthode du maximum de vraisemblance est délicate car la fonction de vraisemblance est très complexe et n'a pas de dérivée analytique. Cette difficulté provient de l'interdépendance des valeurs, ainsi que du fait que les observations antérieures ne sont pas toutes disponibles pour les p premières valeurs.

Maximum de vraisemblance conditionnel

Une manière de simplifier la complexité de la fonction de vraisemblance est de conditionner cette fonction aux p premières observations. La fonction de log-vraisemblance devient : L(x1,x2,,xT)=(TP)2log(2π)(TP)2log(σ2)t=p+1T(ytcφ1yt1φ2yt2φpytp)22σ2

La maximisation de cette fonction par rapport aux paramètres φ correspond à la minimisation des erreurs du modèle. L'estimateur du maximum de vraisemblance conditionnel correspond ainsi à celui des moindres carrés.

L'estimateur obtenu sera équivalent à l'estimateur inconditionnel dans de grands échantillons et tous deux ont la même distribution asymptotique (Hamilton 1994, Modèle:P.). Il peut être biaisé[4].

Propriétés des estimateurs

Davidson et McKinnon (1993) rapportent que l'estimateur des moindres carrés conditionnel est biaisé, mais néanmoins convergent. Cryer et Chan (2008) proposent une simulation Monte-Carlo pour tester les différents estimateurs.

Annexes

Bibliographie

Notes et références

  1. selon Hamilton (1994, Modèle:P.)
  2. voir Cryer (2008, Modèle:P.)
  3. voir Cryer (2008, Modèle:P.)
  4. voir Greene (2005, Modèle:P.)

Articles connexes

Modèle:Portail