Sous-espace de Krylov

De testwiki
Aller à la navigation Aller à la recherche

En algèbre linéaire, le sous-espace de Krylov d'ordre r associé à une matrice A de taille n et un vecteur b de dimension n est le sous-espace vectoriel linéaire engendré par les vecteurs images de b par les r premières puissances de A (à partir de A0=I)[1], c'est-à-dire

𝒦r(A,b)=span{b,Ab,A2b,,Ar1b}.

Introduction

Le concept porte le nom du mathématicien appliqué et ingénieur naval russe Alexei Krylov, qui a publié un article à ce sujet en 1931[2].

Propriétés

Les sous-espaces de Krylov ont de nombreuses propriétés utilisées en algèbre linéaire. Soit r. En considérant A une matrice de taille n×n et le vecteur colonne bn, on a les propriétés suivantes[3] :

  • 𝒦r(A,b)𝒦r+1(A,b),
  • A𝒦r(A,b)𝒦r+1(A,b).

Comme 𝒦r(A,b)n on a dim(𝒦r(A,b))n et il existe un entier r0n dépendant de A et b tel que les vecteurs {b,Ab,A2b,,Ar1b} sont linéairement indépendants tant que r<r0. De plus, on sait que 𝒦r(A,b)𝒦r0(A,b) d'après la première relation d'imbrication ci-dessus. La valeur r0 désigne la dimension maximale des sous-espaces de Krylov associés à A et b.

On a les relations d'imbrication suivantes :

𝒦1(A,b)𝒦r(A,b)𝒦r+1(A,b)𝒦r0(A,b)=𝒦r0+1(A,b)

On rappelle que pour tout r on a 𝒦r(A,b)n. On en déduit que r0n+1. De plus, on a r01+rankA. Plus précisément, r0 est inférieur au degré du polynôme minimal de A. En effet, si p(x)m[x] est le polynôme minimal de A alors il existe une famille de réels (ai)0im tels que p(A)=i=0maiAi est la matrice nulle. En particulier p(A)b est le vecteur nul donc les vecteurs {b,Ab,,Amb} sont liés. Plus exactement, r0deg(p), où p(A) est le polynôme minimal de A.


Les propriétés qui suivent sont aussi vérifiées par les sous-espaces de Krylov:

  • 𝒦r(A,b) est un sous-module cyclique généré par b de la torsion k[x] -module (kn)A, où kn est l'espace linéaire sur k .
  • kn peut être décomposé comme la somme directe des sous-espaces de Krylov.

Applications

Les sous-espaces de Krylov sont utilisés dans de nombreux algorithmes numériques en algèbre linéaire. Par exemple, on mentionne les utilisations suivantes :

  • le calcul de f(A)bf:xf(x) est une fonction analytique. Comme f est analytique, il existe des réels (ai)i tels que f(x)=iaixi. Comme f(A)bn et par construction des sous-espaces de Krylov, pour r suffisamment grand, on a f(A)b𝒦r(A,b). Le calcul peut être effectué en se ramenant à l'espace de Krylov 𝒦r(A,b). Cette approche est parfois utilisée pour calculer exp(A)b[4] pour la résolution de systèmes d'équation différentielle linéaires.
  • la résolution du système linéaire AX=bA est une matrice inversible. D'après le théorème de Cayley-Hamilton, on a A1b𝒦n1(A,b) donc la résolution du système peut se faire dans des sous-espaces de Krylov. Les algorithmes GMRES et FOM[5]Modèle:,[6] sont des algorithmes itératifs pour la résolution de système linéaires basés sur les sous-espaces de Krylov.
  • la recherche de valeurs propres. Pour trouver des solutions approchées à des problèmes de vecteurs propres avec des matrices de grande dimension, les méthodes itératives modernes, telles que l'algorithme d'Arnoldi, peuvent être utilisées pour trouver une (ou plusieurs) valeurs propres de grandes matrices creuses. La méthode de la puissance itérée et l'algorithme de Lanczos reposent sur des sous-espaces de Krylov.
  • la résolution de système mal posés de la forme Ax=b (où A peut-être une matrice rectangulaire et/ou une matrice non-inversible). On peut par exemple citer les méthodes de type RRGMRES[7] qui reposent sur des sous-espaces de Krylov de la forme 𝒦n(A,Ab). La solution d'un tel système est généralement considérée au sens des moindres carrés et n'est pas toujours unique.

Dans les algorithmes itératifs basés sur les sous-espaces de Krylov, on cherche à éviter les opérations matrice-matrice, coûteuses en calculs, au profit de produits matrice-vecteur. Étant donné le vecteur b, on calcule Ab, puis on multiplie ce vecteur par A pour trouver A2b etc. De plus, au lieu de stocker des matrices complètes de taille n×n (f(A) ou A1 par exemple), on ne stocke qu'un vecteur de taille n. Grâce à ces propriétés, les sous-espaces de Krylov sont particulièrement utiles pour les grandes valeurs de n.

Tous les algorithmes qui fonctionnent de cette manière sont appelés méthodes de sous-espace de Krylov, ou plus simplement méthodes de Krylov. Ils font actuellement parti des méthodes les plus efficaces disponibles en algèbre linéaire numérique.

Inconvénients

Étant donné que les vecteurs deviennent généralement rapidement presque linéairement dépendants en raison des propriétés de la méthode de la puissance itérée, les méthodes reposant sur le sous-espace de Krylov impliquent fréquemment un schéma d'orthonormalisation, comme l'algorithme de Lanczos pour les matrices hermitiennes ou l'algorithme d'Arnoldi pour les matrices plus générales.

Méthodes existantes

Les méthodes de sous-espace de Krylov les plus connues sont Arnoldi, Lanczos, Conjugate gradient, IDR(s) (Induced dimension reduction), GMRES (généralisation de la méthode de minimisation du résidu), BiCGSTAB (méthode du gradient biconjugué stabilisé), QMR (quasi minimal résiduel), TFQMR (QMR sans transposition) et les méthodes de résidus minimaux.

Notes et références

Notes

Modèle:Références

Référence

Modèle:Portail