Algorithme de recherche de valeur propre
Un enjeu important en analyse numérique consiste à développer des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent être étendus pour donner les vecteurs propres associés.
Valeurs et vecteurs propres
Modèle:Article détaillé Pour une matrice carrée Modèle:Mvar de taille Modèle:Math réelle ou complexe, une valeur propre Modèle:Math et son vecteur propre généralisé associé Modèle:Math sont un couple vérifiant la relation[1]
où Modèle:Math est un vecteur colonne Modèle:Math non nul, Modèle:Math la matrice identité de taille Modèle:Math, Modèle:Mvar un entier positif. Modèle:Math et Modèle:Math peuvent être complexes même pour Modèle:Mvar réelle. Si Modèle:Math, le vecteur est simplement appelé vecteur propre et vérifie donc Modèle:Math. Toute valeur propre Modèle:Math de Modèle:Mvar a des vecteurs propres « ordinaires » qui lui sont associés, dans le sens où si Modèle:Mvar est le plus petit entier vérifiant Modèle:Math pour un vecteur propre généralisé Modèle:Math, alors Modèle:Math est un vecteur propre ordinaire. La valeur Modèle:Mvar peut toujours être prise comme inférieure ou égale à Modèle:Mvar. En particulier, Modèle:Math pour tout vecteur propre généralisé Modèle:Math associé à Modèle:Math.
Pour toute valeur propre Modèle:Math de Modèle:Mvar, le noyau Modèle:Math est le sous-espace vectoriel engendré par tous les vecteurs propres associés à Modèle:Math (dont le vecteur nul), qu'on appelle espace propre de Modèle:Math, tandis que l'espace vectoriel Modèle:Math est le sous-espace vectoriel engendré par tous les vecteurs propres généralisés associés, et donc appelé espace propre généralisé. La multiplicité géométrique de Modèle:Math est la dimension de ce sous-espace. La multiplicité algébrique de Modèle:Math est la dimension de son espace propre généralisé. Cette terminologie se justifie en remarquant que
où Modèle:Math est le déterminant, les Modèle:Math sont les valeurs propres de Modèle:Mvaret les Modèle:Math sont les multiplicités algébriques associées. La fonction Modèle:Math est le polynôme caractéristique de Modèle:Mvar. Ainsi, la multiplicité algébrique est la multiplicité de la valeur propre comme racine du polynôme caractéristique. Comme tout vecteur propre est un vecteur propre généralisé, la multiplicité géométrique est inférieure ou égale à la multiplicité algébrique. La somme des multiplicités algébriques vaut Modèle:Mvar, le degré du polynôme caractéristique. L'équation Modèle:Math est appelé équation caractéristique, car ses racines sont les valeurs propres de Modèle:Mvar. Par le théorème de Cayley-Hamilton, Modèle:Mvar vérifie la même équation : Modèle:Math[note 1]. Par conséquent, les colonnes de la matrice sont soit nulles soit des vecteurs propres généralisés de la valeur propre Modèle:Math, car ils sont annulés par Modèle:Math. En fait, l'espace colonne (le sous-espace vectoriel engendré par les colonnes de la matrice) est l'espace propre généralisé de Modèle:Math
Toute collection de vecteurs propres généralisés de valeurs propres distinctes est linéairement indépendante, donc une base de Modèle:Math peut être choisi à partir de vecteurs propres généralisés. Plus précisément, cette base Modèle:Math peut être choisie et ordonnée de sorte que
- si Modèle:Math et Modèle:Math ont la même valeur propre, alors tout Modèle:Math pour tout Modèle:Mvar entre Modèle:Mvar et Modèle:Mvar, et
- si Modèle:Math n'est pas un vecteur propre ordinaire, associé à la valeur propre Modèle:Math, alors Modèle:Math (en particulier, Modèle:Math doit être un vecteur propre ordinaire).
Si ces vecteurs de base sont rangés comme vecteurs colonnes d'une matrice Modèle:Math, alors Modèle:Mvar peut être utilisé pour transformer Modèle:Mvar en sa forme de Jordan :
où les Modèle:Math sont les valeurs propres, Modèle:Math si Modèle:Math et Modèle:Math sinon.
Plus généralement, si Modèle:Mvar est une matrice inversible, et Modèle:Math est une valeur propre de Modèle:Mvar de vecteur propre généralisé Modèle:Math, alors Modèle:Math. Ainsi Modèle:Math est une valeur propre de Modèle:Math pour tout vecteur propre généralisé Modèle:Math. De plus, des matrices semblables ont les mêmes valeurs propres.
Matrices symétriques réelles, normales et hermitiennes
La matrice adjointe Modèle:Math d'une matrice complexe Modèle:Mvar est la transposée de la conjuguée Modèle:Mvar : Modèle:Math. Une matrice carrée Modèle:Mvar est appelée normale si elle commute avec son adjointe : Modèle:Math. Elle est appelée hermitienne si elle est égale à son adjointe : Modèle:Math. Toutes les matrices hermitiennes sont normales. Si Modèle:Mvar est réelle, l'adjointe est sa transposée, et Modèle:Mvar est hermitienne si et seulement si elle est symétrique. Une fois appliquée aux vecteurs colonnes, l'adjointe peut être utilisée pour définir le produit scalaire canonique sur Modèle:Math: Modèle:Math[note 2]. Les matrices normales, hermitiennes et symétriques de réelles ont plusieurs propriétés utiles :
- tout vecteur propre généralisé d'une matrice normale est un vecteur propre ordinaire ;
- toute matrice normale est similaire à une matrice diagonale, car sa forme normale de Jordan est diagonale ;
- deux vecteurs propres associés à des valeurs propres distinctes d'une même matrice normale sont orthogonaux ;
- le noyau et l'image d'une matrice normale sont orthogonaux ;
- pour toute matrice normale Modèle:Mvar, Modèle:Math a une base orthonormale de vecteurs propres de Modèle:Mvar. La matrice correspondante de vecteurs propres est unitaire ;
- les valeurs propres d'une matrice hermitienne sont réelles, car Modèle:Math pour un vecteur propre non nul Modèle:Math ;
- si Modèle:Mvar est réelle, il y a une base orthonormale de Modèle:Math constituée de vecteurs propres de Modèle:Mvar si et seulement si Modèle:Mvar est symétrique.
Il est possible qu'une matrice réelle ou complexe n'ait que des valeurs propres réelles sans être hermitienne. Par exemple, une matrice réelle triangulaire a ses valeurs propres sur sa diagonale, mais elle n'est pas symétrique dans le cas général.
Conditionnement
Tout problème de calcul numérique peut être vu comme l'évaluation d'une fonction ƒ en un point Modèle:Mvar. Le conditionnement Modèle:Math du problème est le rapport de l'erreur relative de la réponse sur l'erreur relative de l'entrée, qui varie selon la fonction et l'entrée. Le conditionnement décrit la variation de l'erreur pendant le calcul. Son logarithme décimal donne le nombre de chiffres perdus entre l'entrée et la sortie. Il reste cependant un rapport optimal. Il reflète l'instabilité induite par le problème, indépendamment de la méthode de résolution. Aucun algorithme ne peut produire des résultats plus précis que ceux donnés par le conditionnementModèle:Référence souhaitée, sauf cas exceptionnelsModèle:Lesquels. Cependant, un algorithme mal choisi peut empirer les résultats. Par exemple, le problème de recherche des valeurs propres d'une matrice normale est toujours bien conditionné mais la recherche des racines d'un polynôme peut être très mal conditionné. Ainsi, les algorithmes de recherche de valeurs propres qui se reposent sur le calcul du polynôme caractéristique puis la recherche des zéros de ce polynôme peut donner de très mauvais résultats, car le calcul des coefficients du polynôme caractéristique est numériquement instable (voir le cas du polynôme de Wilkinson).
Pour le problème de résolution de l'équation linéaire Modèle:Math où Modèle:Mvar est inversible, le conditionnement Modèle:Math est donné par Modèle:Math, où Modèle:Nowrap est la norme d'opérateur subordonnée à la norme euclidienne sur Modèle:Math. Puisqu'il est indépendant de Modèle:Math et de la même forme pour Modèle:Mvar et Modèle:Math, on le désigne comme le conditionnement Modèle:Math de la matrice Modèle:Mvar. Cette valeur Modèle:Math est également la valeur absolue du rapport entre la plus grande valeur propre de Modèle:Math sur sa plus petite. Si Modèle:Mvar est unitaire, alors Modèle:Math, et donc Modèle:Math. Pour une matrice quelconque, la norme d'opérateur est souvent difficile à calculer et le conditionnement est calculé par d'autres normes matriciellesModèle:Évasif.
Pour le problème de valeurs propres, le théorème de Bauer-Fike établit que si Modèle:Math est une valeur propre d'une matrice diagonalisable Modèle:Mvar avec pour matrice de vecteurs propres Modèle:Math, alors l'erreur absolue en calculant Modèle:Math est majorée par le produit de Modèle:Math et de l'erreur absolue en Modèle:Math[2]. Par corollaire, le conditionnement pour trouver Modèle:Math vaut Modèle:Math. Si Modèle:Mvar est normale, alors Modèle:Mvar est unitaire, et Modèle:Math. Ainsi, le problème de recherche de valeurs propres pour une matrice normale est toujours bien conditionné.
Il a été montré que le conditionnement du problème de recherche des espaces propres d'une matrice normale Modèle:Mvar correspondant à une valeur propre Modèle:Math est inversement proportionnel à la distance minimum entre Modèle:Math et les autres valeurs propres de Modèle:Mvar[3]. En particulier, le problème d'espace propre pour les matrices normales est bien conditionné pour les valeurs propres isoléesModèle:Quoi ; sinon, on peut au mieux identifier le sous-espace engendré par les vecteurs propres de valeurs propres prochesModèle:Référence souhaitée.
Idée directrice des algorithmes
Tout polynôme unitaire est le polynôme caractéristique de sa matrice compagnon. Ainsi, un algorithme général pour trouver des valeurs propres peut être basé sur la recherche des racines d'un polynôme. Le théorème d'Abel-Ruffini montre que tout algorithme de la sorte pour des dimensions supérieures à 4 peut être soit infini, soit impliquer des fonctions plus compliquées que des polynômes ou des fonctions rationnelles. Pour cette raison, les algorithmes qui calculent exactement les valeurs propres en un nombre fini d'étapes n'existent que pour des classes spécifiquesModèle:Lesquelles de matrices. Dans le cas généralModèle:Lequel, les algorithmes sont itératifs, améliorant l'approximation à chaque itération.
Certains algorithmes donnent toutes les valeurs propres, d'autres en donnent plusieurs à la fois, d'autres une seule. Toutefois, tous les algorithmes donnés plus bas peuvent être utilisés pour donner toutes les valeurs propres : une fois qu'une valeur propre Modèle:Mvar d'une matrice Modèle:Mvar a été identifiée, la méthode peut être adaptée pour diriger les calculs vers une autre solution ou réduire le problème à un nouveauModèle:Quoi dont Modèle:Mvar n'est plus solution.
La redirection est souvent faite par décalage : remplacer Modèle:Mvar par Modèle:Math pour une constante Modèle:Mvar. La valeur propre obtenue par Modèle:Math doit avoir Modèle:Mvar ajoutée pour obtenir une valeur propre de Modèle:Mvar. Par exemple, pour la méthode de la puissance itérée, on prend Modèle:Math. Cette méthode donne la valeur propre de valeur absolue plus élevée, ainsi même si Modèle:Mvar n'est qu'approchée, on ne la trouvera pas une deuxième fois par la puissance itérée. Inversement, les méthodes basées sur la puissance inverse trouvent la plus petite valeur propre, donc Modèle:Mvar doit être choisi loin de Modèle:Mvar, éventuellement plus proche d'une autre valeur propre.
La réduction peut être faite en restreignant Modèle:Mvar à l'espace colonne de la matrice Modèle:Math. Comme cette matrice est singulière, l'espace colonne est de dimension plus petite. L'algorithme de recherche des valeurs propres peut alors être appliqué à la matrice restreinte, et le processus peut être répété jusqu'à avoir obtenu toutes les valeurs propres.
Si un algorithme ne donne pas de vecteurs propres, une pratique courante est d'utiliser une algorithme d'itération inverse avec Modèle:Mvar fixé proche d'une approximation de valeur propre. Cela va vite converger vers un vecteur propre associé à la valeur propre la plus proche de Modèle:Mvar. Pour de petites matrices, une alternative est de regarder l'espace colonne du produit de Modèle:Math pour chaque valeur propre Modèle:Mvar.
Transformations en matrices de Hessenberg et tridiagonales
Un cas idéal est l'étude d'une matrice triangulaire, car ses valeurs propres sont ses coefficients diagonaux. Cependant, pour une matrice quelconque, il n'y a aucune méthode finie semblable que le pivot de Gauss pour triangulariser une matrice tout en préservant ses valeurs propres. Il est toutefois possible d'atteindre une forme proche de triangulaire. Une matrice de Hessenberg supérieure est une matrice carrée dont tous les coefficients sous la première sous-diagonale sont nuls ; une matrice de Hessenberg inférieure est définie de manière similaire. Les matrices qui sont à la fois de Hessenberg inférieures et supérieures sont tridiagonales. Les matrices de Hessenberg et tridiagonales sont les points de départ de nombreux algorithmes de recherche de valeurs propres car les nombreux coefficients nuls simplifient la complexité du problème. Plusieurs méthodes sont couramment utilisées pour convertir une matrice donnée en une forme de Hessenberg avec les mêmes valeurs propres. Si la matrice originale est symétrique ou hermitienne, la matrice résultante sera tridiagonale.
Si seules les valeurs propres sont recherchées, le calcul de la matrice de passage n'est pas nécessaire, les deux matrices partageant les mêmes valeurs propres. Si les vecteurs propres sont voulus, la matrice de passage peut être nécessaire pour transformer les vecteurs propres de la matrice de Hessenberg en ceux de la matrice originale.
| Méthode | S'applique à une matrice... | Donne une matrice... | Coût sans matrice de passage | Coût avec matrice de passage | Description |
|---|---|---|---|---|---|
| Transformation de Householder | Quelconque | de Hessenberg | Modèle:Math[4]Modèle:Rp | Modèle:Math[4]Modèle:Rp | Envoie chaque colonne vers un sous-espace nul pour les coefficients bas. |
| Modèle:Lien | Quelconque | de Hessenberg | Modèle:Math[4]Modèle:Rp | Application de rotations planaires pour annuler des coefficients choisis, dans un ordre telle qu'un coefficient annulé le reste. | |
| Algorithme d'Arnoldi | Quelconque | de Hessenberg | Modèle:N/A | Modèle:N/A | Orthogonalisation de Gram-Schmidt sur des sous-espaces de Krylov. |
| Algorithme de Lanczos | Hermitienne | Tridiagonale | Modèle:N/A | Modèle:N/A | Itération d'Arnoldi adaptée au cas hermitien. |
Pour les problèmes de valeurs propres d'une matrice tridiagonale, toutes les valeurs propres (sans les vecteurs propres) peuvent être calculées en Modèle:Math, par dichotomie dans le polynôme caractéristique.
Algorithmes itératifs
Les algorithmes itératifs résolvent le problème des valeurs propres en générant des suites convergeant vers les valeurs propres. Certains algorithmes créent également des suites de vecteurs convergeant vers les vecteurs propres. Plus communément, les suites de valeurs propres sont exprimées comme suites de matrices similaires convergeant vers une matrice diagonale ou tridiagonale, rendant la lecture des valeurs propres aisée. Les suites de vecteurs propres apparaissent dans les matrices de passage correspondantes.
| Méthode | S'applique à | Produit | Coût par itération | Convergence | Description |
|---|---|---|---|---|---|
| Méthode de la puissance itérée | Toutes | Valeur propre de plus grand module + vecteur propre associé | Modèle:Math | Linéaire | Application répétée d'une matrice à un vecteur arbitraire puis renormalisation. |
| Méthode de la puissance inverse | Toutes | Modèle:Nowrap | Modèle:N/A | Linéaire | Puissance itérée sur Modèle:Math |
| Itération de Rayleigh | Hermitienne | Valeur + vecteur propre le plus proche | Modèle:N/A | Cubique | Puissance itérée sur Modèle:Math avec Modèle:Mvar à chaque pas le quotient de Rayleigh du pas précédent. |
| Algorithme inverse préconditionné[5] ou LOBPCG | Réelle symétrique définie positive | Valeur propre plus proche de Modèle:Mvar | Dépend du préconditionneur | Puissance inverse avec un préconditionneur (approximation de l'inverse de Modèle:Mvar). | |
| Méthode de dichotomie | Réelle symétrique tridiagonale | N'importe quelle valeur propre | Modèle:N/A | Linéaire | Utilise la méthode de dichotomie pour trouver les racines du polynôme caractéristique, à partir de sa suite de Sturm. |
| Algorithme de Laguerre | Réelle symétrique tridiagonale | N'importe quelle valeur propre | Modèle:N/A | Cubique[6] | Utilisation de la méthode de Laguerre pour trouver les racines du polynôme caractéristique, à partir de sa suite de Sturm. |
| Modèle:Lien | Hessenberg | Toutes les valeurs propres | Modèle:Math | Cubique | Calcul de la factorisation A = QR, avec Q orthogonale et R triangulaire, puis application à RQ au pas suivant. |
| Tous les couples valeur/vecteur propre | Modèle:Math | ||||
| Modèle:Lien | Réelle symétrique | Toutes les valeurs propres | Modèle:Math | Quadratique | Rotations de Givens pour annuler si possible les termes non-diagonaux. |
| Modèle:Lien | Hermitienne tridiagonale | Toutes les valeurs propres | Modèle:Math | Découpe la matrice en sous-matrices qui sont diagonalisées puis recombinées. | |
| Tous les couples valeur/vecteur propres | Modèle:Math | ||||
| Méthode par homotopie | Réelle symétrique tridiagonale | Tous les couples valeur/vecteur propre | Modèle:Math[7] | Modèle:N/A | Construction d'un chemin homotope calculable à partir d'un problème de valeurs propres diagonales. |
| Méthode du spectre replié | Réelle symétrique | Valeur + vecteur propre de valeur plus proche de Modèle:Mvar | Modèle:N/A | Modèle:N/A | Puissance inverse préconditionné sur Modèle:Math |
| Algorithme RRRM[8] | Réelle symétrique tridiagonale | Couples valeur/vecteur propres | Modèle:Math | Modèle:N/A | "représentation relativement robustes multiples" – puissance inverse sur la décomposition de Cholesky de la matrice décalée. |
Méthodes directes
S'il n'existe aucun algorithme simple permettant de calculer directement les valeurs propres pour une matrice quelconque, il existe plusieurs cas où le calcul direct est possible.
Matrices triangulaires
Puisque le déterminant d'une matrice triangulaire est le produit de ses coefficients diagonaux, si Modèle:Mvar est triangulaire, alors . Ainsi, les valeurs propres de Modèle:Mvar sont ses coefficients diagonaux.
Équations polynomiales factorisables
Si Modèle:Mvar est un polynôme tel que Modèle:Math, alors les valeurs propres de Modèle:Mvar vérifient la même équation. Si Modèle:Mvar peut être simplement factorisé, alors les valeurs propres de Modèle:Mvar sont parmi les racines.
Par exemple, une projection est une matrice carrée Modèle:Mvar satisfaisant Modèle:Math. Les racines de l'équation polynomiale scalaire correspondante, Modèle:Math, sont donc 0 et 1. Ainsi, toutes les projections ont 0 et 1 comme valeurs propres. La multiplicité de 0 comme valeur propre est la dimension du noyau de Modèle:Mvar, et la multiplicité de 1 est le rang de Modèle:Mvar.
Un autre exemple est une matrice Modèle:Mvar vérifiant Modèle:Math pour un scalaire Modèle:Mvar. Les valeurs propres valent donc Modèle:Math. Les opérateurs de projection
vérifient
et
Les espaces colonne de Modèle:Math et Modèle:Math sont les espaces propres de Modèle:Mvar correspondant à Modèle:Math et Modèle:Math, respectivement.
Matrices 2×2
Pour les dimensions 2 à 4, les valeurs propres peuvent être exprimées par des radicaux (d'après le théorème de Gauss-Wantzel). Si les formules sont connues pour les matrices 2×2 et 3×3, la complexité de l'écriture des racines d'une équation quartique pour les matrices 4×4 peut décourager et amener à les trouver par d'autres moyens.
Pour une matrice 2×2
le polynôme caractéristique est
Ainsi, les valeurs propres peuvent être obtenues par les égalités usuelles :
On pose Modèle:Math la distance entre les deux valeurs, ce qui permet d'obtenir
avec des formules similaires pour Modèle:Mvar et Modèle:Mvar. De là, on en déduit que le calcul est bien conditionné si les valeurs propres sont isolées.
Les vecteurs propres peuvent être trouvés en utilisant le théorème de Cayley-Hamilton. Si Modèle:Math sont les valeurs propres, alors Modèle:Math, donc les colonnes de Modèle:Math sont annulées par Modèle:Math et réciproquement. En supposant que les deux matrices sont non nulles, les colonnes de chacune doivent contenir des vecteurs propres de l'autre valeur propre. (Si l'une des matrices est nulle, alors Modèle:Mvar est un multiple de l'identité et tout vecteur non nul est vecteur propre.)
- Exemple
vérifie Modèle:Math et Modèle:Math, donc l'équation caractéristique vaut
et les valeurs propres sont 3 et –2. De là,
Dans les deux matrices, les colonnes sont multiples l'une de l'autre, donc une peut être utilisée. Ainsi, Modèle:Math peut être utilisé comme vecteur propre associée à –2, et Modèle:Math comme vecteur propre associé à la valeur propre 3, ce qui se vérifie simplement.
Matrices 3×3
Si Modèle:Mvar est une matrice 3×3, alors son polynôme caractéristique peut s'écrire sous la forme :
On peut obtenir les racines par la méthode de Cardan ou de Lagrange, mais un changement affine de Modèle:Mvar peut grandement simplifier l'expression et permettre d'écrire les solutions sous forme trigonométrique. Si Modèle:Math, alors Modèle:Mvar et Modèle:Mvar ont les mêmes vecteurs propres, et Modèle:Mvar est valeur propre de Modèle:Mvar si et seulement si Modèle:Math est valeur propre de Modèle:Mvar. On pose Modèle:Math et Modèle:Math, ce qui donne
La substitution Modèle:Math et des calculs de simplification par le développement Modèle:Math mènent à l'égalité Modèle:Math. Ainsi, les racines s'écrivent sous la forme :
Si Modèle:Math est complexe ou supérieur à 2 en valeur absolue, l'arc cosinus doit être pris sur la même branche pour les trois valeurs de Modèle:Mvar. Ceci n'apparaît pas si Modèle:Mvar est réelle et symétrique, et les calculs des valeurs propres sont grandement simplifiés[9].
On peut également obtenir les vecteurs propres de Modèle:Mvar par le théorème de Cayley-Hamilton. Si Modèle:Math sont trois valeurs propres distinctes pour Modèle:Mvar, alors Modèle:Math. Donc les colonnes du produit de deux de ces matrices consisteront des vecteurs propres de la troisième. Si Modèle:Math, alors Modèle:Math. Ainsi l'espace propre généralisé associé à Modèle:Math est généré par les colonnes de Modèle:Math tandis que l'espace propre ordinaire est généré par les colonnes de Modèle:Math. L'espace propre ordinaire de Modèle:Math est généré par les colonnes de Modèle:Math.
- Exemple
L'équation caractéristique vaut
avec pour valeurs propres 1 (de multiplicité 2) et -1. Ainsi,
et
Donc Modèle:Math est un vecteur propre pour –1, et Modèle:Math est un vecteur propre pour 1. Modèle:Math et Modèle:Math sont deux vecteurs propres généralisés associés à 1, chacun pouvant être combiné à Modèle:Math et Modèle:Math pour former une base de vecteurs propres généralisés pour Modèle:Mvar. Ces vecteurs peuvent être normalisés si nécessaire.
Vecteurs propres de matrices 3×3 normales
Si Modèle:Mvar est une matrice 3×3 normale, alors le produit vectoriel peut être utilisé pour trouver les vecteurs propres, car pour ce cas, les noyaux et les espaces colonne sont orthogonaux (ce n'est pas toujours vérifié).
Si Modèle:Mvar est une valeur propre de Modèle:Mvar, alors le noyau de Modèle:Math est perpendiculaire à son espace colonne, le produit vectoriel de deux colonnes linéairement indépendantes de Modèle:Math sera dans le noyau, donc un vecteur propre associé avec Modèle:Mvar. Comme l'espace colonne est de dimension 2 dans ce cas, l'espace propre doit être de dimension 1, donc tout vecteur propre sera parallèle à celui-ci.
Si Modèle:Math ne contient pas deux colonnes indépendantes mais est différente de Modèle:Math, le produit vectoriel peut toujours être utilisé. Dans ce cas, Modèle:Mvar est une valeur propre de multiplicité 2, donc tout vecteur orthogonal à l'espace colonne sera un vecteur propre. Supposons que Modèle:Math est une colonne non nulle de Modèle:Math. On choisit un vecteur arbitraire Modèle:Math non colinéaire à Modèle:Math. Alors Modèle:Math et Modèle:Math sera orthogonal à Modèle:Math et sont donc vecteurs propres associés à Modèle:Mvar.
Applications
La détermination des valeurs et vecteurs propres d'une matrice permet de travailler sur une base propre de celle-ci et de résoudre plus simplement certains problèmes par l'exploitation des propriétés de la base de vecteurs propres.
Parmi les problèmes physiques directes, la résolution de l'équation de Schrödinger passe par une recherche de modes propres.
Par extension, la résolution numérique d'un problème physique peut se ramener à un problème aux valeurs propres. Par exemple, on étudie un problème de corde vibrante :
Une résolution directe n'est pas possible dans le cas général (pour des coefficients non constants), aussi on va discrétiser Modèle:Math en un nombre fini de points équirépartis Modèle:Math et décomposer sur les solutions périodiques en temps : Modèle:Math. L'approximation classique de la dérivée seconde en espace donne :
Après réécriture, la résolution du problème physique de la corde vibrante revient à la résolution du problème aux valeurs propres :
avec
Notes
Références
Bibliographie
Modèle:Palette Analyse Numérique
Erreur de référence : Des balises <ref> existent pour un groupe nommé « note », mais aucune balise <references group="note"/> correspondante n’a été trouvée