Décomposition d'une matrice

De testwiki
Version datée du 5 mars 2025 à 03:41 par imported>Parisii1976 (growthexperiments-addlink-summary-summary:2|0|0)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

En algèbre linéaire, une décomposition matricielle ou factorisation matricielle est une factorisation de matrice en un produit de matrices. Il existe de nombreuses décompositions matricielles différentes ; chacune trouvant son utilité dans une classe particulière de problèmes.

Exemple

En analyse numérique, différentes décompositions sont utilisées pour mettre en œuvre des algorithmes matriciels efficaces : par exemple une complexité moindre ou moins d'erreurs d'arrondis.

Par exemple, lors de la résolution d'un système d'équations linéaires Ax=b, la matrice A peut être décomposée via la décomposition LU (pour Low / Up en anglais). La décomposition LU factorise une matrice en une matrice triangulaire inférieure L et une matrice triangulaire supérieure U . Les systèmes L(Ux)=b et Ux=L1b nécessitent moins d'additions et de multiplications pour être résolus, par rapport au système d'origine Ax=b, bien que l'on puisse avoir besoin de beaucoup plus de chiffres lors d'une résolution numérique utilisant la virgule flottante comme représentation des nombres.

De même, la décomposition QR exprime A sous la forme QR avec Q une matrice orthogonale et R une matrice triangulaire supérieure. Le système Q(Rx)=b est résolu par Rx=QTb=c, et le système Rx=c est résolu en « remontant » les équations obtenues. Le nombre d'additions et de multiplications requis est environ le double de celui de l'utilisation de la décomposition LU, mais aucun chiffre supplémentaire n'est requis en arithmétique inexacte car la décomposition QR est numériquement stable.

Décompositions liées à la résolution de systèmes d'équations linéaires

Décomposition du bloc LU

Modèle:Article détaillé

Réduction LU

Modèle:Section vide ou incomplète

Décomposition LU

Modèle:Section vide ou incomplète

Factorisation des rangs

Modèle:Article détaillé

  • Applicable à un matrice A de taille m×n de rang r.
  • Décomposition : A=CFC est une matrice de rang de colonne maximal m×r et F est une matrice de rang de ligne maximal r×n.
  • Commentaire : La factorisation de rang peut être utilisée pour calculer le pseudo-inverse de Moore – Penrose de A[2], que l'on peut appliquer pour obtenir toutes les solutions du système linéaire Ax=b.

Décomposition de Cholesky

Modèle:Article détaillé

  • Applicable à un matrice A carrée, hermitienne, définie positive A.
  • Décomposition : A=U*U, où U est triangulaire supérieur avec de réelles entrées diagonales positives.
  • Commentaire : si la matrice A est hermitienne et semi-définie positive, alors elle a une décomposition de la forme A=U*U si les entrées diagonales de U sont autorisés à être nuls.
  • Unicité : pour les matrices définies positives, la décomposition de Cholesky est unique. Cependant, ce n'est pas vrai dans le cas semi-défini positif.
  • Commentaire : si A est réelle et symétrique, U a tous ses éléments réels.
  • Commentaire : Une alternative est la décomposition LDL, qui permet d'éviter l'extraction des racines carrées.

Décomposition QR

  • Applicable à une matrice m×n A avec colonnes linéairement indépendantes.
  • Décomposition : A=QRQ est une matrice unitaire de taille m×m, et R est une matrice triangulaire supérieure de taille m×n.
  • Unicité : En général, ce n’est pas unique, mais si A est de rang maximal (rg(A)=n), alors il existe une seule matrice R qui a tous ses éléments diagonaux positifs. Si A est carré, Q aussi est unique.
  • Commentaire : La décomposition QR fournit un moyen efficace de résoudre le système d'équations A𝐱=𝐛. Le fait que Q soit orthogonale signifie que QTQ=I, de sorte que Ax=b est équivalent à Rx=QTb, ce qui est très simple à résoudre puisque R est triangulaire.

Factorisation RRQR

Modèle:Section vide ou incomplète

Décomposition interpolative

Modèle:Article détaillé

Décompositions basées sur les valeurs propres et concepts associés

Décomposition en éléments propres

Modèle:Article détaillé

  • Aussi appelée décomposition spectrale.
  • Applicable à une matrice carrée A avec des vecteurs propres linéairement indépendants (valeurs propres pas nécessairement distinctes).
  • Décomposition: A=PDP1, où D est une matrice diagonale formée à partir des valeurs propres de A, et les colonnes de P sont les vecteurs propres correspondants de A.
  • Existence : une matrice n×n A a toujours n valeurs propres (complexes), qui peuvent être ordonnées (de plusieurs manières) pour former une matrice diagonale n×n D et une matrice correspondante de colonnes non nulles P qui satisfait l'équation des valeurs propres AP=PD. P est inversible si et seulement si les n vecteurs propres sont linéairement indépendants (c'est-à-dire que chaque valeur propre a une multiplicité géométrique égale à sa multiplicité algébrique). Une condition suffisante (mais pas nécessaire) pour que cela se produise est que toutes les valeurs propres soient différentes (dans ce cas les multiplicités géométriques et algébriques sont égales à 1).
  • Commentaire : toute matrice normale A (c'est-à-dire une matrice pour laquelle AA*=A*A, où A* est la matrice adjointe de A) peut être décomposée en éléments propres. Pour une matrice normale A (et uniquement pour une matrice normale), les vecteurs propres peuvent également être rendus orthonormés (PP*=I) et la décomposition sera A=PDP*. En particulier, toutes les matrices unitaires, hermitiennes ou antihermitienne (dans le cas des réels, toutes les matrices orthogonales, symétriques ou antisymétriques, respectivement) sont normales et possèdent donc cette propriété.
  • Commentaire : Pour toute matrice symétrique réelle A, la décomposition propre existe toujours et peut s'écrire sous la forme A=PDP𝖳, où D et P sont toutes deux réelles.
  • Commentaire : la décomposition propre est utile pour comprendre la solution d'un système d'équations différentielles ordinaires linéaires ou d'équations aux différences linéaires. Par exemple, l'équation de différence xt+1=Axt à partir de la condition initiale x0=c est résolu par xt=Atc, ce qui équivaut à xt=PDtP1c, où P et D sont les matrices formées à partir des vecteurs propres et des valeurs propres de A . Puisque D est diagonale, l'élever à la puissance Dt, consiste simplement à élever chaque coefficient de la diagonale à la puissance t. C'est beaucoup plus facile à faire et à comprendre que d'élever A à la puissance t, puisque A n'est généralement pas diagonale.

La forme normale de Jordan et la décomposition de Dunford sont :

  • Applicables à une matrice carrée A.
  • Commentaire : la forme normale de Jordan généralise la décomposition spectrale aux cas où il y a des valeurs propres répétées et ne peuvent pas être diagonalisées, la décomposition de Dunford le fait sans choisir de base.

Décomposition de Schur

Décomposition réelle de Schur

Décomposition QZ

Modèle:Article détaillé

  • Aussi appelée : décomposition de Schur généralisée.
  • Applicable à des matrices carrées A et B.
  • Commentaire : il existe deux versions de cette décomposition : complexe et réelle.
  • Décomposition (version complexe) : A=QSZ* et B=QTZ*Q et Z sont des matrices unitaires, l'exposant * représente la transconjuguée et S et T sont des matrices triangulaires supérieures.
  • Commentaire : dans la décomposition complexe QZ, les rapports des éléments diagonaux de S aux éléments diagonaux correspondants de T, λi=Sii/Tii, sont les valeurs propres généralisées qui résolvent le problème des valeurs propres généralisées Av=λBv (où λ est un scalaire inconnu et v est un vecteur inconnu non nul).
  • Décomposition (version réelle) : A=QSZ𝖳 et B=QTZ𝖳A, B, Q, Z, S et T sont des matrices contenant uniquement des nombres réels. Dans ce cas, Q et Z sont des matrices orthogonales, l'exposant Treprésente la transposition et S et T sont des matrices triangulaires supérieures en bloc. Les blocs sur la diagonale de S et T sont de taille 1×1 ou 2×2.

Factorisation de Takagi

  • Applicable à une matrice carrée, complexe et symétrique A.
  • Décomposition : A=PDP𝖳, où D est une matrice diagonale réelle non négative et P est unitaire. P𝖳 désigne la transposée matricielle de P.
  • Commentaire : les éléments diagonaux de D sont les racines carrées positives des valeurs propres de AA*=PD2P*.
  • Commentaire : P peut être complexe même si A est réel.
  • Commentaire : il ne s'agit pas d'un cas particulier de la décomposition propre (voir ci-dessus), qui utilise P1 au lieu de P𝖳. De plus, si A n’est pas réel, il n’est pas hermitien et la forme utilisant P* ne s’applique pas non plus.

Décomposition en valeurs singulières

Modèle:Article détaillé

  • Applicable à une matrice A de taille m×n.
  • Décomposition: A=UDV*, où D est une matrice diagonale non négative, et U et V satisfont U*U=I,V*V=I. Ici V* est la transconjuguée de V (ou simplement la transposée, si V ne contient que des nombres réels), et I désigne la matrice identité (d'une certaine dimension).
  • Commentaire : Les éléments diagonaux de D sont appelés valeurs singulières de A.
  • Commentaire : Comme la décomposition spectrale ci-dessus, la décomposition en valeurs singulières implique de trouver des directions de base le long desquelles la multiplication matricielle est équivalente à la multiplication scalaire, mais elle a une plus grande généralité puisque la matrice considérée n'a pas besoin d'être carrée.
  • Unicité : les valeurs singulières de A sont toujours déterminés de manière unique. U et V ne sont pas nécessairement uniques.

Décompositions invariantes par dilatation

Fait référence à des variantes de décompositions matricielles existantes, telles que la décomposition en valeurs singulières (SVD), qui sont invariantes par dilatation.

  • Applicable à une matrice A de taille m×n.
  • Décomposition en valeurs singulières invariantes par dilatation unitaire : A=DUSV*E, où S est une matrice diagonale non négative unique de valeurs singulières invariantes d'échelle, U et V sont des matrices unitaires, V* est la transposée-conjuguée de V et des matrices diagonales positives D et E.
  • Commentaire : elle est analogue au SVD sauf que les éléments diagonaux de S sont invariants par rapport à la multiplication gauche et/ou droite de A par des matrices diagonales arbitraires non singulières, par opposition au SVD standard pour lequel les valeurs singulières sont invariantes par rapport à la gauche et/ou multiplication à droite de A par des matrices unitaires quelconques.
  • Commentaire : elle est une alternative au SVD standard lorsque l'invariance est requise par rapport aux transformations diagonales plutôt qu'unitaires de A.
  • Unicité : les valeurs singulières invariantes à l'échelle de A (donnés par les éléments diagonaux de S) sont toujours déterminés de manière unique. Les matrices diagonales D et E, et unitaires U et V, ne sont pas nécessairement uniques en général.
  • Commentaire : les matrices U et V ne sont pas les mêmes que celles du SVD.

Des décompositions analogues invariantes d'échelle peuvent être dérivées d'autres décompositions matricielles ; par exemple, pour obtenir des valeurs propres invariantes à l'échelle.

Décomposition de Hessenberg

Décomposition orthogonale complète

  • Également connu sous le nom de : décomposition UTV, décomposition ULV, décomposition URV.
  • Applicable à une matrice A de taille m×n.
  • Décomposition : A=UTV*, où T est une matrice triangulaire, et U et V sont des matrices unitaires.
  • Commentaire : similaire à la décomposition en valeurs singulières et à la décomposition de Schur.

Autres décompositions

Décomposition polaire

  • Applicable à : toute matrice complexe carrée A.
  • Décomposition : A=UP (décomposition polaire droite) ou A=PU (décomposition polaire gauche), où U est une matrice unitaire et P et P' sont des matrices hermitiennes semi-définies positives.
  • Unicité : P est toujours unique et égal à A*A (qui est toujours hermitienne et semi-définie positive). Si A est inversible, alors U est unique.
  • Commentaire : Puisque toute matrice hermitienne admet une décomposition spectrale avec une matrice unitaire, P peut s'écrire comme P=VDV*. Comme P est semi-définie positive, tous les éléments de D sont non négatifs. Puisque le produit de deux matrices unitaires est unitaire, en prenant W=UV on peut écrire A=U(VDV*)=WDV* qui est la décomposition en valeurs singulières. Par conséquent, l’existence de la décomposition polaire équivaut à l’existence de la décomposition en valeurs singulières.

Décomposition polaire algébrique

  • Applicable à : matrice carrée, complexe et non singulière A[3].
  • Décomposition : A=QS, où Q est une matrice orthogonale complexe et S est une matrice symétrique complexe.
  • Unicité : Si A𝖳A n’a pas de valeurs propres réelles négatives, alors la décomposition est unique[4].
  • Commentaire : L’existence de cette décomposition équivaut à AA𝖳 étant semblable à A𝖳A[5].
  • Commentaire : Une variante de cette décomposition est A=RC, où R est une matrice réelle et C est une matrice circulaire[4].

Décomposition de Mostow

  • Applicable à : matrice carrée, complexe et non singulière A[6].
  • Décomposition : A=UeiMeS, où U est unitaire, M est réel anti-symétrique et S est réel symétrique.
  • Commentaire : la matrice A peut également être décomposée comme A=U2eS2eiM2, où U 2 est unitaire, M 2 est réel anti-symétrique et S 2 est réel symétrique[4].

Forme normale de Sinkhorn

  • Applicable à : matrice réelle carrée A avec éléments strictement positifs.
  • Décomposition: A=D1SD2, où S est doublement stochastique et D 1 et D 2 sont de vraies matrices diagonales avec des éléments strictement positifs.

Décomposition « sectorielle »

  • Applicable à : matrice carrée et complexe A avec plage numérique contenue dans le secteur Sα={reiθr>0,|θ|α<π2}.
  • Décomposition: A=CZC*, où C est une matrice complexe inversible et Z=diag(eiθ1,,eiθn) avec tous les |θj|α[7]Modèle:,[8].

Forme normale de Williamson

  • Applicable à : matrice réelle carrée définie positive A d'ordre 2n×2n.
  • Décomposition : A=S𝖳diag(D,D)S, où SSp(2n) est une matrice symplectique et D est une matrice diagonale n par n non négative[9].

Racine carrée matricielle

  • Décomposition : A=BB, n'est pas unique en général.
  • Dans le cas où A est semi-définie positive, il existe une unique matrice semi-définie positive B tel que A=B*B=BB.

Généralisations

Il existe des analogues des factorisations SVD, QR, LU et Cholesky pour les quasimatrices et cmatrices ou matrices continues[10]. Une « quasi-matrice » est, comme une matrice, un schéma rectangulaire dont les éléments sont indexés, mais un indice discret est remplacé par un indice continu. De même, une « cmatrice » est continue dans les deux indices. Comme exemple de cmatrice, on peut penser au noyau d'un opérateur intégral. Ces terminologies proviennent des sources anglophones.

Ces factorisations sont basées sur les premiers travaux de Fredholm (1903), Hilbert (1904) et Schmidt (1907). Pour un compte rendu et une traduction en anglais des articles fondateurs, voir Stewart (2011).

Notes et références

Notes

Modèle:Références

Références

Modèle:Références

Voir aussi

Bibliographie

Articles connexes

Liens externes

Modèle:Portail


Erreur de référence : Des balises <ref> existent pour un groupe nommé « nb », mais aucune balise <references group="nb"/> correspondante n’a été trouvée