« Matrice autoadjointe positive » : différence entre les versions

De testwiki
Aller à la navigation Aller à la recherche
La formule est fournie sans justification ni référence. Après quelques recherches, elle n'a rien d'évident.
 
(Aucune différence)

Dernière version du 17 juin 2023 à 21:25

En mathématiques, plus précisément en algèbre linéaire, une matrice réelle symétrique (ou : réelle autoadjointe) est dite positive[1] ou semi-définie positive si la forme bilinéaire symétrique associée est positive. Plus généralement, une matrice carrée complexe est dite positive si la forme sesquilinéaire associée est (hermitienne) positive, la matrice étant alors nécessairement autoadjointe.

Cas réel

Définitions

On dit qu'une matrice réelle symétrique M d'ordre n est positive (ou semi-définie positive) si elle vérifie l'une des propriétés équivalentes suivantes :

  1. M est un Modèle:Lien de la C*-algèbre réelle [[Exemples d'espaces vectoriels|MModèle:Ind(ℝ)]], c'est-à-dire que son spectre est inclus dans ℝModèle:Exp.
  2. La forme bilinéaire symétrique associée à M est positive : pour toute matrice colonne x à n éléments réels, xModèle:ExpMx ≥ 0 (où xModèle:Exp désigne la matrice transposée de x).
  3. Les valeurs propres de M (qui sont nécessairement réelles) sont positives ou nulles.
  4. Il existe une matrice réelle N telle que M = NModèle:ExpN.
  5. Tous les mineurs principaux[2] de M sont positifs ou nuls : pour toute partie non vide I de {1, … , n}, le déterminant de la sous-matrice MModèle:Ind de M (formée de ses éléments avec indices de lignes et de colonnes dans I) est positif ou nul.

Elle est dite définie positive si de plus elle est inversible.

Modèle:Démonstration/début 1. et 3. sont clairement équivalents.

La propriété 2. signifie que M définit sur ℝModèle:Exp une forme quadratique positive, la propriété 3. que sur ℝModèle:Exp, vu comme espace euclidien avec le produit scalaire x,y=i=1nxiyi, M définit un endomorphisme autoadjoint positif. L'équivalence entre 2. et 3. vient de cette double interprétation, à la lumière de la réduction de Gauss et du théorème spectral. Puisque toute matrice symétrique réelle est diagonalisable (cf. Décomposition spectrale), il existe une matrice orthogonale P (dont les colonnes sont des vecteurs propres de M) et une matrice diagonale D (dont les coefficients diagonaux sont les valeurs propres de M) telles que M = PDPModèle:Exp.

Si 2. est vraie, sachant que les valeurs propres d'une matrice symétrique réelle sont réelles, on voit en appliquant 2. aux vecteurs propres que 3. est vraie.

Puisque PModèle:-1 = PModèle:Exp, la matrice M est aussi congrue à la matrice diagonale D. Donc réciproquement, si 3. est vraie alors 2. est vraie.

Si 4. est vraie (M = NModèle:ExpN), alors xn,x𝖳Mx=(Nx)𝖳(Nx)=Nx20, donc 2. est vraie.

Inversement, si 2. (donc 3.) est vraie, on peut en déduire une matrice réelle N telle que M = NModèle:ExpN (la matrice N n'est pas unique ; elle l'est si l'on impose qu'elle soit elle-même positive, cf. § « Propriétés » ci-dessous) : il suffit de définir la matrice Δ comme étant la matrice diagonale dont les termes diagonaux sont les racines carrées de ceux de D, et de poser N = ΔPModèle:Exp, car alors NModèle:ExpN = M. Si l'on veut une matrice symétrique positive, il suffit de poser plutôt N = PΔPModèle:Exp.

Si 4. (ou 2., ou 3.) est vraie pour M alors 4. est aussi vraie pour les sous-matrices mineures principales de M, donc 5. est vraie.

Réciproquement[3], supposons 5. vraie et démontrons 2.. Pour tout p de 1 à n, tous les mineurs principaux de la p-ième sous-matrice principale dominante MModèle:Ind sont, par hypothèse, positifs ou nuls donc (d'après l'expression du polynôme caractéristique en fonction de ceux-ci) det(εIModèle:Ind + MModèle:Ind) > 0 pour tout ε > 0. D'après le critère de Sylvester, εIModèle:Ind + M est donc (définie) positive, si bien qu'elle vérifie 2. On en déduit que M aussi, en faisant tendre ε vers 0. Modèle:Démonstration/fin

Dans la suite de cet article, nous noterons 𝒮n l'ensemble des matrices carrées d'ordre n symétriques à coefficients réels et 𝒮n+ la partie de 𝒮n formée des matrices positives.

Exemples

  • Soit f une fonction réelle de n variables réelles, définie sur un ouvert de n, dérivable dans un voisinage d'un point x de cet ouvert et deux fois dérivable en ce point. Si f atteint un minimum local en x, sa matrice hessienne y est positive[4] (condition nécessaire d'optimalité du second ordre sans contrainte).
  • Étant donné un vecteur aléatoire (T1,,Tn) à valeurs dans n dont chaque composante admet une variance, on définit sa matrice de covariance parModèle:RetraitCelle-ci est positive. En effet, pour toute matrice colonne x à n éléments réels notés x1,,xn :Modèle:RetraitModèle:Référence souhaitée
  • Elle est définie positive si et seulement si la seule combinaison linéaire de T1,,Tn qui soit certaine est celle dont tous les coefficients sont nuls.
  • Toute matrice de Gram est autoadjointe positive.
  • Soit A une matrice réelle symétrique dont les termes diagonaux sont positifs et B définie parModèle:RetraitAlors A est semi-définie positive si et seulement si B l'est. On pense en particulier à la corrélation.
  • Réduire certains termes extra-diagonaux d’une matrice définie positive est une opération qui ne préserve pas nécessairement la positivité (bien que les rayons des disques de Gerschgorin diminuent). Dans le contre-exemple ci-dessous, A est définie positive alors que B ne l'est pas :Modèle:Retrait

Propriétés

  • Toute matrice réelle symétrique positive admet une unique racine carrée réelle symétrique positive. Plus formellement :Modèle:RetraitCe résultat (dont la partie « existence » est démontrée au passage au § « Définitions » ci-dessus[5]) se généralise aux racines n-ièmes.
  • Si deux matrices réelles symétriques M et N sont positives et commutent, alors MN est symétrique positive.
  • Par la caractérisation 2. du § « Définitions », 𝒮n+ est une intersection de demi-espaces (en nombre infini). Par la caractérisation 5., 𝒮n+ est un Modèle:Lien de base (Modèle:C.-à-d. caractérisé par un nombre fini d'inégalités polynomiales).
  • Modèle:AncreLes caractérisations du § « Définitions » montrent que 𝒮n+ est un cône convexe fermé non vide de 𝒮n.
  • Dans l'espace euclidien 𝒮n (muni du produit scalaire usuel : A,B:=tr(AB)tr désigne la trace), les cônes normal et tangent à 𝒮n+ en A𝒮n+ s'écrivent
    N𝒮n+(A)=(𝒮n+)(A)etT𝒮n+(A)={D𝒮nvkerAvDv0}.

Cas complexe

On étend les propriétés et définitions précédentes aux matrices complexes.

Soit M une matrice carrée d'ordre n. Elle est dite positive si elle vérifie l'une des propriétés équivalentes suivantes :

  1. M est un élément positif de la C*-algèbre complexe MModèle:Ind(ℂ).
  2. M est autoadjointe (ou : hermitienne) et toutes ses valeurs propres sont positives ou nulles.
  3. La forme sesquilinéaire associée à M est (hermitienne) positive : pour toute matrice colonne z à n éléments complexes, z*Mz est un réel positif (où z* désigne la matrice adjointe de z).
  4. Il existe une matrice complexe N telle que M = N*N.

Elle est dite définie positive si elle est de plus inversible.

Remarques
  • La matrice n'est pas supposée autoadjointe a priori : cette propriété est une conséquence de chacune des caractérisations, en particulier — contrairement au cas réel — de la positivité de la forme associée.
  • Sur l'espace des matrices hermitiennes d'ordre n, l'ordre partiel associé au cône convexe des matrices positives est appelé l'Modèle:Lien (nommé d'après Charles Loewner).

Toute matrice (hermitienne) positive admet une unique racine carrée (hermitienne) positive[5].

Notes et références

Modèle:Crédit d'auteurs Modèle:Références

Article connexe

Matrice à diagonale dominante

Modèle:Palette Modèle:Portail

  1. Modèle:Ouvrage.
  2. La positivité des mineurs principaux dominants ne suffit pas, comme en témoigne la matrice (0001).
  3. Modèle:Ouvrage, démontrent que 5. ⇒ 3.
  4. L'exemple des fonctions constantes montre qu'elle n'est pas nécessairement définie positive
  5. 5,0 et 5,1 Pour une preuve complète, voir le § « Matrice positive » de l'article sur les racines carrées d'une matrice.