Sous-différentiel

De testwiki
Aller à la navigation Aller à la recherche

En mathématiques, et plus précisément en analyse convexe, le sous-différentiel est un concept permettant de décrire la variation locale d'une fonction convexe (à valeurs réelles donc) non nécessairement différentiable dans un sens classique, celui auquel on attache aujourd'hui le nom de Fréchet. Au lieu d'être la pente de l'application linéaire tangente (c'est-à-dire, la dérivée) au point considéré, qui n'existe pas nécessairement, le sous-différentiel d'une fonction convexe est l'ensemble des pentes de toutes les minorantes affines de la fonction, qui sont exactes en ce point, c'est-à-dire qui ont en ce point la même valeur que la fonction convexe qu'elles minorent. Dans cette description, le mot pente peut être entendu comme un élément de l'espace dual. La convexité de la fonction assure qu'on peut lui trouver des minorantes affines exactes en presque tout point de son domaine ; on met donc à profit cette propriété pour définir le sous-différentiel. Si l'on peut trouver une minorante affine exacte en un point donné, on dit que la fonction convexe est sous-différentiable en ce point.

On sait que la notion de dérivée est fondamentale en analyse car elle permet d'approcher localement des fonctions par des modèles linéaires, plus simples à étudier. Ces modèles fournissent des renseignements sur les fonctions qu'ils approchent, si bien que de nombreuses questions d'analyse passent par l'étude des fonctions linéarisées (stabilité, inversibilité locale, etc). On rencontre beaucoup de fonctions convexes qui ne sont pas différentiables au sens classique, en particulier lorsque celles-ci résultent de constructions qui n'ont rien pour assurer la différentiabilité des fonctions qu'elles produisent. Il en est ainsi de la fonction duale associée à un problème d'optimisation sous contraintes, pour en citer un exemple emblématique. Pour ces fonctions convexes non lisses, le sous-différentiel joue donc un rôle similaire à celui de la dérivée des fonctions plus régulières.

La notion de sous-différentiel connaît diverses extensions aux fonctions non nécessairement convexes, par exemple aux fonctions localement lipschitziennes[1].

Connaissances supposées : l'algèbre linéaire, le calcul différentiel (notamment les propriétés de la dérivée directionnelle au sens de Dini pour les fonctions convexes prenant des valeurs infinies), les bases de l'analyse convexe (notamment les principales notions attachées aux ensembles et aux fonctions convexes, mais surtout la notion de fonction conjuguée).

Fonction d'une seule variable

Définition

Une fonction convexe non différentiable (en bleu) et deux de ses minorantes affines exactes en x0 (rouge). Le sous-différentiel de cette fonction en x0 est l'ensemble des pentes de ces minorantes affines exactes en x0.

De manière rigoureuse, une sous-dérivée d'une fonction convexe f:I en un point x0 de l'intervalle ouvert I est un nombre réel s tel que

f(x)f(x0)+s(xx0),

pour tout x dans I. On peut montrer que si x0 est dans l'intérieur de I, l'ensemble des sous-dérivées en x0 est un intervalle fermé non vide, donc de la forme [a,b], avec des bornes a et b données par

a=limxx0f(x)f(x0)xx0,b=limxx0f(x)f(x0)xx0,

qui sont finies et qui vérifient ab.

L'ensemble [a,b] de toutes les sous-dérivées est appelé le sous-différentiel de la fonction f en x0.

Exemples

Considérons la fonction f(x)=|x| qui est convexe. Alors, le sous-différentiel à l'origine est l'intervalle [−1, 1]. Le sous-différentiel en n'importe quel point x0<0 est le singleton {−1} et le sous-différentiel en n'importe quel point x0>0 est le singleton {1}.

Propriétés

  • Une fonction convexe f:IR est différentiable en x0 si et seulement si le sous-différentiel ne contient qu'un seul point, qui est alors la dérivée de f en x0.
  • Un point x0 est un minimum local de f si et seulement si zéro est contenu dans le sous-différentiel, c'est-à-dire, dans la figure ci-dessus, on peut tracer une droite horizontale "sous-tangente" au graphe de f en (x0, f(x0)). La dernière propriété est une généralisation du fait que la dérivée d'une fonction dérivable en un minimum local est nulle.

Fonction définie sur un espace euclidien

On suppose dans cette section que 𝔼 est un espace euclidien (de dimension finie donc) dont le produit scalaire est noté , et la norme associée . On note par ailleurs

  • ¯:={,+} la droite réelle achevée,
  • domf:={x𝔼:f(x)<+} le domaine d'une fonction f:𝔼¯, qui peut donc prendre la valeur sur son domaine,
  • Conv(𝔼) l'ensemble des fonctions f:𝔼¯ qui sont convexes (c'est-à-dire, leur épigraphe est convexe) et propres (c'est-à-dire, elles ne prennent pas la valeur et ne sont pas identiquement égales à +),
  • Conv(𝔼) la partie de Conv(𝔼) formée des fonctions qui sont aussi fermées (c'est-à-dire, leur épigraphe est fermé),
  • intC l'intérieur et intrC l'intérieur relatif d'un convexe C𝔼.

Modèle:Ancre

Définition

La notion de sous-différentiel peut être généralisée à une fonction convexe de plusieurs variables réelles, pouvant également prendre la valeur +. Cette dernière extension trouve son utilité, par exemple en optimisation, lorsque la fonction résulte d'une construction qui n'assure pas a priori la finitude des valeurs qu'elle prend. Comme pour la notion de gradient, on a besoin que l'espace sur lequel est définie la fonction soit muni d'un produit scalaire si l'on veut construire des objets dans cet espace et non dans son dual. Les concepts seront mieux révélés en travaillant sur un espace euclidien abstrait, qui pourra, si on le souhaite, être vu comme n muni du produit scalaire euclidien.

Modèle:Théorème

La lettre s renvoie à slope (pente) ou sous-gradient (si l'on préfère). La propriété 1 exprime le fait que la fonction d𝔼s,d est une minorante linéaire de la fonction dérivée directionnelle f(x;):d𝔼f(x;d){±} (que l'on sait toujours exister lorsque f est convexe), exacte en 0. La propriété 2 exprime le fait que la fonction y𝔼f(x)+s,yx est une minorante affine de f exacte en x. Les propriétés 4 et 5 expriment la même chose que la propriété 2 en utilisant la fonction conjuguée f* de f.

Modèle:Théorème


Propriétés

Modèle:Ancre

Optimalité

La propriété 2 de la définition du sous-différentiel permet d'obtenir immédiatement une expression simple de l'optimalité d'un point.

Modèle:Théorème

Cette condition nécessaire et suffisante d'optimalité du premier ordre (ainsi qualifiée parce qu'elle ne fait intervenir que les « dérivées » premières de la fonction) est typique des problèmes d'optimisation convexes (voir la section Conditions du premier ordre sans contrainte de l'article Conditions d'optimalité).

Trouver les minimiseurs d'une fonction convexe propre revient donc à trouver les « zéros » de son sous-différentiel. Ce résultat est à rapprocher de celui selon lequel les minimiseurs d'une fonction convexe différentiable sont les points qui annulent son gradient. Ce résultat est plus riche qu'il ne paraît à première vue. En effet, du fait que la fonction peut prendre la valeur +, il traite également de la minimisation d'une fonction convexe sous contraintes convexes (l'ensemble admissible étant le domaine de la fonction).

Lorsque f est polyédrique, on a les caractérisations supplémentaires suivantes[2], liées au concept de minimum saillant.

Modèle:Théorème

La polyédricité de la fonction joue un rôle majeur dans les caractérisations précédentes. Ainsi chacune des implications de la première équivalence peut être fausse pour une fonction non polyédrique : l'implication "" est fausse pour la fonction xmax(x2,x) en x¯=0 et l'implication "" est fausse pour la fonction xmax(0,x)2 en x¯=0. Pour la seconde équivalence, l'implication "" est fausse pour la fonction xx2 en x¯=0, mais l'implication "" reste vraie même si f n'est pas polyédrique.

Règle de bascule

Les sous-différentiels de f et de sa conjuguée f* jouissent d'une belle règle de réciprocité, parfois appelée règle de bascule[3].

Modèle:Théorème

La réciproque n'a pas lieu au point 1, pour la fonction fConv() ci-dessous

f(x)={0six<01six=0+six>0doncf*(s)={+sis<00sis0,

puisque l'on a 0f(0)=, alors que 0f*(0)=],0].

Sous-différentiabilité

Rappelons que l'on dit que fConv(𝔼) est sous-différentiable en xdomf si f(x). Affirmer qu'un ensemble est non vide est une propriété forte qui, dans certains cas, revient à montrer qu'un certain problème a une solution.

La propriété 1 définissant un sous-gradient s, à savoir

d𝔼,f(x;d)s,d,

montre clairement que f ne peut être sous-différentiable en x si la dérivée directionnelle f(x;) prend en une direction la valeur puisque le membre de droite de l'inégalité ci-dessus est toujours fini. La réciproque de cette observation est le sujet de la proposition qui suit. Une telle situation se présente pour la fonction convexe définie par

f(x)={xsix0+sinon.

Cette fonction n'est pas sous-différentiable en zéro, parce que f(0;1)=. Évidemment, si f(x;d)=, alors f(x;d)=+, mais ce n'est pas la valeur + de la dérivée directionnelle qui empêche f d'être sous-différentiable en x. C'est ce que montre la fonction indicatrice de l'intervalle [0,+[, dont le sous-différentiel en zéro est l'intevalle ],0].

Modèle:Théorème

Propriétés géométriques et topologiques

On note ci-dessous affP l'enveloppe affine d'une partie P𝔼.

Modèle:Théorème

Si f ne prend que des valeurs réelles, alors domf=𝔼 et son sous-différentiel est un ensemble non vide, convexe et compact (par les points 2 et 4).

Formule du max

Le sous-différentiel peut être défini en utilisant la dérivée directionnelle (propriété 1 de la définition). La proposition suivante montre que l'on peut retrouver les dérivées directionnelles à partir du sous-différentiel : f(x;) est la fonction d'appui de f(x).

Modèle:Théorème

Le résultat précédent ne tient plus si x est sur la frontière relative du domaine de f. Voici un contre-exemple : f est l'indicatrice de la boule-unité fermée de 2, pour la norme euclidienne, et x=(1,0). Alors f(x;0)=0 et si d0 :

f(x;d)={0sid1>0+sid10.

Dès lors, la fonction δx:df(x;d) n'est pas fermée et ne peut donc être la fonction d'appui d'un ensemble, en particulier elle n'est pas la fonction d'appui du sous-différentiel. D'ailleurs, ce dernier s'écrit f(x)={s2:s10,s2=0} et

σf(x)(d)={0sid10+sid1<0

est l'enveloppe convexe fermée de δx. Cette propriété est tout à fait générale pour les fonctions de Conv(𝔼).

La multifonction sous-différentiel

On peut voir f comme une multifonction ou fonction multivoque, qui à un élément de 𝔼 fait correspondre une partie de 𝔼, c'est-à-dire un élément de l'ensemble 𝒫(𝔼) des parties de 𝔼. On note

f:𝔼𝔼:xf(x)

cette correspondance.

Rappelons quelques notions d'analyse multifonctionnelle. Soit φ:𝔼𝔽 une multifonction. On définit le domaine, l'image et le graphe de φ respectivement par

domφ:={x𝔼:φ(x)},(φ):={φ(x):xdomφ},𝒢(φ):={(x,u)𝔼×𝔽:uφ(x)}.

On notera bien que l'on a choisi de définir le graphe comme une partie de 𝔼×𝔽 et pas de 𝔼×𝒫(𝔽). La multifonction réciproque φ1:𝔽𝔼 de la multifonction φ:𝔼𝔽 est définie en u𝔽 par

φ1(u)={x𝔼:uφ(x)}.

Lorsque 𝔼 est un espace euclidien dont le produit scalaire est noté , et que 𝔽=𝔼, on dit que φ est monotone si

(x,u)𝒢(φ),(y,v)𝒢(φ):vu,yx0.

On dit que φ est monotone maximale si φ est monotone et si son graphe n'est pas strictement contenu dans le graphe d'un opérateur monotone. On vérifie facilement que cette dernière propriété s'écrit aussi

[vu,yx0,(x,u)𝒢(φ)](y,v)𝒢(φ).

Dans le résultat ci-dessous, on note f* la conjuguée de f.

Modèle:Théorème

On rappelle que f:𝔼{+} est fortement convexe, de module α>0, si pour tout x0 et x1domf et pour tout t[0,1], on a

f((1t)x0+tx1)(1t)f(x0)+tf(x1)α2t(1t)x0x12.

Rappelons aussi qu'une multifonction φ:𝔼𝔽 est dit fortement monotone, de module α>0, si

(x,y)𝒢(φ),(x,y)𝒢(φ):yy,xxαxx2.

La forte convexité de f peut s'exprimer par la forte monotonie de f[4].

Modèle:Théorème

Lien avec la différentiabilité

Rappelons les trois notions de différentiabilité d'une fonction f:𝔼¯ dont il est question dans cette section. On suppose que f est finie au point x où sont prises ces dérivées.

  • On dit que f a une dérivée partielle en x suivant un vecteur d𝔼 si la fonction tf(x+td) est différentiable en t=0.
  • On dit que f est Gâteaux-différentiable en x si la dérivée directionnelle f(x;d) existe pour tout d𝔼 et si d𝔼f(x;d) est linéaire.
  • On dit que f est Fréchet-différentiable en x s'il existe un vecteur D𝔼 tel que
    limh0h0f(x+h)f(x)D,hh=0.
    Dans ce cas, le vecteur D est appelé le gradient de f en x. On le note
    f(x).
    D'après la définition, si f est Fréchet-différentiable en x, f prend des valeurs finies dans un voisinage de x.

Ces trois propriétés sont de plus en plus fortes (la Fréchet-différentiabilité implique la Gâteaux-différentiabilité, qui implique elle-même la différentiabilité partielle). Pour une fonction convexe, les trois notions sont équivalentes[5], si bien qu'il n'y a alors pas lieu de faire de distinction entre celles-ci.

Modèle:Théorème

Le résultat suivant[6] établit un lien entre la différentiabilité et la sous-différentiabilité : en bref, une fonction est différentiable en un point si, et seulement si, elle est sous-différentiable en ce point et son sous-différentiel est un singleton.

Modèle:Théorème

Calcul sous-différentiel

Combinaison conique

Voici une conséquence immédiate de la définition du sous-différentiel.

Modèle:Théorème

On remarquera bien que le scalaire multiplie une fonction dans le membre de gauche de l'identité ci-dessus et un ensemble dans son membre de droite.

À l'inverse, comme le montrera un exemple ci-dessous, l'égalité entre le sous-différentiel de la somme de fonctions convexes et la somme des sous-différentiels n'est pas nécessairement assurée. On aura certainement l'égalité si toutes les fonctions ne prennent que des valeurs finies. On notera également que la somme se fait sur des fonctions dans le membre de gauche de l'identité et sur des ensembles dans celui de droite.

Modèle:Théorème

Voici un exemple où l'égalité n'est pas assurée dans la formule de la somme (f2 est la fonction indicatrice de ],0]):

f1:x{xsix0+sinonetf2=],0].

Comme la somme f=f1+f2 est l'indicatrice de {0}, on a f(0)=, alors que f1(0)+f2(0)=, parce que f1(0)=.

Pré-composition par une fonction affine

Le cadre est le suivant. On dispose d'une fonction affine a:𝔼𝔽 entre deux espaces euclidiens 𝔼 et 𝔽. Celle-ci est supposée être définie en x𝔼 par

a(x)=Ax+b,

A:𝔼𝔽 est linéaire et b𝔽. On note (a):=a(𝔼) l'Image directe de 𝔼 par a et A* l'application linéaire adjointe de A pour les produits scalaires que l'on s'est donnés sur 𝔼 et 𝔽, défini donc par la relation

x𝔼,y𝔽:A*y,x=y,Ax.

L'application affine a est composée avec une application g:𝔽¯.

Modèle:Théorème

Fonction marginale

Soient 𝔼 et 𝔽 deux espaces euclidiens et φ:𝔼×𝔽¯ une fonction. On associe à cette dernière la fonction marginale f:𝔼¯ définie par :

f(x)=infy𝔽φ(x,y).

Le sous-différentiel de f dépend de celui de φ qui est supposé calculé pour le produit scalaire de 𝔼×𝔽 suivant : (x,y),(x,y)=x,x+y,y.

Modèle:Théorème

Ce résultat appelle quelques remarques.

  1. Il faut bien noter que, si la borne inférieure inf{φ(x,y):y𝔽} est atteinte en plusieurs y, {s:(s,0)φ(x,y)} ne dépend pas du minimiseur y choisi.

    On a un autre éclairage sur cette indépendance par rapport à y en observant que φ est constante sur l'ensemble M(x):={(x,y): y minimise φ(x,)}, si bien que φ est aussi constant sur l'intérieur relatif de M(x). Cependant φ(x,y) peut varier lorsque (x,y) passe de l'intérieur relatif de M(x) à son bord. C'est le cas de la fonction définie par φ(x,y)=max(0,|y|1), dont la fonction marginale est nulle :

    M(x)={x}×[1,1]etφ(0,y)={{(0,0)}si1<y<1{0}×[0,1]siy=1.

  2. D'autre part, si φ est différentiable en (x,y), où y est un minimiseur quelconque de φ(x,), alors f est également différentiable en x (car son sous-différentiel est un singleton) et on a

    f(x)=xφ(x,y).

    C'est comme s'il y avait un minimiseur unique y(x), fonction différentiable de x, que l'on écrivait f(x)=φ(x,y(x)) et que l'on calculait f(x) par une dérivation en chaîne :

    f(x)=xφ(x,y)+y(x)*yφ(x,y).

    On retrouverait le résultat ci-dessus en observant que yφ(x,y)=0 car y minimise φ(x,).
  3. Le fait que φ(x,) ait un minimum unique n'implique nullement la différentiabilité de la fonction marginale en x. Par exemple, f est la fonction marginale de φ définie par φ(x,y)=f(x)+y2. Cette dernière a un minimum y=0 unique en y quel que soit x, alors que f peut ne pas être différentiable.

Fonctions concave et convexe-concave

Certaines constructions conduisent naturellement à des fonctions concaves plutôt que convexes. Il en est ainsi, par exemple, lorsque l'on prend l'enveloppe inférieure d'une famille de fonctions linéaires (la fonction duale d'un problème d'optimisation est construite de cette manière). On peut alors prendre le sous-différentiel de la fonction opposée, qui est convexe, mais il est parfois plus naturel de se passer de la multiplication par moins un. Si f est concave, on définit donc le sous-différentiel concave de cette fonction en un point x où elle est finie, comme l'ensemble noté et défini par

f(x):=(f)(x).

Certains auteurs ne mettent pas le signe au-dessus de  ; il faut alors se rappeler que f est concave. Si f est concave différentiable, son sous-différentiel concave se réduit bien au gradient de f. Les propriétés suivantes sont équivalentes :

  • sf(x),
  • d𝔼,f(x;d)s,d,
  • y𝔼,f(y)f(x)+s,yx,
  • x maximise y𝔼f(y)s,y.

Il est aussi intéressant de définir le sous-différentiel d'une fonction convexe-concave. Si 𝔼 et 𝔽 sont deux espaces vectoriels, on dit que f:𝔼×𝔽¯ est convexe-concave si

  • pour tout y𝔽, xf(x,y) est convexe et
  • pour tout x𝔼, yf(x,y) est concave.

Le lagrangien d'un problème d'optimisation convexe avec contraintes a cette propriété. La situation est plus complexe que dans le cas d'une fonction concave, car il ne suffit pas de multiplier (une partie de) la fonction par 1 pour retrouver une fonction convexe et lui appliquer la notion de sous-différentiel convexe que l'on connait.

Modèle:Théorème

De manière synthétique : f(x,y):=xf(x,y)×yf(x,y).

Dans cette définition, on a noté xf(x,y) le sous-différentiel ordinaire en x de la fonction convexe xf(x,y) et yf(x,y) le sous-différentiel concave en y de la fonction concave yf(x,y). Certains auteurs ne mettent pas le signe au-dessus de  ; il faut alors se rappeler que f est convexe-concave.

Exemples

Voici quelques exemples de sous-différentiels de fonctions convexes classiques.

Fonction indicatrice

On suppose ici que 𝔼 est un espace euclidien et que C est un convexe de 𝔼.

Le sous-différentiel de la fonction indicatrice C est le cône normal NC de C : C=NC.

Norme

Soit une norme sur un espace euclidien 𝔼, non nécessairement dérivée du produit scalaire , de 𝔼. On introduit la norme duale

sD:=supx1s,x

et la boule-unité duale fermée

B¯D:={s𝔼:sD1}.

Une norme est évidemment une fonction convexe (par l'inégalité triangulaire), partout sous-différentiable (elle ne prend que des valeurs finies). Son sous-différentiel est donné par les formules ()(x)=argmaxsB¯Ds,x={sB¯D:s,x=x}. En particulier :

  • si x0, les sous-gradients s()(x) sont sur la frontière de B¯D : sD=1 ;
  • ()(0)=B¯D.


La puissance p>1 d'une norme

f:𝔼:xf(x):=1pxp

est aussi une fonction convexe (composition de fonctions convexes dont la seconde est croissante) propre (elle ne prend que des valeurs finies) fermée (elle est continue) et partout sous-différentiable (elle ne prend que des valeurs finies). Son sous-différentiel est donné par les formules f(x)={s𝔼:s,x=xp=sDp}=xp1(()(x)),p:=p/(p1)]0,1[ est le nombre conjugué de p :

1p+1p=1.

La dernière expression du sous-différentiel f(x) rappelle la dérivation en chaîne de la composition de x𝔼x et de ttp/p.

Distance à un convexe

Soit une norme sur un espace euclidien 𝔼, non nécessairement dérivée du produit scalaire , de 𝔼. On introduit la norme duale

sD:=supx1s,x

et la boule-unité duale fermée

B¯D:={s𝔼:sD1}.

Soit C un ensemble convexe fermé non vide de 𝔼. On considère la fonction distC:𝔼, la distance à C, définie par

distC(x)=infyCxy.

C'est une fonction convexe propre et fermée (elle ne prend que des valeurs finies). On note x¯ une projection d'un point x sur C : c'est une solution du problème inf{xy:yC}. Cette dernière n'est pas nécessairement unique car la norme n'est pas nécessairement associée à un produit scalaire.

Le sous-différentiel en x𝔼 de la distance à C est donné par la formule distC(x)={sB¯DNC(x¯):s,xx¯=xx¯}.NC(x):={d𝔼:d,yx0 pour tout yC} est le cône normal à C en x.

Lorsque la norme est celle associée au produit scalaire ,, les boules-unités primale et duale coïncident (c'est-à-dire, B¯D=B¯) et on a les propriétés suivantes :

  • si xC, alors distC est différentiable en x et distC(x)=(xx¯)/xx¯ ;
  • si xintC, l'intérieur de C, alors distC est différentiable en x et distC(x)=0 ;
  • si xC(intC), la frontière de C, alors distC(x)=B¯NC(x).

En l'absence de convexité d'un ensemble P𝔼, la distance distP n'est pas nécessairement différentiable sur le complémentaire de P.

Valeur propre maximale

On note 𝒮n l'ensemble des matrices réelles d'ordre n symétriques, que l'on munit du produit scalaire canonique (A,B)𝒮n×𝒮nA,B:=trAB (trA désigne la trace de la matrice A). On note aussi 𝒮+n le cône de 𝒮n formé des matrices semi-définies positives. On note enfin

λ1:𝒮n:Aλ1(A)

l'application valeur propre maximale, qui à une matrice symétrique A associe sa plus grande valeur propre (on rappelle qu'une matrice symétrique d'ordre n a n valeurs propres réelles). C'est une fonction propre, convexe et continue (donc fermée). Son sous-différentiel en A𝒮n est donné par la formule λ1(A)=co{vv:v2=1,Av=λ1(A)v},coP désigne l'enveloppe convexe d'un ensemble P. L'enveloppe convexe ci-dessus est compacte (par exemple, parce que le sous-différentiel d'une fonction convexe ne prenant que des valeurs finies, comme λ1, l'est).

On en déduit que :

  • si λ1(A) est simple, λ1() est différentiable en A et son gradient s'écrit alors
    λ1(A)=vv,
    ±v sont les uniques vecteurs propres unitaires associés à la valeur propre maximale ;
  • λ1(0)={S𝒮+n:trS=1} ;
  • la dérivée directionnelle de λ1 en A𝒮n dans la direction D𝒮n s'écrit
    λ1(A;D)=λ1(VDV),
    V est une matrice dont les colonnes forment une base orthonormale de l'espace propre associé à λ1(A).

Fonction spectrale

La présentation ci-dessous synthétise celles de Lewis (1996), Hiriart-Urruty (1998), Borwein et Lewis (2000).

On note 𝒮n l'ensemble des matrices réelles d'ordre n symétriques, que l'on munit du produit scalaire canonique (A,B)𝒮n×𝒮nA,B:=trAB, la trace de la matrice AB. Par ailleurs, pour xn, on note [x]n le vecteur formé des composantes de x en ordre décroissant.

On se donne une fonction f:n¯ symétrique, c'est-à-dire qui vérifie

xn:f(x)=f([x]),

ce qui revient à dire que l'on ne modifie pas la valeur de f(x) en permutant les composantes de x. On note

λ:𝒮nn:Aλ(A):=(λ1(A),,λn(A)),

la fonction donnant les valeurs propres de A en ordre décroissant :

λ1(A)λ2(A)λn(A).

On appelle fonction spectrale une fonction de la forme fλ, avec f et λ comme ci-dessus. Ce sont donc des fonctions définies sur 𝒮n, mais dont les valeurs ne dépendent que du spectre des matrices.

On peut alors caractériser la convexité-fermeture de (fλ) à partir de celle de f[7].

Modèle:Théorème

On peut aussi calculer le sous-différentiel de (fλ) à partir de celui de f.

Modèle:Théorème

On peut enfin caractériser la différentiabilité de (fλ) à partir de celle de f.

Modèle:Théorème

Les fonctions spectrales sont fréquemment rencontrées. En voici quelques-unes, construites à partir de fonctions fConv(n), donnant donc lieu à des fonctions (fλ)Conv(𝒮n). Dans le tableau ci-dessous, les entiers p et q peuvent être choisis arbitrairement dans {0,,n}, un vecteur de xn dont toutes les composantes sont strictement positives est signalé par x>0, une matrice A définie positive est signalée par A0.

f(x) (fλ)(A)
[x]1=max(x1,,xn) λ1(A)
[x]n=min(x1,,xn) λn(A)
i=1p[x]ii=nq+1n[x]i i=1pλi(A)i=nq+1nλi(A)
lb(x)={i=1nlogxisix>0+sinon ld(A)={logdetAsiA0+sinon
{(i=1nxi1)1six>0+sinon {(trA1)1siA0+sinon


Fonction définie sur un espace localement convexe

La présentation ci-dessous synthétise celle de Bonnans et Shapiro (2000).

Cadre

On suppose donnés deux espaces espaces vectoriels topologiques localement convexes 𝔼 et 𝔼* sur couplés, dans le sens où il existe une application bilinéaire continue

,:𝔼×𝔼*

telle que

  • le dual topologique de 𝔼 coïncide avec {,x*:x*𝔼*},
  • le dual topologique de 𝔼* coïncide avec {x,:x𝔼}.

Comme exemples de tels couples d'espaces vectoriels topologiques localement convexes, citons

Définitions

Les définitions de sous-gradient, de sous-différentiel et de sous-différentiabilité sont essentiellement les mêmes que celles introduites en dimension finie.

Modèle:Théorème

Annexes

Notes

Modèle:Références

Bibliographie

  • Modèle:En A. Auslender, M. Teboulle (2003). Asymptotic Cones and Functions in Optimization and Variational Inequalitites. Springer Monographs in Mathematics. Springer, New York.
  • Modèle:En J. F. Bonnans, A. Shapiro (2000). Perturbation Analysis of Optimization Problems. Springer Verlag, New York.
  • Modèle:En J.M. Borwein, A.S. Lewis (2000). Convex Analysis and Nonlinear Optimization. Springer, New York.
  • Modèle:Fr H. Brézis (1973). Opérateurs Maximaux Monotones et Semi-groupes de Contractions Dans les Espaces de Hilbert. Mathematics Studies 5. North-Holland, Amsterdam. Modèle:ISBN.
  • Modèle:En J.V. Burke, M.C. Ferris (1993). Weak sharp minima in mathematical programming. SIAM Journal on Control and Optimization, 31, 1340–1359. DOI
  • Modèle:En C. Davis (1957). All convex invariant functions of Hermitian matrices. Archiv der Mathematik, 8, 26-278.
  • Modèle:En F.H. Clarke (1983). Optimization and Nonsmooth Analysis. John Wiley & Sons, New York.
  • Modèle:En J.Ch. Gilbert (2015). On the solution uniqueness characterization in the 1 norm and polyhedral gauge recovery. Rapport INRIA.
  • Modèle:Fr J.-B. Hiriart-Urruty (1998). Optimisation et Analyse Convexe. Presses Universitaires de France, Paris.
  • Modèle:En J.-B. Hiriart-Urruty, Cl. Lemaréchal (2001). Fundamentals of Convex Analysis. Springer. Modèle:ISBN.
  • Modèle:En A.S. Lewis (1996). Convex analysis on the Hermitian matrices. SIAM Journal on Optimization, 6, 164-177.
  • Modèle:En R.T. Rockafellar (1970). Convex Analysis. Princeton Mathematics Ser. 28. Princeton University Press, Princeton, New Jersey.
  • Modèle:En R.T. Rockafellar (1976). Monotone operators and the proximal point algorithm. SIAM Journal on Control and Optimization, 14, 877–898.
  • Modèle:En R.E. Showalter (1997). Monotone Operators in Banach Space and Nonlinear Partial Differential Equations. American Mathematical Society. Modèle:ISBN.

Modèle:Portail

  1. Voir Clarke (1983).
  2. La caractérisation de l'intériorité relative est peut-être due à Gilbert (2015). La caractérisation de l'unicité peut s'obtenir à partir de résultats plus généraux de Burke et Ferris (1993).
  3. J.-B. Hiriart-Urruty (2013). Bases, outils et principes pour l’analyse variationnelle. Mathématiques et Applications 70. Springer Verlag.
  4. Proposition 6 chez Rockafellar (1976).
  5. Proposition IV.4.2.1 chez Hiriart-Urruty et Lemaréchal (2001).
  6. Théorème 25.1 chez Rockafellar (1970).
  7. Voir Davis (1957) et la section 5.2 chez Borwein et Lewis (2000).