Optimisation convexe

De testwiki
Aller à la navigation Aller à la recherche
Optimisation convexe dans un espace en deux dimensions dans un espace contraint E

L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive).

La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions. Cette généralité est motivée par le fait que certaines méthodes de construction de problèmes d'optimisation convexe conduisent à des problèmes non différentiables (fonction marginale, dualisation de contraintes, etc). Si cette généralité est un atout, permettant de prendre en compte davantage de problèmes, l'abord de la théorie est également plus difficile.

L'optimisation convexe repose sur l'analyse convexe.

Contexte et introduction

L'optimisation convexe est un type d'optimisation mathématique, c'est-à-dire une discipline qui étudie des problèmes du type : optimiser une fonction donnée dans un espace donné. Elle généralise l'optimisation linéaire et l'optimisation semi-définie positive[1], mais aussi l'optimisation conique et l'optimisation copositive.

Définitions du problème

Formulation générale

Soit 𝔼 un espace vectoriel. Un problème d'optimisation convexe[1] consiste à minimiser une fonction convexe f:𝔼¯:={,+} sur 𝔼, ce que l'on écrit d'une des manières suivantes :

infx𝔼f(x)ouinf{f(x):x𝔼}ouinff(𝔼)ou{inff(x)x𝔼.

Si on note

𝒜domf:={x𝔼:f(x)<+}

le domaine (effectif) de f, le problème est identique à celui de minimiser f sur 𝒜 :

infx𝒜f(x).

Si 𝒜=, c'est-à-dire si f+, cette expression est encore valable puisque, par convention, inff()=+. L'intérêt d'avoir une fonction f pouvant prendre la valeur + est donc d'introduire des contraintes dans le problème de minimisation (on oblige la solution du problème à être dans 𝒜).

Solution

Une solution (globale) du problème inf{f(x):x𝔼} est un point x¯𝔼 tel que

x𝔼:f(x¯)f(x).

Clairement, si f prend la valeur , on a f(x¯)= ; et si f n'est pas identiquement égale à +, on a f(x¯)<+.

Si 𝔼 est un espace vectoriel topologique, x¯ est une solution locale du problème inf{f(x):x𝔼} si

Vvoisinage dex¯,xV:f(x¯)f(x).

En réalité une solution locale est une solution globale au sens précédent.

Modèle:Théorème

Contraintes fonctionnelles

Au lieu de donner la valeur infinie au critère en dehors de l'ensemble admissible, on peut spécifier explicitement les contraintes à réaliser. Le problème s'écrit par exemple comme suit

{inff(x)xCAx=bc(x)0,

dans lequel on minimise une fonction f:x𝔼f(x) à valeurs finies et l'inconnue x𝔼 doit

  • appartenir à un ensemble convexe C de 𝔼,
  • vérifier une contrainte affine Ax=b (A:𝔼𝔽 est une application linéaire entre 𝔼 et un autre espace vectoriel 𝔽 et b𝔽) et
  • vérifier un nombre fini de contraintes fonctionnelles convexes données par une fonction c:𝔼m dont les m composantes sont convexes et l'inégalité vectorielle c(x)0 doit se comprendre composante par composante (elle est équivalente aux m contraintes d'inégalité ci(x)0 pour i[[1,m]]).

L'ensemble admissible de ce problème est convexe et s'écrit

X:={x𝔼:xC,Ax=b,c(x)0}.

Le problème est bien convexe puisqu'il s'agit de minimiser sur 𝔼 la fonction f~:x𝔼f~(x)¯ définie par

f~(x)={f(x)sixX+sinon,

qui est une fonction convexe.

Conditions d'optimalité

Condition générale

La condition d'optimalité correspondant à la formulation générale du problème est la suivante. On note f(x) le sous-différentiel de f en un point x tel que f(x).

Modèle:Théorème

Cas de contraintes fonctionnelles

On s'intéresse ici à des conditions d'optimalité pour le problème exprimé au moyen de contraintes fonctionnelles.

Notes et références

Modèle:Références Modèle:Palette Modèle:Portail