Optimisation quadratique successive

De testwiki
Version datée du 2 juillet 2024 à 15:42 par imported>D Cat laz (Annexes)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

L'optimisation quadratique successive est un algorithme de résolution d'un problème d'optimisation non linéaire. Un tel problème consiste à déterminer des paramètres qui minimisent une fonction, tout en respectant des contraintes d'égalité et d'inégalité sur ces paramètres. On parle aussi de l'algorithme OQS pour Optimisation Quadratique Successive ou de l'algorithme SQP pour Sequential Quadratic Programming, en anglais.

C'est un algorithme newtonien appliqué aux conditions d'optimalité du premier ordre du problème. Plus précisément, on peut le voir comme un algorithme de Josephy-Newton appliqué à ces conditions d'optimalité, écrites comme un problème d'inclusion fonctionnelle ou comme un problème de complémentarité. De ce fait, l'algorithme bénéficie d'une convergence locale rapide, mais chaque itération pourra demander beaucoup de temps de calcul (c'est surtout vrai dans les premières itérations). Par ailleurs, l'algorithme ne fait pas de distinction entre minima et maxima (comme l'algorithme de Newton pour minimiser une fonction sans contrainte), mais ses itérés sont attirés par tout point stationnaire «régulier». L'algorithme se globalise facilement, ce qui veut dire que l'on connait des techniques permettant la plupart du temps de forcer la convergence des itérés, même si le premier itéré n'est pas proche d'une solution du problème d'optimisation.

L'algorithme requiert que les fonctions définissant le problème d'optimisation soient «suffisamment» différentiables. Il se définit naturellement en utilisant les dérivées secondes des fonctions définissant le problème, mais il se décline aussi sous une forme quasi-newtonienne, qui ne requiert donc que l'évaluation des dérivées premières.

Connaissances supposées : le calcul différentiel (on linéarise des fonctions) et les conditions d'optimalité des problèmes d'optimisation avec contraintes (qui est le système linéarisé) ; l'approche utilisée pour introduire l'algorithme sera mieux comprise si l'on a pris connaissance auparavant de l'algorithme de Josephy-Newton, mais ce dernier point n'est pas essentiel ; bien sûr, l'algorithme a un lien étroit avec l'algorithme de Newton.

Définition de l'algorithme

Le problème à résoudre

L'optimisation quadratique successive est un algorithme conçu pour minimiser une fonction différentiable en présence de contraintes d'égalité et d'inégalité. Un modèle suffisamment général de ce problème peut s'écrire sous la forme suivante

(PEI){infxf(x)ci(x)=0,iEci(x)0,iI,

où le critère f:𝔼 est défini sur un espace euclidien 𝔼, ainsi que les fonctions ci:𝔼, que l'on appelle contraintes. Le produit scalaire de l'espace euclidien 𝔼 est noté ,. Les contraintes sont en nombre fini, repérées par des ensembles finis d'indices E et I, dont le cardinal est noté

mE:=|E|etmI:=|I|.

Le nombre total de contraintes est noté m:=mE+mI. Les inégalités vectorielles, comme cI(x)0, doivent se comprendre composante par composante : ci(x)0 pour tout iI.

Il est commode de supposer que les ensembles d'indices E et I forment une partition de l'ensemble des m premiers entiers [1:m] :

EI=[1:m]etEI=.

Si vm, on note vE le vecteur de mE formé des composantes vi de v avec iE. De même pour vI. On peut alors rassembler les fonctions réelles ci en une seule fonction c:𝔼m, dont les composantes cE et cI sont utilisées pour définir les contraintes d'égalité et d'inégalité. Pour un vecteur vm, on définit v#m par

[v#]i={visiiEvi+:=max(0,vi)siiI.

On rappelle que le lagrangien du problème (PEI) est la fonction :𝔼×m définie en (x,λ)𝔼×m par

(x,λ):=f(x)+λc(x)=f(x)+i=1mλici(x).

Le vecteur λ porte le nom de multiplicateur (de Karush, Kuhn et Tucker ou de Lagrange) ou variable duale.

L'algorithme OQS

L'algorithme OQS est une méthode primale-duale de résolution de (PEI) procédant par linéarisation des conditions d'optimalité du premier ordre de ce problème, celles de Karush, Kuhn et Tucker (KKT). L'algorithme OQS peut être vu comme l'algorithme de Josephy-Newton appliqué au système d'optimalité écrit sous la forme de problème d'inclusion fonctionnelle, même si ce dernier a été conçu après l'introduction de l'algorithme OQS, comme une généralisation élégante de celui-ci. L'algorithme OQS est primal-dual car il génère une suite de couples (xk,λk)𝔼×m, où xk approche une solution x* de (PEI) (dite solution primale car appartenant à 𝔼) et λk approche un multiplicateur optimal λ*m de (PEI) (aussi appelé solution duale).

Conception de l'algorithme OQS

On peut énoncer l'algorithme OQS sans explication sur sa conception et c'est souvent comme cela qu'il est présenté, mais nous préférons l'introduire ici comme une application de l'algorithme de Josephy-Newton aux conditions d'optimalité du premier ordre ou conditions de Karush, Kuhn et Tucker (KKT) de (PEI). C'est aussi en adoptant ce point de vue que l'on obtient les meilleurs résultats de convergence.

Les conditions d'optimalité de KKT s'écrivent en une solution x*𝔼 : il existe un multiplicateur optimal λ*m tel que

(KKT){f(x*)+c(x*)*λ*=0cE(x*)=00(λ*)IcI(x*)0.

Dans ce système, c(x*)*:m𝔼 est l'opérateur adjoint de l'opérateur linéaire dérivée c(x*):𝔼m et la dernière identité signifie que (λ*)I0 (positivité des multiplicateurs optimaux associés aux contraintes d'inégalité), que cI(x*)0 (satisfaction des contraintes d'inégalité) et que (λ*)I𝖳cI(x*)=0 (complémentarité). Ce système d'optimalité en z*:=(x*,λ*) s'écrit aussi comme l'inclusion fonctionnelle

F(z*)+NK(z*)0

dans laquelle la fonction F:𝔼×m𝔼×m est définie en z=(x,λ) par

F(z)=(x(x,λ)c(x))

et NK(z) est le cône normal en z au cône convexe polyédrique K:=𝔼×(mE×+mI). La nature convexe conique de K implique que l'inclusion fonctionnelle ci-dessus s'écrit aussi sous la forme du problème de complémentarité non linéaire suivant

Kz*F(x*)K+,

K+ est le cône dual de K. On voit alors aisément l'équivalence de ce système avec (KKT) en notant que K+:={0𝔼}×({0mE}×+mI).

L'algorithme de Josephy-Newton sur les représentations de (KKT) données ci-dessus (problèmes d'inclusion fonctionnelle ou de complémentarité) calcule l'itéré suivant zk+1:=(xk+1,λk+1) à partir de l'itéré courant zk:=(xk,λk) comme solution (si une telle solution existe) de l'équation linéarisée (en réalité, on ne linéarise que F) :

F(zk)+F(zk)(zzk)NK(z)0ouKzF(zk)+F(zk)(zzk)K+.

Si l'on note (dk,μk):=zk+1zk=(xk+1xk,λk+1λk) on obtient le système de complémentarité linéaire suivant à résoudre

{f(xk)+Lkdk+c(xk)*λk+1=0cE(xk)+cE(xk)dk=00(λk+1)IcI(xk)+cI(xk)dk0,

Lk est la hessienne xx2(xk,λk) du lagrangien par rapport à x (voir ci-dessus).

La résolution de ce système en (dk,λk+1) (λk est «caché» dans Lk) n'est pas aisée. De plus on n'y voit plus le problème d'optimisation original. L'observation cruciale, aisée a posteriori, est de constater que ce système est formé des conditions d'optimalité de KKT du problème quadratique en dn suivant

(PQO){infdf(xk),d+12Lkd,dcE(xk)+cE(xk)d=0cI(xk)+cI(xk)d0.

Celui-ci porte le nom de problème quadratique osculateur du problème (PEI). Si (dk,λkPQ)𝔼×m est une solution primale-duale, le nouvel itéré sera

xk+1=xk+dketλk+1=λkPQ.

Définition de l'algorithme OQS

On peut à présent définir l'algorithme OQS.

Modèle:Théorème

Quelques remarques s'imposent.

  • D'abord, il se peut que le problème quadratique osculateur n'ait pas de solution. Comme signalé, dans sa version simplifiée présentée ci-dessus, l'algorithme n'a alors pas d'autre choix que de s'arrêter. Comme il s'agit d'un problème quadratique, cela ne peut arriver que pour deux raisons :
    • le PQO n'est pas réalisable (ses contraintes linéarisées sont incompatibles, sa valeur optimale vaut alors +) ;
    • le PQO est réalisable mais n'est pas borné (sa valeur optimale vaut alors ).
Ces deux situations peuvent très bien se produire même si (xk,λk) est proche d'une solution primale-duale (x*,λ*) de (PEI). Nous verrons ci-dessous des conditions pour qu'elles n'aient pas lieu. Il existe des techniques pour faire face aux deux situations signalées ci-dessus.
  • Clairement, le PQO représente la partie la plus coûteuse de l'algorithme. Le temps de calcul est nettement plus élevé que celui de la résolution d'un système linéaire, requis par l'algorithme de Newton. Ceci est surtout vrai lorsque les itérés sont éloignés d'une solution, car lorsqu'ils sont proches d'une solution primale-duale satisfaisant la complémentarité stricte, le problème quadratique osculateur se ramène à un problème quadratique avec seulement des contraintes d'égalité, dont l'équation d'optimalité est un système linéaire.
Mais en toute généralité, le PQO est NP-ardu. Il devient résoluble en temps polynomial si Lk est semi-définie positive (le PQO est convexe dans ce cas). C'est une des raisons pour lesquelles on préfère parfois approcher Lk par une matrice définie positive (version quasi-Newtonienne de l'algorithme).
  • Rien n'est fait dans cet algorithme pour forcer sa convergence si le premier itéré est éloigné d'une solution (on parle de globalisation de l'algorithme quand des moyens sont mis en œuvre pour obtenir cette propriété). Comme pour l'algorithme de Newton, l'algorithme OQS ne convergera que si le premier itéré est pris suffisamment proche d'une solution et que certaines conditions sont remplies : lissité des fonctions f et c et régularité de la solution cherchée (x*,λ*).

Convergence locale

Le résultat suivant est dû à Bonnans (1994[1]). On l'obtient en appliquant le résultat de convergence locale de l'algorithme de Josephy-Newton.

Modèle:Théorème

La convergence locale est donc garantie si f et c sont suffisamment lisses et si une condition de régularité du point limite (x*,λ*) est vérifiée, exprimée par le couple : unicité du multiplicateur et conditions suffisantes d'optimalité du second ordre.

Globalisation

L'algorithme OQS est une méthode locale, conçue, on l'a dit, en linéarisant les conditions d'optimalité du premier ordre (KKT) du problème (PEI), aux propriétés de convergence locale remarquables. Lorsque le premier itéré n'est pas dans le voisinage d'une solution assurant la convergence de l'algorithme, celui-ci a tendance à générer des itérés au comportement erratique, qui ne convergent pas. Globaliser l'algorithme signifie donner une technique améliorant sa convergence lorsque le premier itéré n'est pas proche d'une solution (cela n'a donc rien à voir avec la recherche d'un minimum global). Il n'y a pas de méthode algorithmique permettant de trouver à coup sûr une solution d'un système d'équations non linéaires de la forme F(x)=0, quelle que soit la fonction F (opérant sur mpar exemple). Il n'y a donc pas non plus de méthode permettant de trouver à coup sûr une solution de (PEI) car en l'appliquant au problème minx{0:F(x)=0} on serait alors assuré de trouver une solution du système non linéaire F(x)=0. Les techniques de globalisation de l'algorithme OQS ont donc la tâche plus modeste d'améliorer sa convergence lorsque le premier itéré est éloigné d'une solution de (PEI).

Annexes

Note

Modèle:Références

Bibliographie

  • Modèle:En J.F. Bonnans (1994). Local analysis of Newton-type methods for variational inequalities and nonlinear programming. Applied Mathematics and Optimization, 29, 161–186.
  • Modèle:En J. F. Bonnans, J. Ch. Gilbert, C. Lemaréchal, C. Sagastizábal (2006), Numerical Optimization - Theoretical and Numerical Aspects Modèle:Détail des éditions.
  • Modèle:En A.F. Izmailov, M.V. Solodov (2014). Newton-Type Methods for Optimization and Variational Problems, Springer Series in Operations Research and Financial Engineering, Springer.
  • Modèle:En J. Nocedal, S. J. Wright (2006), Numerical Optimization, Springer. Modèle:ISBN.

Modèle:Palette Modèle:Portail

  1. Voir Bonnans (1994).