Algorithme proximal (optimisation)
En analyse numérique et plus précisément en optimisation mathématique, l'algorithme proximal (ou algorithme du point proximal) est un algorithme itératif de calcul d'un minimum d'une fonction convexe semi-continue inférieurement propre. Si la fonction n'est pas quadratique, chaque itération requiert la minimisation d'une fonction non linéaire fortement convexe. L'algorithme peut être vu comme une méthode de gradient implicite.
Certains algorithmes peuvent être interprétés comme des algorithmes proximaux. Il en est ainsi de la méthode des multiplicateurs (ou algorithme du lagrangien augmenté). Cette lecture permet alors d'en établir des propriétés de convergence, déduites de celles de l'algorithme proximal.
Le problème
Soient un espace de Hilbert, dont le produit scalaire est noté et la norme associée est notée , et une fonction convexe semi-continue inférieurement propre. On s'intéresse au problème de trouver un minimum de , c'est-à-dire un point tel que Modèle:Centrer Le problème revient à trouver une solution de l'inclusion Modèle:Centrer où est le sous-différentiel de en , parce que cette inclusion est une condition nécessaire et suffisante d'optimalité du problème de minimisation. On montre que, sous les propriétés énoncées de , est un opérateur monotone maximal[1], ce qui permet de voir le problème comme un cas particulier de recherche de zéro d'opérateur monotone maximal et de voir l'algorithme proximal en optimisation comme un cas particulier de l'algorithme proximal pour la recherche de zéro de tels opérateurs.
L'algorithme
L'algorithme est en partie fondé sur le fait que, lorsque est convexe fermée propre et , la fonction Modèle:Centrer est fortement convexe, de module , fermée propre et a donc un minimiseur unique. Dans la description de l'algorithme ci-dessous, on note Modèle:Centrer
Exprimé autrement, le calcul du nouvel itéré consiste à trouver l'unique solution de l'inclusion Modèle:Centrer ce qui s'écrit aussi Modèle:Centrer L'algorithme peut donc être vu comme une méthode de sous-gradient implicite (dans le sens où le sous-gradient est évalué au nouveau point – inconnu – et non pas en l'itéré courant ) avec pas . On voit aussi que chaque itération requiert la résolution d'un problème d'optimisation non linéaire (à moins que ne soit quadratique).
Pour expliquer le principe contre-intuitif de l'algorithme, puisque pour minimiser , il faut qu'à chaque itération, l'algorithme proximal minimise la fonction qui semble bien être aussi compliquée que , on peut remarquer les points suivants.
- La fonction à minimiser (à chaque itération, ne l'oublions pas) peut être plus attrayante que , du fait de sa forte convexité. Pour certains algorithmes, cette propriété est une aubaine, permettant d'accélérer leur convergence et de mieux la contrôler. Cette fonction a aussi un minimum unique, ce qui n'est pas nécessairement le cas de .
- Certains algorithmes de dualité peuvent être interprétés comme des algorithmes proximaux. Ces algorithmes de dualité s'appliquent en fait à des fonctions dont l'évaluation résulte de la minimisation d'une fonction (le lagrangien) et il n'est pas plus coûteux d'évaluer que de minimiser , qui revient à minimiser une autre fonction (le lagrangien augmenté). Ces algorithmes de dualité ont donc tout leur sens. Leur interprétation en termes d'algorithme proximal permet alors d'en obtenir des propriétés difficiles à mettre en évidence autrement.
- Observons que si et est séparable, c'est-à-dire si elle s'écrit comme suitModèle:Centreroù les sont de petites parties de l'ensemble des indices , il en est de même de . C'est une propriété intéressante lorsqu'on cherche à résoudre de grands problèmes par des techniques de décomposition.
- L'algorithme proximal a un effet stabilisant. Lorsque a plusieurs minimiseurs, l'algorithme génère une suite convergeant vers l'un d'entre eux. L'algorithme proximal est parfois utilisé pour stabiliser des algorithmes qui ne convergeraient pas sans modification lorsque le problème considéré devient singulier.
Convergence
Résolution approchée
Le calcul de l'itéré suivant par est souvent coûteux en temps de calcul. Dès lors, l'on se contente souvent d'un calcul approché conservant toutefois les propriétés de convergence de l'algorithme idéal. On peut aussi arguer que ce calcul ne peut être réalisé exactement en arithmétique flottante. Différents critères ont donc été proposés pour déterminer ce qu'est une résolution approchée acceptable.
Critères d'arrêt de Rockafellar
Rockafellar (1976a) propose de se contenter d'un vérifiant Modèle:Centrer Ce critère requiert la connaissance complète du sous-différentiel , ce qui est rarement aisé. Cependant, si l'on connait un élément , le critère pourra être renforcé en y remplaçant par puisque .
On a le résultat de convergence faible suivant[2].
Rockafellar (1976a) propose aussi un critère plus exigeant, celui dans lequel on requiert le calcul d'un vérifiant Modèle:Centrer On peut faire pour ce critère, la même remarque que celle faite pour le critère (R1), concernant le calcul du sous-différentiel .
On a alors le résultat de convergence forte suivant[3]. On y impose que soit localement radialement lipschitzienne de module en zéro, ce qui signifie que Modèle:Centrer D'autres expressions de cette propriété sont données dans le résultat, en termes de et de sa conjuguée .
On note que si , alors et , ce qui implique qu'alors la suite converge superlinéairement vers .
Annexes
Notes et références
Lien externe
- J. Ch. Gilbert, Éléments d'Optimisation Différentiable — Théorie et Algorithmes, syllabus de cours à l'ENSTA ParisTech, Paris.
Bibliographie
- Modèle:En G.J. Minty (1964). On the monotonicity of the gradient of a convex function. Pacific Journal of Mathematics, 14, 243–247.
- J.J. Moreau (1965). Proximité et dualité dans un espace hilbertien. Bulletin de la Société Mathématique de France, 93, 273–299.
- Modèle:En R.T. Rockafellar (1976a). Monotone operators and the proximal point algorithm. SIAM Journal on Control and Optimization, 14, 877–898.
- Modèle:En R.T. Rockafellar (1976b). Augmented Lagrangians and applications of the proximal point algorithm in convex programming. Mathematics of Operations Research, 1, 97-116.