Algorithme proximal (optimisation)

De testwiki
Version datée du 18 janvier 2025 à 14:23 par imported>Croquemort Nestor (Liste des références en double)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

En analyse numérique et plus précisément en optimisation mathématique, l'algorithme proximal (ou algorithme du point proximal) est un algorithme itératif de calcul d'un minimum d'une fonction convexe semi-continue inférieurement propre. Si la fonction n'est pas quadratique, chaque itération requiert la minimisation d'une fonction non linéaire fortement convexe. L'algorithme peut être vu comme une méthode de gradient implicite.

Certains algorithmes peuvent être interprétés comme des algorithmes proximaux. Il en est ainsi de la méthode des multiplicateurs (ou algorithme du lagrangien augmenté). Cette lecture permet alors d'en établir des propriétés de convergence, déduites de celles de l'algorithme proximal.

Le problème

Soient un espace de Hilbert, dont le produit scalaire est noté , et la norme associée est notée , et f:{+} une fonction convexe semi-continue inférieurement propre. On s'intéresse au problème de trouver un minimum de f, c'est-à-dire un point x tel que Modèle:Centrer Le problème revient à trouver une solution x de l'inclusion Modèle:Centrerf(x) est le sous-différentiel de f en x, parce que cette inclusion est une condition nécessaire et suffisante d'optimalité du problème de minimisation. On montre que, sous les propriétés énoncées de f, xf(x) est un opérateur monotone maximal[1], ce qui permet de voir le problème comme un cas particulier de recherche de zéro d'opérateur monotone maximal et de voir l'algorithme proximal en optimisation comme un cas particulier de l'algorithme proximal pour la recherche de zéro de tels opérateurs.

L'algorithme

L'algorithme est en partie fondé sur le fait que, lorsque f est convexe fermée propre et r>0, la fonction Modèle:Centrer est fortement convexe, de module r1, fermée propre et a donc un minimiseur unique. Dans la description de l'algorithme ci-dessous, on note Modèle:Centrer

Modèle:Théorème

Exprimé autrement, le calcul du nouvel itéré consiste à trouver l'unique solution xk+1 de l'inclusion Modèle:Centrer ce qui s'écrit aussi Modèle:Centrer L'algorithme peut donc être vu comme une méthode de sous-gradient implicite (dans le sens où le sous-gradient est évalué au nouveau point xk+1 – inconnu – et non pas en l'itéré courant xk) avec pas rk. On voit aussi que chaque itération requiert la résolution d'un problème d'optimisation non linéaire (à moins que f ne soit quadratique).

Pour expliquer le principe contre-intuitif de l'algorithme, puisque pour minimiser f, il faut qu'à chaque itération, l'algorithme proximal minimise la fonction fk qui semble bien être aussi compliquée que f, on peut remarquer les points suivants.

  1. La fonction fk à minimiser (à chaque itération, ne l'oublions pas) peut être plus attrayante que f, du fait de sa forte convexité. Pour certains algorithmes, cette propriété est une aubaine, permettant d'accélérer leur convergence et de mieux la contrôler. Cette fonction a aussi un minimum unique, ce qui n'est pas nécessairement le cas de f.
  2. Certains algorithmes de dualité peuvent être interprétés comme des algorithmes proximaux. Ces algorithmes de dualité s'appliquent en fait à des fonctions f dont l'évaluation résulte de la minimisation d'une fonction (le lagrangien) et il n'est pas plus coûteux d'évaluer f que de minimiser fk, qui revient à minimiser une autre fonction (le lagrangien augmenté). Ces algorithmes de dualité ont donc tout leur sens. Leur interprétation en termes d'algorithme proximal permet alors d'en obtenir des propriétés difficiles à mettre en évidence autrement.
  3. Observons que si 𝔼=n et f est séparable, c'est-à-dire si elle s'écrit comme suitModèle:Centreroù les Dj sont de petites parties de l'ensemble des indices {1,,n}, il en est de même de fk. C'est une propriété intéressante lorsqu'on cherche à résoudre de grands problèmes par des techniques de décomposition.
  4. L'algorithme proximal a un effet stabilisant. Lorsque f a plusieurs minimiseurs, l'algorithme génère une suite convergeant vers l'un d'entre eux. L'algorithme proximal est parfois utilisé pour stabiliser des algorithmes qui ne convergeraient pas sans modification lorsque le problème considéré devient singulier.

Convergence

Modèle:…

Résolution approchée

Le calcul de l'itéré suivant par xk+1=argminxfk(x) est souvent coûteux en temps de calcul. Dès lors, l'on se contente souvent d'un calcul approché conservant toutefois les propriétés de convergence de l'algorithme idéal. On peut aussi arguer que ce calcul ne peut être réalisé exactement en arithmétique flottante. Différents critères ont donc été proposés pour déterminer ce qu'est une résolution approchée acceptable.

Critères d'arrêt de Rockafellar

Rockafellar (1976a) propose de se contenter d'un xk+1 vérifiant Modèle:Centrer Ce critère requiert la connaissance complète du sous-différentiel f(xk+1), ce qui est rarement aisé. Cependant, si l'on connait un élément gk+1f(xk+1), le critère pourra être renforcé en y remplaçant dist(rkfk(xk+1),0) par xk+1+rkgk+1xk puisque xk+1+rkgk+1xkrkfk(xk+1).

On a le résultat de convergence faible suivant[2].

Modèle:Théorème

Rockafellar (1976a) propose aussi un critère plus exigeant, celui dans lequel on requiert le calcul d'un xk+1 vérifiant Modèle:Centrer On peut faire pour ce critère, la même remarque que celle faite pour le critère (R1), concernant le calcul du sous-différentiel f(xk+1).

On a alors le résultat de convergence forte suivant[3]. On y impose que (f)1 soit localement radialement lipschitzienne de module L en zéro, ce qui signifie que Modèle:Centrer D'autres expressions de cette propriété sont données dans le résultat, en termes de f et de sa conjuguée f*.

Modèle:Théorème

On note que si rk, alors μk0 et θk0, ce qui implique qu'alors la suite {xk} converge superlinéairement vers x¯.

Annexes

Notes et références

Modèle:Références

Lien externe

Bibliographie

  • Modèle:En G.J. Minty (1964). On the monotonicity of the gradient of a convex function. Pacific Journal of Mathematics, 14, 243–247.
  • J.J. Moreau (1965). Proximité et dualité dans un espace hilbertien. Bulletin de la Société Mathématique de France, 93, 273–299.
  • Modèle:En R.T. Rockafellar (1976a). Monotone operators and the proximal point algorithm. SIAM Journal on Control and Optimization, 14, 877–898.
  • Modèle:En R.T. Rockafellar (1976b). Augmented Lagrangians and applications of the proximal point algorithm in convex programming. Mathematics of Operations Research, 1, 97-116.

Modèle:Portail

  1. La monotonie maximale du sous-différentiel d'une fonction convexe fermée propre est due à Minty (1964) et Moreau (1965).
  2. Théorème 4 chez Rockafellar (1976a).
  3. Réunion du théorème 2 et de la proposition 7 chez Rockafellar (1976a).