Méthode du gradient proximal

De testwiki
Aller à la navigation Aller à la recherche

Modèle:À wikifier Modèle:Orphelin

Modèle:Références

Les méthodes de gradient proximal sont une forme généralisée de projection utilisée pour résoudre des problèmes d'optimisation convexe non différenciables. Fichier:Frank Wolfe vs Projected Gradient.webm De nombreux problèmes intéressants peuvent être formulés sous forme de problèmes d’optimisation convexes de la forme

minxNi=1nfi(x)

fi:N, i=1,,n sont des fonctions convexes potentiellement non différenciables. Le manque de différentiabilité exclut les techniques conventionnelles d'optimisation continue comme la méthode de descente de gradient et la méthode du gradient conjugué, mais les méthodes du gradient proximal peuvent être utilisées à la place.

Les méthodes de gradient proximal commencent par une étape de séparation, dans laquelle les fonctions f1,...,fn sont utilisées individuellement afin de produire un algorithme facilement implémentable. Ils sont appelés proximaux car chaque fonction non différenciable parmi f1,...,fn intervient via son opérateur proximal . L'algorithme itératif avec seuil de retrait[1], l'algorithme de Landweber , l'algorithme de gradient projeté, l'algorithme de projection sur ensembles convexes, la méthode de multiplicateurs de Lagrange, et la méthode de Bregman séparée sont des instances spéciales d'algorithmes proximaux[2].

Pour la théorie des méthodes de gradient proximal du point de vue et avec des applications à la théorie de l'apprentissage statistique, voir méthodes de gradient proximal pour l'apprentissage.

Projection sur des ensembles convexes (POCS)

L'un des algorithmes d'optimisation convexe les plus utilisés est la projection sur des ensembles convexes (POCS). Cet algorithme est utilisé pour récupérer/synthétiser un signal satisfaisant simultanément plusieurs contraintes convexes. Soit fi la fonction indicatrice d'un ensemble convexe fermé non vide Ci modélisant une contrainte. On se réduit alors au problème de faisabilité convexe, qui nécessite de trouver une solution telle qu'elle se situe à l'intersection de tous les ensembles convexes. Ci. Dans la méthode POCS, chaque ensemble Ci est incorporé par son opérateur de projection PCi. Donc à chaque itération x est mis à jour comme

xk+1=PC1PC2PCnxk

Cependant, au-delà de ces problèmes, les opérateurs de projection ne sont pas appropriés et des opérateurs plus généraux sont nécessaires pour les résoudre. Parmi les diverses généralisations existantes de la notion d'opérateur de projection convexe, les opérateurs proximaux sont les mieux adaptés à d'autres fins.

Exemples

Des instances spéciales de méthodes de gradient proximal sont

Voir également

Remarques

  1. Modèle:Article
  2. Plus de détails sur les méthodes de gradient proximal dans Modèle:Lien arXiv

Références

Liens externes

Modèle:Portail