Méthode de Broyden-Fletcher-Goldfarb-Shanno

De testwiki
Aller à la navigation Aller à la recherche

En mathématiques, la méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) est une méthode permettant de résoudre un problème d'optimisation non linéaire sans contraintes.

La méthode BFGS est une solution souvent utilisée lorsque l'on veut un algorithme à directions de descente.

L'idée principale de cette méthode est d'éviter de construire explicitement la matrice hessienne et de construire à la place une approximation de l'inverse de la dérivée seconde de la fonction à minimiser, en analysant les différents gradients successifs. Cette approximation des dérivées de la fonction conduit à une méthode quasi-Newton (une variante de la méthode de Newton) de manière à trouver le minimum dans l'espace des paramètres.

La matrice hessienne n'a pas besoin d'être recalculée à chaque itération de l'algorithme. Cependant, la méthode suppose que la fonction peut être approchée localement par un développement limité quadratique autour de l'optimum.

Base

Le but est de minimiser f(𝐱), avec 𝐱n et f une fonction différentiable à valeurs réelles.

La recherche de la direction de descente pk à l'étape k est donnée par la solution de l'équation suivante, équivalente à l'équation de Newton :

Bk𝐩k=f(𝐱k)

Bk est une approximation de la matrice Hessienne à l'étape k, et f(𝐱k) est le gradient de f évalué en xk.

Une recherche linéaire dans la direction pk est alors utilisée pour trouver le prochain point xk+1.

Plutôt que d'imposer de calculer Bk+1 comme la matrice Hessienne au point xk+1, la hessienne approchée à l'itération k est mise à jour en ajoutant deux matrices :

Bk+1=Bk+Uk+Vk

Uk et Vk sont des matrices symétriques de rang 1 mais ont des bases différentes. Une matrice est symétrique de rang 1 si et seulement si elle peut s'écrire sous la forme cAAT, où A est une matrice colonne et c un scalaire.

De manière équivalente, Uk et Vk produisent une matrice de mise à jour de rang 2 qui est robuste vis-à-vis des problèmes d'échelle qui pénalisent souvent les méthodes de gradient (comme la méthode de Broyden, l'analogue multidimensionnel de la méthode de la sécante). Les conditions imposées pour la mise à jour sont :

Bk+1(𝐱k+1𝐱k)=f(𝐱k+1)f(𝐱k).

Algorithme

À partir d'une valeur initiale x0 et une matrice Hessienne approchée B0 les itérations suivantes sont répétées jusqu'à ce que x converge vers la solution.

  1. Trouver 𝐩k en résolvant : Bk𝐩k=f(𝐱k).
  2. Effectuer une recherche linéaire pour trouver le pas optimal αk dans la direction trouvée dans la première partie, et ensuite mettre à jour 𝐱k+1=𝐱k+αk𝐩k=𝐱k+𝐬k.
  3. 𝐲k=f(𝐱k+1)f(𝐱k).
  4. Bk+1=Bk+(𝐲k𝐲k)/(𝐲k𝐬k)(Bk𝐬k𝐬kBk)/(𝐬kBk𝐬k).

La fonction f(𝐱) est la fonction à minimiser. La convergence peut être testée en calculant la norme du gradient, |f(𝐱k)|. En pratique, B0 peut être initialisé avec B0=I, et la première itération sera alors équivalente à celle de l'algorithme du gradient, mais les autres itérations le raffineront de plus en plus grâce à B, l'approximation de la hessienne.

On peut calculer l'intervalle de confiance de la solution à partir de l'inverse de la matrice hessienne finale.

Bibliographie

Voir aussi

Références

Modèle:Traduction/Référence Modèle:Palette Modèle:Portail