Résultats de la recherche

Aller à la navigation Aller à la recherche
Voir (20 précédentes | ) (20 | 50 | 100 | 250 | 500)
  • ...tératif et procède donc par améliorations successives. Au point courant, l'algorithme effectue un déplacement qui est obtenu en minimisant un modèle simple de la ...itions) quel que soit l'itéré initial choisi. Elle s'apparente ainsi aux [[Algorithme à directions de descente|algorithmes à directions de descente]] en améliora ...
    5 kio (771 mots) - 22 octobre 2024 à 10:53
  • ...tes convexes. Il est aussi utilisé dans la description et l'analyse de l'[[algorithme du gradient projeté]]. Considérons le [[Optimisation (mathématiques)#Minimisation|problème d'optimisation]] générique ...
    8 kio (1 283 mots) - 22 octobre 2017 à 02:21
  • La méthode BFGS est une solution souvent utilisée lorsque l'on veut un [[algorithme à directions de descente]]. ...trice hessienne]] n'a pas besoin d'être recalculée à chaque itération de l'algorithme. Cependant, la méthode suppose que la fonction peut être approchée localeme ...
    6 kio (962 mots) - 29 novembre 2024 à 02:40
  • ...produit scalaire]]) ou, plus généralement, sur un [[espace hilbertien]]. L'algorithme est itératif et procède donc par améliorations successives. Au point couran ...itions) quel que soit l'itéré initial choisi. Elle s'apparente ainsi aux [[Algorithme à régions de confiance|algorithmes à régions de confiance]] ; ces dernières ...
    13 kio (2 117 mots) - 22 mai 2024 à 11:40
  • ...rectionnelle strictement négative. Ces directions sont utilisées par les [[algorithme à directions de descente|méthodes à directions de descente]]. C'est le long ...le soit strictement négative, elle n'est pas suffisamment forte pour les [[Algorithme à directions de descente|algorithmes à directions de descente]]. ...
    14 kio (2 334 mots) - 6 février 2023 à 14:43
  • ...s : ''nonlinear programming'' – NLP) s'occupe principalement des problèmes d'optimisation dont les données, i.e., les fonctions et ensembles définissant ces problème Elle complémente l'[[optimisation non lisse]] (ou non différentiable), {{refsou|elle aussi liée à une communauté de chercheurs spécialisés.}} C ...
    7 kio (993 mots) - 27 juin 2024 à 08:54
  • L''''algorithme de Josephy-Newton''' est une méthode de linéarisation pour résoudre une ''[ ...n et Tucker (KKT)|conditions d'optimalité du premier ordre]] des problèmes d'optimisation. ...
    12 kio (1 941 mots) - 19 mars 2025 à 22:44
  • ...nitialement en [[traitement du signal]] qui revient à résoudre un problème d'optimisation de la forme ...c convexe), mais non lisse (la norme <math>\ell_1</math> n'est pas partout différentiable). ...
    14 kio (2 358 mots) - 10 novembre 2022 à 22:18
  • ...Forte convexité|fortement convexe]]. L'algorithme peut être vu comme une [[Algorithme du gradient|méthode de gradient]] ''implicite''. ...alors d'en établir des propriétés de convergence, déduites de celles de l'algorithme proximal. ...
    12 kio (2 062 mots) - 18 janvier 2025 à 14:23
  • ...s implicites, ci-dessous) ou certains algorithmes de résolution (comme l'[[algorithme de Josephy-Newton]]) exploitent, en utilisant la possibilité de dériver <ma ...n et Tucker (KKT)|conditions d'optimalité du premier ordre]] des problèmes d'optimisation. ...
    21 kio (3 492 mots) - 27 février 2025 à 22:42
  • | légende = Algorithme du gradient sur une fonction de type bol (vue en plan avec courbes de nivea ...Cette description montre que l'algorithme fait partie de la famille des [[algorithme à directions de descente|algorithmes à directions de descente]]. ...
    21 kio (3 515 mots) - 27 juin 2024 à 08:57
  • ...oblèmes (cas de la ''[[#Pénalisations inexactes|pénalisation inexacte]]'') d'optimisation ''sans contrainte'' ; le sens précis de cette phrase apparaîtra [[#Pénalisa ...e, on peut l'utiliser pour démontrer l'existence de solution des problèmes d'optimisation avec contraintes, en étudier les propriétés, établir des [[Conditions d'opt ...
    16 kio (2 617 mots) - 27 juin 2024 à 08:56
  • ...l''''algorithme OQS''' pour Optimisation Quadratique Successive ou de l''''algorithme SQP''' pour ''Sequential Quadratic Programming'', en anglais. ...érés, même si le premier itéré n'est pas proche d'une solution du problème d'optimisation. ...
    18 kio (2 997 mots) - 2 juillet 2024 à 15:42
  • ...' vers leur point limite. C'est une manière d'apprécier l'efficacité des [[algorithme]]s qui les génèrent. ...math>. Cette hypothèse est raisonnable lorsque la suite est générée par un algorithme « bien conçu », c'est-à-dire pour lequel dès que <math>x_k=x_*</math>, la s ...
    15 kio (2 457 mots) - 12 janvier 2021 à 17:29
  • ...isation convexe]], qui étend l'[[optimisation linéaire]]. Dans un problème d'optimisation SDP, l'inconnue est une [[matrice symétrique]] que l'on impose d'être [[mat ...lagrangien augmenté, méthode des faisceaux (algorithme d'optimisation non différentiable), etc. ...
    24 kio (3 980 mots) - 12 novembre 2024 à 19:23
  • ...emporelle utilisant la [[Descente de gradient|descente de gradients]]. Cet algorithme est composé de deux méthodes : Acteur et Critique. L'algorithme [[REINFORCE]] avec ligne de base n'est pas considéré comme une méthode acte ...
    9 kio (1 410 mots) - 7 décembre 2024 à 21:34
  • ==== Cas d'une fonction différentiable ==== Si la fonction {{mvar|f}} est [[Différentielle|différentiable]] au point {{mvar|a}}, alors elle admet une dérivée directionnelle en {{mva ...
    23 kio (3 861 mots) - 2 septembre 2023 à 13:13
  • ...<math>\Omega_F</math> l'ensemble des points où <math>F</math> est Fréchet différentiable. Par le [[théorème de Rademacher]], on sait que <math>\Omega\setminus\Omega avec égalité si <math>F</math> est différentiable dans un voisinage de <math>x</math> et si <math>F'</math> est continue en < ...
    9 kio (1 497 mots) - 11 juin 2021 à 06:45
  • ...>A</math> est symétrique [[Matrice définie positive|définie positive]]). L'algorithme suppose que la diagonale de <math>A</math> est formée d'éléments non nuls. == L'algorithme == ...
    23 kio (3 966 mots) - 12 janvier 2024 à 14:38
  • En [[mathématiques]], la '''méthode de Muller''' est un [[algorithme de recherche d'un zéro d'une fonction]] qui est basé sur la [[méthode de la ...et ''f''<nowiki>'</nowiki>(ξ) ≠ 0), que ''f'' est trois fois continuement différentiable et que les points de départ ''x''<sub>0</sub>, ''x''<sub>1</sub>, et ''x''< ...
    3 kio (486 mots) - 1 octobre 2023 à 08:25
Voir (20 précédentes | ) (20 | 50 | 100 | 250 | 500)