Résultats de la recherche

Aller à la navigation Aller à la recherche
Voir (20 précédentes | ) (20 | 50 | 100 | 250 | 500)
  • ...gorithme]] d'optimisation différentiable (l'[[Optimisation (mathématiques)|optimisation]] dont il est question ici est une branche des [[mathématiques]]), destiné ...res problèmes classiques de l'optimisation : [[optimisation non lisse]], [[optimisation avec contraintes]], etc. ...
    5 kio (771 mots) - 22 octobre 2024 à 10:53
  • ...'optimalité au premier ordre|optimalité au premier ordre]] d'un problème d'optimisation avec contraintes convexes. Il est aussi utilisé dans la description et l'an Considérons le [[Optimisation (mathématiques)#Minimisation|problème d'optimisation]] générique ...
    8 kio (1 283 mots) - 22 octobre 2017 à 02:21
  • ...ainsi de certains algorithmes newtoniens en [[optimisation (mathématiques)|optimisation]] avec contraintes et en [[complémentarité (mathématiques)|complémentarité] ...ité|On dit qu'une fonction <math>f:\mathbb{E}\to\mathbb{F}</math> est '''B-différentiable''' en <math>x\in\mathbb{E}</math>, s'il existe un opérateur <math>Bf(x):\ma ...
    13 kio (2 261 mots) - 10 décembre 2020 à 02:56
  • ...perturbation de problème d'optimisation, dans la dualisation de problème d'optimisation, dans des techniques de construction de fonction comme l'[[inf-convolution] ...onque de <math>\varphi(x,\cdot)</math>, alors <math>f</math> est également différentiable en <math>x</math> (car son sous-différentiel est un singleton) et l'on a ...
    6 kio (1 102 mots) - 17 novembre 2024 à 16:54
  • En [[mathématiques]], l''''optimisation non linéaire''' (ou '''NLP''', de l'[[anglais]] : ''nonlinear programming'' ...e résolution qui y sont introduits et analysés. Cette sous-discipline de l'optimisation, à la frontière mal définie et l'introduction un peu artificielle, {{refsou ...
    7 kio (993 mots) - 27 juin 2024 à 08:54
  • En [[optimisation différentiable]], qui est une discipline d'[[analyse numérique]] en [[mathématiques]] étud La notion de direction de descente est surtout utilisée en [[optimisation numérique]]. ...
    14 kio (2 334 mots) - 6 février 2023 à 14:43
  • ...iné par la technique numérique connue sous le nom de [[recherche linéaire (optimisation)|recherche linéaire]]. ...ar l'intermédiaire de fonctions de mérite. Elles sont aussi utilisées en [[optimisation non lisse]]. ...
    13 kio (2 117 mots) - 22 mai 2024 à 11:40
  • ...nno''' ('''BFGS''') est une méthode permettant de résoudre un problème d'[[optimisation non linéaire]] sans contraintes. ...avec <math>\mathbf{x}\in\mathbb{R}^n</math> et <math>f</math> une fonction différentiable à valeurs réelles. ...
    6 kio (962 mots) - 29 novembre 2024 à 02:40
  • ...t stationnaire d'un [[Optimisation (mathématiques)#Minimisation|problème d'optimisation]], le problème de [[complémentarité linéaire]], ''etc''. Le formalisme a d' ...si <math>F=\nabla f</math> est le [[gradient]] d'une [[fonction convexe]] différentiable <math>f:\mathbb{E}\to\R</math>, le problème consiste à minimiser <math>f</m ...
    4 kio (732 mots) - 19 janvier 2022 à 10:45
  • ...tialement en [[traitement du signal]] qui revient à résoudre un problème d'optimisation de la forme ...c convexe), mais non lisse (la norme <math>\ell_1</math> n'est pas partout différentiable). ...
    14 kio (2 358 mots) - 10 novembre 2022 à 22:18
  • ...lèmes (cas de la ''[[#Pénalisations inexactes|pénalisation inexacte]]'') d'optimisation ''sans contrainte'' ; le sens précis de cette phrase apparaîtra [[#Pénalisa ...on peut l'utiliser pour démontrer l'existence de solution des problèmes d'optimisation avec contraintes, en étudier les propriétés, établir des [[Conditions d'opt ...
    16 kio (2 617 mots) - 27 juin 2024 à 08:56
  • ...et Tucker (KKT)|conditions d'optimalité du premier ordre]] des problèmes d'optimisation. ...wtoniennes). On ne « linéarise » donc que le premier terme qui est supposé différentiable ; le second est laissé inchangé. Sans hypothèse particulière, il se peut qu ...
    12 kio (1 941 mots) - 19 mars 2025 à 22:44
  • ...ienne]]. C'est aussi un concept précieux en [[Optimisation (mathématiques)|optimisation]], pour obtenir des [[Conditions d'optimalité (dimension finie)|conditions ==== Cas d'une fonction différentiable ==== ...
    23 kio (3 861 mots) - 2 septembre 2023 à 13:13
  • ...e d'être [[matrice semi-définie positive|semi-définie positive]]. Comme en optimisation linéaire, le critère à minimiser est linéaire et l'inconnue doit également L'optimisation SDP se généralise par l'[[optimisation conique]], qui s'intéresse aux problèmes de minimisation d'une fonction lin ...
    24 kio (3 980 mots) - 12 novembre 2024 à 19:23
  • * en [[Optimisation (mathématiques)|optimisation]] pour établir les [[Conditions d'optimalité (dimension finie)|conditions d ...\mathbb{F}</math>, <math>c:\mathbb{E}\to\mathbb{F}</math> est une fonction différentiable, que l'on appelle '''contrainte''', et l'exposant «<math>-1</math>» est uti ...
    23 kio (3 976 mots) - 28 décembre 2018 à 15:15
  • ...et Tucker (KKT)|conditions d'optimalité du premier ordre]] des problèmes d'optimisation. Lorsque <math>F</math> est différentiable et que certaines propriétés de régularité ont lieu, ce problème peut être r ...
    21 kio (3 492 mots) - 27 février 2025 à 22:42
  • ...iné par la technique numérique connue sous le nom de [[recherche linéaire (optimisation)|recherche linéaire]]. Cette description montre que l'algorithme fait parti Les algorithmes d'optimisation sont généralement écrits pour minimiser une fonction. Si l'on désire maximi ...
    21 kio (3 515 mots) - 27 juin 2024 à 08:57
  • Les fonctions convexes-concaves apparaissent en optimisation (le [[lagrangien]] en est un exemple), dans les problèmes d'équilibre ([[th ...qu'une [[fonction réelle d'une variable réelle]] [[fonction différentiable|différentiable]] et convexe a sa [[Fonction convexe#Cas des fonctions dérivables|dérivée c ...
    13 kio (2 183 mots) - 5 avril 2022 à 08:25
  • ...<math>\Omega_F</math> l'ensemble des points où <math>F</math> est Fréchet différentiable. Par le [[théorème de Rademacher]], on sait que <math>\Omega\setminus\Omega ...s [[Conditions d'optimalité (dimension finie)|conditions d'optimalité]] en optimisation et ne permet pas d'avoir un [[théorème de la moyenne]]. On obtient de meill ...
    9 kio (1 497 mots) - 11 juin 2021 à 06:45
  • ...ée « {{mvar|α}}-softmax », est une approximation lisse et [[Différentielle|différentiable]] de la fonction maximum. Pour des valeurs négatives du paramètre grandes e {{refsou|Ceci rend la fonction softmax intéressante pour des techniques d'optimisation utilisant la [[descente de gradient]].}}<ref>{{article |lang=en |titre=On t ...
    6 kio (1 026 mots) - 1 juillet 2023 à 17:19
Voir (20 précédentes | ) (20 | 50 | 100 | 250 | 500)