Complémentarité linéaire
En mathématiques, et plus spécialement en recherche opérationnelle et en optimisation, un problème de complémentarité linéaire est défini par la donnée d'une matrice et d'un vecteur et consiste à trouver un vecteur tel que ses composantes et celles de soient positives et tel que Modèle:Mvar et Modèle:Mvar soient orthogonaux pour le produit scalaire euclidien de :
où désigne le vecteur Modèle:Mvar transposé. Ce problème peut être vu comme un cas particulier d'inéquation variationnelle.
Ces problèmes sont souvent NP-difficiles et donc difficiles à résoudre lorsque la dimension du problème devient grande. La combinatoire du problème vient du fait qu'il faut déterminer quelles sont les composantes de la solution qui sont nulles et il y a Modèle:Math possibilités de réaliser cela.
Les problèmes de complémentarité se sont d'abord manifestés dans les conditions d'optimalité des problèmes d'optimisation, les conditions de Karush, Kuhn et Tucker. Elles permettent de modéliser des problèmes décrits par plusieurs systèmes d'équations qui sont en quelque sorte en compétition ; celui qui est actif en un endroit et temps donnés, correspondant à un indice commun de Modèle:Mvar et de Modèle:Mvar, dépend de seuils qui sont ou non atteints : si le seuil n'est pas atteint, c'est-à-dire que , l'équation est active. Les exemples de problèmes modélisés par complémentarité sont nombreux : problèmes de contact, problèmes d'apparition et de disparition de phases dans les écoulements multiphasiques, problèmes de précipitation-dissolution en chimie, en météorologie, etc.
Problème
Notations préliminaires
Pour un vecteur , la notation signifie que toutes les composantes du vecteur sont positives ou nulles.
On note l'orthant positif de .
Pour deux parties Modèle:Mvar et Modèle:Mvar d'un espace vectoriel, désigne leur somme de Minkowski, qui est l'ensemble .
Définitions
Étant donnés une matrice réelle carrée , non nécessairement symétrique, et un vecteur , un problème de complémentarité linéaire consiste à trouver un vecteur tel que
Le symbole ci-dessus est utilisé pour désigner la transposition du vecteur à sa gauche. Dès lors, l'orthogonalité requise de Modèle:Mvar et de revient à demander que le produit de Hadamard de ces deux vecteurs soit nul :
On écrit souvent ce problème de manière concise comme suit :
Un point Modèle:Mvar vérifiant et est dit admissible pour le problème Modèle:Math l'ensemble
est appelé l'ensemble admissible de ce problème. On dit que le problème Modèle:Math est réalisable si . On montre facilement que
On note
l'ensemble des solutions du problème de complémentarité linéaire Modèle:Math ; c'est une réunion de polyèdres convexes[1].
Liens avec d'autres problèmes
Conditions d'optimalité d'un problème d'optimisation quadratique
Les conditions d'optimalité d'un problème d'optimisation quadratique peuvent s'exprimer comme un problème de complémentarité linéaire. En effet, considérons le problème d'optimisation quadratique générique
où , est une matrice symétrique (non nécessairement semi-définie positive), et . Ses conditions d'optimalité du premier ordre s'écrivent pour des multiplicateurs et :
En éliminant le multiplicateur Modèle:Mvar, on obtient un système formé de deux problèmes de complémentarité linéaire couplés
Celui-ci peut s'exprimer comme un unique problème de complémentarité linéaire :
Par ailleurs, lorsque est symétrique semi-définie positive, le problème Modèle:Math est équivalent au problème d'optimisation quadratique
En effet, dans les conditions énoncées, le problème d'optimisation quadratique est équivalent à ses conditions d'optimalité du premier ordre : il existe tel que
Après élimination du multiplicateur Modèle:Mvar, on obtient Modèle:Math.
Expression sous forme de problème d'optimisation quadratique
Considérons le problème d'optimisation quadratique en suivant :
Si le problème de complémentarité linéaire Modèle:Math est admissible, c'est-à-dire si , l'ensemble admissible du problème quadratique est non vide. Dans ce cas, ce problème quadratique a une solution (car son coût est borné inférieurement sur l'ensemble admissible - il y est positif, voir Frank et Wolfe, 1956[2]) et donc des points stationnaires. On note
l'ensemble des points stationnaires du problème d'optimisation quadratique . On a et, par le raisonnement précédent,
On a bien sûr
On notera cependant que (PQ) est, en général, un problème non convexe, si bien que la résolution de Modèle:Math passant par celle de (PQ) n'est guère aisée.
Cas particulier d'inéquation variationnelle
Un problème d'inéquation variationnelle sur est défini au moyen d'un produit scalaire sur , d'un ensemble non vide et d'une fonction . Il consiste à trouver un point tel que
Si le produit scalaire est le produit sclalaire euclidien , si est l'orthant positif et si , le problème d'inéquation variationnelle ci-dessus n'est autre que le problème de complémentarité linéaire Modèle:Math.
Reformulations au moyen d'équations
On peut exprimer le problème de complémentarité linéaire Modèle:Math au moyen d'équations, en général non lisses, c'est-à-dire non différentiables. Les fonctions qui interviennent dans cette formulation et dont on cherche un zéro sont appelées des C-fonctions (C pour complémentarité). Cette formulation est utilisée par des algorithmes de résolution.
On dit que est une C-fonction si
Une C-fonction permet donc de remplacer le problème Modèle:Math par le système d'équations non linéaires
où a sa composante définie par
On n'a pas intérêt à avoir des C-fonctions différentiables, car alors n'est pas inversible en une solution dégénérée Modèle:Mvar[3] (et donc l'algorithme de Newton ne fonctionne pas). Il semblerait que des C-fonctions non lisses conduisent à des algorithmes plus efficaces.
On trouvera ci-après quelques exemples de C-fonctions et leurs propriétés.
La C-fonction min
La C-fonction la plus simple est la fonction min :
Elle semble avoir été proposée pour la première fois par Kostreva (1976)[4] et Mangasarian (1977)[5]. On montre facilement qu'il s'agit bien d'une C-fonction. Dès lors
où la fonction min agit composante par composante : pour tout indice .
La C-fonction de Fischer-Burmeister
La fonction de Fischer-Burmeister[6]Modèle:,[7] est définie par :
On montre facilement qu'il s'agit d'une C-fonction, convexe, différentiable partout sauf en et que son carré est continûment différentiable.
Galerie de matrices adaptées
Les propriétés des problèmes de complémentarité linéaire dépendent, bien sûr, de celles de la matrice Modèle:Mvar. Ces propriétés sont très variées et ne dépendent pas d'un seul type de matrices. La situation est donc beaucoup plus complexe et très différente de celle rencontrée dans la résolution d'un système d'équations linéaires, dont les propriétés dépendent pour beaucoup de l'inversibilité de la matrice définissant le système. Nous énumérons ci-dessous quelques classes remarquables de matrices et les propriétés du problème de complémentarité linéaire Modèle:Math qui y sont associées. Ces classes de matrices ont souvent (mais pas toujours) des caractérisations algébriques qui permettent de reconnaître leurs membres.
- Les M-matrices sont celles qui assurent l'existence et l'unicité de solution pour le problème Modèle:Math, avec la propriété de monotonie suivante :
Modèle:SautModèle:Saut - Les matrices non dégénérées sont celles pour lesquelles, quel que soit , toute solution éventuelle de Modèle:Math est localement unique.
- Les matrices suffisantes en colonne sont celles qui assurent la convexité de l'ensemble des solutions , quel que soit .
- Les matrices suffisantes en ligne sont celles qui assurent que, quel que soit , l'ensemble des solutions est identique à l'ensemble des points stationnaires du problème quadratique associé (PQ).
- Les P-matrices sont celles qui assurent l'existence et l'unicité de solution pour le problème Modèle:Math, quel que soit [8].
- Les Q-matrices sont celles qui assurent l'existence de solution pour le problème Modèle:Math, quel que soit .
- Les [[Q0-matrice|QModèle:Ind-matrices]] sont celles qui assurent que le problème Modèle:Math a une solution lorsqu'il est réalisable.
- Les [[R0-matrice|RModèle:Ind-matrices]] sont celles qui assurent que est l'unique solution de Modèle:Math.
- Les S-matrices sont celles qui assurent que l'ensemble admissible , quel que soit .
- Les Z-matrices sont celles qui assurent l'existence d'un minimum (pour l'ordre de ) de Modèle:Math, qui est solution de Modèle:Math, pour tout Modèle:Mvar rendant l'ensemble admissible .
Existence de solution
On recense (au moins) deux stratégies pour démontrer qu'un problème de complémentarité linéaire a une solution. La première passe par le problème quadratique associé (PQ) et ses conditions d'optimalité. La seconde repose sur le théorème du point fixe de Brouwer. On ne pense pas aujourd'hui (2013) avoir fait le tour de la question, en particulier, parce qu'on ne sait pas décrire algébriquement la classe des Q-matrices, celles qui assurent l'existence d'une solution quel que soit le vecteur Modèle:Mvar.
Approche par l'optimisation
Dans cette approche, on cherche à montrer que le problème quadratique (PQ) a une valeur optimale nulle. Comme ce problème quadratique a une solution (Frank et Wolfe, 1956[2]), celle-ci est alors solution du problème de complémentarité linéaire Modèle:Math.
Par exemple, pour montrer que le problème de complémentarité linéaire a une solution dans le cas où Modèle:Mvar est une P-matrice, on écrit les conditions d'optimalité de (PQ) en une solution Modèle:Mvar : comme les contraintes sont qualifiées, il existe des multiplicateurs optimaux et Modèle:Mvar tels que
Il suffit alors de montrer que pour déduire de (c) que Modèle:Mvar est solution de Modèle:Math. Par quelques manipulations algébriques astucieuses, on peut obtenir qui implique que grâce à la P-matricité de , qui se déduit de celle de Modèle:Mvar.
Approche par point fixe
Dans cette approche, on commence par introduire un problème de complémentarité linéaire augmenté défini par
où et . Ce problème s'écrit comme un système de deux problèmes de complémentarité linéaire couplés, l'un en , l'autre en :
On voit que si l'on réussit à montrer que a une solution avec , Modèle:Mvar sera solution de Modèle:Math (par le problème Modèle:Math ci-dessus). Le plus souvent, on n'obtiendra ces circonstances qu'après un passage à la limite.
Existence de solution du problème augmenté
La première étape consiste donc à choisir et de telle sorte que le problème augmenté ait une solution. Voici deux résultats, le premier suppose que Modèle:Mvar est symétrique, le second pas.
La démonstration repose sur le fait que, dans les conditions énoncées, le problème d'optimisation quadratique
a une solution (Frank et Wolfe, 1956[2]). Celle-ci vérifie les conditions d'optimalité du premier ordre, qui ne sont autres que les conditions Modèle:Math et Modèle:Math ci-dessus.
Lorsque Modèle:Mvar n'est pas symétrique, on exprime comme un problème d'inéquation variationnelle dans lequel
Bien sûr est convexe et fermé. Pour le rendre non vide et borné (afin d'appliquer le théorème d'existence de solution d'une IV), il est naturel de prendre et . On obtient alors le résultat suivant.
Existence de solution du problème original
La seconde étape consiste à donner des conditions permettant de trouver une solution de Modèle:Math à partir d'une solution de . Le résultat suivant donne des conditions suffisantes pour que le multiplicateur dans Modèle:Math et Modèle:Math ci-dessus soit nul.
Dans les conditions nécessaires et suffisantes d'existence de solution du problème Modèle:Math données ci-dessous, on ne peut garantir que dans Modèle:Math et Modèle:Math ci-dessus, mais on suppose que des solutions d'une suite de problèmes augmentés , , sont telles que zéro adhère à .
On peut utiliser ce résultat pour montrer que
- les matrices strictement copositives sont des Q-matrices,
- un problème Modèle:Math avec Modèle:Mvar copositive et (dual positif) a une solution.
Méthodes de résolution
Comme on peut s'y attendre, il n'y a pas d'algorithme idéal pour résoudre un problème de complémentarité linéaire, mais un ensemble d'algorithmes qui sont, par leurs caractéristiques, plus ou moins adaptés à des classes particulières de problèmes.
Méthodes de pivotage
Les méthodes de pivotage ont une complexité pire-cas exponentielle. Pour une description des approches algorithmiques de ce type, voir Murty (1988), Cottle et Pang (2009).
Méthodes de points intérieurs
- Méthodes affines
- Méthodes de réduction du potentiel
- Méthodes de trajectoire centrale de type primal-dual
Méthodes non lisses
Méthodes non lisses brutes
La stratégie suivie ici consiste à exprimer le problème de complémentarité linéaire au moyen d'une C-fonction et à résoudre le système non lisse résultant par des itérations apparentées à celles de Newton.
Méthodes non lisses régularisées
On exprime le problème de complémentarité linéaire comme une équation non lisse à résoudre (voir la section Méthodes non lisses) et on régularise celle-ci. Cette régularisation dépend d'un paramètre que l'on réduit au cours des itérations. Voir par exemple, la contribution de Chen et Mangasarian (1995[9]).
Cette approche est apparentée à celle par points intérieurs. Leur analyse conduit à des résultats de convergence globale et locale rapide, sans résultat de complexité (contrairement aux algorithmes de points intérieurs).
Autres méthodes
Complexité
Annexes
Notes
Ouvrages généraux
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage, téléchargeable sur le site de l'auteur
- ↑ Modèle:Article.
- ↑ 2,0 2,1 et 2,2 Modèle:Article.
- ↑ Facchinei et Pang (2003), proposition 9.1.1.
- ↑ Modèle:Ouvrage.
- ↑ Modèle:Article.
- ↑ Modèle:Article.
- ↑ Modèle:Article.
- ↑ Modèle:Article.
- ↑ Modèle:Article