Démonstrations du théorème du minimax

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Article principal Modèle:Ébauche

Cet article ne fait que recenser des preuves du théorème du minimax de John von Neumann. L'énoncé du théorème ainsi qu'une présentation globale de la variété de ses démonstrations sont disponibles dans l'article principal Théorème du minimax de von Neumann auquel on se réfèrera donc.

Toutes les preuves commencent par la même remarque, selon laquelle l'inégalité max-min maxYΔnminXΔkYTAXminXΔkmaxYΔnYTAXest satisfaite, information signalée dans l'article principal qu'on supposera donc connue ici.

Preuves par arguments de convexité

La preuve de Jean Ville

La preuve qui suit ci-dessous est une variante de celle de Jean Ville et n'utilise que des arguments de convexité élémentaires[Note 1].

Supposons que l'inégalité entre le maximin et le minimax soit stricte, et introduisons une constante c strictement comprise entre ces deux réels. Si on retranche c à tous les coefficients de A, la quantité YTAX est diminuée de c pour chaque (X,Y)Δk×Δn. Quitte à modifier A de cette façon, on peut donc supposer c=0.

Il nous suffit ainsi de montrer qu'il est impossible que le maximin soit strictement négatif tandis que le minimax est strictement positif.

Dans l'espace des vecteurs-colonnes à n entrées, notons Cj (1jk) les colonnes de la matrice A et Ei (1in) la base canonique. Introduisons K enveloppe convexe des Cj et des Ei : K est un convexe compact. Soit enfin Y1 la projection de 0 sur ce convexe fermé.

Modèle:1er : Y1=0. On va montrer que minXΔnmaxYΔnYTAX0, ce qui impliquera via l'inégalité max-min que maxYΔnminXΔnYTAX0.

Si Y1=0, ceci signifie que 0K. Comme Kest convexe, cela signifie qu'il existe des réels positifs ou nuls αj et βi dont un au moins n'est pas nul et pour lesquels 1jkαjCj+1inβiEi=0, ce qui se réécrit 1jkαjCj=(β1βn)T(*).

Dans cette égalité il n'est pas possible que tous les αj soient nuls (cela entraînerait la nullité de tous les βi) et cela a donc un sens de considérer le vecteur X0=(α11jkαjαk1jkαj)T. L'identité (*) assure alors que AX0 est à coefficients négatifs ou nuls. Chaque vecteur YΔn étant à coefficients positifs ou nuls, le produit matriciel YTAX0 est donc négatif ou nul. Par conséquent le maximum maxYΔnYTAX0 est lui-même négatif ou nul, et enfin le minimax, qui est lui-même inférieur ou égal à maxYΔnYTAX0, est lui aussi négatif ou nul.

Modèle:2nd cas : Y10. On va montrer que maxYΔnminXΔnYTAX0, ce qui impliquera via l'inégalité max-min que minXΔnmaxYΔnYTAX0.

Notons Y1=(γ1γn)T. Pour chaque i, puisque Y1 est la projection de 0 sur K qui est convexe, et que Ei est un élément de K, on peut écrire l'inégalité Y10,Y1Ei0 dont on déduit Y12γi : le vecteur Y1 est donc à coefficients strictement positifs. En exploitant de même pour chaque j l'inégalité Y10,Y1Cj0, on constate que chaque Y1,Cj est un réel positif, et donc que le vecteur ligne Y1TA=(Y1,C1Y1,Ck) est à coefficients positifs. Il n'y a plus qu'à introduire Y0=11inγiY1 ; c'est un élément de Δn pour lequel le vecteur ligne Y0TA est à coefficients positifs. On finit alors comme au premier cas : on en déduit successivement que pour tout XΔn, Y0TAX est un réel positif, et donc que minXΔnY0TAX est un réel positif, et enfin que maxYΔnminXΔnYTAX est positif.

Démonstration par la dualité en optimisation linéaire

On se référera à l'article Théorème du minimax de von Neumann pour de multiples informations sur le théorème et à l'article Optimisation linéaire pour les notations utilisées dans l'écriture des problèmes d'optimisation linéaire.

Notations :

  • e désigne un vecteur dont tous les éléments valent 1 et dont la dimension dépend du contexte,
  • pour deux vecteurs u et vp, l'écriture uv signifie que uivi pour tout indice i,
  • Δp:={zp:ez=1,z0} désigne le simplexe unité de p,
  • A est une matrice réelle de type n×k.

Le théorème du minimax de von Neumann affirme que Modèle:Bloc emphase On note α [resp. β] le membre de gauche [resp. de droite] de cette identité que l'on va à présent démontrer.

Commençons par deux observations simples à démontrer :

  1. quitte à augmenter d'une même quantité tous les coefficients de A, on peut supposer que α>0 et β>0, ce que nous ferons,
  2. max{vx:xΔk} est le plus grand élément de v et min{vx:xΔk} est le plus petit élément de v.

Par ailleurs tous les problèmes d'optimisation dans l'identité de von Neumann ont une solution car on y minimise ou maximise des fonctions continues sur un simplexe (un compact non vide) ; pour le problème externe du membre de droite (le raisonnement est le même pour celui du membre de gauche), on utilise le fait que l'application ymax{yAx:xΔk} est continue comme fonction convexe (enveloppe supérieure de fonctions convexes) ne prenant que des valeurs finies. L'utilisation des opérateurs min et max (au lieu de inf et sup) est donc justifiée.

On peut alors écrire la suite d'équivalences suivantes :

βtyΔn,max{yAx:xΔk}t[définition deβ]yn:y0,ey=1,Ayte[observation 2]yn:y0,ey=1/t,Aye[yty,t>0]1/tsup{ey:y0,Aye}.

Dès lors

1β=maxy0Ayeey.

Il s'agit bien d'un max, car ce problème d'optimisation linéaire est réalisable (par les équivalences ci-dessus) et borné (sa valeur optimale est 1/β, qui est finie) ; il a donc une solution. Un calcul similaire montre que

1α=minx0Axeex.

Par le résultat de dualité forte en optimisation linéaire (les deux problèmes d'optimisation linéaire sont duaux l'un de l'autre et ont une solution ; il n'y a donc pas de saut de dualité, ce qui veut dire que les valeurs optimales sont égales), on obtient alors

1β=maxy0Ayeey=minx0Axeex=1α.

Le résultat est démontré.

Notes

Modèle:Références

Bibliographie

  • Modèle:Ouvrage. (Ce livre contient une démonstration du théorème du minimax à partir du théorème de dualité en optimisation linéaire ainsi que la démonstration de ce dernier.)

Modèle:Portail
Erreur de référence : Des balises <ref> existent pour un groupe nommé « Note », mais aucune balise <references group="Note"/> correspondante n’a été trouvée