Master theorem

De testwiki
Version datée du 16 décembre 2024 à 11:26 par 138.195.241.248 (discussion)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Modèle:Titre en italique Modèle:Confusion En informatique, et plus particulièrement en analyse de la complexité des algorithmes, le master theorem ou théorème sur les récurrences de partition[1] permet d'obtenir une solution en termes asymptotiques (en utilisant les notations en O) pour des relations de récurrence d'un certain type rencontrées dans l'analyse de complexité d'algorithmes qui sont régis par le paradigme diviser pour régner.

L'énoncé sur les expressions asymptotiques de ces récurrences a été nommé « master theorem » dans la version anglaise du manuel Introduction to Algorithms de Cormen, Leiserson, Rivest et Stein[2]; dans sa traduction française[3], le théorème est appelé le « théorème général ». L'approche a été présentée notamment en 1980 par Jon Bentley, Dorothea Haken, et James B. Saxe[4]. Le théorème couvre un certain nombre de types de récurrences ; une extension à d'autres expressions est fournie par ce que l’on appelle la méthode d'Akra-Bazzi.

Introduction

Considérons un problème qui peut être résolu par un algorithme récursif de la famille diviser pour régner qui opère comme suit : on partage une instance de taille n en sous-problèmes. Il y a a sous-problèmes et chacun est de taille n/b. On résout ces sous-problèmes puis on recombine les solutions partielles en une solution du problème initial. On peut imaginer cette approche comme la construction d'un arbre, où chaque nœud est un appel récursif, et les enfants sont les instances appelées. Dans le cas décrit ci-dessus, chaque nœud possède a enfants. Chaque nœud répartit les données entre ses enfants et récupère les résultats partiels pour les synthétiser et obtenir la solution globale. La répartition des données entre enfants et l'intégration des résultats ont bien entendu également un coût qui, pour un problème de taille n, est noté par f(n).

La complexité en temps des algorithmes de cette nature est exprimée par une relation de récurrence de type :

T(n)=aT(nb)+f(n).

On peut développer cette relation, en substituant la définition dans la partie droite de l'équation pour obtenir une expression pour le coût total au cas par cas[5]. Mais une expression comme celle fournie par le « master theorem », permet d'exprimer la complexité asymptotique sans passer par un développement explicite.

Forme générale

Les relations de récurrence concernées ont la forme suivante :

T(n)=aT(nb)+f(n), avec a1,b>1.

Dans les applications à l'analyse d'algorithmes récursifs, les paramètres ont la signification suivante :

  • n est la taille du problème ;
  • a est le nombre de sous-problèmes dans lesquels il est divisé ; c'est un entier supérieur ou égal à 1 ;
  • n/b est la taille de chaque sous-problème. Si n/b n'est pas un entier, on le remplace par sa partie entière inférieure ou supérieure. On peut prouver que cela ne change pas l'expression asymptotique, et les sous-problèmes ont tous pratiquement la même taille ;
  • f(n) est le coût de gestion en dehors des appels récursifs, ce qui inclut le partage en sous-problèmes et la recombinaison des solutions des sous-problèmes.

On peut déterminer des bornes asymptotiques exactes dans trois cas, selon l'importance du surcoût mesuré par la croissance de la fonction f(n). Pour cela, on exprime sa croissance par l'ordre de grandeur nc, où c mesure le rapport entre a et bc. Ce rapport est exprimé en prenant le logarithme en base b, donc en comparant c à logba. Les trois cas couverts par le théorème sont :

  1. - f(n)=O(nc)c<logba
  2. - f(n)=Θ(nclogkn)k est une constante et c=logba
  3. - f(n)=Ω(nc)c>logba et de plus af(n/b)kf(n) pour une constante k<1 et n assez grand.

Énoncé général

On suppose donnée la relation de récurrence de la forme :

T(n)=aT(nb)+f(n), avec a1,b>1.

f est une fonction à valeurs entières positives. Le « master theorem » s'énonce comme suit :

1.- Si f(n)=O(nc) avec c<logba, alors

T(n)=Θ(nlogba).

2.- Si f(n)=Θ(nclogkn) avec c=logba et une constante k0, alors

T(n)=Θ(nclogk+1n).

3.- Si f(n)=Ω(nc) avec c>logba et s'il existe une constante k<1 telle que, pour n assez grand, on a : af(nb)kf(n) (cette condition est appelée parfois la « condition de régularité »), alors on a :

T(n)=Θ(f(n))

Énoncé avec la notation de Landau

Supposons la relation de récurrence suivante :

T(n)=aT(nb)+O(nd)

Le « master theorem » permet d'obtenir une expression de la complexité de T(n) comme suit :

1.- Si d<logba alors T(n)=O(nlogba).

2.- Si d=logba alors T(n)=O(ndlogbn).

3.- Si d>logba alors T(n)=O(nd).

Exemples

Cas 1

C'est le cas où f(n)=O(nc) avec c<logba. Le théorème affirme qu'alors T(n)=Θ(nlogba).

Exemple

La relation

T(n)=8T(n2)+1000n2

entre dans ce cas avec a=8,b=2,c=2, et l'hypothèse sur c est bien vérifiée puisque logba=log28=3>c. Par l'énoncé, on a

T(n)=Θ(nlogba)=Θ(n3).

On peut vérifier directement que, si T(1)=1, alors

T(n)=1001n31000n2.

Cas 2

Dans ce cas, f(n)=Θ(nclogkn) pour une constante k0 et c=logba. Le théorème affirme qu'alors T(n)=Θ(nclogk+1n).

Exemple

La relation

T(n)=2T(n2)+10n

entre dans ce cas avec a=2,b=2,c=1,k=0,f(n)=10n=Θ(nclogkn). Comme logba=log22=1, on a bien c=logba et par l'énoncé, on a

T(n)=Θ(nlogbalogk+1n)=Θ(n1log1n)=Θ(nlogn) .

À nouveau, la solution exacte de la récurrence (avec T(1)=1) qui est

T(n)=n+10nlog2n

confirme les conclusions.

Cas 3

C'est le cas où f(n)=Ω(nc) avec c>logba et où il existe une constante k<1 telle que, pour n assez grand, on a af(nb)kf(n). Le théorème affirme qu'alors on a : T(n)=Θ(f(n)).

Exemple La relation

T(n)=2T(n2)+n2

entre dans ce cas avec a=2,b=2,c=2,f(n)=n2=Ω(nc). On a bien 2=c>logba=log22=1 et, en choisissant k=1/2, la condition de régularité s'écrit

2n24kn2

et est bien vérifiée. L'énoncé assure donc que

T(n)=Θ(f(n))=Θ(n2)..

Ici encore, le résultat est confirmé par la solution exacte de la relation de récurrence qui est T(n)=2n2n, en supposant T(1)=1.

Équations non couvertes

Les équations suivantes sont des exemples de relations qui n'entrent pas de le cadre des trois cas du « master theorem »[6] :

  • T(n)=2nT(n2)+n. Ici, le paramètre a n'est pas une constante ; le nombre de sous-problèmes devrait ne pas varier.
  • T(n)=2T(n2)+nlogn. Ici, la différence entre f(n) et nlogba n'est pas polynomialement bornée (voir plus bas).
  • T(n)=64T(n8)n2logn. Ici, f(n) qui est le coût de la décomposition-recombinaison est négatif.
  • T(n)=T(n2)+n(2cosn). Ici, on est bien dans le cas 3 mais la condition de régularité n'est pas satisfaite.

Dans le deuxième exemple ci-dessus, la différence entre f(n)=n/logn et nlogba=n peut être étudiée à l'aide du quotient

f(n)nlogba=nnlogn=1logn.

On voit que 1/logn<nϵ pour toute constante ϵ>0. La différence n'est donc pas polynomialement bornée, et le « master theorem » ne s'applique pas.

Extension

Une forme de récurrence plus générale est

T(n)=i=1mT(αin)+f(n),

où les nombres αi vérifient 0<αi<1, et m1. Ici, on ne suppose donc pas que les sous-problèmes ont la même taille. On étend la fonction T aux nombres réels en posant T(x)=T(x) ou T(x) si x n'est pas entier.

On a alors l’énoncé suivant. Si f(n)Θ(nc) pour un entier c>0, alors

T(n){Θ(nc)si i=1m(αic)<1Θ(nclogn)si i=1m(αic)=1Θ(nγ) avec γ défini par i=1m(αiγ)=1si i=1m(αic)>1.

Application à des algorithmes courants

Algorithme Relation de récurrence Complexité en temps Commentaire
Recherche dichotomique T(n)=T(n2)+O(1) O(logn) Appliquer le « master theorem » avec c=logba, et a=1,b=2,c=0,k=0[7]
Parcours d'arbre binaire T(n)=2T(n2)+O(1) O(n) Appliquer le « master theorem » avec c<logba et a=2,b=2,c=0[7]
Trouver la valeur médiane T(n)=T(n2)+O(n) O(n)
Tri fusion T(n)=2T(n2)+O(n) O(nlogn) Appliquer le « master theorem » avec c=logba, où a=2,b=2,c=1,k=0.

Commentaire

L’énoncé du « master theorem » couvre également des situations comme par exemple la récurrence

T(n)=T(n/2)+T(n/2)+n

telle qu'elle se présente dans le tri fusion. Nous avons vu que l’on obtient les mêmes bornes asymptotiques en enlevant simplement les parties entières dans les formules de récurrence. Ainsi, la formule pour le tri fusion est équivalente à celle de la table[7].

Notes et références

Modèle:Références Modèle:Traduction/Référence

Bibliographie

Modèle:Portail

  1. Terminologie utilisée dans le cours d'algorithmique de Paul Gastin.
  2. Modèle:Harvsp.
  3. Modèle:Harvsp.
  4. Modèle:Article.
  5. Big-Oh for « Recursive Functions: Recurrence Relations » sur le site de la Duke University
  6. Modèle:Lien brisé, Massachusetts Institute of Technology (MIT).
  7. 7,0 7,1 et 7,2 Section 5.2 The Master Theorem, Dartmouth College.