Théorème de Lochs
Modèle:Ébauche En mathématiques, et plus précisément en analyse, le théorème de Lochs, démontré en 1964 par Modèle:Lien, un élève de Kurt Reidemeister[1], est un résultat concernant la vitesse de convergence du développement en fraction continue d'un nombre réel typique.
Énoncé
Pour presque tous les nombres réels de l'intervalle ]0, 1[, le nombre m de termes du développement de ce réel en fraction continue permettant d'en obtenir les n premières décimales a le comportement asymptotique suivant :
On peut interpréter ce résultat comme affirmant que chaque terme supplémentaire de la représentation en fraction continue d'un réel « typique » donne une précision d'un peu plus d'une décimale supplémentaire. La base 10 est d'ailleurs la plus grande base pour laquelle la représentation positionnelle est moins précise (à ce sens) que celle en fraction continue : en base 11, la constante correspondante, , devient supérieure à 1.
- (Modèle:OEIS),
est le double du logarithme décimal de la constante de Lévy.
Notes et références
Modèle:Traduction/Référence Modèle:Références
Bibliographie
- Modèle:En Karma Dajani et Cor Kraaikamp, Ergodic theory of numbers, Cambridge University Press, 2002 Modèle:ISBN, Modèle:Google Livres
- Modèle:En C. Faivre, « A central limit theorem related to decimal and continued fraction expansion », Arch. Math., vol. 70, Modèle:N°, 1998, p. 455-463 Modèle:DOI