Entropie (mathématiques)

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Voir homonymes Modèle:Ébauche En mathématiques, l'entropie est une quantité réelle mesurant en un certain sens la complexité d'un système dynamique.

Entropie topologique

Modèle:Article détaillé

Entropie métrique

Modèle:Article détaillé

Théorème du principe variationnel

Modèle:Article détaillé

Le théorème du principe variationnel permet de faire le lien entre l'entropie topologique et l'entropie métrique. D'après le théorème de Krylov-Bogolyubov, tout système dynamique continu sur un espace métrique compact admet au moins une mesure de probabilité borélienne invariante. Le théorème du principe variationnel[1] affirme que l'entropie topologique de f est la borne supérieure des entropies métriques de f associées aux différentes probabilités boréliennes invariantes. Modèle:ThéorèmeEn général, cette borne supérieure n'est pas atteinte[2]. Cependant, si l'application μhμ(f):M(X,f) est semi-continue supérieurement, il existe alors une mesure d'entropie maximale, c'est-à-dire une mesure μ dans M(X,f) vérifiant hμ(f)=h(f).

Références

Voir aussi


Modèle:Portail