Système linéaire

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Confusion

Un système linéaire (le terme système étant pris au sens de l'automatique, à savoir un système dynamique) est un objet du monde matériel qui peut être décrit par des équations linéaires (équations linéaires différentielles ou aux différences), ou encore qui obéit au principe de superposition : toute combinaison linéaire des variables de ce système est encore une variable de ce système.

Les systèmes non linéaires sont plus difficiles à étudier que les systèmes linéaires. Néanmoins, en linéarisant (quand c'est possible) un système non linéaire autour d'un point d'équilibre ou d'une trajectoire, on obtient un système linéaire qui représente correctement le système non linéaire au voisinage de ce point d'équilibre ou de cette trajectoire [1]. La linéarisation d'un système non linéaire autour d'une trajectoire non réduite à un point d'équilibre engendre un système linéaire à coefficients variables (en fonction de temps), d'où l'importance qu'a pris ce type de systèmes et les études récentes qui lui ont été consacrées.

Souvent (mais pas toujours), on distingue parmi les variables d'un système S les variables d'entrée, rassemblées dans une colonne u, et les variables de sortie, rassemblées dans une colonne y ; le triplet (S,u,y) est alors appelé un système commandé[2] ou encore une dynamique[3].

Historique

Les systèmes linéaires n'ont tout d'abord été étudiés que dans le cas stationnaire (également appelé « invariant ») dans le formalisme des fonctions de transfert. Cette approche est parvenue à sa pleine maturité avec la publication du célèbre livre de Bode à la fin de la seconde guerre mondiale (réédité depuis)[4]. Les travaux de Bellman[5], Pontryagin et ses collaborateurs[6] et surtout de Kalman[7]Modèle:,[8] ont conduit nombre d'automaticiens à privilégier la représentation d'état à partir des années 1960.

Kalman a fait une théorie complète des systèmes linéaires stationnaires sous forme d'état et a mis en évidence la perte d'information induite par le formalisme de transfert, à savoir les « modes cachés ». Sous l'impulsion de Modèle:Lien, les automaticiens se sont attachés à obtenir des représentations plus intrinsèques des systèmes linéaires que dans la formulation kalmanienne : c'est ainsi que s'est développée à partir de la seconde moitié des années 1970 lModèle:'approche géométrique[9] qui conserve néanmoins la structure de la représentation d'état.

Vers le milieu des années 1980, Jan Willems a mis l'accent sur le fait qu'un système linéaire stationnaire général devait se définir comme étant le noyau, dans une puissance d'un espace fonctionnel approprié, d'une matrice à éléments dans un anneau d'opérateurs différentiels à coefficients constant s : c'est l'approche dite « comportementale » (Modèle:Lang-en)[10]Modèle:,[11].

En 1990, à partir de ses travaux sur les systèmes non linéaires, Fliess a proposé une approche alternative suivant laquelle un système est un module de présentation finie sur un anneau d'opérateurs différentiels[3]. Au même moment, et de manière indépendante, Oberst[12] établissait le lien entre les deux approches (la première qui met l'accent sur les solutions, la seconde sur les équations) grâce à des notions d'algèbre homologique. Ceci faisait disparaître la séparation qui existait encore entre la théorie des systèmes linéaires au sens de l'automatique, qui nous préoccupe ici, et la théorie des systèmes différentiels linéaires, telle que développée par Malgrange[13] à partir des idées de Grothendieck en géométrie algébrique[14]. Ces idées ont donné naissance par la suite à la théorie des D-modules sous l’impulsion de Satō (et de l'« école de Kyoto » qu'il a fondée, dont Masaki Kashiwara est aujourd'hui un représentant de premier plan[15]).

La conception moderne des systèmes linéaires a fait récemment l'objet d'une présentation systématique[16] ; l'étude des systèmes linéaires à coefficients variables en fonction du temps y occupe une place importante, et notamment la notion de pôle d'un tel système, avec la propriété de stabilité qui résulte de la position de ces pôles dans le plan complexe[17]. Cette généralisation ne pouvait être réalisée sans une utilisation des outils de l'analyse algébrique[18].

Représentation d'état

Modèle:Article détaillé

En automatique, un système linéaire de dimension finie est donné par la représentation d'état suivante :

{δx(t)=A(t)x(t)+B(t)u(t)y(t)=C(t)x(t)+D(t)u(t)

avec :

x(t)nx : un vecteur colonne qui représente les nx variables d'état ;
u(t)nu : un vecteur colonne qui représente les nu commandes ;
y(t)ny : un vecteur colonne qui représente les ny sorties ;
A(t)nx×nx : la matrice d'état ;
B(t)nx×nu : la matrice de commande (ou matrice d'entrée) ;
C(t)ny×nx : la matrice d'observation (ou matrice de sortie) ;
D(t)ny×nu : la matrice d'action directe.

et où δx(t) dénote x˙(t) ou x(t+1) suivant le contexte temps-continu ou temps-discret. Le cas stationnaire où les matrices ne dépendent pas du temps est dit linéaire temps-invariant, par opposition au cas instationnaire où les matrices dépendent du temps, et qui est dit linéaire temps-variant.

Systèmes linéaires en tant que conoyaux

Définition

Soit 𝐃 un anneau d'opérateurs différentiels, supposé intègre et admettant un corps de fractions, c'est-à-dire vérifiant la propriété d'Ore à gauche et à droite (tout anneau intègre noethérien à gauche et à droite vérifie cette condition[19]). On supposera que 𝐃=𝐊[]=d/dt𝐊 est un anneau différentiel et que 𝐊 est une -algèbre. Si a𝐊 et ƒ est un élément d'un 𝐃-module 𝐖 (module des fonctions indéfiniment dérivables, ou des distributions, ou des hyperfonctions, ou des germes de fonctions analytiques au voisinage de +∞, etc., suivant la nature des éléments de 𝐊), on a d'après la règle de Leibniz

(af)=a˙f+a(f)

aa˙ est la dérivation de 𝐊, dont est une extension. Comme ceci est vrai pour tout f𝐖 on a la relation de commutation

aa=a˙.

Un exemple typique est celui où 𝐊=[t]. L'anneau 𝐃 est alors (isomorphe à) la première algèbre de Weyl A1() qui est un anneau de Dedekind non commutatif et simple[19].

Un système linéaire défini sur 𝐃 est défini par une équation de la forme

R()g=0

R()𝐃q×k et où g est une colonne de q éléments qui engendrent un 𝐃 - module à gauche de présentation finie M (ce qu'on écrira M=[g]𝐃). De manière précise, on peut considérer la multiplication à droite par R(), notée (R()), comme un opérateur de 𝐃1×q dans 𝐃1×k. Si N est l'image de cet opérateur, M est le quotient de 𝐃1×k annulé par les éléments de N, à savoir le conoyau

M=𝐃1×q/N=coker𝐃(R()).

On notera que toute combinaison linéaire d'un nombre fini de variables de M et de leurs dérivées d'ordre quelconque (mais fini) est encore un élément de M, ce qu'on peut prendre pour définition même de la linéarité. D'autre part, contrairement à l'équation qui le définit « par générateurs et relations », M est un objet intrinsèque, dans le sens où il ne dépend pas de l'ordre dans lequel sont écrites les équations scalaires, ni de l'ordre dans lequel sont prises les variables, et plus généralement du choix des générateurs. On peut donc, au plan mathématique, identifier le système linéaire avec le module M.

Commandabilité

Le système M est commandable s'il ne contient pas de variable sur laquelle aucune action n'est possible. Une telle variable se caractérise par le fait qu'elle satisfait une équation différentielle autonome, c'est-à-dire qu'elle n'est pas libre (ou qu'elle est liée). Un module qui ne contient aucune variable liée est (par définition) un module sans torsion. Cette observation a conduit Oberst à poser qu'un système est commandable s'il est un module sans torsion[12]. Pour Fliess, qui suppose que 𝐊 est un corps différentiel, 𝐃 se trouve être un anneau principal. Dans ce cas, un module de type fini est sans torsion si, et seulement si, il est libre, et il a donc défini un système commandable comme étant un module libre[3].

Dans le cas considéré par Fliess[3], tout système admet une représentation d'état, et la définition de la commandabilité comme étant la liberté du module équivaut à la définition kalmanienne classique[8] (voir l'article Représentation d'état).

On notera que la commandabilité est définie ci-dessus sans qu'il ait été besoin de spécifier un choix des variables de commandes. Cette indépendance de la notion de commandabilité par rapport à celle de variable de commande a été observée en premier lieu par Willems[11].

Systèmes linéaires en tant que noyaux

Soit 𝐃 un anneau d'opérateurs différentiels vérifiant les mêmes conditions que ci-dessus, par exemple la première algèbre de Weyl A1() pour fixer les idées. Soit 𝐖 un 𝐃-module à gauche, par exemple l'espace des distributions sur la droite réelle. Notons

ker𝐖(R())={𝐰𝐖k:R()𝐰=0}.

Dans son « approche comportementale », Willems[11] définit le système associé à la matrice R() comme étant ce noyau. Il nous reste à établir la connexion qui existe entre celui-ci et le conoyau ci-dessus.

On peut identifier les éléments de 𝐖k avec les homomorphismes de 𝐃1×k dans 𝐖. Alors l'ensemble des homomorphismes de M=𝐃1×q/N s'identifient avec les homomorphismes de 𝐃1×k dans 𝐖 qui s'annulent sur N (voir l'article Module injectif). Par conséquent, on passe du conoyau M au noyau ci-dessus par le foncteur contravariant représentable 𝔅𝐖()=Hom𝐃(,𝐖).

Ce foncteur est additif et exact à gauche de la catégorie des 𝐃-modules à gauche dans celle des -espaces vectoriels. Ce foncteur est injectif (et permet donc de remonter du noyau au conoyau, ou par abus de langage des solutions aux équations) si, et seulement si 𝐖 est un « cogénérateur » (notion qui est classique en algèbre homologique). Il est bijectif et dualisant entre la catégorie des 𝐃-modules à gauche et la catégorie image si, et seulement si 𝐖 est un « cogénérateur injectif ». C'est la situation la plus favorable.

Lorsque 𝐊=, les 𝐃-modules suivants sont des cogénérateurs injectifs[12] :

(a) l'espace des combinaisons linéaires d'exponentielles-polynômes, ζ[t]etζ,
(b) l'espace des fonctions indéfiniment dérivables sur la droite réelle,
(c) l'espace des distributions sur la droite réelle.

Lorsque 𝐊=(t), l'espace 𝒪 des germes des fonctions analytiques dans un intervalle de la forme ]A,+[ de la droite réelle est un cogénérateur injectif[16].

Lorsque 𝐊=[t], on ne connaît pas de cogénérateur injectif qui soit un espace rencontré en analyse. La situation est différente lorsque 𝐊=(t)𝒪𝒪 désigne l'espace des fonctions analytiques sur la droite réelle. Dans ce cas, l'espace des hyperfonctions est un cogénérateur injectif[20]. Cet exemple montre que pour un type de système linéaire donné, on doit mettre en jeu à la fois l'anneau 𝐃 et l'espace 𝐖 appropriés. C'est le principe même de l’analyse algébrique.

Dans les exemples ci-dessus l'approche par conoyaux (« équations ») et celle par noyaux (« solutions ») sont équivalentes.

Notes et références

Notes

Modèle:Références

Références

Voir aussi

Modèle:Palette Automatique Modèle:Portail

  1. Dans certains problèmes où interviennent des systèmes non linéaires du second ordre, il peut être commode d'utiliser la « linéarisation équivalente », parfois dite « optimale ».
  2. Modèle:Harvsp
  3. 3,0 3,1 3,2 et 3,3 Modèle:Harvsp
  4. Modèle:Harvsp
  5. Modèle:Harvsp
  6. Modèle:Harvsp
  7. Modèle:Harvsp
  8. 8,0 et 8,1 Modèle:Harvsp
  9. Modèle:Harvsp
  10. Modèle:Harvsp
  11. 11,0 11,1 et 11,2 Modèle:Harvsp
  12. 12,0 12,1 et 12,2 Modèle:Harvsp
  13. Modèle:Harvsp
  14. Modèle:Harvsp
  15. Modèle:Harvsp
  16. 16,0 et 16,1 Modèle:Harvsp
  17. Modèle:Harvsp
  18. Il s'agit d'une discipline qui vise à résoudre des problèmes d'analyse en utilisant des structures algébriques (théorie des modules de présentation finie sur un anneau d'opérateurs, par exemple différentiels) et leur « dualisation » (celle-ci étant la base de l'algèbre homologique).
  19. 19,0 et 19,1 Modèle:Harvsp
  20. Modèle:Harvsp