Présentation
RÉSUMÉ
L’automatique est un terme qui regroupe l'ensemble des techniques permettant d'agir sur un système dynamique de dimension finie. Ces systèmes sont, dans le majorité des cas, gouvernés par des équations différentielles. Cet article traite de la commande ou du contrôle de systèmes gouvernés, cette fois-ci, par des équations aux dérivées partielles, et donc déclarés de dimension infinie. Le système distribué est un état dans lequel se produisent les phénomènes modélisés par l'équation aux dérivées. Dans ce cadre, l’étude du contrôle de systèmes stationnaires (indépendants du temps) est tout à fait pertinente, cette approche est d’ailleurs retenue pour aborder le sujet.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
Automatic is a term that regroups the techniques which allow to act on a dynamic system with finite dimensions. Most of these systems are ruled by differential equations. This article deals with the command or control of systems ruled, this time, by partial differential equations and thus declared of finite dimensions. The distributed system is a state in which phenomena occur modeled by the differential equation. Within this framework, the study of the control of stationary systems (independent from time) is quite relevant and this approach is selected to deal with the subject matter.
Auteur(s)
-
Jean-Pierre YVON : Professeur à l'Institut national des sciences appliquées (INSA) de Rennes
INTRODUCTION
Ce qu'on appelle classiquement l'automatique est un terme qui regroupe l'ensemble des techniques permettant d'agir sur un système dynamique pour lequel x (t), état du système à l'instant t, est un vecteur de , donc de dimension finie. Ces systèmes sont, dans le majorité des cas, gouvernés par des équations différentielles, linéaires ou non (cf. ) dans cette base documentaire (réf. ).
L'objet de cet article est de traiter de la commande ou du contrôle (les termes sont équivalents) de systèmes gouvernés par des équations aux dérivées partielles. La différence essentielle réside dans le fait que, à chaque instant t, l'état du système, noté maintenant y(t), est une fonction d'une variable d'espace x (on le notera donc également y(x, t)) ; on peut donc considérer y(t) comme un élément d'un espace fonctionnel qui n'est pas de dimension finie, d'où la terminologie de système dynamique en dimension infinie. Le terme de système distribué, qui semble s'être imposé dans la littérature (« distributed system » en anglais), provient du fait que y(t) est un état « distribué » sur le domaine Ω de l'espace , n = 1, 2, 3, dans lequel se produisent les phénomènes modélisés par l'équation aux dérivées partielles. Il y a donc des liens très étroits avec l'automatique qui seront largement soulignés dans la présentation des problèmes et des méthodes.
Une particularité de ce sujet est que l'étude du contrôle de systèmes stationnaires (indépendants du temps) est tout à fait pertinente et c'est d'ailleurs par ce type de situations que l'on peut aborder le sujet.
Enfin il y a lieu d'indiquer que de nombreux problèmes qui, a priori, ne se posent pas en termes de problème de commande optimale, s'y ramènent de manière naturelle : c'est le cas, par exemple, des problèmes d'identification de paramètres et d'optimisation de formes.
Le lecteur trouvera dans l'annexe, au paragraphe 8, de brefs rappels et en des indications bibliographiques pour tout ce qui concerne les équations aux dérivées partielles intervenant dans cet article.
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
2. Existence et unicité du contrôle optimal
2.1 Résultat général
La situation la plus simple correspond au cas où l’espace des contrôles est un espace de Hilbert réel, la fonction coût J étant définie sur (ou éventuellement une partie de ). Un théorème général d’existence et d’unicité d’un contrôle optimal est le suivant :
Théorème 1. Soit une partie convexe fermée de . On suppose que J est convexe, continue sur et que :
Alors il existe u ∈ tel que :
De plus, si J est strictement convexe, il y a unicité de u.
Remarque 3
Ce théorème a une portée pratique assez limitée car, notamment dans le cas où l’équation d’état est non linéaire, la...
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Existence et unicité du contrôle optimal
DANS NOS BASES DOCUMENTAIRES
ANNEXES
Scilab : plate-forme open source de calcul scientifique produite par Digiteo
J. P. Yvon (auteur de ce texte) :
HAUT DE PAGECet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive