Présentation
EnglishRÉSUMÉ
L'objet de la commande optimale est l'optimisation de systèmes dynamiques suivant différents objectifs : atteinte d'une cible en temps ou énergie minimale, maximisation du rendement d'un processus industriel par exemple. Pour cela on joue à la fois sur des paramètres indépendants du temps et sur les commandes qui, elles, dépendent du temps. L'article analyse les conditions d'optimalité du premier et second ordre, et leur résolution par discrétisation temporelle, algorithme de tir, ou programmation dynamique.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
J. Frédéric BONNANS : Directeur de recherche INRIA - INRIA et centre de mathématiques appliquées, école polytechnique, Palaiseau
INTRODUCTION
On dit qu’un système dynamique est commandé s’il est possible d’agir sur lui par des variables dépendant du temps, appelées commandes . Illustrons ce concept dans le cas d’un engin spatial, décrit par des variables de position et vitesse (dans ) h et V, et une masse m > 0, soit 7 variables d’état. La dynamique est, omettant l’argument temps, , et . Ici c est une constante positive et F (h, V) correspond aux forces de gravité et (le cas échéant) aérodynamiques. La commande est la force appliquée, dont on a noté la norme euclidienne par , soumise à une contrainte du type . Étant donné un point initial fixé, on cherche à atteindre une cible (partie de l’espace d’état) en minimisant un compromis entre temps de parcours et énergie dépensée.
Pour l’implémentation en temps réel d’une commande il est nécessaire de prendre en compte les moyens d’observations et la reconstitution de l’état, en considérant des aspects de traitement du signal et le choix de l’électronique de commande. Au contraire, dans cet article, nous ne considérons que l’étude amont, dans laquelle on se donne un cadre déterministe et on calcule donc hors ligne une commande optimale. L’allure de cette dernière pourra guider la conception de la commande en temps réel.
L’exposé suivra d’abord l’approche de Lagrange et Pontriaguine qui consiste à étudier les variations d’une trajectoire optimale pour déterminer les propriétés de cette dernière. On analysera les conditions d’optimalité du premier et second ordre, en lien avec l’algorithme de tir, avec une attention toute particulière pour les problèmes avec contraintes sur l’état. Dans une seconde partie, on abordera l’approche par programmation dynamique et équation de Hamilton-Jacobi-Bellman (HJB). Après avoir introduit la notion de solution de viscosité de l’équation HJB, on présentera les problèmes de temps d’arrêt et de commande impulsionnelle, et on finira par l’étude des schémas de résolution numérique.
MOTS-CLÉS
systèmes dynamiques suivi de trajectoire temps minimal algorithme de tir programmation dynamique
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
10. Schémas numérique pour l'équation HJB
On suppose dans cette section les fonctions de coût et dynamique lipschitziennes et bornées. Nous commençons par la discrétisation du problème à horizon fini (121).
10.1 Différences finies, état scalaire
On se donne un nombre de pas de temps N et donc un pas de temps h0 := T/N ; les instants de discrétisation sont les tk := kh 0, k = 0 à N. Le pas d'espace est h 1 > 0, et les points de la grille spatiale sont les xj := jh 1, On approxime V(xj , tk ) par la quantité calculée de manière rétrograde ; la condition finale naturelle est :
Comme l'équation HJB (127) est l'expression différentielle du principe de programmation dynamique, qui nécessite d'évaluer la valeur au point obtenu par intégration du système dynamique, il est naturel d'approcher la dérivée en espace par décentrage à droite si f (u, xj ) est positif, et par décentrage à gauche sinon, ce qui donne le schéma...
?xml>Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Schémas numérique pour l'équation HJB
BIBLIOGRAPHIE
-
(1) - ARONNA (M.S.), BONNANS (J.F.), MARTINON (P.) - A shooting algorithm for optimal control problems with singular arcs - J. Optim. Theory Appl., 158 (2) : 419-459 (2013).
-
(2) - BARDI (M.), CAPUZZO-DOLCETTA (I.) - Optimal control and viscosity solutions of Hamilton-Jacobi-Bellman equations - Birkhäuser, Boston, MA (1997).
-
(3) - BARLES (G.) - Solutions de viscosité des équations de Hamilton-Jacobi - Springer-Verlag, Paris (1994).
-
(4) - BAYEN (T.), RAPAPORT (A.), SEBBAH (M.) - Minimal time control of the two tanks gradostat model under a cascade inputs constraint - SIAM J. Control Optim. 52 (4) : 2568-2594 (2014).
-
(5) - BELLMAN (R.) - Dynamic programming - Princeton University Press, Princeton, N. J. (1957).
-
(6) - BETTS (J.T.) - Practical methods...
DANS NOS BASES DOCUMENTAIRES
ANNEXES
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive