Présentation

Article

1 - NOTATIONS

2 - CADRE MATHÉMATIQUE

  • 2.1 - Système dynamique commandé et critère associé
  • 2.2 - Différents types de contraintes
  • 2.3 - Un format général

3 - CONTRAINTES SUR LA COMMANDE

  • 3.1 - Dérivée du critère
  • 3.2 - Conditions du premier ordre avec contraintes sur la commande
  • 3.3 - Principe du minimum de Pontriaguine (PMP)

4 - PRINCIPE DE PONTRIAGUINE AVEC CONTRAINTES AUX DEUX BOUTS

  • 4.1 - Lagrangien et état adjoint
  • 4.2 - Conservation du préhamiltonien
  • 4.3 - Paramètres de décision
  • 4.4 - Horizon variable
  • 4.5 - Temps minimal, géodésiques

5 - ALGORITHME DE TIR ET DISCRÉTISATION DU PROBLÈME

  • 5.1 - Problèmes sans contraintes
  • 5.2 - Problèmes avec contraintes aux deux bouts
  • 5.3 - Discrétisation du problème

6 - CONDITIONS D’OPTIMALITÉ DU SECOND ORDRE

  • 6.1 - Développements du critère réduit
  • 6.2 - Expression du hessien du critère réduit
  • 6.3 - Extension au cas de contraintes aux deux bouts
  • 6.4 - Lien avec l’algorithme de tir

7 - PROBLÈMES AVEC CONTRAINTES SUR L’ÉTAT

  • 7.1 - Principe de Pontriaguine
  • 7.2 - Ordre des contraintes sur l’état et conditions de jonction
  • 7.3 - Système d’optimalité alternatif

8 - PROBLÈMES AFFINES EN LA COMMANDE

  • 8.1 - Cadre : coût final et temps optimal
  • 8.2 - Arcs bang et singuliers
  • 8.3 - Cas particuliers — Problèmes de dimension 2 et 3
  • 8.4 - Contraintes sur l'état

9 - PROGRAMMATION DYNAMIQUE

  • 9.1 - Principe de programmation dynamique
  • 9.2 - Équation Hamilton-Jacobi-Bellman (HJB)
  • 9.3 - Solution de viscosité
  • 9.4 - Problèmes en horizon infini
  • 9.5 - Problèmes de temps d'arrêt
  • 9.6 - Commande impulsionnelle

10 - SCHÉMAS NUMÉRIQUE POUR L'ÉQUATION HJB

  • 10.1 - Différences finies, état scalaire
  • 10.2 - État multidimensionnel
  • 10.3 - Problèmes en horizon infini
  • 10.4 - Problèmes de temps d'arrêt
  • 10.5 - Algorithmes semi-lagrangiens
  • 10.6 - Bilan sur les méthodes numériques pour l'équation HBJ

11 - CONCLUSION

Article de référence | Réf : AF1374 v1

Cadre mathématique
Commande optimale

Auteur(s) : J. Frédéric BONNANS

Date de publication : 10 avr. 2015

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais English

RÉSUMÉ

L'objet de la commande optimale est l'optimisation de systèmes dynamiques suivant différents objectifs : atteinte d'une cible en temps ou énergie minimale, maximisation du rendement d'un processus industriel par exemple. Pour cela on joue à la fois sur des paramètres indépendants du temps et sur les commandes qui, elles, dépendent du temps. L'article analyse les conditions d'optimalité du premier et second ordre, et leur résolution par discrétisation temporelle, algorithme de tir, ou programmation dynamique.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • J. Frédéric BONNANS : Directeur de recherche INRIA - INRIA et centre de mathématiques appliquées, école polytechnique, Palaiseau

INTRODUCTION

On dit qu’un système dynamique est commandé s’il est possible d’agir sur lui par des variables dépendant du temps, appelées commandes . Illustrons ce concept dans le cas d’un engin spatial, décrit par des variables de position et vitesse (dans 3 ) h et V, et une masse m > 0, soit 7 variables d’état. La dynamique est, omettant l’argument temps, h˙=V , mV˙=F(h,V)+u et m˙=c|u| . Ici c est une constante positive et F  (h, V) correspond aux forces de gravité et (le cas échéant) aérodynamiques. La commande est la force appliquée, dont on a noté la norme euclidienne par |u| , soumise à une contrainte du type |u|U . Étant donné un point initial fixé, on cherche à atteindre une cible (partie de l’espace d’état) en minimisant un compromis entre temps de parcours et énergie dépensée.

Pour l’implémentation en temps réel d’une commande il est nécessaire de prendre en compte les moyens d’observations et la reconstitution de l’état, en considérant des aspects de traitement du signal et le choix de l’électronique de commande. Au contraire, dans cet article, nous ne considérons que l’étude amont, dans laquelle on se donne un cadre déterministe et on calcule donc hors ligne une commande optimale. L’allure de cette dernière pourra guider la conception de la commande en temps réel.

L’exposé suivra d’abord l’approche de Lagrange et Pontriaguine qui consiste à étudier les variations d’une trajectoire optimale pour déterminer les propriétés de cette dernière. On analysera les conditions d’optimalité du premier et second ordre, en lien avec l’algorithme de tir, avec une attention toute particulière pour les problèmes avec contraintes sur l’état. Dans une seconde partie, on abordera l’approche par programmation dynamique et équation de Hamilton-Jacobi-Bellman (HJB). Après avoir introduit la notion de solution de viscosité de l’équation HJB, on présentera les problèmes de temps d’arrêt et de commande impulsionnelle, et on finira par l’étude des schémas de résolution numérique.

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-af1374


Cet article fait partie de l’offre

Mathématiques

(166 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation
Version en anglais English

2. Cadre mathématique

2.1 Système dynamique commandé et critère associé

Considérons des systèmes dynamiques commandés du type

(i)y˙(t)=f(u(t),y(t)),t[0,T];(ii)y(0)=y0 ( 8 )

Les données sont l’horizon ou temps final T > 0, la dynamique, f:m×nn , supposée lipschitzienne et de classe C, et la condition initiale y 0. On appelle u (t) et y (t) la commande et l’état à l’instant t. On choisit U et Y comme espaces pour la commande et pour l’état. Alors (8) (i) est une égalité dans L (0, T) n , donc aussi presque partout. Une variante...

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Mathématiques

(166 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Cadre mathématique
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - ARONNA (M.S.), BONNANS (J.F.), MARTINON (P.) -   A shooting algorithm for optimal control problems with singular arcs  -  J. Optim. Theory Appl., 158  (2) : 419-459 (2013).

  • (2) - BARDI (M.), CAPUZZO-DOLCETTA (I.) -   Optimal control and viscosity solutions of Hamilton-Jacobi-Bellman equations  -  Birkhäuser, Boston, MA (1997).

  • (3) - BARLES (G.) -   Solutions de viscosité des équations de Hamilton-Jacobi  -  Springer-Verlag, Paris (1994).

  • (4) - BAYEN (T.), RAPAPORT (A.), SEBBAH (M.) -   Minimal time control of the two tanks gradostat model under a cascade inputs constraint  -  SIAM J. Control Optim. 52 (4) : 2568-2594 (2014).

  • (5) - BELLMAN (R.) -   Dynamic programming  -  Princeton University Press, Princeton, N. J. (1957).

  • (6) - BETTS (J.T.) -   Practical methods...

ANNEXES

  1. 1 Logiciels

    Cet article est réservé aux abonnés.
    Il vous reste 93% à découvrir.

    Pour explorer cet article
    Téléchargez l'extrait gratuit

    Vous êtes déjà abonné ?Connectez-vous !


    L'expertise technique et scientifique de référence

    La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
    + de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
    De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

    Cet article fait partie de l’offre

    Mathématiques

    (166 articles en ce moment)

    Cette offre vous donne accès à :

    Une base complète d’articles

    Actualisée et enrichie d’articles validés par nos comités scientifiques

    Des services

    Un ensemble d'outils exclusifs en complément des ressources

    Un Parcours Pratique

    Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

    Doc & Quiz

    Des articles interactifs avec des quiz, pour une lecture constructive

    ABONNEZ-VOUS