Présentation
RÉSUMÉ
Cet article présente comment les réseaux de neurones peuvent être mis en œuvre pour la résolution des problèmes inverses, c’est-à-dire identifier des paramètres dans un système d’équations décrivant un phénomène physique. Les méthodes appelées « Physics-Informed Neural Network » et « Constrained Learning » d’acronymes respectifs PINN et PCL, basées sur des réseaux de neurones guidés par la physique, sont tout d’abord présentées de manière générale et ensuite explicitées et testées dans le cas d’une équation différentielle ordinaire du premier ordre, par exemple modélisant la charge d’un condensateur. Le paramètre physique considéré, représentant la capacité du condensateur, est supposé constant ou variable dans le temps. L’influence des hyperparamètres, tels que la fonction d’activation, le taux d’apprentissage et la tolérance de convergence, est investiguée en termes de précision d’identification et du nombre d’itérations (i.e., temps de calcul).
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Roberta TITTARELLI : Maître de conférences - SUPMICROTECH, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
-
Patrice LE MOAL : Chargé de recherche - Université de Franche-Comté, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
-
Morvan OUISSE : Professeur des universités - SUPMICROTECH, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
-
Emmanuel RAMASSO : Maître de conférences - SUPMICROTECH, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
INTRODUCTION
Les lois de la physique nous permettent de prédire des observations lorsque les paramètres d’un système sont connus. Par exemple, connaissant les caractéristiques géométriques et les propriétés mécaniques du (ou des) matériau(x) d’un instrument de musique, il est possible de prédire le son qui sera émis pour une excitation donnée. Ce type de problème est qualifié de « direct ». A contrario, un problème « inverse » consiste, par exemple, à prédire une caractéristique géométrique de l’instrument à partir d’observations, dans ce cas des enregistrements du son émis. Sans connaissance a priori, c’est-à-dire en exploitant seulement les observations (comme le son), le problème est mal posé dans le sens où plusieurs géométries sont possibles. Une des caractéristiques cruciales d’un problème mal posé au sens de Hadamard [F 1 380] est la non-unicité de la solution, ce qui est le cas pour un problème inverse. L’a priori permet alors de réduire le champ des possibles et peut être intégré dans la résolution sous la forme par exemple de termes de régularisation. Plus généralement, un problème inverse consiste donc à déterminer les propriétés d’un système à partir d’observations. On rencontre ce type de problème dans de nombreux domaines de l’ingénierie, dès lors que l’on souhaite estimer les propriétés d’un milieu inaccessible à l’observation directe, à partir d’observations effectuées à l’extérieur de celui-ci .
Résoudre un problème inverse peut consister en l’identification des paramètres d’un système à partir de certaines données. La méthode d’identification des paramètres dépend de la nature du problème, en particulier si le système est non linéaire, et l’enjeu est de proposer un modèle expliquant les données et ayant des capacités de prédiction. Une manière de choisir le modèle est de le calibrer au travers d’un processus d’optimisation d’une fonction de perte, basé par exemple sur les moindres carrés non linéaires, au cours duquel l’écart entre les données observées et la solution calculée est évalué puis les paramètres modifiés de manière à ce que la solution évolue dans la direction minimisant cet écart le plus rapidement. Ce type d’approche est au cœur d’une nouvelle famille de méthodes de résolution de problèmes, à la fois directes et inverses, qui prennent comme modèle des réseaux de neurones. Ces réseaux de neurones de nouvelle génération intègrent dans leur fonction de perte une contribution originale liée aux lois de la physique, généralement décrites par des équations différentielles. En utilisant ce principe, Raissi et al. de l’université de Brown ont proposé de modifier la fonction de perte d’un réseau de neurones avec un terme de régularisation représentant le résidu de l’équation différentielle régissant le problème physique. Le réseau prédit le résidu de l’équation différentielle en un nombre fini de points d’évaluation, ainsi que les conditions aux bords et/ou initiales (en fonction du problème) qui peuvent elles-mêmes constituer des termes de régularisation complémentaires si elles sont connues. Le terme de régularisation lié aux lois de la physique s’ajoute à un terme plus classique relatif aux données représentant l’écart quadratique moyen entre des observations, obtenues par exemple à l’aide de capteurs, et des prédictions issues du réseau. Cette nouvelle formulation permet de résoudre des problèmes directs (résolution de l’équation différentielle, dont les paramètres sont connus) ou des problèmes inverses (identification des paramètres supposés inconnus de l’équation différentielle à satisfaire) à l’aide de réseaux de neurones. Le terme d’observations permet de prendre en compte des mesures « locales » (dans l’espace et/ou dans le temps) issues de capteurs et/ou d’utiliser des résultats discrets (en quelques points de l’espace et/ou du temps) obtenus par simulations numériques.
La récente dynamique autour de ces approches est étroitement liée au développement de boîtes à outils intégrant la différentiation automatique, c’est-à-dire l’estimation automatique des dérivées nécessaires aux évaluations des résidus des équations différentielles. De nombreux auteurs ont utilisé et fait évoluer cette méthodologie pour résoudre des équations différentielles ordinaires, stochastiques, à retard, algébriques et hybrides avec couplages multiphysiques et prise en compte d’effets multiéchelles. L’université de Brown a été très active sur le sujet avec l’équipe de George Karniadakis dont est l’article fondateur du PINN (pour Physics-Informed Neural Network), mais également le MIT et l’université du Maryland qui ont proposé le terme SCIML (pour Scientific Machine Learning ou apprentissage automatique scientifique). On relève également les travaux de l’université de Stanford avec le terme PCL – pour Physics-Constrained Learning ou apprentissage contraint par la physique, et l’université Toronto avec le Neural ODE .
L’intérêt de ce type d’approches par rapport aux réseaux de neurones classiques est de redonner du sens aux réseaux de neurones en intégrant une description des phénomènes physiques, ceux-là mêmes décrits par des équations différentielles. Prendre en compte les phénomènes physiques permet d’une part d’écarter les solutions non réalistes, et d’autre part de réduire la taille des données d’apprentissage. Les applications dans le domaine de la physique sont à ce titre nombreuses. Une des applications phares est la mécanique des fluides dans les domaines de l’aéronautique (turbulences), la climatologie (écoulements) ou la santé (flux sanguin). D’autres domaines se sont appropriés cette méthodologie comme la sismologie ou la science des matériaux.
Cet article a pour vocation d’illustrer deux des méthodes précédemment évoquées, PINN et PCL, pour la résolution d’un problème inverse. Dans la section 1, le problème est présenté et les méthodes PINN et PCL sont détaillées dans un cadre général de résolution de ce problème. Les principes de base, leur conception et une mise en œuvre algorithmique sont exposés. La section 2 illustre comment appliquer ces deux méthodes pour un problème inverse issu d’un contexte physique simple, régi par une équation différentielle ordinaire linéaire d’ordre 1. La section 3 est dédiée à une comparaison numérique des deux méthodes appliquées au problème de la section 2 en discutant leur paramétrage et l’influence sur la convergence du calcul et la précision d’identification du problème inverse. Une conclusion et des perspectives sont présentées dans la section 4.
MOTS-CLÉS
Problèmes inverses équations différentielles Réseaux de neurones identification de paramètres
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Automatique et ingénierie système
(139 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
4. Conclusions et perspectives
Cette étude met en avant l’utilisation des RN afin de coupler une résolution d’une équation décrivant la physique d’un problème avec, en pratique, des données expérimentales (données issues de solutions connues dans cette étude). Lorsque les liens entre les fonctions cherchées et les données sont non linéaires, un RN est envisagé afin de décrire convenablement ce lien. Dans cet article, les méthodes PINN et PCL sont illustrées théoriquement et numériquement. PINN peut être conçu pour résoudre des problèmes directs ou inverses ; dans le contexte d’un problème direct, son avantage est de pouvoir coupler des données avec la résolution d’une équation différentielle. Néanmoins, le choix de coupler données et équation introduit une difficulté ultérieure dans la minimisation de la fonction de perte. PCL est conçu pour résoudre des problèmes inverses avec des données à disposition, et son avantage est que la minimisation du RN, en se basant sur une fonction de perte avec une seule contribution sur les données, est en principe moins difficile à atteindre. Les idées principales de conception et de mise en œuvre algorithmique sont exposées dans le cadre d’un problème inverse lié à une équation différentielle. Plusieurs tests numériques ont montré la pertinence de leur utilisation dans ce contexte et mis en évidence différences et similitudes des deux méthodes, l’importance des hyperparamètres tels les fonctions d’activation et le taux d’apprentissage, et le compromis inéluctable entre tolérance et nombre d’itérations requises.
Quelques perspectives directement issues des travaux de cette étude peuvent être envisagées ; en voici quelques exemples :
-
Perspectives sur la minimisation de la fonction de perte. Lorsqu’on ne dispose pas de l’erreur exacte (ce qui est généralement le cas, sinon il n’y a plus de problème à résoudre), la problématique de fixer une tolérance raisonnable (un bon compromis entre le coût du calcul en temps et en mémoire et précision du calcul) pour la fonction de perte est ouverte. Au sujet de l’amélioration de la minimisation, il est à préconiser une mise en place d’un taux d’apprentissage variable lors de la minimisation, dépendant par exemple du nombre courant d’itérations ou de la « vitesse » de la convergence.
-
Perspectives...
Cet article fait partie de l’offre
Automatique et ingénierie système
(139 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Conclusions et perspectives
BIBLIOGRAPHIE
-
(1) - JOBERT (G.) - Des problèmes inverses en physique. - Reflets de la physique 31, p. 12-16 (2012).
-
(2) - KARNIADAKIS (G.Em.), KEVREKIDIS (I.G.), LU (L.), PERDIKARIS (P.), WANG (S.), YANG (L.) - Physics-informed machine learning. - Nature Reviews Physics 3.6. ISSN : 2522-5820 (mai 2021). DOI : 10.1038/s42254-021-00314-5. URL : https://www.osti.gov/biblio/1852843.
-
(3) - RAISSI (M.), PERDIKARIS (P.), KARNIADAKIS (G.E.) - Physics-informed neural networks : A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. - Journal of Computational physics 378, p. 686-707 (2019). DOI : https://doi.org/10.1016/j.jcp.2018.10.045.
-
(4) - RACKAUCKAS (C.), MA (Y.), MARTENSEN (J.), WARNER (C.), ZUBOV (K.), SUPEKAR (R.), SKINNER (D.), RAMADHAN (A.), EDELMAN (A.) - Universal differential equations for scientific machine learning. - arXiv preprint arXiv : 2001.04385. preprint (2020). DOI : https://arxiv.org/abs/2001.04385.
-
(5) - XU (K.), DARVE (E.) - Physics constrained learning for data-driven...
Cet article fait partie de l’offre
Automatique et ingénierie système
(139 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive