Présentation
RÉSUMÉ
Cet article présente comment les réseaux de neurones peuvent être mis en œuvre pour la résolution des problèmes inverses, c’est-à-dire identifier des paramètres dans un système d’équations décrivant un phénomène physique. Les méthodes appelées « Physics-Informed Neural Network » et « Constrained Learning » d’acronymes respectifs PINN et PCL, basées sur des réseaux de neurones guidés par la physique, sont tout d’abord présentées de manière générale et ensuite explicitées et testées dans le cas d’une équation différentielle ordinaire du premier ordre, par exemple modélisant la charge d’un condensateur. Le paramètre physique considéré, représentant la capacité du condensateur, est supposé constant ou variable dans le temps. L’influence des hyperparamètres, tels que la fonction d’activation, le taux d’apprentissage et la tolérance de convergence, est investiguée en termes de précision d’identification et du nombre d’itérations (i.e., temps de calcul).
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
on the identification of parameters of a system of equations that describes the behavior of a physical phenomenon. The methods called "Physics-Informed Neural Network" and "Physics Constrained Learning" with respective acronyms PINN and PCL, based on the so-called physics-driven neural networks, are firstly presented in a general context and secondly explained and tested in the case of a first-order ordinary differential equation governing for instance the charging of a capacitor. The physical
parameter considered, representing the capacitance, is assumed to be constant or time-varying. The influence of hyperparameters such as the activation function, learning rate and convergence tolerance is investigated in terms of identification accuracy and number of iterations (i.e., computation time).
Auteur(s)
-
Roberta TITTARELLI : Maître de conférences - SUPMICROTECH, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
-
Patrice LE MOAL : Chargé de recherche - Université de Franche-Comté, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
-
Morvan OUISSE : Professeur des universités - SUPMICROTECH, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
-
Emmanuel RAMASSO : Maître de conférences - SUPMICROTECH, CNRS, Institut FEMTO-ST, F-25000, Besançon, France
INTRODUCTION
Les lois de la physique nous permettent de prédire des observations lorsque les paramètres d’un système sont connus. Par exemple, connaissant les caractéristiques géométriques et les propriétés mécaniques du (ou des) matériau(x) d’un instrument de musique, il est possible de prédire le son qui sera émis pour une excitation donnée. Ce type de problème est qualifié de « direct ». A contrario, un problème « inverse » consiste, par exemple, à prédire une caractéristique géométrique de l’instrument à partir d’observations, dans ce cas des enregistrements du son émis. Sans connaissance a priori, c’est-à-dire en exploitant seulement les observations (comme le son), le problème est mal posé dans le sens où plusieurs géométries sont possibles. Une des caractéristiques cruciales d’un problème mal posé au sens de Hadamard [F 1 380] est la non-unicité de la solution, ce qui est le cas pour un problème inverse. L’a priori permet alors de réduire le champ des possibles et peut être intégré dans la résolution sous la forme par exemple de termes de régularisation. Plus généralement, un problème inverse consiste donc à déterminer les propriétés d’un système à partir d’observations. On rencontre ce type de problème dans de nombreux domaines de l’ingénierie, dès lors que l’on souhaite estimer les propriétés d’un milieu inaccessible à l’observation directe, à partir d’observations effectuées à l’extérieur de celui-ci .
Résoudre un problème inverse peut consister en l’identification des paramètres d’un système à partir de certaines données. La méthode d’identification des paramètres dépend de la nature du problème, en particulier si le système est non linéaire, et l’enjeu est de proposer un modèle expliquant les données et ayant des capacités de prédiction. Une manière de choisir le modèle est de le calibrer au travers d’un processus d’optimisation d’une fonction de perte, basé par exemple sur les moindres carrés non linéaires, au cours duquel l’écart entre les données observées et la solution calculée est évalué puis les paramètres modifiés de manière à ce que la solution évolue dans la direction minimisant cet écart le plus rapidement. Ce type d’approche est au cœur d’une nouvelle famille de méthodes de résolution de problèmes, à la fois directes et inverses, qui prennent comme modèle des réseaux de neurones. Ces réseaux de neurones de nouvelle génération intègrent dans leur fonction de perte une contribution originale liée aux lois de la physique, généralement décrites par des équations différentielles. En utilisant ce principe, Raissi et al. de l’université de Brown ont proposé de modifier la fonction de perte d’un réseau de neurones avec un terme de régularisation représentant le résidu de l’équation différentielle régissant le problème physique. Le réseau prédit le résidu de l’équation différentielle en un nombre fini de points d’évaluation, ainsi que les conditions aux bords et/ou initiales (en fonction du problème) qui peuvent elles-mêmes constituer des termes de régularisation complémentaires si elles sont connues. Le terme de régularisation lié aux lois de la physique s’ajoute à un terme plus classique relatif aux données représentant l’écart quadratique moyen entre des observations, obtenues par exemple à l’aide de capteurs, et des prédictions issues du réseau. Cette nouvelle formulation permet de résoudre des problèmes directs (résolution de l’équation différentielle, dont les paramètres sont connus) ou des problèmes inverses (identification des paramètres supposés inconnus de l’équation différentielle à satisfaire) à l’aide de réseaux de neurones. Le terme d’observations permet de prendre en compte des mesures « locales » (dans l’espace et/ou dans le temps) issues de capteurs et/ou d’utiliser des résultats discrets (en quelques points de l’espace et/ou du temps) obtenus par simulations numériques.
La récente dynamique autour de ces approches est étroitement liée au développement de boîtes à outils intégrant la différentiation automatique, c’est-à-dire l’estimation automatique des dérivées nécessaires aux évaluations des résidus des équations différentielles. De nombreux auteurs ont utilisé et fait évoluer cette méthodologie pour résoudre des équations différentielles ordinaires, stochastiques, à retard, algébriques et hybrides avec couplages multiphysiques et prise en compte d’effets multiéchelles. L’université de Brown a été très active sur le sujet avec l’équipe de George Karniadakis dont est l’article fondateur du PINN (pour Physics-Informed Neural Network), mais également le MIT et l’université du Maryland qui ont proposé le terme SCIML (pour Scientific Machine Learning ou apprentissage automatique scientifique). On relève également les travaux de l’université de Stanford avec le terme PCL – pour Physics-Constrained Learning ou apprentissage contraint par la physique, et l’université Toronto avec le Neural ODE .
L’intérêt de ce type d’approches par rapport aux réseaux de neurones classiques est de redonner du sens aux réseaux de neurones en intégrant une description des phénomènes physiques, ceux-là mêmes décrits par des équations différentielles. Prendre en compte les phénomènes physiques permet d’une part d’écarter les solutions non réalistes, et d’autre part de réduire la taille des données d’apprentissage. Les applications dans le domaine de la physique sont à ce titre nombreuses. Une des applications phares est la mécanique des fluides dans les domaines de l’aéronautique (turbulences), la climatologie (écoulements) ou la santé (flux sanguin). D’autres domaines se sont appropriés cette méthodologie comme la sismologie ou la science des matériaux.
Cet article a pour vocation d’illustrer deux des méthodes précédemment évoquées, PINN et PCL, pour la résolution d’un problème inverse. Dans la section 1, le problème est présenté et les méthodes PINN et PCL sont détaillées dans un cadre général de résolution de ce problème. Les principes de base, leur conception et une mise en œuvre algorithmique sont exposés. La section 2 illustre comment appliquer ces deux méthodes pour un problème inverse issu d’un contexte physique simple, régi par une équation différentielle ordinaire linéaire d’ordre 1. La section 3 est dédiée à une comparaison numérique des deux méthodes appliquées au problème de la section 2 en discutant leur paramétrage et l’influence sur la convergence du calcul et la précision d’identification du problème inverse. Une conclusion et des perspectives sont présentées dans la section 4.
MOTS-CLÉS
Problèmes inverses équations différentielles Réseaux de neurones identification de paramètres
KEYWORDS
inverse problems | differential equations | neural networks | parameter identification
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Automatique et ingénierie système
(137 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
Cet article fait partie de l’offre
Automatique et ingénierie système
(137 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
BIBLIOGRAPHIE
-
(1) - JOBERT (G.) - Des problèmes inverses en physique. - Reflets de la physique 31, p. 12-16 (2012).
-
(2) - KARNIADAKIS (G.Em.), KEVREKIDIS (I.G.), LU (L.), PERDIKARIS (P.), WANG (S.), YANG (L.) - Physics-informed machine learning. - Nature Reviews Physics 3.6. ISSN : 2522-5820 (mai 2021). DOI : 10.1038/s42254-021-00314-5. URL : https://www.osti.gov/biblio/1852843.
-
(3) - RAISSI (M.), PERDIKARIS (P.), KARNIADAKIS (G.E.) - Physics-informed neural networks : A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. - Journal of Computational physics 378, p. 686-707 (2019). DOI : https://doi.org/10.1016/j.jcp.2018.10.045.
-
(4) - RACKAUCKAS (C.), MA (Y.), MARTENSEN (J.), WARNER (C.), ZUBOV (K.), SUPEKAR (R.), SKINNER (D.), RAMADHAN (A.), EDELMAN (A.) - Universal differential equations for scientific machine learning. - arXiv preprint arXiv : 2001.04385. preprint (2020). DOI : https://arxiv.org/abs/2001.04385.
-
(5) - XU (K.), DARVE (E.) - Physics constrained learning for data-driven...
Cet article fait partie de l’offre
Automatique et ingénierie système
(137 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive