Présentation
EnglishRÉSUMÉ
Cet article présente un nouveau paradigme dans le domaine de l'ingénierie, basé sur la simulation : les techniques de réduction de modèles. Les problèmes qui constituent encore aujourd'hui de vrais verrous en matière de simulation y sont analysés. Cet article démontre également que dans de nombreux cas, derrière un volume colossal de données (résultant de la discrétisation) se cache en réalité très peu d'information. Ce constat permet de définir des approximations en base réduite au coeur des techniques dites de type POD. Les représentations séparées, qui sont au coeur de la PGD et qui permettent le calcul de solutions paramétriques sont ensuite utilisées dans la simulation, l'optimisation, l'analyse inverse et le contrôle en temps réel.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Francisco CHINESTA : Professeur des Universités - Institut de Recherche en Génie Civil et Mécanique - École Centrale de Nantes, Nantes, France
-
Elias CUETO : Professeur des Universités - Instituto de Investigación en Ingeniería de Aragón - Universidad de Zaragoza, Zaragoza, Espagne
INTRODUCTION
De nombreux problèmes en sciences et ingénierie ne peuvent à l’heure actuelle être résolus malgré les progrès accomplis récemment en terme de modélisation physique, d’analyse numérique et de capacité de calcul en raison de leur complexité numérique qui se révèle parfois tout simplement inimaginable. Dans cet article, nous reviendrons sur un certain nombre d’entre eux, en particulier :
-
les modèles impliquant plusieurs coordonnées où ceux définis dans des domaines dont au moins une des dimensions représentatives est beaucoup plus petite que les autres dimensions caractéristiques, tous les deux entraînant des discrétisations prohibitives ;
-
les problèmes transitoires dans lesquels le spectre des temps caractéristiques est trop vaste ;
-
les simulations en temps réel ;
-
et enfin les problèmes devant être résolus à plusieurs reprises comme ceux liés aux problèmes de contrôle, d’analyse paramétrique, d’analyse inverse, de quantification et propagation de l’incertitude ou encore d’optimisation, nécessitant la résolution d’un grand nombre de problèmes directs.
C’est dans ce types de scénarios que les techniques de simulation habituelles s’avèrent inefficaces, à moins d’être combinées avec une puissance de calcul adéquate souvent hors de portée pour les petites et moyennes entreprises.
Afin de démocratiser la simulation numérique, en s’affranchissant des difficultés citées précédemment et du recours aux « grands moyens », hors de portée pour la plus grande partie des utilisateurs potentiels, de nouvelles techniques de simulation ont émergées et se sont développées rapidement tant du point de vue fondamental qu’applicatif : ce sont les techniques dites de réduction de modèles qui sont passées en revue dans cet article.
Nous commencerons par une description sommaire de quelques verrous en matière de simulation numérique à l’heure actuelle. Puis nous nous attaquerons à une question d’importance capitale : la différence entre données et information. Nous montrerons qu’une quantité de données colossale résultant de la discrétisation d’un modèle peut ne cacher qu’une toute petite quantité d’information. Partant de ce constat, nous verrons alors qu’il est possible de définir des bases d’approximation réduites (en taille) mais contenant la quasi-totalité de l’information nécessaire pour reconstruire la solution recherchée. C’est l’idée fondamentale des techniques de réduction de modèles basées sur la POD (Proper Orthogonal Decomposition – décomposition orthogonale aux valeurs propres).
Nous montrerons que ces techniques basées sur la POD et ses variantes permettent d’accélérer les calculs sans demander trop de moyens mais que certains problèmes, tels que les modèles multidimensionnels et les domaines dégénérés, restent néanmoins hors de portée. De plus le contrôle de la qualité des solutions et l’enrichissement des bases réduites restent dans la plupart des cas encore un sujet très actif de recherche.
Nous verrons ensuite que l’emploi des représentations séparées permet d’aller encore plus loin : en créant « hors-ligne » une sorte d’abaque (solution paramétrique) qui peut être employé ensuite « en-ligne » pour parvenir à la simulation, optimisation, analyse inverse et contrôle… en temps-réel.
Nous conclurons l'article avec quelques exemples applicatifs du potentiel de ces abaques numériques.
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
5. Conclusion
La résolution haute fidélité de problèmes complexes, à un coût raisonnable en termes de moyens et de temps de calcul, semblait pendant plusieurs décennies inaccessible. La croissance ininterrompue de la puissance de calcul, à laquelle on assistait, accompagnée d’une réduction du prix semblait alors la seule issue possible.
Toutefois, la mobilisation d’importants moyens de calcul n’est pas à la portée de tout le monde, et en particulier des petites et moyennes entreprises, ce qui représente un véritable handicap pour leur survie, qui passe par une réactivité sur le plan de l’innovation. Cependant, cette dernière ne peut se faire que si le domaine des paramètres de conception peut être exploré « en-ligne » et en temps réel.
Les abaques l’ont permis par le passé, mais ils s’appliquaient à des systèmes et des modèles moins complexes que ceux qui suscitent notre intérêt à l’heure actuelle. La réduction de modèles se pose aujourd’hui comme une alternative à la fois pour accélérer les calculs et pour générer des abaques d’une toute nouvelle génération.
Leur développement et leur utilisation massive pourraient conduire à un changement de paradigme dans l’ingénierie du XXIe siècle où la prise de décision en temps réel s’effectuerait de concert avec l’emploi de moyens de calcul légers.
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Conclusion
BIBLIOGRAPHIE
-
(1) - EVERSON (R.), SIROVICH (L.) - Karhunen-Loeve procedure for gappy data. - Journal of the Optical Society of America, 12/8, 1657-1664 (1995).
-
(2) - BARRAULT (M.), MADAY (Y.), NGUYEN (N.C.), PATERA (A.T.) - An empirical interpolation method : application to efficient reduced-basis discretization of partial differential equations. - Comptes Rendus Mathematique, 339/9, 667-672 (2004).
-
(3) - RYCKELYNCK (D.) - A priori hyperreduction method : an adaptive approach. - Journal of Computational Physics, 202, 346-366 (2005).
-
(4) - WILLCOX (K.) - Unsteady flow sensing and estimation via the gappy proper orthogonal decomposition. - Computers and Fluids, 35, 208-226 (2006).
-
(5) - CHATURANTABUT (S.), SORENSEN (D.C.) - Nonlinear model reduction via discrete empirical interpolation. - SIAM J. Sci. Comput., 32, 2737-2764 (2010).
-
...
Cet article fait partie de l’offre
Mathématiques
(166 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive