Présentation
EnglishRÉSUMÉ
Au moins implicitement, les fonctions sont le quotidien de moult ingénieurs et scientifiques. Lorsqu'elles ne sont pas très lisses, c'est-à-dire qu'elles ne possèdent pas un nombre significatif de dérivées, elles peuvent être extrêmement complexes. Leur approximation est un domaine classique de l'analyse, cependant une grande partie des théorèmes correspondants, n'exigeant que la continuité et ne considérant que l'approximation par des polynômes, n'est pas vraiment pertinente pour la pratique. L'article présente des méthodes relativement simples pour une approximation efficace de fonctions possédant au moins quelques dérivées. Après quelques rappels de résultats sur les approximant de Taylors/Padé, l'interpolation et la meilleure approximation polynomiale, il se concentre sur des approximations par interpolation infiniment lisse, comme le polynôme d'interpolation entre points de Tchebychev et, pour les points équidistants, l'interpolation linéaire rationnelle, l'interpolation trigonométrique et l'interpolation sinc.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Jean-Paul BERRUT : Professeur d'analyse numérique - Département de mathématiques, Université de Fribourg
INTRODUCTION
Commençons par délimiter le cadre. Rappelons la définition : une fonction est une règle associant à tout élément d'un ensemble de définition un élément d'un ensemble image. En général, l'ensemble de définition est un sous-ensemble continu des nombres réels, donc infini et non dénombrable. La quantité d'information englobée dans le concept de fonction dépasse donc l'entendement. (Les fonctions élémentaires avec lesquelles on peut travailler sur papier ne forment qu'une part infime de l'ensemble des fonctions, les quelques exceptions confirmant la règle). Dans les problèmes pratiques d'analyse, la résolution d'une équation différentielle par exemple, l'inconnue à déterminer est ou dépend d'une fonction. L'information cherchée est donc indénombrable et la tâche impossible. Certes, plus on exige de différentiabilité, plus le nombre de possibilités décroît : par exemple, si l'on sait par la théorie que la solution est entière, et si l'on peut déterminer l'ensemble dénombrable de ses dérivées en un point, alors elle est connue partout grâce à sa série de Taylor ; la détermination de l'information est ainsi ramenée au développement d'un algorithme comportant une quantité dénombrable d'opérations. L'information demeure néanmoins infinie. La tâche principale de l'approximation est de remplacer l'information infinie contenue dans les fonctions par une information finie déterminée par le moins de degrés de liberté possible.
Dans cet article, nous traiterons de fonctions définies sur un intervalle, fini ou infini ; le problème de l'approximation des fonctions de plusieurs variables ne sera pas abordé. Par ailleurs, nous nous intéresserons à l'approximation d'un point de vue pratique, non à la théorie de l'approximation. Celle-ci étudie souvent des fonctions dont elle suppose uniquement la continuité ; or, d'une part, de telles fonctions peuvent être horribles (par exemple dérivables en aucun point), ce qui ne correspond guère à celles qui interviennent dans la pratique, et d'autre part la convergence est lente, ne profitant pas de la diminution des possibilités induite par l'existence de dérivées. Le lecteur trouvera une abondante littérature théorique, par exemple pour une publication récente.
Nous nous limiterons aussi à des approximations infiniment dérivables, qui jouissent à nos yeux de moult avantages. D'une part, bien des fonctions intervenant en pratique le sont, à part peut-être aux extrémités de leur intervalle de définition ; par ailleurs, si la fonction ne possède qu'un nombre fini de dérivées, la vitesse de convergence de l'interpolant infiniment dérivable s'adapte automatiquement au plus grand ordre de différentiabilité ; finalement, l'introduction d'abscisses où l'approximation possède moins de dérivées que la fonction approchée nous semble une faute esthétique. Il n'en demeure pas moins que, d'un point de vue pratique, l'approximation (surtout l'interpolation) par polynômes par morceaux appelés splines est dans bien des cas la plus importante. Le lecteur en trouvera une description dans de nombreux ouvrages, tels .
Nous ne traiterons pas non plus de l'approximation des fonctions classiques en vue de leur implémentation dans des logiciels ; le lecteur intéressé consultera .
Notre but est bien plutôt l'approximation pratique de fonctions lisses quelconques en vue d'un traitement numérique, que ce soit pour en tirer une information par le calcul différentiel et intégral ou pour les introduire comme ansatz (inconnue à déterminer) dans la solution d'équations, en particulier différentielles. Nous nous référerons souvent à l'« idée fondamentale » suivante :
Résoudre les problèmes du calcul différentiel et intégral pour une fonction quelconque en la remplaçant par une approximation suffisamment précise et résolvant le problème pour cette dernière.
Nous nous intéressons à des algorithmes précis et stables, c'est-à-dire donnant un résultat proche de la précision machine simple de Matlab (double précision IEEE) et ne se dégradant pas de manière significative avec l'augmentation du nombre de degrés de liberté.
L'intérêt des fonctions possédant bon nombre de dérivées trouve son prolongement dans la qualité de l'approximation : pour obtenir une bonne précision, il faut que les données mènent au nombre le plus restreint d'approximants possible de la classe choisie. Or c'est la différentiabilité qui amène cette restriction. Plus précisément, l'erreur d'approximation décroîtra en général d'autant plus rapidement avec la quantité d'information fournie que la fonction approchée possédera un plus grand nombre de dérivées.
Dans les premiers paragraphes, nous nous ancrerons aux connaissances du lecteur en rappelant à ses souvenirs les séries de Taylor et de Padé ainsi que leurs limitations (§ 1), l'interpolation polynomiale et ses défauts lorsque les nœuds ne peuvent être choisis (§ 2) et la constante de Lebesgue des interpolants linéaires, qui en permettent un classement (§ 3). À la section 4, nous décrirons une approximation qui, comme son nom l'indique, semble la meilleure ; nous en décrirons la principale propriété, qui mène au célèbre algorithme de Remez pour sa construction, avant d'expliquer que sa non-linéarité en limite fortement le champ d'application. La section 5 reviendra à l'interpolation polynomiale pour en montrer la puissance lorsque les points peuvent être choisis, comme le démontre brillamment le récent logiciel Chebfun (voir la rubrique consacrée du Pour en savoir plus). Des applications intégrées à ce dernier pour la dérivation et le calcul de primitives seront décrites à la section suivante.
Le reste de l'article sera consacré au cas le plus important aux yeux de cet auteur, l'interpolation entre points équidistants. La section 7 précisera l'efficacité de l'interpolation trigonométrique de fonctions périodiques possédant un nombre conséquent de dérivées et montrera comment l'interpolation entre points de Tchebychev du § 5 n'en est qu'un cas particulier. On en verra aussi une généralisation menant à la construction d'interpolants rationnels linéaires, périodiques et non périodiques. Ceux-ci sont déterminés par des poids, dont les meilleurs sont jusqu'ici ceux de Floater et Hormann discutés à la section 8. Finalement nous présenterons l'interpolant sinc, extrêmement efficace pour l'interpolation de fonctions définies sur tout et y possédant un nombre conséquent de dérivées, ainsi que son application à l'approximation de fonctions définies sur une courbe sur laquelle les points d'interpolation peuvent être choisis ; la convergence est même presque insensible à la présence de certaines singularités aux extrémités de la courbe. Nous conclurons par un résultat récent sur son application a l'interpolation entre points équidistants sur un intervalle fini.
Dans nos citations, nous nous contenterons souvent, par gain de place, de la référence la plus récente, à partir de laquelle le lecteur pourra remonter à la littérature plus classique.
MOTS-CLÉS
approximations de Taylor approximations de Padé interpolation polynomiale meilleure approximation points de Tchebychev interpolation trigonométrique interpolation rationnelle barycentrique linéaire interpolation sinc
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Mathématiques
(167 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
9. Interpolation sinc
On a vu qu'il est possible d'approcher efficacement une fonction lisse à partir d'un échantillon équidistant sur un intervalle, avec une convergence algébrique en général, et même exponentielle si f est à la fois périodique et analytique. Nous allons voir maintenant que la périodicité n'est pas nécessaire pour cela si f est définie sur tout et décroît suffisamment rapidement à l'infini.
La formule (41) s'écrit aussi
(sin Mφ étant instable près des nœuds pour M grand, cette expression ne doit pas être utilisée en pratique, voir ). Soit la distance (constante) entre les nœuds. La série...?xml>
Cet article fait partie de l’offre
Mathématiques
(167 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Interpolation sinc
BIBLIOGRAPHIE
-
(1) - BAKER (G.A.) Jr., GRAVES MORRIS (P.R.) - Padé Approximants, 2nd ed - Cambridge University Press (1966).
-
(2) - BALTENSPERGER (R.) - Some results on linear rational trigonometric interpolation - Comput. Math. Appl., 43, pp. 737-746 (2002).
-
(3) - BALTENSPERGER (R.), BERRUT (J.-P.), NOËL (B.) - Exponential convergence of a linear rational interpolant between transformed Chebyshev points - Math. Comp., 68, pp. 1109-1120 (1999).
-
(4) - BATTLES (Z.), TREFETHEN (L.N.) - An extension of Matlab to continuous functions and operators - SIAM J. Sci. Comput, 25, pp. 1743-1770 (2004).
-
(5) - BERRUT (J.-P.) - Baryzentrische Formeln zur trigonometrischen Interpolation (I) - Z. angew. Math. Phys. (ZAMP), 35, pp. 91-105 (1984).
-
(6) - BERRUT (J.-P.) - Rational functions for guaranteed and experimentally well...
DANS NOS BASES DOCUMENTAIRES
ANNEXES
Chebfun Version 4.2 par TREFETHEN (L.N.) et le Chebfun Development Team 2011 :
http://www.maths.ox.ac.uk/chebfun/
HAUT DE PAGECet article fait partie de l’offre
Mathématiques
(167 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive