Théorie de l'approximation

En mathématiques, la théorie de l'approximation concerne la façon dont les fonctions peuvent être approchées par de plus simples fonctions, en donnant une caractérisation quantitative des erreurs introduites par ces approximations.

Problématique

modifier

Le problème de l'approximation s'est posé très tôt en géométrie, pour les fonctions trigonométriques : ce sont des fonctions dont on connaît les propriétés (parité, dérivabilité, valeurs en des points particuliers) mais qui ne s'expriment pas à partir d'opérations réalisables à la main (les quatre opérations). Cela a conduit à la notion de développement en série. On a pu ainsi constituer des tables trigonométriques, puis, avec une démarche similaire, des tables logarithmiques, et de manière générale des tables pour les fonctions couramment utilisées en sciences comme la racine carrée.

Un problème particulièrement intéressant est celui de l'approximation de fonctions par d'autres définies uniquement à partir d'opérations de base d'un ordinateur, comme l'addition et la multiplication, afin de créer des bibliothèques de fonctions mathématiques qui à l'exécution produisent des valeurs les plus proches possibles des valeurs théoriques. C'est ce qui s'appelle l'approximation polynomiale ou rationnelle (c'est-à-dire par des fonctions rationnelles).

L'objectif est de donner une approximation aussi précise que possible d'une fonction réelle donnée, de façon à fournir des valeurs les plus exactes possibles, à la précision près de l'arithmétique en virgule flottante d'un ordinateur. Ce but est atteint en employant un polynôme de degré élevé, et/ou en rapetissant le domaine sur lequel le polynôme doit approcher la fonction. Le rapetissement du domaine peut souvent être effectué, bien que cela nécessite la composition par d'autres fonctions affines, de la fonction à approcher. Les bibliothèques mathématiques modernes réduisent souvent le domaine en le divisant en de multiples minuscules segments et emploient un polynôme de bas degré sur chaque segment.

Une fois le domaine et le degré du polynôme choisis, le polynôme lui-même est choisi de façon à minimiser l'erreur dans le pire des cas. Autrement dit, si f est la fonction réelle et P le polynôme devant approcher f, il faut minimiser la borne supérieure de la fonction sur le domaine. Pour une fonction « convenable », un polynôme optimum de degré N est caractérisé par une courbe d'erreur dont la valeur oscille entre +ε et -ε et qui change de signe N + 1 fois, donnant une erreur dans les pires cas de ε. Il est possible de construire des fonctions f pour lesquelles cette propriété ne tient pas, mais dans la pratique elle est généralement vraie.

Dans chaque cas, le nombre d'extrema est de N + 2 c'est-à-dire 6. Deux des extrema sont les extrémités du segment. Les courbes en rouge, pour le polynôme optimal, sont de « niveau » c'est-à-dire qu'elles oscillent entre +ε et -ε exactement. Si un polynôme de degré N mène à une fonction d'erreur qui oscille entre les extrema N + 2 fois, alors ce polynôme est optimal.

Approximation par des polynômes

modifier

Énoncé

modifier

Soit f une fonction continue sur un intervalle réel fermé [a , b]. Soit P un polynôme de degré n.

On note l'erreur d'approximation entre P et f.

S'il existe et tels que

,

alors P est un polynôme d'approximation optimal de f parmi les polynômes de degré inférieur ou égal à n au sens de la norme sup sur [a , b] :

Approximation de Tchebychev

modifier

Il est possible d'obtenir des polynômes très proches d'un polynôme optimal en développant une fonction donnée avec des polynômes de Tchebychev puis en coupant le développement à un certain degré. Ce procédé est semblable au développement en séries de Fourier d'une fonction, en analyse de Fourier, mais en utilisant les polynômes de Tchebychev au lieu des fonctions trigonométriques habituelles.

On calcule les coefficients dans le développement de Tchebychev d'une fonction f :

dont on ne garde que les N premiers termes de la série, ce qui donne un polynôme de degré N approchant la fonction f.

La raison pour laquelle ce polynôme est presque optimal est que, pour des fonctions admettant un développement en série entière, dont la série a une convergence rapide, l'erreur commise sur le développement au bout de N termes est approximativement égale au terme suivant immédiatement la coupure. C'est-à-dire que, le premier terme juste après la coupure domine la somme de toutes les termes suivants appelée reste de la série. Ce résultat subsiste si le développement se fait avec des polynômes de Tchebychev. Si un développement de Tchebychev est interrompu après TN, alors l'erreur sera proche du terme en TN + 1. Les polynômes de Tchebychev possèdent la propriété d'avoir une courbe représentative « au niveau », oscillant entre +1 et −1 dans l'intervalle [−1, 1]. Tn + 1 a n + 2 extrema. Cela signifie que l'erreur entre f et son approximation de Tchebychev jusqu'à un terme en Tn est une fonction ayant n + 2 extrema, dont les maxima (respectivement les minima) sont égaux, et est ainsi proche du polynôme optimal de degré n.

Dans les exemples graphiques ci-dessus, on peut voir que la fonction d'erreur représentée en bleu est parfois meilleure (lorsqu'elle reste en dessous) que la fonction représentée en rouge, mais plus mauvaise sur certains intervalles, ce qui signifie que ce n'est pas tout à fait le polynôme optimal. Cette différence est relativement moins importante pour la fonction exponentielle, dont la série entière est très rapidement convergente, que pour la fonction logarithme.

Systèmes de Tchebychev

modifier

Cette partie et les suivantes reposent principalement sur les ouvrages de Cheney[1] et de Powell[2].

Il est possible de généraliser la caractérisation de «meilleure approximation» avec des espaces de fonctions d'approximations qui ne sont pas des polynômes mais des fonctions standard. Cependant, de telles familles de fonctions se doivent d'avoir certaines bonnes propriétés qu'ont les polynômes. On parle alors de « polynômes généralisés ». Ces « polynômes » auront pour monômes des fonctions de base (que l'on considère agréables) qui satisfont les conditions de Haar.

Conditions de Haar

modifier

Une famille de fonctions d'un intervalle dans satisfait les conditions de Haar si et seulement si

  1. Toutes les fonctions sont continues.
  2. Les fonctions satisfont les conditions équivalentes suivantes :
    1. Pour tous distincts
    2. Pour tous distincts, pour tous , il existe un unique tuple tel que la fonction satisfasse
    3. Les fonctions sont linéairement indépendantes et est l'unique fonction de la forme ayant strictement plus racines

Une famille finie de fonctions satisfaisant les conditions de Haar est appelée un système de Tchebychev. Bien évidemment les monômes de degré échelonnés forment un système de Tchebychev : les polynômes sont continus, la condition 2.1 est le déterminant de Vandermonde, la condition 2.2 est la caractérisation du polynôme d'interpolation et la condition 2.3 est le fait qu'un polynôme de degré fixé ne peut avoir plus de racine que son degré.

On peut aussi dire d'un sous-espace vectoriel de de dimension satisfait les conditions de Haar si et seulement si ses bases sont des systèmes de Tchebychev.

Exemples

modifier

On peut citer deux exemples de systèmes de Tchebychev :

  • Si sont deux-à-deux distincts alors forme un système de Tchebychev sur pour tout intervalle compact de .
  • Si sont deux-à-deux distincts et positifs alors forme un système de Tchebychev sur pour intervalle compact de .

Théorème d'alternance

modifier

Les systèmes de Tchebychev permettent de caractériser les meilleures approximations de fonctions continues étant des polynômes généralisés construites à partir des fonctions du-dit système.

Énoncé

modifier

Soit un système de Tchebychev. Soit une fonction continue. Soient un polynôme généralisé sur le système de Tchebychev et l'erreur d'approximation. Alors est une meilleure approximation uniforme de , c'est-à-dire , ssi il existe tels que et

Remarque

modifier

Il est intéressant de noter que si le système de Tchebychev considéré est la base canonique de alors cet énoncé est exactement celui du théorème dans le cas des polynômes.

Démonstration du théorème d'alternance

modifier

Théorème de caractérisation

modifier

La première chose à faire est de caractériser les meilleures approximations par des polynômes généralisés. On peut commencer par montrer qu'il suffit que l'origine de l'espace soit dans une certaine enveloppe convexe. Pour un système de Tchebychev, On note .

Soit un système de Tchebychev. Soit une fonction continue. Soient un polynôme généralisé sur le système de Tchebychev et l'erreur d'approximation. Alors r est de norme minimale si et seulement si 0 est dans l'enveloppe convexe de .

Lemme d'alternance

modifier

Il vient un lien entre le fait que 0 soit dans une enveloppe convexe et qu'il y ait l'alternance de signe.

Soit un système de Tchebychev. Soient et des constantes non . Alors 0 est dans l'enveloppe convexe de si et seulement si pour nous avons .

Unicité de la meilleure approximation

modifier

Jusqu'ici, nous avons caractérisé ce qu'est une meilleure approximation. Nous allons maintenant montrer que la meilleure approximation existe et est unique.

Énoncé

modifier

Soit un système de Tchebychev. Soit une fonction continue. Alors il existe une unique meilleure approximation de dans .

Démonstration

modifier

Commençons par l'unicité. Supposons donc que et sont des meilleures approximations pour . Nous avons donc que et cette norme est minimale. Or nous avons alors . Donc est encore une meilleure approximation. Soient donnés par le théorème d'alternance pour . Supposons que . Alors au moins l'un des deux ne vaut pas , disons quitte à renommer , et donc . On a

. Ceci est absurde. Donc . Donc à zéros distincts. Donc par les conditions de Haar, nous obtenons qu'elle est identiquement nulle et donc que . Nous avons donc l'unicité.

Procédons maintenant à la démonstration de l'existence. Considérons . Cet ensemble est clairement fermé et borné. Il est non vide puisque la fonction nulle est dans et est de dimension finie. Donc est compact. Ainsi étant continue sur , elle y atteint un minimum, disons en . Or, si est la meilleure approximation de alors par inégalité triangulaire. Donc . Donc est bien une meilleure approximation pour .

Voir aussi

modifier


Sources

modifier
  1. (en) CHENEY E.W., Introduction to approximation theory,
  2. (en) POWEL M.J.D., Approximation theory and methods, Cambridge Univetrsity Press,