L’analyse numérique est la branche des mathématiques qui développe et étudie des méthodes pour résoudre des problèmes par le calcul approché. En L2, tu abordes les fondements de cette discipline : l’interpolation polynomiale, la résolution numérique d’équations non linéaires, l’intégration numérique et l’analyse des erreurs. Ces méthodes sont indispensables en physique, en ingénierie et en informatique scientifique. Cet article reprend chaque notion avec les démonstrations essentielles, les estimations d’erreur et des exercices corrigés.
Interpolation polynomiale
L’interpolation consiste à construire une fonction simple (généralement un polynôme) qui passe par un ensemble de points donnés. On dispose de n+1 points (x₀, y₀), (x₁, y₁), …, (xₙ, yₙ) avec des abscisses deux à deux distinctes, et on cherche un polynôme P de degré au plus n tel que P(xᵢ) = yᵢ pour tout i.
Étant donnés n+1 points (xᵢ, yᵢ) avec des abscisses distinctes, il existe un unique polynôme P de degré inférieur ou égal à n tel que P(xᵢ) = yᵢ pour tout i ∈ {0, …, n}.
Démonstration de l’unicité : si P et Q sont deux tels polynômes, alors P − Q est de degré ≤ n et s’annule en n+1 points distincts, donc P − Q = 0.
Polynôme de Lagrange
Le polynôme d’interpolation de Lagrange s’écrit explicitement :
P(x) = Σᵢ₌₀ⁿ yᵢ Lᵢ(x)
où les polynômes de base de Lagrange sont :
Lᵢ(x) = Πⱼ₌₀,ⱼ≠ᵢⁿ (x − xⱼ) / (xᵢ − xⱼ)
Chaque Lᵢ est un polynôme de degré n qui vaut 1 en xᵢ et 0 en tous les autres points d’interpolation. Cette propriété garantit directement que P(xᵢ) = yᵢ.
Exemple détaillé
Construisons le polynôme d’interpolation passant par les points (0, 1), (1, 3) et (2, 7).
On a n = 2, x₀ = 0, x₁ = 1, x₂ = 2, y₀ = 1, y₁ = 3, y₂ = 7.
L₀(x) = (x − 1)(x − 2) / ((0 − 1)(0 − 2)) = (x − 1)(x − 2) / 2
L₁(x) = (x − 0)(x − 2) / ((1 − 0)(1 − 2)) = x(x − 2) / (−1) = −x(x − 2)
L₂(x) = (x − 0)(x − 1) / ((2 − 0)(2 − 1)) = x(x − 1) / 2
P(x) = 1 × (x − 1)(x − 2)/2 + 3 × (−x)(x − 2) + 7 × x(x − 1)/2
En développant : P(x) = (x² − 3x + 2)/2 − 3x² + 6x + (7x² − 7x)/2 = (8x² − 10x + 2)/2 − 3x² + 6x = 4x² − 5x + 1 − 3x² + 6x = x² + x + 1.
Vérification : P(0) = 1, P(1) = 3, P(2) = 7. C’est correct.
Erreur d’interpolation
Si f est une fonction de classe C^{n+1} sur un intervalle [a, b] contenant tous les xᵢ, l’erreur d’interpolation en un point x est :
f(x) − P(x) = f^{(n+1)}(ξ) / (n+1)! × Πᵢ₌₀ⁿ (x − xᵢ)
pour un certain ξ entre le min et le max de {x, x₀, …, xₙ}. Cette formule montre que l’erreur dépend à la fois de la régularité de f (via la dérivée d’ordre n+1) et du choix des points d’interpolation (via le produit Πᵢ(x − xᵢ)).
⚠️ Le phénomène de Runge
L’interpolation avec des points équidistants peut diverger quand le degré augmente. Pour la fonction f(x) = 1/(1 + 25x²) sur [−1, 1], l’interpolation de Lagrange avec des points équidistants oscille de plus en plus violemment aux bords. Ce phénomène, découvert par Carl Runge, montre que l’interpolation de degré élevé n’est pas toujours fiable. La solution : utiliser des points de Tchebychev xₖ = cos((2k + 1)π/(2n + 2)) qui minimisent le produit Πᵢ|x − xᵢ|.
Résolution numérique d’équations
On cherche à résoudre f(x) = 0 lorsque la résolution analytique est impossible ou trop complexe. Les méthodes numériques produisent une suite (xₙ) qui converge vers une racine r de f.
Méthode de dichotomie
La méthode de dichotomie (ou bisection) repose sur le théorème des valeurs intermédiaires. Si f est continue sur [a, b] avec f(a) × f(b) < 0, alors f s'annule dans ]a, b[. L'algorithme divise l'intervalle en deux à chaque étape :
1. Calculer c = (a + b)/2.
2. Si f(c) = 0, c’est la racine.
3. Si f(a) × f(c) < 0, la racine est dans [a, c] : poser b = c.
4. Sinon, la racine est dans [c, b] : poser a = c.
5. Répéter jusqu’à |b − a| < ε (tolérance).
Après n itérations, l’intervalle de recherche a une longueur (b − a)/2ⁿ. L’erreur sur la racine est majorée par (b − a)/2ⁿ.
Pour obtenir une précision ε, il faut n ≥ log₂((b − a)/ε) itérations.
La convergence est linéaire (l’erreur est divisée par 2 à chaque itération). C’est lent mais garanti : la méthode converge toujours sous la seule hypothèse de continuité.
Méthode de Newton
La méthode de Newton (ou Newton-Raphson) utilise l’approximation affine de f au voisinage d’un point pour trouver une meilleure approximation de la racine. La suite est définie par :
xₙ₊₁ = xₙ − f(xₙ) / f'(xₙ)
Géométriquement, xₙ₊₁ est l’abscisse du point d’intersection de la tangente à la courbe de f au point (xₙ, f(xₙ)) avec l’axe des abscisses.
Si f est de classe C² au voisinage d’une racine simple r (f(r) = 0, f'(r) ≠ 0), et si x₀ est suffisamment proche de r, alors la suite (xₙ) converge vers r avec une convergence quadratique :
|xₙ₊₁ − r| ≤ C × |xₙ − r|²
où C = max|f »| / (2 min|f’|) au voisinage de r.
La convergence quadratique signifie que le nombre de chiffres significatifs double à chaque itération. C’est beaucoup plus rapide que la dichotomie.
La méthode de Newton peut diverger si le point initial x₀ est mal choisi (trop loin de la racine, ou f'(x₀) ≈ 0). Une bonne stratégie : commence par quelques étapes de dichotomie pour te rapprocher de la racine, puis bascule sur Newton pour profiter de la convergence quadratique. C’est la méthode hybride, utilisée dans les solveurs professionnels. Pour les bases théoriques, consulte le cours sur les suites et séries.
Méthode du point fixe
La méthode du point fixe transforme l’équation f(x) = 0 en x = g(x) et itère xₙ₊₁ = g(xₙ). Le théorème du point fixe de Banach garantit la convergence si g est contractante : il existe k ∈ [0, 1[ tel que |g(x) − g(y)| ≤ k|x − y| pour tout x, y dans un intervalle stable par g. En pratique, il suffit que |g'(x)| < 1 au voisinage du point fixe.
La méthode de Newton est un cas particulier de point fixe avec g(x) = x − f(x)/f'(x). La convergence quadratique de Newton vient du fait que g'(r) = 0 (la dérivée de g au point fixe est nulle).
Intégration numérique
L’intégration numérique (ou quadrature) consiste à calculer une approximation de l’intégrale ∫ₐᵇ f(x) dx lorsque la primitive n’est pas connue explicitement ou que f est donnée par des valeurs discrètes.
Méthode des rectangles
On subdivise [a, b] en n sous-intervalles de longueur h = (b − a)/n. La méthode des rectangles à gauche approche l’intégrale par :
Rₙ = h × Σᵢ₌₀ⁿ⁻¹ f(a + ih)
La méthode des rectangles au point milieu utilise f(a + (i + 1/2)h) et donne une meilleure approximation. L’erreur de la méthode des rectangles (gauche ou droite) est O(h), c’est-à-dire d’ordre 1. La méthode du point milieu est d’ordre 2 : son erreur est O(h²).
Méthode des trapèzes
La méthode des trapèzes remplace f par une fonction affine sur chaque sous-intervalle :
Tₙ = h × (f(a)/2 + Σᵢ₌₁ⁿ⁻¹ f(a + ih) + f(b)/2)
Si f est de classe C² sur [a, b], l’erreur est :
|∫ₐᵇ f(x) dx − Tₙ| ≤ (b − a)h² / 12 × max_{[a,b]} |f »|
L’ordre de convergence est 2 : quand on double n (on divise h par 2), l’erreur est divisée par 4.
Méthode de Simpson
La méthode de Simpson remplace f par un polynôme de degré 2 sur chaque paire de sous-intervalles. Avec n pair :
Sₙ = h/3 × (f(a) + 4Σf(x_{2i+1}) + 2Σf(x_{2i}) + f(b))
où les sommes alternent les coefficients 4 (indices impairs) et 2 (indices pairs intérieurs).
Rectangles (gauche/droite) : ordre 1, erreur O(h). Simple mais lent.
Point milieu : ordre 2, erreur O(h²). Aussi précis que les trapèzes avec moins de calculs.
Trapèzes : ordre 2, erreur O(h²). Le standard de base.
Simpson : ordre 4, erreur O(h⁴). Très efficace, la méthode la plus courante.
Règle pratique : pour une précision ε, il faut n ∝ 1/ε (rectangles), n ∝ 1/√ε (trapèzes), n ∝ 1/ε^{1/4} (Simpson).
Systèmes linéaires : méthodes numériques
La résolution de systèmes linéaires Ax = b est un problème central en analyse numérique. En L2, tu dois connaître les méthodes directes (élimination de Gauss, décomposition LU) et avoir une idée des méthodes itératives.
Élimination de Gauss
L’élimination de Gauss transforme le système Ax = b en un système triangulaire supérieur Ux = c par des opérations élémentaires sur les lignes. L’algorithme comporte deux phases : la descente (élimination) et la remontée (substitution).
Le coût de l’élimination de Gauss est de l’ordre de (2/3)n³ opérations pour un système de taille n. Le pivot partiel (choisir le pivot de plus grande valeur absolue dans la colonne) améliore la stabilité numérique en évitant les divisions par des nombres proches de zéro.
Décomposition LU
La décomposition LU écrit A = LU, où L est triangulaire inférieure (avec des 1 sur la diagonale) et U est triangulaire supérieure. C’est une reformulation de l’élimination de Gauss qui permet de résoudre efficacement plusieurs systèmes avec la même matrice A mais des seconds membres différents. On résout d’abord Ly = b (descente), puis Ux = y (remontée). Le lien avec les espaces vectoriels est direct.
Analyse des erreurs
En calcul numérique, les résultats sont toujours entachés d’erreurs. Il est fondamental de savoir les quantifier et les contrôler.
Types d’erreurs
• Erreur d’arrondi : due à la représentation finie des nombres en machine (nombre fini de chiffres significatifs). En double précision IEEE 754, la précision machine est ε ≈ 2,2 × 10⁻¹⁶.
• Erreur de troncature : due à l’approximation d’un processus infini (série, intégrale, limite) par un calcul fini.
• Erreur de méthode : due au choix de la méthode numérique (interpolation au lieu de la fonction exacte, quadrature au lieu de l’intégrale exacte).
Conditionnement
Le conditionnement mesure la sensibilité d’un problème aux perturbations des données. Pour un système linéaire Ax = b, le nombre de conditionnement est κ(A) = ||A|| × ||A⁻¹||. Si κ(A) est grand, le système est mal conditionné : de petites perturbations dans A ou b peuvent produire de grandes variations dans x.
Si Ax = b et A(x + δx) = b + δb, alors :
||δx|| / ||x|| ≤ κ(A) × ||δb|| / ||b||
L’erreur relative sur la solution est majorée par κ(A) fois l’erreur relative sur le second membre. Pour un système bien conditionné (κ(A) ≈ 1), les erreurs sont du même ordre. Pour un système mal conditionné (κ(A) ≫ 1), les erreurs sont amplifiées.
Exercices corrigés
Exercice 1 — Interpolation de Lagrange
Énoncé : Construire le polynôme d’interpolation de Lagrange passant par les points (−1, 2), (0, 1), (1, 2), (2, 5).
Correction : n = 3. On a 4 points, donc un polynôme de degré ≤ 3.
L₀(x) = x(x − 1)(x − 2) / ((−1)(−2)(−3)) = x(x − 1)(x − 2) / (−6)
L₁(x) = (x + 1)(x − 1)(x − 2) / ((1)(−1)(−2)) = (x + 1)(x − 1)(x − 2) / 2
L₂(x) = (x + 1)x(x − 2) / ((2)(1)(−1)) = (x + 1)x(x − 2) / (−2)
L₃(x) = (x + 1)x(x − 1) / ((3)(2)(1)) = (x + 1)x(x − 1) / 6
P(x) = 2L₀ + 1L₁ + 2L₂ + 5L₃
En développant (calcul fastidieux mais systématique), on obtient P(x) = x² + 1.
Vérification : P(−1) = 2 ✓, P(0) = 1 ✓, P(1) = 2 ✓, P(2) = 5 ✓.
Exercice 2 — Méthode de dichotomie
Énoncé : Approcher √2 par dichotomie sur [1, 2] (résoudre x² − 2 = 0) avec une précision de 0,1.
Correction : f(x) = x² − 2. f(1) = −1 < 0, f(2) = 2 > 0. Racine dans [1, 2].
Itération 1 : c = 1,5. f(1,5) = 0,25 > 0. Racine dans [1, 1,5].
Itération 2 : c = 1,25. f(1,25) = −0,4375 < 0. Racine dans [1,25, 1,5].
Itération 3 : c = 1,375. f(1,375) = −0,109375 < 0. Racine dans [1,375, 1,5].
Itération 4 : c = 1,4375. f(1,4375) = 0,06640625 > 0. Racine dans [1,375, 1,4375].
L’intervalle a une longueur 0,0625 < 0,1. On peut prendre √2 ≈ 1,406 (milieu de l'intervalle).
Nombre minimal d’itérations : log₂(1/0,1) ≈ 3,32, donc n = 4 itérations. ✓
Exercice 3 — Méthode de Newton
Énoncé : Appliquer la méthode de Newton pour résoudre x³ − x − 1 = 0 en partant de x₀ = 1,5. Faire 3 itérations.
Correction : f(x) = x³ − x − 1, f'(x) = 3x² − 1.
x₀ = 1,5. f(1,5) = 3,375 − 1,5 − 1 = 0,875. f'(1,5) = 6,75 − 1 = 5,75.
x₁ = 1,5 − 0,875/5,75 ≈ 1,5 − 0,1522 = 1,3478.
x₁ = 1,3478. f(1,3478) ≈ 2,4456 − 1,3478 − 1 = 0,0978. f'(1,3478) ≈ 5,4493 − 1 = 4,4493.
x₂ = 1,3478 − 0,0978/4,4493 ≈ 1,3478 − 0,02198 = 1,3258.
x₂ = 1,3258. f(1,3258) ≈ 2,3298 − 1,3258 − 1 = 0,0040. f'(1,3258) ≈ 5,2734 − 1 = 4,2734.
x₃ = 1,3258 − 0,0040/4,2734 ≈ 1,3249.
La valeur exacte est r ≈ 1,3247. Après 3 itérations, on a 4 chiffres significatifs corrects (convergence quadratique).
Exercice 4 — Méthode des trapèzes
Énoncé : Approcher ∫₀¹ e^x dx par la méthode des trapèzes avec n = 4. Comparer à la valeur exacte.
Correction : h = (1 − 0)/4 = 0,25. Points : x₀ = 0, x₁ = 0,25, x₂ = 0,5, x₃ = 0,75, x₄ = 1.
f(xᵢ) = e^{xᵢ} : f(0) = 1, f(0,25) ≈ 1,2840, f(0,5) ≈ 1,6487, f(0,75) ≈ 2,1170, f(1) ≈ 2,7183.
T₄ = 0,25 × (1/2 + 1,2840 + 1,6487 + 2,1170 + 2,7183/2)
= 0,25 × (0,5 + 1,2840 + 1,6487 + 2,1170 + 1,35915)
= 0,25 × 6,90885 = 1,72721.
Valeur exacte : ∫₀¹ e^x dx = e − 1 ≈ 1,71828.
Erreur : |1,72721 − 1,71828| = 0,00893. Erreur relative : 0,52 %.
Majoration théorique : (1 × 0,0625)/12 × max|f »| = 0,0625/12 × e ≈ 0,01416. L’erreur réelle est bien en dessous du majorant.
Exercice 5 — Méthode de Simpson
Énoncé : Approcher ∫₀¹ e^x dx par la méthode de Simpson avec n = 4. Comparer à la méthode des trapèzes.
Correction : Avec les mêmes points que précédemment :
S₄ = (0,25/3) × (f(0) + 4f(0,25) + 2f(0,5) + 4f(0,75) + f(1))
= (0,25/3) × (1 + 4 × 1,2840 + 2 × 1,6487 + 4 × 2,1170 + 2,7183)
= (0,25/3) × (1 + 5,1360 + 3,2974 + 8,4680 + 2,7183)
= (0,25/3) × 20,6197 = 0,08333 × 20,6197 = 1,71831.
Erreur : |1,71831 − 1,71828| = 0,00003. Erreur relative : 0,002 %.
Comparaison : Simpson donne une erreur 300 fois plus petite que les trapèzes avec le même nombre de points. C’est la puissance de l’ordre 4.
Exercice 6 — Conditionnement d’une matrice
Énoncé : Calculer le conditionnement en norme infinie de la matrice A = [[1, 2], [1, 2,001]].
Correction : ||A||∞ = max(|1| + |2|, |1| + |2,001|) = max(3, 3,001) = 3,001.
det(A) = 1 × 2,001 − 2 × 1 = 0,001.
A⁻¹ = (1/0,001) × [[2,001, −2], [−1, 1]] = [[2001, −2000], [−1000, 1000]].
||A⁻¹||∞ = max(2001 + 2000, 1000 + 1000) = max(4001, 2000) = 4001.
κ∞(A) = 3,001 × 4001 ≈ 12 007. Le système est mal conditionné : une perturbation relative de 10⁻³ sur b peut produire une erreur relative de l’ordre de 12 sur x.
Erreurs fréquentes en L2
L’ordre de convergence indique comment l’erreur décroît en fonction de h (le pas). Ordre 2 signifie que quand h est divisé par 2, l’erreur est divisée par 4 (pas par 2). Un schéma d’ordre 4 (Simpson) n’est pas « deux fois mieux » qu’un schéma d’ordre 2 (trapèzes) : l’erreur de Simpson décroît comme h⁴ contre h² pour les trapèzes.
❌ Erreur 2 — Oublier les hypothèses de convergence de Newton
La méthode de Newton ne converge que si x₀ est suffisamment proche de la racine et si f'(r) ≠ 0 (racine simple). Pour une racine multiple (f(r) = f'(r) = 0), la convergence est seulement linéaire, pas quadratique. La méthode de Newton modifiée (diviser par la multiplicité) restaure la convergence quadratique.
❌ Erreur 3 — Négliger les erreurs d’arrondi
Augmenter indéfiniment n (le nombre de points ou d’itérations) n’améliore pas toujours la précision. Au-delà d’un certain n, les erreurs d’arrondi dominent et la précision se dégrade. C’est une limite inhérente au calcul en arithmétique flottante.
❌ Erreur 4 — Utiliser Simpson avec n impair
La méthode de Simpson nécessite un nombre pair de sous-intervalles (n pair). Avec n impair, la formule standard ne s’applique pas directement. Il faut soit arrondir n au pair supérieur, soit utiliser la règle de Simpson 3/8 pour le dernier sous-intervalle.
FAQ — Analyse numérique L2
Quelle méthode choisir pour résoudre une équation : dichotomie ou Newton ?
La dichotomie est fiable (elle converge toujours si f est continue et change de signe), mais lente (convergence linéaire). Newton est rapide (convergence quadratique), mais peut diverger si le point initial est mal choisi. En pratique, on combine les deux : quelques étapes de dichotomie pour localiser la racine, puis Newton pour affiner.
Pourquoi la méthode de Simpson est-elle d’ordre 4 alors qu’elle utilise des polynômes de degré 2 ?
C’est un résultat remarquable. La formule de Simpson intègre exactement les polynômes de degré ≤ 3 (pas seulement ≤ 2), grâce à une propriété de symétrie. L’erreur ne fait donc intervenir la dérivée quatrième de f, ce qui donne un ordre 4. C’est un « bonus de symétrie » qu’on retrouve aussi dans la méthode du point milieu (ordre 2 au lieu de 1).
Qu’est-ce que la stabilité numérique ?
Un algorithme est numériquement stable si les erreurs d’arrondi ne sont pas amplifiées au cours du calcul. L’élimination de Gauss sans pivot est instable (les erreurs d’arrondi peuvent exploser). Avec pivot partiel, l’algorithme est stable en pratique. Le conditionnement mesure la stabilité du problème, tandis que la stabilité numérique mesure la qualité de l’algorithme utilisé pour le résoudre.
Existe-t-il des méthodes d’intégration d’ordre supérieur à 4 ?
Oui, les formules de Newton-Cotes d’ordre supérieur utilisent des polynômes de degré plus élevé. Mais elles souffrent du phénomène de Runge (coefficients négatifs, instabilité) pour les ordres élevés. Les quadratures de Gauss-Legendre offrent une alternative : avec n points, elles intègrent exactement les polynômes de degré ≤ 2n − 1, ce qui est optimal. Elles sont très utilisées en ingénierie et en éléments finis.
Ingénieur de formation, professeur des écoles et passionné par l’enseignement.






