Les mathématiques en s’amusant avec Inimath.

Analyse numérique élémentaire – Cours de Maths L2

découvrez le cours d'analyse numérique élementaire de l2 maths, qui vous plonge au cœur des techniques fondamentales de résolution numérique. apprenez à maîtriser les méthodes de calculs approchés, d'interpolation et d'intégration, tout en développant vos compétences en programmation. un parcours essentiel pour tous les étudiants en mathématiques.

L’analyse numérique est la branche des mathématiques qui développe et étudie des méthodes pour résoudre des problèmes par le calcul approché. En L2, tu abordes les fondements de cette discipline : l’interpolation polynomiale, la résolution numérique d’équations non linéaires, l’intégration numérique et l’analyse des erreurs. Ces méthodes sont indispensables en physique, en ingénierie et en informatique scientifique. Cet article reprend chaque notion avec les démonstrations essentielles, les estimations d’erreur et des exercices corrigés.

Interpolation polynomiale

L’interpolation consiste à construire une fonction simple (généralement un polynôme) qui passe par un ensemble de points donnés. On dispose de n+1 points (x₀, y₀), (x₁, y₁), …, (xₙ, yₙ) avec des abscisses deux à deux distinctes, et on cherche un polynôme P de degré au plus n tel que P(xᵢ) = yᵢ pour tout i.

📘 Théorème d’interpolation de Lagrange
Étant donnés n+1 points (xᵢ, yᵢ) avec des abscisses distinctes, il existe un unique polynôme P de degré inférieur ou égal à n tel que P(xᵢ) = yᵢ pour tout i ∈ {0, …, n}.

Démonstration de l’unicité : si P et Q sont deux tels polynômes, alors P − Q est de degré ≤ n et s’annule en n+1 points distincts, donc P − Q = 0.

Polynôme de Lagrange

Le polynôme d’interpolation de Lagrange s’écrit explicitement :

P(x) = Σᵢ₌₀ⁿ yᵢ Lᵢ(x)

où les polynômes de base de Lagrange sont :

Lᵢ(x) = Πⱼ₌₀,ⱼ≠ᵢⁿ (x − xⱼ) / (xᵢ − xⱼ)

Chaque Lᵢ est un polynôme de degré n qui vaut 1 en xᵢ et 0 en tous les autres points d’interpolation. Cette propriété garantit directement que P(xᵢ) = yᵢ.

Exemple détaillé

Construisons le polynôme d’interpolation passant par les points (0, 1), (1, 3) et (2, 7).

On a n = 2, x₀ = 0, x₁ = 1, x₂ = 2, y₀ = 1, y₁ = 3, y₂ = 7.

L₀(x) = (x − 1)(x − 2) / ((0 − 1)(0 − 2)) = (x − 1)(x − 2) / 2

L₁(x) = (x − 0)(x − 2) / ((1 − 0)(1 − 2)) = x(x − 2) / (−1) = −x(x − 2)

L₂(x) = (x − 0)(x − 1) / ((2 − 0)(2 − 1)) = x(x − 1) / 2

P(x) = 1 × (x − 1)(x − 2)/2 + 3 × (−x)(x − 2) + 7 × x(x − 1)/2

En développant : P(x) = (x² − 3x + 2)/2 − 3x² + 6x + (7x² − 7x)/2 = (8x² − 10x + 2)/2 − 3x² + 6x = 4x² − 5x + 1 − 3x² + 6x = x² + x + 1.

Vérification : P(0) = 1, P(1) = 3, P(2) = 7. C’est correct.

Erreur d’interpolation

Si f est une fonction de classe C^{n+1} sur un intervalle [a, b] contenant tous les xᵢ, l’erreur d’interpolation en un point x est :

f(x) − P(x) = f^{(n+1)}(ξ) / (n+1)! × Πᵢ₌₀ⁿ (x − xᵢ)

pour un certain ξ entre le min et le max de {x, x₀, …, xₙ}. Cette formule montre que l’erreur dépend à la fois de la régularité de f (via la dérivée d’ordre n+1) et du choix des points d’interpolation (via le produit Πᵢ(x − xᵢ)).

⚠️ Le phénomène de Runge

L’interpolation avec des points équidistants peut diverger quand le degré augmente. Pour la fonction f(x) = 1/(1 + 25x²) sur [−1, 1], l’interpolation de Lagrange avec des points équidistants oscille de plus en plus violemment aux bords. Ce phénomène, découvert par Carl Runge, montre que l’interpolation de degré élevé n’est pas toujours fiable. La solution : utiliser des points de Tchebychev xₖ = cos((2k + 1)π/(2n + 2)) qui minimisent le produit Πᵢ|x − xᵢ|.

Résolution numérique d’équations

On cherche à résoudre f(x) = 0 lorsque la résolution analytique est impossible ou trop complexe. Les méthodes numériques produisent une suite (xₙ) qui converge vers une racine r de f.

Méthode de dichotomie

La méthode de dichotomie (ou bisection) repose sur le théorème des valeurs intermédiaires. Si f est continue sur [a, b] avec f(a) × f(b) < 0, alors f s'annule dans ]a, b[. L'algorithme divise l'intervalle en deux à chaque étape :

1. Calculer c = (a + b)/2.
2. Si f(c) = 0, c’est la racine.
3. Si f(a) × f(c) < 0, la racine est dans [a, c] : poser b = c.
4. Sinon, la racine est dans [c, b] : poser a = c.
5. Répéter jusqu’à |b − a| < ε (tolérance).

📘 Convergence de la dichotomie
Après n itérations, l’intervalle de recherche a une longueur (b − a)/2ⁿ. L’erreur sur la racine est majorée par (b − a)/2ⁿ.
Pour obtenir une précision ε, il faut n ≥ log₂((b − a)/ε) itérations.

La convergence est linéaire (l’erreur est divisée par 2 à chaque itération). C’est lent mais garanti : la méthode converge toujours sous la seule hypothèse de continuité.

Méthode de Newton

La méthode de Newton (ou Newton-Raphson) utilise l’approximation affine de f au voisinage d’un point pour trouver une meilleure approximation de la racine. La suite est définie par :

xₙ₊₁ = xₙ − f(xₙ) / f'(xₙ)

Géométriquement, xₙ₊₁ est l’abscisse du point d’intersection de la tangente à la courbe de f au point (xₙ, f(xₙ)) avec l’axe des abscisses.

📘 Convergence de la méthode de Newton
Si f est de classe C² au voisinage d’une racine simple r (f(r) = 0, f'(r) ≠ 0), et si x₀ est suffisamment proche de r, alors la suite (xₙ) converge vers r avec une convergence quadratique :
|xₙ₊₁ − r| ≤ C × |xₙ − r|²
où C = max|f »| / (2 min|f’|) au voisinage de r.

La convergence quadratique signifie que le nombre de chiffres significatifs double à chaque itération. C’est beaucoup plus rapide que la dichotomie.
💡 Astuce — Choix du point initial
La méthode de Newton peut diverger si le point initial x₀ est mal choisi (trop loin de la racine, ou f'(x₀) ≈ 0). Une bonne stratégie : commence par quelques étapes de dichotomie pour te rapprocher de la racine, puis bascule sur Newton pour profiter de la convergence quadratique. C’est la méthode hybride, utilisée dans les solveurs professionnels. Pour les bases théoriques, consulte le cours sur les suites et séries.

Méthode du point fixe

La méthode du point fixe transforme l’équation f(x) = 0 en x = g(x) et itère xₙ₊₁ = g(xₙ). Le théorème du point fixe de Banach garantit la convergence si g est contractante : il existe k ∈ [0, 1[ tel que |g(x) − g(y)| ≤ k|x − y| pour tout x, y dans un intervalle stable par g. En pratique, il suffit que |g'(x)| < 1 au voisinage du point fixe.

La méthode de Newton est un cas particulier de point fixe avec g(x) = x − f(x)/f'(x). La convergence quadratique de Newton vient du fait que g'(r) = 0 (la dérivée de g au point fixe est nulle).

Intégration numérique

L’intégration numérique (ou quadrature) consiste à calculer une approximation de l’intégrale ∫ₐᵇ f(x) dx lorsque la primitive n’est pas connue explicitement ou que f est donnée par des valeurs discrètes.

Méthode des rectangles

On subdivise [a, b] en n sous-intervalles de longueur h = (b − a)/n. La méthode des rectangles à gauche approche l’intégrale par :

Rₙ = h × Σᵢ₌₀ⁿ⁻¹ f(a + ih)

La méthode des rectangles au point milieu utilise f(a + (i + 1/2)h) et donne une meilleure approximation. L’erreur de la méthode des rectangles (gauche ou droite) est O(h), c’est-à-dire d’ordre 1. La méthode du point milieu est d’ordre 2 : son erreur est O(h²).

Méthode des trapèzes

La méthode des trapèzes remplace f par une fonction affine sur chaque sous-intervalle :

Tₙ = h × (f(a)/2 + Σᵢ₌₁ⁿ⁻¹ f(a + ih) + f(b)/2)

📘 Erreur de la méthode des trapèzes
Si f est de classe C² sur [a, b], l’erreur est :
|∫ₐᵇ f(x) dx − Tₙ| ≤ (b − a)h² / 12 × max_{[a,b]} |f »|

L’ordre de convergence est 2 : quand on double n (on divise h par 2), l’erreur est divisée par 4.

Méthode de Simpson

La méthode de Simpson remplace f par un polynôme de degré 2 sur chaque paire de sous-intervalles. Avec n pair :

Sₙ = h/3 × (f(a) + 4Σf(x_{2i+1}) + 2Σf(x_{2i}) + f(b))

où les sommes alternent les coefficients 4 (indices impairs) et 2 (indices pairs intérieurs).

✅ Comparaison des méthodes d’intégration
Rectangles (gauche/droite) : ordre 1, erreur O(h). Simple mais lent.
Point milieu : ordre 2, erreur O(h²). Aussi précis que les trapèzes avec moins de calculs.
Trapèzes : ordre 2, erreur O(h²). Le standard de base.
Simpson : ordre 4, erreur O(h⁴). Très efficace, la méthode la plus courante.

Règle pratique : pour une précision ε, il faut n ∝ 1/ε (rectangles), n ∝ 1/√ε (trapèzes), n ∝ 1/ε^{1/4} (Simpson).

Systèmes linéaires : méthodes numériques

La résolution de systèmes linéaires Ax = b est un problème central en analyse numérique. En L2, tu dois connaître les méthodes directes (élimination de Gauss, décomposition LU) et avoir une idée des méthodes itératives.

Élimination de Gauss

L’élimination de Gauss transforme le système Ax = b en un système triangulaire supérieur Ux = c par des opérations élémentaires sur les lignes. L’algorithme comporte deux phases : la descente (élimination) et la remontée (substitution).

Le coût de l’élimination de Gauss est de l’ordre de (2/3)n³ opérations pour un système de taille n. Le pivot partiel (choisir le pivot de plus grande valeur absolue dans la colonne) améliore la stabilité numérique en évitant les divisions par des nombres proches de zéro.

Décomposition LU

La décomposition LU écrit A = LU, où L est triangulaire inférieure (avec des 1 sur la diagonale) et U est triangulaire supérieure. C’est une reformulation de l’élimination de Gauss qui permet de résoudre efficacement plusieurs systèmes avec la même matrice A mais des seconds membres différents. On résout d’abord Ly = b (descente), puis Ux = y (remontée). Le lien avec les espaces vectoriels est direct.

Analyse des erreurs

En calcul numérique, les résultats sont toujours entachés d’erreurs. Il est fondamental de savoir les quantifier et les contrôler.

Types d’erreurs

Erreur d’arrondi : due à la représentation finie des nombres en machine (nombre fini de chiffres significatifs). En double précision IEEE 754, la précision machine est ε ≈ 2,2 × 10⁻¹⁶.
Erreur de troncature : due à l’approximation d’un processus infini (série, intégrale, limite) par un calcul fini.
Erreur de méthode : due au choix de la méthode numérique (interpolation au lieu de la fonction exacte, quadrature au lieu de l’intégrale exacte).

Conditionnement

Le conditionnement mesure la sensibilité d’un problème aux perturbations des données. Pour un système linéaire Ax = b, le nombre de conditionnement est κ(A) = ||A|| × ||A⁻¹||. Si κ(A) est grand, le système est mal conditionné : de petites perturbations dans A ou b peuvent produire de grandes variations dans x.

📘 Inégalité de conditionnement
Si Ax = b et A(x + δx) = b + δb, alors :
||δx|| / ||x|| ≤ κ(A) × ||δb|| / ||b||

L’erreur relative sur la solution est majorée par κ(A) fois l’erreur relative sur le second membre. Pour un système bien conditionné (κ(A) ≈ 1), les erreurs sont du même ordre. Pour un système mal conditionné (κ(A) ≫ 1), les erreurs sont amplifiées.

Exercices corrigés

Exercice 1 — Interpolation de Lagrange

Énoncé : Construire le polynôme d’interpolation de Lagrange passant par les points (−1, 2), (0, 1), (1, 2), (2, 5).

Correction : n = 3. On a 4 points, donc un polynôme de degré ≤ 3.

L₀(x) = x(x − 1)(x − 2) / ((−1)(−2)(−3)) = x(x − 1)(x − 2) / (−6)

L₁(x) = (x + 1)(x − 1)(x − 2) / ((1)(−1)(−2)) = (x + 1)(x − 1)(x − 2) / 2

L₂(x) = (x + 1)x(x − 2) / ((2)(1)(−1)) = (x + 1)x(x − 2) / (−2)

L₃(x) = (x + 1)x(x − 1) / ((3)(2)(1)) = (x + 1)x(x − 1) / 6

P(x) = 2L₀ + 1L₁ + 2L₂ + 5L₃

En développant (calcul fastidieux mais systématique), on obtient P(x) = x² + 1.

Vérification : P(−1) = 2 ✓, P(0) = 1 ✓, P(1) = 2 ✓, P(2) = 5 ✓.

Exercice 2 — Méthode de dichotomie

Énoncé : Approcher √2 par dichotomie sur [1, 2] (résoudre x² − 2 = 0) avec une précision de 0,1.

Correction : f(x) = x² − 2. f(1) = −1 < 0, f(2) = 2 > 0. Racine dans [1, 2].

Itération 1 : c = 1,5. f(1,5) = 0,25 > 0. Racine dans [1, 1,5].

Itération 2 : c = 1,25. f(1,25) = −0,4375 < 0. Racine dans [1,25, 1,5].

Itération 3 : c = 1,375. f(1,375) = −0,109375 < 0. Racine dans [1,375, 1,5].

Itération 4 : c = 1,4375. f(1,4375) = 0,06640625 > 0. Racine dans [1,375, 1,4375].

L’intervalle a une longueur 0,0625 < 0,1. On peut prendre √2 ≈ 1,406 (milieu de l'intervalle).

Nombre minimal d’itérations : log₂(1/0,1) ≈ 3,32, donc n = 4 itérations. ✓

Exercice 3 — Méthode de Newton

Énoncé : Appliquer la méthode de Newton pour résoudre x³ − x − 1 = 0 en partant de x₀ = 1,5. Faire 3 itérations.

Correction : f(x) = x³ − x − 1, f'(x) = 3x² − 1.

x₀ = 1,5. f(1,5) = 3,375 − 1,5 − 1 = 0,875. f'(1,5) = 6,75 − 1 = 5,75.

x₁ = 1,5 − 0,875/5,75 ≈ 1,5 − 0,1522 = 1,3478.

x₁ = 1,3478. f(1,3478) ≈ 2,4456 − 1,3478 − 1 = 0,0978. f'(1,3478) ≈ 5,4493 − 1 = 4,4493.

x₂ = 1,3478 − 0,0978/4,4493 ≈ 1,3478 − 0,02198 = 1,3258.

x₂ = 1,3258. f(1,3258) ≈ 2,3298 − 1,3258 − 1 = 0,0040. f'(1,3258) ≈ 5,2734 − 1 = 4,2734.

x₃ = 1,3258 − 0,0040/4,2734 ≈ 1,3249.

La valeur exacte est r ≈ 1,3247. Après 3 itérations, on a 4 chiffres significatifs corrects (convergence quadratique).

Exercice 4 — Méthode des trapèzes

Énoncé : Approcher ∫₀¹ e^x dx par la méthode des trapèzes avec n = 4. Comparer à la valeur exacte.

Correction : h = (1 − 0)/4 = 0,25. Points : x₀ = 0, x₁ = 0,25, x₂ = 0,5, x₃ = 0,75, x₄ = 1.

f(xᵢ) = e^{xᵢ} : f(0) = 1, f(0,25) ≈ 1,2840, f(0,5) ≈ 1,6487, f(0,75) ≈ 2,1170, f(1) ≈ 2,7183.

T₄ = 0,25 × (1/2 + 1,2840 + 1,6487 + 2,1170 + 2,7183/2)

= 0,25 × (0,5 + 1,2840 + 1,6487 + 2,1170 + 1,35915)

= 0,25 × 6,90885 = 1,72721.

Valeur exacte : ∫₀¹ e^x dx = e − 1 ≈ 1,71828.

Erreur : |1,72721 − 1,71828| = 0,00893. Erreur relative : 0,52 %.

Majoration théorique : (1 × 0,0625)/12 × max|f »| = 0,0625/12 × e ≈ 0,01416. L’erreur réelle est bien en dessous du majorant.

Exercice 5 — Méthode de Simpson

Énoncé : Approcher ∫₀¹ e^x dx par la méthode de Simpson avec n = 4. Comparer à la méthode des trapèzes.

Correction : Avec les mêmes points que précédemment :

S₄ = (0,25/3) × (f(0) + 4f(0,25) + 2f(0,5) + 4f(0,75) + f(1))

= (0,25/3) × (1 + 4 × 1,2840 + 2 × 1,6487 + 4 × 2,1170 + 2,7183)

= (0,25/3) × (1 + 5,1360 + 3,2974 + 8,4680 + 2,7183)

= (0,25/3) × 20,6197 = 0,08333 × 20,6197 = 1,71831.

Erreur : |1,71831 − 1,71828| = 0,00003. Erreur relative : 0,002 %.

Comparaison : Simpson donne une erreur 300 fois plus petite que les trapèzes avec le même nombre de points. C’est la puissance de l’ordre 4.

Exercice 6 — Conditionnement d’une matrice

Énoncé : Calculer le conditionnement en norme infinie de la matrice A = [[1, 2], [1, 2,001]].

Correction : ||A||∞ = max(|1| + |2|, |1| + |2,001|) = max(3, 3,001) = 3,001.

det(A) = 1 × 2,001 − 2 × 1 = 0,001.

A⁻¹ = (1/0,001) × [[2,001, −2], [−1, 1]] = [[2001, −2000], [−1000, 1000]].

||A⁻¹||∞ = max(2001 + 2000, 1000 + 1000) = max(4001, 2000) = 4001.

κ∞(A) = 3,001 × 4001 ≈ 12 007. Le système est mal conditionné : une perturbation relative de 10⁻³ sur b peut produire une erreur relative de l’ordre de 12 sur x.

Erreurs fréquentes en L2

❌ Erreur 1 — Confondre ordre de convergence et vitesse
L’ordre de convergence indique comment l’erreur décroît en fonction de h (le pas). Ordre 2 signifie que quand h est divisé par 2, l’erreur est divisée par 4 (pas par 2). Un schéma d’ordre 4 (Simpson) n’est pas « deux fois mieux » qu’un schéma d’ordre 2 (trapèzes) : l’erreur de Simpson décroît comme h⁴ contre h² pour les trapèzes.

❌ Erreur 2 — Oublier les hypothèses de convergence de Newton
La méthode de Newton ne converge que si x₀ est suffisamment proche de la racine et si f'(r) ≠ 0 (racine simple). Pour une racine multiple (f(r) = f'(r) = 0), la convergence est seulement linéaire, pas quadratique. La méthode de Newton modifiée (diviser par la multiplicité) restaure la convergence quadratique.

❌ Erreur 3 — Négliger les erreurs d’arrondi
Augmenter indéfiniment n (le nombre de points ou d’itérations) n’améliore pas toujours la précision. Au-delà d’un certain n, les erreurs d’arrondi dominent et la précision se dégrade. C’est une limite inhérente au calcul en arithmétique flottante.

❌ Erreur 4 — Utiliser Simpson avec n impair
La méthode de Simpson nécessite un nombre pair de sous-intervalles (n pair). Avec n impair, la formule standard ne s’applique pas directement. Il faut soit arrondir n au pair supérieur, soit utiliser la règle de Simpson 3/8 pour le dernier sous-intervalle.

FAQ — Analyse numérique L2

Quelle méthode choisir pour résoudre une équation : dichotomie ou Newton ?

La dichotomie est fiable (elle converge toujours si f est continue et change de signe), mais lente (convergence linéaire). Newton est rapide (convergence quadratique), mais peut diverger si le point initial est mal choisi. En pratique, on combine les deux : quelques étapes de dichotomie pour localiser la racine, puis Newton pour affiner.

Pourquoi la méthode de Simpson est-elle d’ordre 4 alors qu’elle utilise des polynômes de degré 2 ?

C’est un résultat remarquable. La formule de Simpson intègre exactement les polynômes de degré ≤ 3 (pas seulement ≤ 2), grâce à une propriété de symétrie. L’erreur ne fait donc intervenir la dérivée quatrième de f, ce qui donne un ordre 4. C’est un « bonus de symétrie » qu’on retrouve aussi dans la méthode du point milieu (ordre 2 au lieu de 1).

Qu’est-ce que la stabilité numérique ?

Un algorithme est numériquement stable si les erreurs d’arrondi ne sont pas amplifiées au cours du calcul. L’élimination de Gauss sans pivot est instable (les erreurs d’arrondi peuvent exploser). Avec pivot partiel, l’algorithme est stable en pratique. Le conditionnement mesure la stabilité du problème, tandis que la stabilité numérique mesure la qualité de l’algorithme utilisé pour le résoudre.

Existe-t-il des méthodes d’intégration d’ordre supérieur à 4 ?

Oui, les formules de Newton-Cotes d’ordre supérieur utilisent des polynômes de degré plus élevé. Mais elles souffrent du phénomène de Runge (coefficients négatifs, instabilité) pour les ordres élevés. Les quadratures de Gauss-Legendre offrent une alternative : avec n points, elles intègrent exactement les polynômes de degré ≤ 2n − 1, ce qui est optimal. Elles sont très utilisées en ingénierie et en éléments finis.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

×

Devenir professeur

Tu veux devenir professeur de mathématiques chez Inimath? Tu as envie de te créer un revenu complémentaire? Pas de soucis, inscrivez-vous et nous nous occupons de tout.

S'inscrire

S'inscrire en tant que professeur de maths

🎁 +5 en maths🎁
Retour en haut
Cours particuliers de maths par Inimath
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.