[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
201 vues228 pages

Anlyse M3

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 228

E LEMENTS D ’A NALYSE N UMERIQUE

AVEC A PPLICATIONS AUX M ODELES


B IOMATHEMATIQUES ET E COLOGIQUES

60

50

40

30

20

10

−10
3

2.5 60
50
2 40
30
1.5 20
10
1 0

Abdesslam B OUTAYEB
Abdelaziz C HETOUANI
Mohamed D EROUICH
Table des matières

1 Rappels et définitions 6
1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Quelques rappels sur les matrices . . . . . . . . . . . . . . . . . . . . 6
1.3 Valeurs et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Normes vectorielles et normes matricielles . . . . . . . . . . . . . . . 11
1.4.1 Normes vectorielles . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.3 Normes compatibles . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Complément bibliographique sur les matrices positives . . . . . . . . 21
1.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Méthodes directes de résolution des systèmes linéaires Ax = b 24


2.1 Résolution d’un système par les méthodes de descente ou de remontée 25
2.2 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.1 Matrices élémentaires de Gauss . . . . . . . . . . . . . . . . . . 26
2.2.2 Matrices élémentaires de Danilevski . . . . . . . . . . . . . . . 26
2.2.3 Matrices élémentaires de Householder . . . . . . . . . . . . . 26
2.2.4 Matrices élémentaires de permutation . . . . . . . . . . . . . . 27
2.2.5 Matrices élémentaires de Perlis . . . . . . . . . . . . . . . . . . 27
2.2.6 Matrices élémentaires de Givens (ou de rotation) . . . . . . . . 29
2.3 Méthodes de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Méthode de Gauss sans pivot . . . . . . . . . . . . . . . . . . 29
2.3.2 Méthode de Gauss avec pivot partiel . . . . . . . . . . . . . . . 30
2.3.3 Méthode de Gauss avec pivot total . . . . . . . . . . . . . . . . 32
2.3.4 Méthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . 32
2.4 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Factorisation de Choleski (matrice symétrique) . . . . . . . . . . . . . 34

1
2.6 Factorisation de Householder (matrice unitaire ) . . . . . . . . . . . . 35
2.7 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.8 Matrices creuses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.9 Résultats sur les matrices non carrées . . . . . . . . . . . . . . . . . . 43
2.10 Résolution des systèmes à matrices non carrées . . . . . . . . . . . . 44
2.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.12 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3 Méthodes indirectes de résolution des systèmes linéaires Ax = b 51


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Généralités et définitions . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3 Description des méthodes classiques . . . . . . . . . . . . . . . . . . . 54
3.3.1 Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.2 Méthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . 56
3.3.3 Méthode de relaxation . . . . . . . . . . . . . . . . . . . . . . . 58
3.4 Comparaison des méthodes classiques . . . . . . . . . . . . . . . . . 61
3.4.1 Comparaison des méthodes de Jacobi et de Gauss-Seidel . . . 61
3.4.2 Comparaison des méthodes de Jacobi et de relaxation . . . . 62
3.5 Méthodes semi-itératives . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.6 Décomposition des matrices positives . . . . . . . . . . . . . . . . . . 69
3.6.1 Décomposition régulière des matrices . . . . . . . . . . . . . . 71
3.7 Comparaison des méthodes classiques dans le cas des matrices pos-
itives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.8 Complément bibliographique . . . . . . . . . . . . . . . . . . . . . . . 73
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4 Solutions numériques de l’équation f ( x) = 0 82


4.1 Cas scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.1.1 Généralités et définitions . . . . . . . . . . . . . . . . . . . . . 82
4.1.2 Méthodes du point fixe ou d’approximations successives . . . 83
4.1.3 Méthode du promoteur de convergence de Wegstein . . . . . 85
4.1.4 Méthode de Newton-Raphson . . . . . . . . . . . . . . . . . . 86
4.1.5 Méthode de Newton modifiée . . . . . . . . . . . . . . . . . . 88
4.1.6 Méthodes de dichotomie . . . . . . . . . . . . . . . . . . . . . . 89
4.1.7 Regula falsi (fausse position) . . . . . . . . . . . . . . . . . . . 89
4.1.8 Méthode ∆2 d’Aitken (accélération de la convergence) . . . . 90
4.1.9 Méthode de Steffenson (accélération de la convergence) . . . 91
4.2 Cas des polynômes: Solutions numériques des équations algébriques 92

2
4.2.1 Schéma de Horner . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.2.2 Méthode de Laguerre . . . . . . . . . . . . . . . . . . . . . . . 92
4.2.3 Méthode de Bairstow . . . . . . . . . . . . . . . . . . . . . . . . 94
4.2.4 Méthode de Maehly . . . . . . . . . . . . . . . . . . . . . . . . 95
4.2.5 Localisation des racines . . . . . . . . . . . . . . . . . . . . . . 95
4.2.6 Nombre de racines réelles d’un polynôme . . . . . . . . . . . 98
4.2.7 Cas des racines isolées . . . . . . . . . . . . . . . . . . . . . . . 99
4.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.4 Complément bibliographique . . . . . . . . . . . . . . . . . . . . . . . 107
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

5 Méthodes numériques de résolution des systèmes non linéaires 116


5.1 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.2 Problèmes d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.3.1 Modèles écologiques . . . . . . . . . . . . . . . . . . . . . . . . 126
5.3.2 Modèles à deux espèces . . . . . . . . . . . . . . . . . . . . . . 126
5.3.3 Modèle proie-prédateur . . . . . . . . . . . . . . . . . . . . . . 127
5.3.4 Modèle à compétition . . . . . . . . . . . . . . . . . . . . . . . 130
5.3.5 Modèle à coopération . . . . . . . . . . . . . . . . . . . . . . . 132
5.4 Complément bibliographique . . . . . . . . . . . . . . . . . . . . . . . 132
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

6 Calcul des valeurs propres et vecteurs propres 138


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.2 Méthodes basées sur le polynôme caractéristique . . . . . . . . . . . . 139
6.3 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

7 Analyse numérique des équations differentielles ordinaires (e.d.o) 154


7.1 Rappels sur les équations differentielles ordinaires (e.d.o) . . . . . . 154
7.2 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
7.3 Notions de stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
7.4 Système d’équations aux differences linéaires avec coéfficients con-
stants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.5 Méthodes numériques pour les problèmes de condition initiale . . . 159
7.5.1 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

3
7.5.2 Consistance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
7.5.3 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.5.4 Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . 162
7.5.5 Méthodes de Taylor dans le cas scalaire . . . . . . . . . . . . . 164
7.5.6 Méthodes de Runge-Kutta (R.K) dans le cas scalaire . . . . . . 165
7.5.7 Méthodes de Runge-Kutta explicites . . . . . . . . . . . . . . . 165
7.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
7.7 Complément bibliographique . . . . . . . . . . . . . . . . . . . . . . . 182
7.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

Annexe 190

Bibliographie 199

Notes de solutions des exercices 211

4
Liste des figures

4.1 Convergence(r = 0.9) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105


4.2 2 cycles(r = 2.5),Chaos(r = 3) . . . . . . . . . . . . . . . . . . . . . . . 105

5.1 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128


5.2 Stabilité asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.3 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.4 2 cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.5 4 cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.6 Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.7 Extinction d’une espèce . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.8 Coexistence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.9 Coexistence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

7.1 Convergence λ = 4.5,2 cycles λ = 6 . . . . . . . . . . . . . . . . . . . 172


7.2 4 cycles λ = 6.5,Chaos λ = 7 . . . . . . . . . . . . . . . . . . . . . . . 172
7.3 λ = 3.5 ,γ = 2-λ = 5.5 ,γ = 2.5 . . . . . . . . . . . . . . . . . . . . . . 173
7.4 SIR à deux populations . . . . . . . . . . . . . . . . . . . . . . . . . . 174
7.5 Convergence ∆t = 0.01, Convergence oscillatoire ∆t = 0.018 . . . . 176
7.6 Oscillation ∆t = 0.027 . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
7.7 Convergence-Oscillation . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.8 Schéma de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.10 Effet de l’effort physique . . . . . . . . . . . . . . . . . . . . . . . . . . 182

5
Chapitre 1

Rappels et définitions

1.1 Notations
A matrice carrée d’ordre n.
ai j élément de la ieme ligne et la jeme colonne.
A−1 inverse de A.
A> transposée de A.
det( A) déterminant de A.
trace( A) trace de A.
ρ( A) rayon spectral de A.
I matrice idendité d’ordre n.
0 matrice nulle d’ordre n.
x vecteur colonne d’éléments xi , i = 1, 2, · · · , n.
x> vecteur ligne d’éléments x j , j = 1, 2, · · · , n.
k Ak norme de A.
k xk norme de x.
h, i produit scalaire.

1.2 Quelques rappels sur les matrices


On note par A = ( ai j ) i, j = 1, · · · , n une matrice carrée d’ordre n dont les
coefficients appartiennent à un corps K (K = R ou C ).
La matrice adjointe de A est notée A∗ , elle est définie par h Au, vi = hu, A∗ vi pour
tous u, v ∈ Kn , où h x, yi désigne le produit scalaire de x et y qu’on note encore

h x, yi = ∑ xi yi = y H x.
i

On rappelle alors que

6
• A est dite symétrique si A est réelle et A> = A.

• A est dite hermitienne si A est complexe et A H = A.

• A est dite orthogonale si A est réelle et A> A = AA> = I.

• A est dite unitaire si A est complexe et A H A = AA H = I.

• A est dite normale si AA∗ = A∗ A = I.

• A est dite positive (resp strictement positive) si ai j ≥ 0 (resp ai j > 0) ∀i, j.

• A est dite réductible s’il existe une permutation de lignes et de colonnes de


telle sorte que A peut s’écrire sous la forme :
à !
B 0
ΠAΠ−1 =
C D
où B et D sont des matrices carrées et Π est une matrice de permutation. Sinon
elle est dite irréductible .

• Soit A une matrice irréductible et positive possédant l valeurs propres de


module maximal |λ1 | alors

– Si l = 1 A est dite primitive.


– Si l > 1 A est dite imprimitive et l est l’indice d’imprimitivité de A.

• Si A est une matrice réelle avec ai j ≤ 0 pour tout i 6= j, A est dite M-matrice
si A est non singulière et A−1 ≥ 0.

• Si A est une matrice réelle avec ai j ≤ 0 pour tout i 6= j, A est dite matrice de
Stieljes si A est symétrique et définie positive.

• Une matrice A = ( ai j ) est dite matrice de Hessenberg si elle vérifie: ai j = 0


pour i > j + 1.

• Si A est une matrice complexe, on appelle matrice de comparaison de A la


matrice Ae = (αi j ) avec αii = | aii | et αi j = −| ai j | pour tout i 6= j.

• Une matrice complexe A est dite H-matrice si sa matrice de comparaison est


une M-matrice.

• A est dite à diagonale strictement dominante en colonnes si elle vérifie la


propriété
n
∑ | ai j | < | a j j | ∀ j = 1, · · · , n.
i =1
i 6= j

7
• A est dite à diagonale strictement dominante en lignes si elle vérifie la pro-
priété
n
∑ |ai j | < |aii | ∀i = 1, · · · , n.
j=1
j 6 =i

• A est dite à diagonale quasi-dominante s’il existe des entiers positifs


π1 , π2 , · · · , πn tels que :
πi | aii | > ∑ π j | ai j |
j 6 =i

pour tout i = 1, · · · , n.

• A est dite stochastique généralisée si elle vérifie les deux propriétés

1. A est positive (ai j ≥ 0 ∀i, j).


n
2. ∑ ai j = σ > 0, pour i = 1, · · · , n.
j=1
Si σ = 1, elle est dite stochastique.

1.3 Valeurs et vecteurs propres


Définition 1.3.1. Les valeurs propres de A sont les racines de det( A − λ I ) = 0 ou
encore les zéros du polynôme Pn (λ ) donné par

Pn (λ ) = det( A − λ I ) = (−1)n λ n + · · · + λ trace( A) + det A.

On a en particulier

det A = ∏ λi et trace( A) = tr( A) = ∑ λi .


i i

Définition 1.3.2. Un vecteur x 6= 0 est dit vecteur propre de A associé à une valeur
propre λ si Ax = λ x.

Définition 1.3.3. On appelle spectre de A l’ensemble des valeurs propres de A; noté


σ ( A) = {λi }ii= n
=1 . On appelle rayon spectral de A, la plus grande valeur propre en
module, noté
ρ( A) = max |λi |.
i

Définition 1.3.4. Deux matrices A et B sont dites équivalentes s’il existe deux ma-
trices P et Q telles que A = PBQ.
A et B sont dites semblables s’il existe une matrice inversible P telle que A = PBP−1 .

8
Définition 1.3.5. Une matrice A est diagonalisable si elle est semblable à une ma-
trice diagonale.

Définition 1.3.6. Une matrice A est dite définie positive si elle vérifie

h Ax, xi > 0 pour tout x 6= 0.

Remarque 1.3.1.
Pour toute matrice A, A∗ A est une matrice hermitienne définie positive. Il s’ensuit
que les valeurs propres de A∗ A sont réelles positives. Si ces valeurs propres sont
√ √ √
notées µ1 ≥ µ2 ≥ · · · ≥ µn ≥ 0 les racines carrées positives µ1 , µ2 , · · · , µn
sont appelées valeurs singulières de A.

Théorème 1.3.1 (Théorème de Schur).


Pour toute matrice carrée A, il existe une matrice unitaire U telle que
 
λ1 ∗ ··· ∗
 .. .. 
 λ2 . . 
 
U H AU =  ,
 ..
 . ∗ 
λn

où λi , i = 1, · · · , n, sont les valeurs propres de A.

Preuve:
Soit (e1 , e2 , · · · , en ) la base canonique de Cn .
On procède par récurrence sur n. Pour n = 1 le théorème est trivial.
On suppose que le résultat est vrai pour les matrices d’ordre n − 1 et soient A
une matrice carrée d’ordre n et λ1 une valeur propre de A associé à un vecteur
propre x1 6= 0 avec k x1 k2 = 1. On peut trouver n − 1 vecteurs x2 , · · · , xn tels que
( x1 , x2 , · · · , xn ) forment une base de Cn et la matrice X = [ x1 , · · · , xn ] soit unitaire,
X H X = I. Comme

X H AXe1 = X H Ax1 = λ1 X H x1 = λ1 x1 ,

La matrice X H AX est de la forme


à !
λ1 a
X H AX = ,
0 A1

où A1 est une matrice d’ordre n − 1 et a H ∈ Cn−1 . Par hypothèse de réccurence, il

9
existe une matrice unitaire U1 d’ordre n − 1 telle que
 
λ2 ∗ · · · ∗
 .. .. 
 λ . . 
 3 
U1H A1 U1 =  .
 .. 
 . ∗ 
λn
La matrice à !
1 0
U=X ,
0 U1
est une matrice unitaire d’ordre n qui satisfait
à ! à !
1 0 1 0
U H AU = X H AX
0 U1H 0 U1
à !à !à !
1 0 λ1 a 1 0
=
0 U1H 0 A1 0 U1
 
λ1 ∗ · · · ∗
 .. .. 
 λ . . 
 2 
=  .. .
 . ∗ 
 
λn
Ce qui termine la preuve.
Si la matrice A est hermitienne, le théorème de Schur assure que
Corollaire 1.3.1.
Pour toute matrice hermitienne A, il existe une matrice unitaire U = [ x1 , · · · , xn ] telle
que:
 
λ1
 
 λ2 
U AU = U AU = 
−1 H
 ..
,

 . 
λn
les valeurs propres de A sont réelles et A est diagonalisable.
Théorème 1.3.2. Si les valeurs propres λi , i = 1, · · · , n d’ une matrice hermitienne sont
rangées dans un ordre décroissant

λ1 ≥ λ2 ≥ · · · ≥ λn ,

alors λ1 et λn sont données par


µ ¶ µ ¶
x H Ax x H Ax
λ1 = max , λn = min . (1.3.1)
x6=0 xH x x6=0 xH x

10
Preuve:
Si U H AU = D = diag(λ1 , · · · , λn ), U unitaire, alors pour tout x 6= 0 on a

x H Ax ( x H U )U H AU (U H x) y H Dy
∑ λi | ηi |2
i
= = = ≤ λ1 ,
xH x ( x H U )(U H x) yH y ∑ | ηi |2
i

où y = U H x = (η1 , · · · , ηn )> 6= 0. Si on prend pour x 6= 0 le vecteur propre associé


µ H ¶
H H x Ax
à λ1 , Ax = λ1 x, on obtient x Ax/ x x = λ1 , donc λ1 = max .
x6=0 xH x
L’autre inégalité s’obtient d’une façon similaire en remplaçant A par − A.

Définition 1.3.7. On appelle coefficient de Rayleigh le réel µ R défini par

h Ax, xi
µR = , pour tout x 6= 0.
h x, xi
Remarque 1.3.2. Si A est une matrice hermitienne dont les valeurs propres sont
rangées par ordre croissant µ1 ≤ µ2 ≤ · · · ≤ µn , alors d’après le théorème 1.3.2 on
a
µ1 ≤ µ R ≤ µn .

Théorème 1.3.3 (Gerschgorin).


Pour toute valeur propre λ de A on a la relation
n
| aii − λ | ≤ ∑ | ai j | ,
j=1
j 6 =i

pour au moins un indice i.

Preuve:
n
λ étant valeur propre associée à un vecteur propre x, on a ∑ ai j x j − λ xi = − aii xi
j=1
j 6 =i

pour tout i = 1, · · · , n, il suffit alors de considérer l’indice i tel que | xi | = max | x j |.


j

1.4 Normes vectorielles et normes matricielles


1.4.1 Normes vectorielles

Définition 1.4.1. Une norme définie sur un espace vectoriel E est une application
notée k.k de E dans R+ telle que

i) k xk = 0 si et seulement si x = 0.

11
ii) kλ xk = |λ |k xk ∀λ ∈ R.

iii) k x + yk ≤ k xk + k yk ∀ x ∈ E ∀ y ∈ E.

Exemple 1.4.1.
à !1/2 à !1/ p
2 p
k x k 1 = ∑ | xi | , k x k 2 = ∑ | xi | , k xk p = ∑ | xi | , k xk∞ = max | xi |.
i i i i

1.4.2 Normes matricielles

Définition 1.4.2. Une norme matricielle est une norme qui vérifie, en plus de i),ii)
et iii) la condition suivante

iv) k ABk ≤ k Akk Bk pour toutes matrices A et B.

Définition 1.4.3. Etant ¶ une norme vectorielle k.k, l’application


µ donné
k Axk
A −→ k Ak = sup définit une norme matricielle dite norme induite par
x6=0 k xk
(ou subordonnée à ) la norme vectorielle k.k.

Les normes vectorielles k.k1 , k.k∞ et k.k2 induisent, respectivement, les normes
p
matricielles suivantes k Ak1 = max ∑ | ai j |, k Ak∞ = max ∑ | ai j |, k Ak2 = ρ( A> A).
j i i j

Remarque 1.4.1. Il existe des normes matricielles qui ne sont subordonnées à au-
cune norme vectorielle.
µ ¶1/2
Exemple 1.4.2. Norme de Schur k Ak = ∑ ∑ ai2j .
i j

1.4.3 Normes compatibles

Définition 1.4.4. Une norme vectorielle k.k et une norme matricielle k.k∗ sont com-
patibles si pour toute matrice A et tout vecteur x; k Axk ≤ k Ak∗ k xk.

Remarque 1.4.2. En particulier toute norme matricielle subordonnée à une norme


vectorielle est compatible avec celle ci.
Par ailleurs, il existe toujours une norme matricielle compatible avec une norme
vectorielle. Réciproquement, étant donnée une norme matricielle k.k∗ , on peut lui
associer une norme k.k vectorielle qui lui soit compatible par k xk = k x, 0, ·, 0k∗ .

Théorème 1.4.1. Soit k.k une norme matricielle et B une matrice complexe vérifiant
k Bk < 1. Alors la matrice I ± B est inversible et on a:

i) ( I − B)−1 = I + B + B2 + · · ·

12
° ° 1
ii) °( I ± B)−1 ° ≤ .
1 − k Bk
Inversement, si la série de i) converge alors ρ( B) < 1.

Preuve:
Si I ± B n’était pas inversible alors elle admettrait λ = 0 pour valeur propre et par
suite on aurait k Bk ≥ 1. Soit G = ( I ± B)−1 il s’ensuit que ( I ± B) G = I c.à.d
1
k G k ≤ 1 + k Bkk G k soit k G k ≤ .
1 − k Bk
En écrivant S p = I + B + B2 + · · · + B p , on obtient

S p − BS p = ( I − B) S p = I − B p+1 .

Comme I − B est inversible on a S p = ( I − B)−1 ( I − B p+1 ) ou encore


k B k p+1
k( I − B)−1 − S p k ≤
1 − k Bk
d’où lim S p = ( I − B)−1 .
p−→∞
Inversement, si µ est une valeur propre de B associé à un vecteur propre v alors on
a:
( I + B + B2 + · · · )v = (1 + µ + µ 2 + · · · )v,
la convergence de la série des matrices entraı̂ne la convergence de la série des com-
plexes ∑ µ i par conséquent on doit avoir |µ | < 1 et par suite ρ( B) < 1.

Remarque 1.4.3. Sous MATLAB les fonctions matricielles les plus courantes sont:
det(A), eig(A), poly(A), inv(A), rank(A), norm(A), norm(A,1), norm(A,2), norm(A,inf),
norm(A,’fro’), cond(A,k).

Exemple 1.4.3. µ ¶
1
Considérons la matrice de Hilbert d’ordre 6, H =
i+ j−1 i, j=1,··· ,6
rang( H ) = 6.
det( H ) = 5.3673e−18 .

 k H k1 = 2.4500 si k = 1,

norm( H, k) = k H k2 = 1.6189 si k = 2,


k H k∞ = 2.4500 si k = ∞,
 ° −1 °
° ° 7
 k H k1 ° H °1 = 2.907e si k = 1,

cond( H, k) = k H k2 ° H −1 °2 = 1.4951e7 si k = 2,

 ° °
k H k∞ ° H −1 °∞ = 2.907e7 si k = ∞,
ρ( H ) = 1.6189.
Pour les matrices positives on a les résultats suivants

13
Théorème 1.4.2 (Perron-Frobenius ).
Si A est positive, alors A admet une valeur propre λ0 ≥ 0 égale au rayon spectral de A, à
λ0 correspond un vecteur propre positif.

En ajouttant l’hypothèse d’irréductibilité, on obtient le résultat plus précis.

Théorème 1.4.3 (Perron-Frobenius ).


Si A est strictement positive ou positive et irréductible, alors A admet une valeur propre
λ0 > 0 égale au rayon spectral de A, associée à un vecteur propre x0 strictement positif.
De plus λ0 est une valeur simple supérieure en module à toute autre valeur propre de A,
λ0 > |λi | ∀λi valeur propre de A.

Théorème 1.4.4 ( Théorème d’érgodicité ).


Soit le système linéaire n(k + 1) = Ln(k), où L est une matrice carrée d’ordre p et
n(k) = (n1 (k), n2 (k), · · · , n p (k))> . Ã !
Lk
Si L est strictement positive ou positive et primitive alors lim = v1 u>
1 où v1
k−→+∞ λ1k
et u1 sont les vecteurs propres droit et gauche associés à λ1 et u>
1 v1 = 1. Si de plus
n(k )
kv1 k = 1 alors lim = v1 .
k−→+∞ k n ( k )k

Théorème 1.4.5 (Vitesse de convergence ).


Si L est strictement positive ou positive et primitive avec valeur propre dominante λ1 et u
et v sont respectivement les vecteurs propres droit et gauche associés à λ1 , si on suppose de
plus que les valeurs propres distinctes de L sont ordonnées de telle sorte que λ1 > |λ2 | ≥
|λ3 | ≥ · · · > |λq | si de plus |λ2 | = |λ3 | et l’ordre de multiplicité m de λ2 est au moins
plus grand que celui de λ3 ou de toute autre valeur propre de même module que λ2 alors
³ ´
Lt = λ1 uv> + O tm−1 |λ2 |t .

Si m = 1 ° °
° n(t)
°
°
>° |λ2 | t
° λt − uv ° ≤ c
1 λ1
λ1
est dit rapport d’amortissement.
|λ2 |
Remarque 1.4.4. Toute matrice stochastique admet 1 comme valeur propre associée
au vecteur propre I dont toutes les composantes sont égales à 1.

Théorème 1.4.6. Soit A une matrice associée à une chaı̂ne de Markov. Alors il existe un
n(k)
vecteur p > 0 avec k pk = 1, lim Ak = A et lim = p, si n(k + 1) = An(k).
k−→∞ k−→∞ k n ( k )k

14
1.5 Applications
Application 1.5.1 (Modèle de Markov). [41]
Considérons une stratégie de gestion des terres en supposant quatre types:
T1=Terres agricoles non irriguées, T2=Terres agricoles irriguées, T3=Terres de con-
struction , T4=Terres non exploitables. Supposons que nous adoptions une stratégie
à long terme qui consiste à contrôler chaque année le passage d’un type de terre
à un autre pour arriver à un certain équilibre. Soit M une matrice de transition
d’un type de terre à un autre, si n(t) désigne l’état du système à l’instant t alors
¡ ¢
n(t + 1) = Mn(t) où M = pi j i, j=1,··· ,4 , pi j est la probabilité de passage du type
de terre i au type j au bout d’une année.
A titre d’exemple, si cette stratégie est appliquée durant une quarantaine d’années
avec  
0.75 0.1 0.15 0
 
 0.1 0.75 0.15 0 
M=  0
,
 0.2 0.7 0.1  
0 0.05 0.25 0.7
on arrive à l’équilibre suivant:
 
0.1468 0.3714 0.36 0.12
 
 0.1468 0.3714 0.36 0.12 
M 37
=



 0.1468 0.3714 0.36 0.12 
0.1468 0.3714 0.36 0.12

Interprétation: à l’équilibre le domaine des terres non irriguées sera formé de 59%
de son étendue initiale, les domaines des terres irriguées et de construction auront
augmenté de presque 50% chacun (1.49 et 1.44). Enfin, les terres non exploitées
auront diminué de la moitié (0.52%). Ces chiffres ayant été obtenus en prenant
pour chaque colonne, les sommes sur les quatre lignes.

Application 1.5.2. (Matrice de Leslie)


On suppose qu’une population de femmes est formée de m classe d’âge et on note
ni (t) la taille de la population d’âge i à l’instant t. Si bi est le nombre moyen de
femelles nées par femme d’âge i et pi la proportion de femmes d’âge i qui survivent
à l’âge i + 1 alors, à l’instant t + 1 on a:

• La première classe d’âge est formée par les nouveaux nés, sa taille est donnée
par:
m
n1 (t + 1) = ∑ bi ni ( t ) .
i =1

15
• Chaque groupe d’âge i + 1 est formé par les individus du groupe d’âge i qui
survivent
ni+1 (t + 1) = pi ni (t) ; i ≥ 1.

En notant n(t) le vecteur de composantes ni (t); i = 1, · · · , n on obtient une for-


mulation matricielle n(t + 1) = Ln(t) où L est la matrice de Leslie donnée par
 
b1 b2 ··· bn
 
 p1 0 ··· 0 
L=
 .. .. .. .. 

 . . . . 
0 ··· pn−1 0

L est une matrice irréductible si bn 6= 0.

Exemple 1.5.1. ([41])


On suppose que les classes d’âge sont d’intervalle de 15 ans, et que seules les
femelles des classes 2 et 3 reproduisent et que l’âge maximal est 75 ans.

n1 (t + 1) = b2 n2 (t) + b3 n3 (t)

ni +1 ( t + 1 ) = pi ni ( t )

l’unité de temps est égal à 15 ans, d’où la forme matricielle suivante

n(t + 15) = Ln(t),

où    
0 b2 b3 0 0 1000
   
 p1 0 0 0 0   900 
   
L=
 0 p2 0 0 0  et n(0) =


 800 

   
 0 0 p3 0 0   700 
0 0 0 p4 0 600
avec b1 = 1.5 , b3 = 1, p1 = 0.98, p2 = 0.96, p3 = 0.93, p4 = 0.9, comme
ni ( k + 1 )
lim = λ1 , donc d’après le tableau 1.1 on a λ1 = 1.4548. D’autre
k−→+∞ ni ( k )
n(k + 1)
part lim = v1 , donc d’après le tableau 1.2 on a
k−→+∞ k n ( k )k
v1 = (0.387, 0.261, 0.172, 0.1102, 0.068)> .

16
période classe 1 classe 2 classe 3 classe 4 classe 5
1 2.15 1.0889 1.08 1.0629 10.5
2 1.0856 2.15 1.0889 1.08 1.029
3 1.7572 1.0856 2.15 1.0889 1.08
4 1.3297 1.7572 1.0856 2.15 1.088
··· ··· ··· ··· ··· ···
··· ··· ··· ··· ··· ···
16 1.4550 1.455 1.4548 1.4548 1.4557
17 1.4548 1.4548 1.455 1.455 1.4547
18 1.4549 1.4549 1.4548 1.4548 1.4548
19 1.4548 1.4548 1.4549 1.4549 1.455
20 1.4549 1.4549 1.4548 1.4548 1.4548

Tableau 1.1: Taux de croissance de chaque classe d’âge

période classe 1 classe 2 classe 3 classe 4 classe 5


1 40.0522 % 18.2563 % 16.0954 % 13.8599 % 11.7362 %
2 34.0485 % 30.737 % 13.7244 % 11.7218 % 9.7632 %
3 40.9743 % 22.8516 % 20.2081 % 8.7412 % 7.2249 %
4 38.383 % 28.0335 % 15.3154 % 13.1205 % 5.4923 %
··· ··· ··· ··· ··· ···
··· ··· ··· ··· ··· ···
16 38.7892 % 26.1384 % 17.2402 % 11.0212 % 6.8188 %
17 38.7910 % 26.1302 % 17.2421 % 11.0208 % 6.8178 %
18 38.7902 % 26.1284 % 17.2409 % 11.0217 % 6.8176 %
19 38.7904 % 26.1296 % 17.2416 % 11.0209 % 6.8181 %
20 38.7904 % 26.1292 % 17.2413 % 11.0214 % 6.8177 %

Tableau 1.2: Pourcentages de chaque classe d’âge

Exemple 1.5.2. ([31])


Le diabète est une maladie chronique qui touche toutes les catégories de la popu-
lation à travers le monde.
En des termes simples, cette maladie est causée par un désordre par lequel le
corps devient incapable de contrôler la quantité de sucre dans le sang. Le disfonc-
tionnement du pancréas( plus exactement des cellules béta) conduit à un manque
partiel ou total de l’insuline qui est la clé du méchanisme qui convertit le sucre en
énergie. Par conséquent, le système n’est plus auto-régulé et le niveau de sucre
dans le sang dépasse les limites seuil.
Théoriquement, un diabétique peut mener une vie tout à fait normale( c.à.d
comme un non diabétique) s’il arrive à contrôler quotidiennement sa glycémie en
la maintenant aussi proche que possible de la concentration normale qui est env-
iron 1g/ml . Cependant, ce contrôle nécessite la maı̂trise de trois paramètres qui
sont: l’alimentation, la quantité d’insuline et l’effort physique. La vie du diabétique

17
dépend de l’équilibre entre les trois paramètres pré-cités et le problème réside à
juste titre dans le déséquilibre qui conduit à long terme aux complications diabé-
tiques( cécité, amputations, insuffisance rénale,etc ...). Les études récentes ont montré
que l’éducation diabétique et la bonne maı̂trise des paramètres permet une réduction
significative des complications. Par le modèle donné dans le présent exemple, les
auteurs entendent illustrer l’importance du contrôle du passage entre la classe des
diabétiques sans complications, Dk (t) et celle des diabétiques avec complications,
Ck (t) en tenant en compte de la structure d’âge. Pour les statistiques concernant
l’incidence, la prévalence, le coût du diabète et d’autres données, nous renvoyons
aux références( [22, 30, 31, 145]).
On suppose que les évenements tels que naissance, mortalité et guérison, sont
enregistrés tous les 15 ans. On néglige l’émigration et l’immigration et on suppose
que le nombre de males est égal au nombre de femelles. On suppose qu’il n’y a pas
de complication congénitale. On obtient alors le modèle compartimental suivant:

Ik (t)- Dk ( t ) Ik0 (t)


Ck (t) ¾

@ ¡
@ ¡
pk (t)(1 − sk ) ¡@ qk (t)(1 − ak )
qk (t)¡
ak k (t)sk
p@
? ¡ ª R
@ ?
Ik+1 (-
t) Dk + 1 ( t ) Ik0 +1 (t)
Ck+1 (t) ¾

Les hypothèses précédentes conduisent aux équations:


 µ ¶ µ ¶


m
θ ( ti ) 1 θ 0 ( ti ) 0 00




D ( t
0 i +1 ) = I ( t
0 i +1 ) + ∑ 2 γk ( ti ) − 1 b ( t )
k i k in ( t ) +
2
b (
k it ) D (
k it ) + b k i( t ) C (
k it )
 k=0
C0 (ti+1 ) = 0



 Dk+1 (ti+1 ) = Ik+1 (ti+1 ) + pk (t) Dk (t)(1 − sk (ti+1 )) + ak (ti+1 )qk (t)Ck (t)),


 C (t ) = I 0 (t ) + q (t )C (t )(1 − a (t )) + p (t )s (t ) D (t )),
k +1 i +1 k+1 i +1 k i k i k i +1 k i k i +1 k i

pour k = 0, 1, · · · , m − 1

avec
ε k ( ti )
Ik+1 (ti+1 ) = D ( t i ) = α k + 1 ( t i ) Dk ( t i ) ,
γk0 (ti ) k

ε0k (ti )
Ik0 +1 (ti+1 ) = C (ti ) = αk0 +1 (ti )Ck (ti ) et I0 (ti ) = α0 (ti )n0 (ti ).
γk00 (ti ) k

On suppose que bk (ti ) = 0, b0k (ti ) = 0 et b00k (ti ) = 0 pour k < A0 et k > A1 .

18
En Additionnant Ck+1 (ti+1 ) et Dk+1 (ti+1 ) On obtient le modèle simplifié avec nk+1 :
 µ ¶ µ ¶


m
θ ( ti ) 1 θ 0 (ti ) 00 00
 n0 (ti+1 ) = I0 (ti ) + ∑
 − 1 b k ( ti ) n k ( ti ) + bk (ti ) Dk (ti ) + bk (ti )Ck (ti )

 k=0
2 γ k ( ti ) 2
r 0 ( ti +1 ) = 0

 µ ¶

 ¡ ¢

 nk +1 ( ti +1 ) = pk (ti ) + qk (ti ) − pk (ti ) rk (ti ) nk (ti ) + αk+1 (ti ) Dk (ti ) + αk0 +1 (ti )Ck (ti )

En supposant que les paramètres sont indépendants du temps, le modèle s’écrit:

n(ti+1 ) = Ln(ti )

où  
f0 f1 ··· fm
 
 ν0 0 ··· 0 
L=
 .. .. .. .. 

 . . . . 
0 ··· νm−1 0
µ ¶ µ ¶
θ 1 θ0 0 00 0 ∗ θ 1 θ0
avec f 0 = α0 + − 1 b 0 + ( b 0 + ( b 0 − b 0 )r 0 ), f k = − 1 bk + (b0k +
2 γ0 2 2 γk 2
(b00k − b0k )r∗k ).
µ ¶>
ν k = αk +1 + pk + (αk0 +1 + qk − αk+1 − pk )r∗k , n ( ti ) = n 0 ( ti ) , · · · , n m ( ti ) .

Exemple 1.5.3. ([31])


On suppose maintenant que les évenements tels que naissance, mortalité et guérison,
sont enregistrés au début de chaque année. On néglige l’émigration et l’immigration
et on suppose que le nombre de males est égal au nombre de femelles. On suppose
qu’il n’y a pas de complication congénitale. On obtient alors le modèle comparti-
mental suivant:

19
pk (t)µk (1 − sk ) qk (t)µk0 (1 − ak )

ª pk (t)µk (t)sk (t) ª


Ik (t) - - I 0 (t)
¾k
Dk ( t ) ¾ Ck (t)
qk (t)µk0 (t) ak (t)
HH ©
HH ©©
©
pk (t)(1 − µk )(1 − sk (t)) ©© HHH qk (t)(1 − µk0 )(1 − ak )
qk (© ©
t) ak (1 − µk )0 pk (H t)(1 − µk0 (t))sk (t)
¼
©
? © HHj?
p k +1 µ k +1 ( t ) s k +1 ( t )
Ik+1 (t- ) - I 0 (t)
Dk+1 (t)¾ Ck+1 (t) ¾k+1
qk+1 µk0 +1 (t) ak+1 (t)
I I
pk+1 (t)µk+1 (t)(1 − sk+1 ) qk+1 (t)µk0 +1 (t)(1 − ak+1 (t))

On obtient
n(t + 1) = Ln(t)

où  
f0 f1 f2 ··· fm
 
 ν0 ν10 0 ··· 0 
L=
 .. .. .. .. .. 

 . . . . . 
0 0 · · · 0 νm−1 νm 0

µ ¶
θ 1 θ0 ¡ 0 ¢
avec f 0 = µ0 + α0 + − 1 b0 + b0 + (b000 − b00 )r∗0 .
µ ¶ 2 γ0 2
θ 1 θ0 ¡ 0 ¢
fk = − 1 bk + bk + (b00k − b0k )r∗k nk (t) pour k = 1, 2...m − 1,
2 γk 2
νk = pkωk + αk+1 + (αk0 +1 + qkω0k − αk+1 − pkωk )r∗k pour k = 0, 1 · · · , m − 1,
νk0 = pk µk + (qk µk0 − pk µk )r∗k+1 pour k = 1, · · · , m.

20
1.6 Complément bibliographique sur les matrices positives
Les matrices positives n’apparaissent pas toujours dans les livres d’analyse numé-
rique. Cependant, leur théorie et leur utilisation en écologie, statistique et numérique
de phénomènes réels revêt une grande importance comme en atteste le nombre de
publications et de livres dévoués à ce sujet. Il est difficile de donner une liste ex-
haustive mais on peut retracer briévement le ”chemin” des matrices positives à
travers les auteurs suivants:
Frobenius (1908) et Perron (1912) ont marqué la théorie des matrices positives
par leurs théorèmes bien connus concernant les valeurs et vecteurs propres des
matrices strictement positives, positives et irréductibles ou simplement positives.
L’importance de leurs résultats peut-être également mesurée par le nombre d’auteurs
qui ont proposé des démonstrations différentes des mêmes résultats, des générali-
sations ou des applications dans différents domaines: Bernadelli (1941), Collatz
(1942), Leslie (1945, 1948), Brauer(1957), Householder (1958), Gantmakher (1937,
1959), Karlin (1959), Mewborn (1960), Marcus & Minc (1964), Caswell (1980), Cia-
rlet (1984), Horn & Johnson (1985), Minc (1988), Logofet (1993), Axelsson (1994),
Berman & Plemmons (1994), Varga (2000).
Signalons enfin qu’un certain nombre de résultats ont été établis sur le lien entre
matrices positives et théorie des graphes.

21
1.7 Exercices
Exercice 1.7.1. Soit A une matrice carrée réelle, montrer que

i) k Ak1 = max ∑ | ai j |.
i

ii) k Ak∞ = max ∑ | ai j |.


j

iii) k Ak22 = ρ( A> A).

Exercice 1.7.2. Montrer que toute matrice de Leslie L admet une seule valeur propre
positive λ1 associée au vecteur propre v1 donnée par
à !>
p1 p1 p2 · · · pm−1
v1 = 1, , · · · , .
λ1 λ1m−1

Exercice 1.7.3. Soit A = ( ai j ) une matrice carrée.

1. Montrer que ρ( A) ≤ k Ak pour toute norme subordonnée, ρ( A) étant le rayon


spectral de A.

2. Si B est une matrice non singulière, vérifier que l’application:


x −→ k xk∗ = k Bxk∞ définit une norme vectorielle.

3. Soient D et P deux matrices non singulières avec P telle que PAP−1 = U (tri-
° °
angulaire supérieure), en posant B = D −1 P, montrer que k Ak∗ ≤ ° D −1 UD °∞
et en déduire que, étant donné une matrice carrée A et un réel ε > 0, il existe
une matrice diagonale D = diag(di ) avec d > 0 et telle que: k Ak∗ ≤ ρ( A) + ε

4. Conclure.

5. On suppose que A est triangulaire inférieure avec aii = 1 ∀i et ai j = −1 ∀i > j.


Calculer la jeme colonne de A−1 et montrer que la matrice A est telle que
° °
° °
k Ak1 ° A−1 ° = n2n−1 .
1

6. On suppose maintenant que la matrice A est telle que


n
| aii | − ∑ | ai j | ≥ δ > 0 ∀i = 1, · · · , n
j=1
j 6 =i

° ° 1
montrer que k Axk∞ ≥ δ k xk∞ , en déduire que A−1 existe et que ° A−1 °∞ ≤ .
δ
22
7. On considère la matrice A donnée par
 
3 1 0 0
 
 1 2 1 0 
A=  0 1
 avec ε > 0.

 2 1 +ε 
0 0 1 +ε 3

Prouver que la plus grande valeur propre λ4 de A vérifie


ε
4+ ≤ λ4 ≤ 4 + ε.
2

23
Chapitre 2

Méthodes directes de résolution


des systèmes linéaires Ax = b

Dans ce chapitre, on s’intéresse à la résolution numérique d’un système linéaire

Ax = b (2.0.1)

où A est une matrice carrée supposée inversible, b un vecteur second membre et x
¡ ¢
le vecteur des inconnues, A = ai j i, j=1,··· ,n , b = (b1 , · · · , bn )> , x = ( x1 , · · · , xn )> .
Théoriquement, le fait que A soit inversible entraı̂ne que le système (2.0.1) admet
une solution unique x = A−1 b.
Mais cette écriture suppose que l’on dispose de la matrice A−1 , or l’obtention de
¡ ¢
A−1 est équivalente à la résolution de n systèmes linéaires, A. A−1 j = e j =
(0, · · · , 1, 0, · · · , 0)> en plus de la multiplication x = A−1 b.
Une autre méthode consisterait à obtenir les xi à l’aide des formules de Cramer
det( Ai )
xi = où det( Ai ) désigne le déterminant de la matrice obtenue en remplaçant
det( A)
la ieme colonne de A par le vecteur b.
Le calcul de chaque déterminant nécessite n.n! multiplications et (n! − 1) additions.
Soit au total : (n + 1)!n multiplications, (n + 1)(n! − 1) additions et n divisions.
A titre d’exemple, on a besoin de 4319 opérations si n = 5 et environ 41000 opérations
pour n = 10. Comme les problèmes d’analyse numérique donnent lieu à des ma-
trices de grandes tailles (n assez grand), la méthode de Cramer et les méthodes
similaires s’avèrent inutilisables.

24
2.1 Résolution d’un système par les méthodes de descente
ou de remontée

C’est le cas où on a à résoudre un système de la forme

Ux = b (2.1.1)

ou

Lx = b (2.1.2)

avec U triangulaire supérieure et L triangulaire inférieure.


Si on prend l’équation (2.1.1) par exemple on obtient



 u11 x1 + u12 x2 + · · · + u1n xn = b1


 0 + u22 x2 + · · · + u2n xn = b2
Ux = b ⇔ .. ..

 0 . .



unn xn = bn

En supposant que les ukk sont non nuls, on obtient les xi de façon évidente en
commençant
à ! et en remontant. On obtient ainsi xn = bn /unn puis
par le bas
n
xi = bi − ∑ ui j xi /uii , pour i = n − 1 à 1.
j =i + 1
L’algorithme de résolution est le suivant :
xn = bn /unn
Pour i = n − 1 à 1
xi = bi
Pour j = i + 1 à n
xi = xi − ui j ∗ x j
fin j
xi = xi /uii
fin i
n(n − 1) n(n − 1)
Le nombre d’opérations nécessaire est: multiplications addi-
2 2
2
tions et n divisions. Soit au total n opérations.

Remarque 2.1.1. Le cas d’un système avec matrice triangulaire inférieure se traite
de façon similaire en obtenant x1 d’abord puis en descendant.

25
2.2 Matrices élémentaires
k
2.2.1 Matrices élémentaires de Gauss  
1
Soient 
les matrices   .. 
1  0 . 0 
 
    k
 −m21 1 0   0 1 
M1 =  .. , Mk = 
 .. .


 .  −mk+1k . .
 . 0 ..  

. 

 .. .. .. 
−mn1 1  . . . 
0 −mk+1k 1
en posant ek = (0, · · · , 1, 0, · · · , 0)> et mk = (0, · · · , 0, −mk+1k , · · · , −mnk )> ,
on obtient Mk = I − mk e> k et on vérifie facilement que Mk est inversible et que
−1 >
Mk = I + mk ek .

2.2.2 Matrices élémentaires de Danilevski

Elles sont de la forme:


 
1 0 ··· ··· 0
 
 0 1 ··· ··· 0 
 .. .. .. .. 
 .. 
Mk =  . . . . . 
 
 .. 
mk1 mk2 · · · . mkn 
0 ··· ··· 0 1
et permettent de transformer une matrice A en une matrice de Frobenius P de la
forme  
p1 p2 · · · ··· pn
 
1 0 ··· ··· 0
 
0 1 0 ··· · · ·
P= .
. . . .. .. 
 .. .. .. . . 
 
0 ··· ··· 1 0
Ces matrices seront utilisées dans le chapitre 6.

2.2.3 Matrices élémentaires de Householder

Ces matrices sont de la forme

Pk = In − 2ωkω>
k avec ωk = ( 0, · · · , 0, ωk+1k , · · · , ωnk )
>
et ω>
k ωk = 1.

On vérifie aussi qu’on a Pk = Pk−1 = Pk> , Pk est donc une matrice orthogonale
symétrique. Elle peut aussi s’écrire sous la forme explicite et en blocs:

26
à !
Ik
Pk =
Pbk

avec Pbk = In−k − 2ω b>


b kω b k = (ωk+1k , · · · , ωnk )> .
k et ω

2.2.4 Matrices élémentaires de permutation

Elles sont de la forme k l


 
1
 
 0 1 
 
 .. 
 . 
 
 0 1  k
 
Ik,l =  l
 1 0 
 
 1 
 
 .. 
 . 
 
1

Remarque 2.2.1. Ik,l A échange les lignes k et l de A alors que AIk,l échange les
−1 >.
colonnes k et l de A . On a encore Ik,l = Ik,l = Ik,l
   
1 2 3 0 0 1
   
Exemple 2.2.1. Soit A la matrice donnée par: A =  4 5 6  et I13 =  0 1 0 
7 8 9 1 0 0
   
7 8 9 3 2 1
   
alors I13 A =  4 5 6  et AI13 =  6 5 4  .
1 2 3 9 8 7
Définition 2.2.1. Une matrice de permutation est un produit de matrices élémentaires
de permutation.

2.2.5 Matrices élémentaires de Perlis

Soient les matrices suivantes:

- Ii j , une matrice In dont on a permuté les ieme et jeme lignes;

- Ii (d), une matrice In dont la ieme ligne a été multipliée par un scalaire d;

- Iil (d), une matrice In dont la ieme ligne est multipliée par: ei j + del j , où
¡ ¢
Ii j = ei j i, j=1,··· ,n ;

27
Les matrices Ii j , Ii (d), Iil (d) s’appellent matrices élémentaires de Perlis.
     
0 0 1 1 0 0 1 d 0
     
Exemple 2.2.2. I13 =  0 1 0  , I2 (d) =  0 d 0  , I12 (d) =  0 1 0  .
1 0 0 0 0 1 0 0 1
Ces matrices sont régulières et leurs inverses s’écrivent:

Ii−j 1 = Ii j
Ii−1 (d) = Ii (1/d)
Iil−1 (d) = Iil (−d)

Les transformations élémentaires sur une matrice A peuvent se ramener à la pre-


multiplication de A par l’une des matrices élémentaires précédentes. Ainsi avec
A0 = Iik A, A0 est la matrice obtenue après permutation des lignes i et k.
A0 = Iil (d) A, A0 est la matrice dont la ieme ligne est remplaçée par la somme de la
ieme ligne de A et d fois la l eme ligne de A.

Remarque 2.2.2. On peut aussi définir des matrices élémentaires pour les opérations
sur les colonnes, on les note Pi j , Pj (d), Pjl (d).
 
1 2 3
 
Exemple 2.2.3. A =  4 5 6 .
7 8 9
Ici la matrice élémentaire M1 de Gauss est donnée par
 
1 0 0
 
M1 =  −4 1 0  .
−7 0 1

Par ailleurs  
1 2 3
 
A0 = I21 (−4) A =  0 −3 −6 
7 8 9
 
1 2 3
00  
et A = I31 (−7) I21 (−4) A =  0 −3 −6 
0 −6 −12
 
1 2 3
(2)  
et on a A = M1 A = I31 (−7) I21 (−4) A =  0 −3 −6  .
0 −6 −12

28
2.2.6 Matrices élémentaires de Givens (ou de rotation)

Elles sont données par


 
1 k l
 
 0 1 
 
 .. 
 . 
 
 c s  k
 
Rk,l =  l
avec c = cos θ , s = sin θ et k 6= l
 −s c 
 
 1 
 
 .. 
 . 
 
1

−1
Remarque 2.2.3. On vérifie facilement que R>
k,l = Rk,l .

2.3 Méthodes de Gauss


2.3.1 Méthode de Gauss sans pivot

Elle consiste à transformer le système Ax = b (1) en un système Ux = c, (2)


avec U triangulaire supérieure puis à résoudre le nouveau système par la méthode
de remontée.
Soit ( S1 ) le système de départ:
 (1) (1) (1) (1)

 a11 x1 + a12 x2 + · · · + a1n xn = b1

.. ..
( S1 ) . .


 (1) (1) (1) (1)
an1 x1 + an2 x2 + · · · + ann xn = bn
(1)
ai1 (1)
On pose mi1 = (1)
en supposant que a11 6= 0 , i = 2, · · · , n.
a11
Ensuite, on remplace la ligne Li par Li0 = Li − mi1 ∗ L1 , ce qui donne :
(2) (1) (1)
ai j = ai j − mi1 ∗ a1 j i = 2, · · · , n et j = 2, · · · , n
(2) (1) (1)
bi = bi − mi1 ∗ b1 i = 2, · · · , n
On obtient alors le systéme ( S2 ) suivant :

 (1) (1) (1) (1)

 a11 x1 + a12 x2 + · · · + a1n xn = b1

 (2) (2) (2)
 0 a22 x2 + · · · + a2n xn = b2
( S2 ) .. .. ..

 . . .



 0 (2) (2) (2)
an2 x2 + · · · + ann xn = bn

29
(2)
(2) ai2
On suppose que a22 6= 0 et on recommence avec mi2 = (2)
, i = 3, · · · , n.
a22
A l’étape k, le système se présente sous la forme :

 (1) k
(1) (1)

 a11 x1 + · · · · · · · · · · · · + a1n xn = b1



 .. ..
 .
 0
 .
.. (k) (k) (k)
k ( Sk ) . akk xk + · · · + akn xn = bk


 ..
 .. ..

 . . .


 (k) (k) (k)
0 ank xk + · · · + ann xn = bn

(k)
(k) aik
En supposant akk 6= 0 , on pose mik = (k)
, i = k + 1, · · · , n puis on remplace
akk
la ligne Li par la ligne Li0 = Li − mik ∗ Lk .
On aboutit alors au système
 (1final ( Sn ) de la forme :
) (1) (1)

 a11 x1 + · · · · · · · · · · · · + a1n xn = b1



 .. ..
 .
 0
 .
.. (k) (k) (k)
( Sn ) ⇐⇒ Ux = c ⇐⇒ . 0 + akk xk + · · · + akn xn = bk

 .

 .. .. ..

 . .


 (n) (n)
0··· 0+······ + ann xn = bn
³ ´
(1) (2) (n) >
où c = b1 , b2 , · · · , bn .

Remarque 2.3.1. Matriciellement, la première étape est équivalente au produit ma-


triciel A(2) = M1 A(1) où M1 est la matrice élémentaire de Gauss . L’étape finale
est alors donnée par : A(n) = U = Mn−1 Mn−2 · · · M2 M1 A(1) . Evidemment, l’étape
(k)
finale n’est accessible par ce procédé que si tous les akk sont non nuls. Si à une
(k) (k)
étape donnée akk est nul, et il y a au moins un aik non nul, avec i > k on permute
les lignes Li et Lk et on poursuit le procédé. Sinon la matrice A n’est pas inversible
et le procédé ne peut continuer.

2.3.2 Méthode de Gauss avec pivot partiel

Exemple 2.3.1. Soit à résoudre le système


(
10−50 x1 + x2 = 0
x1 − x2 = 0

La solution exacte est x1 = x2 = 1/(1 + 10−50 ) ' 1. Cependant, la résolution


du système par la méthode de Gauss donne des résultats différents selon qu’on

30
l’applique avec ou sans pivot.

i) Si on applique la méthode de Gauss sans pivot on obtient


(1)
a21 1
m21 = = = 1050
(1)
a11 10−50

et (
10−50 x1 + x2 =0
( S2 )
(−1 − 1050 ) x2 = 10−50
qui donne pour solution approchée x1 ' 1 et x2 ' 0.

ii) Si on adopte la stratégie du pivot partiel qui consiste à mettre en première


ligne celle dont le coefficient de x1 est le plus grand en module alors on per-
mute les lignes pour obtenir le système
(
x1 − x2 = 0
( S1 ) − 50
10 x1 + x2 = 0

10−50
Pour lequel m21 = = 10−50 et qui conduit à la solution approchée:
1
x2 ' 1 et x1 = x2 .

A travers cet exemple simple, on voit donc le problème que peut poser un pivot
trop petit. Pour éviter de diviser par des pivots trop petits pouvant conduire à des
solutions absurdes, on peut adopter automatiquement la stratégie du pivot partiel
de la manière suivante : ¯ ¯
(k) (k) ¯ (k) ¯
A chaque étape k : choisir akk tel que : akk = max ¯ aik ¯.
i ≥k
Matriciellement, cette opération revient à multiplier la matrice A(k) par une matrice
de permutation Ikl avant d’appliquer l’élimination de Gauss. La méthode de Gauss
avec pivot partiel s’écrit donc :

A(2) = M1 I1i A(1) , · · · · · · , A(n) = Mn−1 In−1i · · · M1 I1i A(1) = U

où les Mi sont des matrices élémentaires de Gauss et les Iki des matrices de per-
mutation pour i ≥ k. Si à une étape k on n’a pas besoin de pivoter, l’écriture reste
valable avec Iki = I où I désigne la matrice identité.

Théorème 2.3.1. Soit A une matrice carrée, inversible ou non. Il existe (au moins) une
matrice inversible M tellle que la matrice MA soit triangulaire supérieure.

Preuve:
Si A est inversible, le résultat est déjà prouvé en appliquant la méthode de Gauss

31
sans pivot et en posant M = Mn−1 · · · M1 . Si A n’est pas inversible cela signifie
(k)
qu’à une certaine étape k on trouve aik = 0 pour tout i ≥ k. Mais dans ce cas, il
suffit de passer à l’étape suivante.
Matriciellement, cela reviendrait à prendre Iik = Mk = I.

2.3.3 Méthode de Gauss avec pivot total

On pourrait aussi adopter la stratégie


¯ ¯ du pivot total qui consiste, à chaque étape
(k) (k) ¯ (k) ¯
k, à prendre akk tel que : akk = max ¯ ai j ¯. Ce qui reviendrait à multiplier la matrice
i ≥k
j≥k

A(k) par deux matrices de permutation P et Q, l’une à droite pour permuter les
lignes et l’autre à gauche pour permuter les colonnes .

A(2) = M1 I1i A(1) I1 j , · · · , A(n) = Mn−1 In−1i · · · M1 I1i A(1) I1 j · · · In−1 j .

2.3.4 Méthode de Gauss-Jordan

C’est une variante qui ressemble à la méthode de Gauss sauf qu’elle aboutit
directement à une matrice diagonale. Au lieu des matrices Mk élémentaires on
considère les matrices
k
 
1 −m1k
 .. 
 0 ... . 
 
 . 
 0 . . −m 
 k−1k 0 

fk =  0  k
M 1 
 
 .. . 
 . −mk+1k . . 
 
 .. .. .. 
 . . . 
0 −mk+1k 1

2.4 Factorisation LU

Si on suppose que la méthode de Gauss sans pivot a été appliquée à toutes les
étapes du procédé on aboutit à

A(n) = Mn−1 Mn−2 · · · M2 M1 A(1) = U avec A(1) = A,

ou encore MA = U avec M = Mn−1 · · · M1 . Comme les matrices élémentaires de


Gauss sont triangulaires inférieures et inversibles. En posant L = M−1 on obtient
A = LU.

32
Remarque 2.4.1. Si on utilise des permutations, alors les matrices Mk Iik ne sont
plus triangulaires inférieures. On démontre dans ce cas qu’on aboutit à la forme
PA = LU.

Théorème 2.4.1 (Condition suffisante de la factorisation LU).


Soit A une matrice carrée d’ordre n telle que toutes les sous-matrices d’ordre k (k ≤ n)
soient inversibles, alors il existe une matrice triangulaire inférieure L avec lii = 1 et une
matrice triangulaire supérieure U telles que A = LU. De plus, cette factorisation est
unique.

Preuve:
Si a11 6= 0, la matrice a11 (d’ordre 1) est inversible, donc on peut choisir la matrice
de permutation égale à l’identité et appliquer la méthode de Gauss sans pivot à la
première étape. Supposons qu’on ait pu choisir toutes les matrices de permutation
égales à l’identité jusqu’à l’étape k, il s’ensuit que
i =1
A(k) = Mk−1 Mk−2 · · · M1 A = ∏ Mi A.
i =k −1

Avec

 
(k)
a11
 
 .. 
 0 . 
 (k) (k)

Ak = 
 akk ··· akn 

 .. .. .. 
 0 . . . 
 
(k) (k)
ank ··· ann

   (k) (k)

1 a11 · · · a1k
 
  . ¶³ 
 ..   .. .. 
 ∗∗ .  . 
 B
  (k) µ´ k 
(k) (k) 
= ∗∗ ∗ 1   ak1 · · · akk · · · akn 
  
 .. .. .. ..   .. .. .. .. .. 
 . . . .  . . . . . 
(k) (k) (k)
∗∗ ∗ ··· ··· 1 an1 · · · ank · · · ann

en écrivant A sous forme de blocs et en effectuant le produit matriciel par blocs, on


(1) (k)
obtient a11 × · · · × akk = det( Bk ).
(k) (k)
Comme det( Bk ) 6= 0 on a akk 6= 0 et par suite on peut choisir akk comme pivot et
poursuivre le procédé.

33
Unicité
Supposons qu’il existe L1 , L2 , U1 et U2 telles que A = L1 U1 = L2 U2 , comme L2 et
U1 sont inversibles alors L− 1
2 L1 = U2 U1 .
−1

Ce qui impose L− 1 −1
2 L1 = U2 U1 = I et donc L1 = L2 et U1 = U2 .

2.5 Factorisation de Choleski (matrice symétrique)


Théorème 2.5.1. Si A est une matrice symétrique, définie positive, il existe (au moins)
une matrice réelle triangulaire inférieure L telle que A = LL> .
Si de plus on impose aux éléments diagonaux de L d’être strictement positifs, alors la fac-
torisation est unique.
Preuve:
Remarquons d’abord que si A est définie positive, alors toutes les sous-matrices
d’ordre k sont inversibles. Le théorème 2.4.1 permet d’affirmer l’existence de deux
matrices L et U telles que A = LU. Ce que nous cherchons ici c’est de factoriser en
utilisant une seule matrice L. Raisonnons par récurrence sur n.
√ √
Si k = 1, A = a11 > 0 donc a11 = a11 . a11 .
Supposons qu’on ait pu factoriser jusqu’à l’ordre k − 1 et soit Ak une matrice d’ordre
k alors Ak peut s’écrire :
à !
Ak −1 v
Ak = avec Ak−1 = Lk−1 L>
k −1 .
v> akk
Considérons alors la matrice Lk obtenue à partir de Lk−1 et telle que :
à !
Lk −1 l
Lk =
l > lkk
Le produit matriciel Lk L>
k donne :
à !
Lk−1 L> k−1 Lk −1 l
Lk L>
k =
l > L>
k −1 l > l + lkk
2

Par identification on obtient :

Lk−1 l = v (2.5.1)
Lk−1 L>
k−1 = Ak −1 (2.5.2)
> 2
l l + lkk = akk (2.5.3)

i) L’équation (2.5.1) permet alors de résoudre un système et d’obtenir la solution


qui est le vecteur l.

34
ii) L’équation (2.5.3) permet d’obtenir la dernière inconnue du problème, à savoir
p
lkk = akk − l > l et on peut choisir lkk > 0.

Exemple 2.5.1. Soit A la matrice de Hilbert d’ordre 6, la factorisation de Choleski


est donnée par A = LL> où
 
1 0.5 0.33 0.25 0.2 0.16
 
 0 0.28 0.28 0.25 0.23 0.2 
 
 0 0 0.07 0.11 0.12 0.13 
 
L= .
 0 0 0 0.01 0.03 0.05 
 
 0 0 0 0 0.004 0.01 
 
0 0 0 0 0 0.0012

2.6 Factorisation de Householder (matrice unitaire )


Soit P0 = I − 2ω0ω>
0 une matrice élémentaire de Householder avec

ω>
0 ω0 = 1. (2.6.1)

On cherche une matrice unitaire P0 telle que

P0 a = ke1 , (2.6.2)

pour tout vecteur a = ( a1 , · · · , an )> , avec k ∈ R et e1 = (1, 0, · · · , 0)> .


P0 est orthogonale c’est à dire P0> P0 = I et par suite, on doit avoir
³ ´
a> P0> ( P0 a) = k2 = a> a.

¡ ¢1/2
Soit k = ± a> a , les équations (2.6.1) et (2.6.2) donnent :
P0 a = a − 2ω0ω0 a = ke1 et parsuite 2ω0ω>
> >
0 a = − ke1 + a = v, si on pose α = 2ω0 a.
On obtient αω0 = v, et comme on cherche ω0 tel que ω> 2 >
0 ω0 = 1, il vient : α = v v.
2 vv>
Par suite P0 = I − 2 vv> = I − 2 > .
α v v
Remarques 2.6.1. i) Le choix de k se fait au signe près , on peut choisir le signe +.

ii) Le même procédé peut être appliqué pour obtenir une matrice
Pk = Ik − 2ωkω> >
k avec ωk = ( 0, · · · , 0, ωk+1k , · · · , ωnk ) .

On a constaté que Pk peut être décomposée sous la forme


à !
Ik
Pk = avec Pbk = In−k − 2ω b>
b kω k (voir paragraphe 2.2.3).
Pbk

35
iii) La factorisation de Householder permet d’écrire :

Pn−2 Pn−3 · · · P1 P0 A = U,

ou encore A = QU avec Q = P0 P1 · · · Pn−2 une matrice orthogonale.

2.7 Conditionnement
Exemple 2.7.1. [dû à R.S. Wilson]
Soit à résoudre le système linéaire Ax = b avec
   
10 7 8 7 32
   
 7 5 6 5   
A=  , b =  23  .
 8 6 10 9   
  33 
7 5 9 10 31

La solution exacte est donnée par x = (32, 23, 33, 31)> , si on perturbe le second
membre d’un δ b, quel est l’effet de cette perturbation sur la solution?
Soit b + δ b = (32.1, 22.9, 33.1, 30.9)> , alors il en résulte une solution
xe = x + δ x = (9.2, −12.6, 4.5, −1.1).
1
Soit une erreur de l’ordre de sur les données et un rapport d’amplification
200
de l’erreur relative de l’ordre 2000 ce qui montre que le système n’est pas stable,
il reste vulnérable à toute perturbation, on caractérise la stabilité intrinsèque d’un
tel système indépendamment de la méthode de résolution en disant qu’il est mal
conditionné. De même si on perturbe les éléments ai j de la matrice A de δ A, on
aboutit à une solution approchée xe qui est très différente de la solution exacte.

Définition 2.7.1. Soit k.k une norme subordonnée et A une matrice inversible . On
appelle conditionnement de A relativement à la norme k.k, le nombre k Akk A−1 k
noté C ( A) ou cond( A).

Propriétés du conditionnement

On vérifie facilement les propriétés suivantes

i) C ( A) ≥ 1.
¡ ¢
ii) C ( A) = C A−1 .

iii) C (α A) = |α |C ( A), α 6= 0.
° ° µn ( A)
iv) C2 ( A) = k Ak2 ° A−1 °2 = , µi valeur singulière de A.
µ1 ( A)

36
v) C ( QA) = C ( A) pour toute matrice orthogonale Q.
Théorème 2.7.1. Soit A une matrice inversible, x et x + δ x les solutions respectives de
Ax = b et A xe = b + δ b où xe = x + δ x, alors on a
µ ¶ µ ¶
1 kδ bk kδ xk kδ bk
≤ ≤ C ( A) . (2.7.1)
C ( A) kbk k xk kbk
De même la solution obtenue après perturbation de A par δ A vérifie :
 
kδ xk  C ( A) kδ Ak 
≤

.
k xk kδ Ak k Ak 
1 − C ( A)
k Ak
Si on perturbe en même temps A et b alors on obtient :
 
µ ¶
kδ xk  C ( A )  kδ Ak kδ bk
≤
 .
k xk kδ Ak  k Ak kbk
1 − C ( A)
k Ak
Preuve:
On a Ax = b et Ax + Aδ x = b + δ b d’où Aδ x = δ b ou encore δ x = A−1 δ b, comme
kδ xk kδ bk
kbk ≤ k Akk xk, on déduit que ≤ C ( A) .
k xk kbk
Les autres inégalités s’obtiennent de façons similaires.
Remarques 2.7.1. i) L’équation (2.7.1) donne une estimation de l’erreur relative
kδ bk
de la solution en fonction de l’erreur relative connue .
kbk
ii) Tous les calculs sont effectués sur un ordinateur, des erreurs d’arrondi sont
accumulées à chaque étape de calcul. Si ε désigne la précision numérique
relative (dépend de la machine), l’erreur relative de la solution explose si
C ( A) × ε ' 1.
µ ¶n
1
iii) La matrice de Hilbert d’ordre n, H = présente un exemple
i + j − 1 i, j=1
classique de matrices mal conditionnées.

2.8 Matrices creuses


On appelle matrice creuse une matrice dont la plupart des éléments sont égaux
à zéro. Si de plus la structure des éléments non nuls est simple, il n’est pas nécessaire
de réserver une quantité de mémoire égale à celle de la matrice complète. Des al-
gorithmes spécifiques permettent de réduire le temps de calcul de manière con-
sidérable. Parmi les cas simples des matrices creuses, citons les matrices :

37
- tridiagonales: les éléments non nuls sont sur la diagonale et de part et d’autre
de celle-ci sur les deux lignes adjacentes. On a ai j = 0 pour |i − j| > 1,

- diagonale par bande de largeur m : les éléments de matrices tels que


|i − j| > m sont nuls,

- simplement ou doublement bordées : par rapport à la définition précédente,


des éléments non nuls supplémentaires existent le long des lignes ou colonnes
du bord de la matrice.

Matrices tridiagonales

Soit le système

 
d1 e1    
  x1 b1
 c2 d2 e2  ..   .. 
  .   . 
 .. .. ..    
 . . .  ..   .. 
  . = .  (2.8.1)
 .. .. ..    
 . . .  ..   .. 
    
 . .
 cn−1 dn−1 en−1 

   
xn bn
cn dn

Il y’a un vaste choix de bibliothèques disponibles pour calculer les solutions qui
prennent un temps de calcul proportionnel à n.
De manière générale, on peut obtenir un algorithme proportionnel à n pour une
matrice à bande. Le préfacteur de l’algorithme est proportionnel à m.

Formule de Sherman-Morison

Supposons que l’on ait une matrice A dont on a facilement calculé l’inverse (cas
d’une matrice triangulaire ). Si on fait un petit changement dans A en modifiant
par exemple un ou quelques éléments de l’ensemble de la matrice, peut on calculer
facilement l’inverse de cette nouvelle matrice?
En effet soit B une matrice telle que

B = A + uv> (2.8.2)

38
La formule de Sherman-Morison donne l’inverse de B.
³ ´−1
B−1 = I + A−1 uv> A−1
³ ´
= I − A−1 uv> + A−1 uv> A−1 uv> + · · · A−1
³ ´
= A−1 − A−1 uv> A−1 1 − λ + λ 2 + · · ·
A−1 uv> A−1
= A−1 −
1+λ
¡ ¢>
où λ = v> A−1 u. Posons z = A−1 u et w = A−1 v on a λ = v> z et
zw>
B−1 = A−1 − .
1+λ
Remarque 2.8.1. Dans le cas où les vecteurs u et v sont des matrices U et V d’ordre
respectif n × k et k × n et si de plus la matrice I + VA−1 U est inversible, alors

( A + UV )−1 = A−1 − A−1 ( I + VA−1 U )−1 VA−1 .

Supposons que les éléments de la matrice A vérifient

i ) |d1 | > |e1 |


ii ) |di | > |ei | + |ci | i = 1, · · · , n − 1 (2.8.3)
iii ) |dn | > |en |

et que
ci ei−1 6= 0, i = 2, · · · , n (2.8.4)

Sous ces conditions la matrice A est irréductible à diagonale dominante donc A est
inversible. Wendroff a montré qu’il existe une factorisation de la matrice A sous la
forme suivante
A=b LRb (2.8.5)
b est une matrice triangulaire supérieure avec éléments diagonaux égaux à 1 et
où R
b
L est une matrice triangulaire inférieure. Si A est tridiagonale, les matrices b b
    R et L
α1 1 γ1
   .. .. 
 c2 α2   . . 
 
sont données par b
L=  .. ..
 et R

b= ,
 . .   . .. γ 
 n 
cn αn 1
où
e1
i ) α1 = d1 , γ1 =
d1
ii ) αi = di − ci γi−1 , i = 2, · · · , n (2.8.6)
ei
iii ) γi = , i = 2, · · · , n − 1
αi

39
n
Puisque A est inversible et det( A) = ∏ αi , alors tous les αi sont non nuls et le
i =1
schéma récursif (2.8.6) est bien défini.

Remarque 2.8.2. On note que la factorisation (2.8.5) est obtenue par application de
la méthode d’élimination de Gauss usuelle à A> .
La résolution du système lnéaire est équivalente à

b b = v,
Lv = b, Rx

qui est obtenue de la manière suivante


v1 = b1 /α1
Pour i = 2 à n
vi = (bi − ci vi−1 )/αi
fin
xn = vn
Pour i = 1 à n-1
x n −i = v n −i − γ n −i v n −i + 1
fin
Le théorème suivant donne une majoration des quantités γi et αi indépendamment
de l’ordre de la matrice A.

Théorème 2.8.1. Si les éléments de A vérifient les conditions (2.8.3) alors

i ) |γi | < 1
(2.8.7)
ii ) 0 < |di | − |ci | < |di | + |ci |, i = 2, · · · , n

Preuve:
ei e |e |
On a γi = = i , la condition i) de (2.8.3) donne |γ1 | < 1 < 1.
αi di |d1 |
Supposons que γ j < 1 pour j = 1, · · · , i − 1, en remplaçant (2.8.6 (iii)) dans (2.8.6
(ii)) on obtient
ei
γi =
di − ci γi −1
et
| ei |
|γi | <
|di | − |ci ||γi−1 |
| ei |
<
| di | − | ci |

par hypothèse. Ensuite en considérant (2.8.3 (ii)) il s’ensuit que |γi | < 1.
Pour montrer (2.8.7 (ii)) il suffit de considérer (2.8.6 (ii)) et (2.8.3 (ii)).

40
L’algorithme présenté précédemment peut être simplifié en éliminant les αi ,
c’est le cas où la factorisation b LR b n’est pas nécessaire. L’algorithme se présente
comme suit
v1 = b1 /d1
t = d1
Pour i = 2 à n
γi −1 = ei −1 / t
t = di − ci γi −1
vi = (bi − ci vi−1 )/t
fin
xn = vn
Pour i = 1 à n-1
x n −i = v n −i − γ n −i x n −i + 1
fin
Si A est définie positive, elle possède une factorisation de la forme L> DL qui est
obtenue facilement du schéma (2.8.6). Si
 
1
 .. 
 l . 
 1 
L=  (2.8.8)
 .. .. 
 . . 
ln−1 1

et D = diag (δ1 , · · · , δn ), par identification des écritures et en posant ci = ei−1 on


obtient
δ1 = d1
Pour i = 1 à n-1
li = ei /δi
δi +1 = di +1 − li ei
fin
A est définie positive donc u> L> DLu > 0, posons v = L> u ( v 6= 0 car L est in-
versible ), alors v> Dv > 0, ainsi D est une matrice diagonale définie positive, dont
les éléments diagonaux sont tous non nuls, et par suite le schéma récursif est bien
défini. Si on pose Lv = b, l’algorithme de résolution s’écrit
v1 = b1
Pour i = 1 à n-1
vi +1 = bi +1 − li vi
fin
xn = vn /δn

41
Pour i = 1 à n-1
xn−i = (vn−i − en−i xn−i+1 )/δn−i
fin
Si la factorisation n’est pas nécessaire on obtient l’algorithme simplifié suivant

v1 = b1
δ1 = d1
Pour i = 1 à n-1
t = ei /δi
δi+1 = di+1 − tei
vi+1 = bi+1 − tvi
fin
xn = vn /δn
Pour i = 1 à n-1
xn−i = (vn−i − en−i xn−i+1 )/δn−i
fin

Exemple 2.8.1. Soit le système linéaire Ax = b, où A est une matrice carrée d’ordre
n de la forme  
a1 · · · · · · · · · · · · an
 
1 λ 1 
 
 .. .. .. 
 . . . 
A= 
.

 .. .. .. 
 . . . 
 1 λ 1
 
b1 · · · · · · · · · · · · bn
Ce type de matrices est issu de la discrértisation de certains problèmes paraboliques
voir [32, 130].
Considérons la matrice
 
α 1
 
1 α 1 
 
 .. .. .. 
A0 =  . . . .
 
 1 α 1 
 
1 α
√ √
λ− λ2 − 4 λ + λ2 − 4
avec α = et β = . Il s’ensuit que
2 2
A0 = LU

42
avec    
α 1 β
 ..   .. .. 
1 .   . . 
   
 .. ..   .. .. 
L=
 . . , U = 
  . . .

 .. ..   .. 
 . .   . β
   
1 α 1
La solution y de A0 y = ω, est donnée par

yn = vn
ym = vm − β ym+1 , m = 0, · · · , n − 1,

où v est donnée par

vn = βω0
vm = β(ωm − ωm−1 ), m = 1, · · · , n.

Soit z = x − y, on obtient
à !>
n n
Az = ω0 − ∑ ak yk , · · · , ωn − ∑ bk yk .
k=0 k=0

Comme
zm−1 + λ zm + zm+1 = 0, m = 1, · · · , n − 1.

Il vient
zm = c0 γ n−m + c1 γ m , m = 0, · · · , n,

−λ − λ2 − 4
où γ = et c0 , c1 sont des constantes à déterminer en résolvant le
2
système
n n n
c0 ∑ ak γ n−k + c1 ∑ ak γ k = ω0 − ∑ ak yk
k =0 k=0 k=0
n n n
c0 ∑ b k γ n−k + c 1 ∑ b k γ k = ωn − ∑ bk yk
k =0 k =0 k=0

Finalement on obtient la solution du système initial en posant x = y + z.

2.9 Résultats sur les matrices non carrées


Théorème 2.9.1. soit A une matrice rectangulaire (m, n) alors il existe deux matrices
carrées unitaires U et V d’ordre respectivement m et n tel que : U ∗ AV = Σ, où Σ est une

43
matrice rectangulaire (m, n) donnée par :
 n
µ1
 .. 
 . 
 
 
 µr 
 
 0  m>n
Σ= 
 .. 
 . 
 
n  
 0 
 
0
où les µi sont les valeurs singulières de A.

Corollaire 2.9.1. • Le rang de A est égal au nombre de valeurs singulières non nulles.

• La forme A = UΣV ∗ est appelée décomposition en valeurs singulières de A et on a


r r
A = ∑ µi ui vi∗ et A∗ A = ∑ µi2 ui vi∗ où ui et vi désignent, respectivement, les
i =1 i =1
ieme colonnes de U et de V.

Preuve:
e1 · · · en e1 · · · em
   
1 ··· 0 1 ··· 0
 . ..   . .. 

Soient In =  .. .  et 
Im =  .. . 
 
0 1 0 1

on a par définition
n n
V= ∑ vi ei∗ , V∗ = ∑ ei vi∗ , Σei = µiεi pour i = 1 · · · n,
i =1 i =1
n r r
ΣV ∗ = ∑ µiεi vi∗ , UΣV ∗ = ∑ µi ui vi∗ et A∗ A = ∑ µi2 ui vi∗ . .
i =1 i =1 i =1

2.10 Résolution des systèmes à matrices non carrées


   
1 2 2  
 Ã !   Ã ! x1 Ã !
 −1 1  x1  1  1 2 2   1
Exemple 2.10.1. 


 x =

,
  x2  = .
 −1 −3  2  2  2 3 1 2
x3
−1 −2 1

44
Cas où m ≥ n et rang A = n

Considérons le système Ax = b, on définit le ieme résidu

n
ri = ∑ ai j x j − bi i = 1, · · · , m.
j=1

( Vectoriellement r = Ax − b).
La méthode des moindres carrées consiste à minimiser krk22 .
Posons
I ( x) = r> r = ( Ax − b)> ( Ax − b).

Donc minimiser I ( x) revient à chercher des solutions de l’équation

∂I ( x)
= 0.
∂xi

Posons en = (0, · · · , 1, · · · , 0)> , on a d’une part

r> r = x> A> Ax − b> Ax − x> A> b + b> b


= x> A> Ax − 2x> A> b + b> b.

D’autre part

∂I ( x)
= ei> A> Ax + xA> Aei − 2ei> A> b
∂xi
= 2ei> ( A> Ax − A> b).

Donc trouver un minimum de I ( x) revient à résoudre le système linéaire


A> Ax = A> b.

Définition 2.10.1. Soit Σ la matrice rectangulaire (m, n) donnée par


 n
µ1
 .. 
 . 
 
 
 µ2 
 
 0  m>n
Σ= 
 .. 
 . 
 
n  
 0 
 
0
45
on appelle pseudo-inverse de Σ la matrice Σ+ de la forme (n, m) définie par:
 n 
−1
µ
 1 .. 
 . 
 
 
 −
µr 1 
 
+  0  m>n
∑ =  
 .. 
 . 
 
n  
 0 
 
0
Définition 2.10.2. Soit A une matrice de forme (m, n) dont la décomposition en
valeurs singulières est A = UΣV ∗ . On appelle pseudo-inverse(ou inverse géné-
ralisé) de la matrice A, la matrice A+ de la forme (n, m) donnée par A+ = VΣ+ U ∗ .
Remarque 2.10.1. 1. A+ A = VΣ+ U ∗ UΣV ∗ = VΣ+ ΣV ∗ .

2. Sous Matlab la commande svd( A) donne la décomposition en valeurs sin-


gulières de A.
Exemple 2.10.2. Soit la matrice A donnée
 
0.1 1 1 1 1 1 1 1 1
 
0.2 1 1 1 1 1 1 1 1
 
0.3 1 1 1 1 1 1 1 1
 
 
0.4 1 1 1 1 1 1 1 1
A= 0.5 1 1 1
.
 1 1 1 1 1
 
0.6 1 1 1 1 1 1 1 1
 
0.7 1 1 1 1 1 1 1 1
 
0.8 1 1 1 1 1 1 1 1
La décomposition en valeurs singulières de A est donnée par
A = UwV > ,
où
 
0.34 0.54 −0.32 −0.003 −0.30 −0.48 0.09 −0.37
 
0.34 0.39 0.55 −0.23 −0.3 0.12 0.02 0.5 
 
0.35 0.23 −0.12 0.33 0.66 0.09 0.44 0.22 
 
 
0.35 0.08 −0.1 0.08 −0.13 0.78 −0.16 −0.43
U=
0.35

 −0.07 −0.23 0.19 0.14 −0.16 −0.78 0.32 
 
0.35 −0.22 0.02 −0.78 0.38 −0.09 −0.01 −0.2 
 
0.35 −0.38 0.59 0.41 −0.01 −0.27 0.03 −0.35
 
0.36 −0.53 −0.39 −0.001 −0.43 0.02 0.37 0.31

46
 
8.1 0 0 0 0 0 0 0 0
 
 0 0.64 0 0 0 0 0 0 0
 
 0 0 0 0 0 0 0 0 0
 
 
 0 0 0 0 0 0 0 0 0
w=
 0
,
 0 0 0 0 0 0 0 0
 
 0 0 0 0 0 0 0 0 0
 
 0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
 
0.15 −0.98 0 0 0 0 0 0 0
 
0.34 0.05 0.93 0 0 0 0 0 0 
 
0.34 0.05 −0.13 0.92 0 0 0 0 0 
 
 
0.34 0.05 −0.13 −0.15 0.91 0 0 0 0 
 
V=
0.34 0.05 −0.13 −0.15 −0.18 −0.89 0 0 0 
 
0.34 0.05 −0.13 −0.15 −0.18 0.22 −0.5 −0.5 −0.5 
 
0.34 0.05 −0.13 −0.15 −0.18 0.22 0.83 −0.16 −0.16
 
 
0.34 0.05 −0.13 −0.15 −0.18 0.22 −0.16 0.83 −0.16
0.34 0.05 −0.13 −0.15 −0.18 0.22 −0.16 −0.16 0.83

Théorème 2.10.1. Si A est une matrice rectangulaire (m, n) alors on a


n
1. A+ = ∑ µi−1 vi ui∗ .
i =1

n
2. AA+ = ∑ ui ui∗ matrice de projection orthogonale sur ImA.
i =1

n
3. A+ A = ∑ vi vi∗ matrice de projection orthogonale sur ImA∗ .
i =1

Remarques 2.10.2. 1. Le nombre K( A) = k Ak2 k A+ k2 est appelé condition-


nement généralisé de A.

2. Si rang( A) = n alors K 2 ( A) = K( AA> ) = Cond( AA> ).

3. La commande MATLAB \ (backslash) est la commande générique pour résou-


dre un système linéaire. L’algorithme mis en œuvre dépend de la structure
de la matrice A du système. MATLAB utilise dans l’ordre les méthodes suiv-
antes:

i) Si A est une matrice triangulaire , le système est résolu par simple sub-
stitution.

47
ii) Si A est une matrice symétrique ou hermitienne, définie positive , la
résolution est effectuée par la méthode de Choleski.
iii) Si A est une matrice carrée, mais n’entrant pas dans les deux cas précé-
dents, une factorisation LU est réalisée en utilisant la méthode d’élimina-
tion de Gauss avec stratégie de pivot partiel.
iv) Si A n’est pas une matrice carrée, la méthode QR est utilisée.

4. La matrice A peut être creuse, elle comporte une forte proportion de co-
efficients nuls (de nombreux problèmes issus de la physique conduisent à
l’analyse de systèmes linéaires à matrices creuses ), l’intérêt de telles matrices
résulte non seulement de la réduction de la place mémoire (on ne stocke pas
les zéros) mais aussi de la réduction des nombres d’opérations. Dans le cas
de ces matrices des algorithmes particuliers sont mis en œuvre.

5. Chacune des méthodes précédentes peut être utilisée de manière spécifique


grâce aux commandes chol, lu, qr.

2.11 Conclusion
Avant d’entamer la résolution des systèmes linéaires de grandes tailles, il est
impératif de commencer par une analyse des propriétés de la matrice afin de détermi-
ner la méthode la plus adaptée afin d’obtenir une solution avec une précision cor-
recte et pour un temps de calcul qui sera minimal. Les différentes méthodes dans
ce chapitre ne sont qu’une introduction à ce très vaste sujet.

48
2.12 Exercices

Exercice 2.12.1. Une matrice A = ( ai j ) carrée d’ordre n à diagonale strictement


dominante en colonnes.

1. Donner l’expression du terme général de la matrice A(2) obtenue après la


première étape du procédé d’élimination de Gauss .

2. Montrer que la matrice B d’ordre (n − 1) obtenue à partir de A(2) en enlevant


la première ligne et la première colonne est à diagonale strictement domi-
nante en colonnes.

3. Quel est l’intérêt de cette propriété?

Exercice 2.12.2. Soit a et b deux vecteurs ayant le même nombre de composantes et


α un scalaire.

1. Montrer que la matrice I − α ab> admet une matrice inverse de la même forme
en imposant une condition sur α . En déduire l’expression de ( A + ab> )−1 en
fonction de A−1 et des vecteurs a et b.

2. Appliquer ce résultat aux matrices de Gauss: I + mk e>


k

3. Montrer que:
( I + m1 e> > > > >
1 ) . ( I + m 2 e2 ) · · · ( I + m n−1 en−1 ) = I + m1 e1 + · · · + mn−1 en−1

Exercice 2.12.3. Soit A une matrice rectangulaire (m, n) avec m > n.

1. Montrer que il existe deux matrices carrées unitaires U et V d’ordre respec-


tivement m et n telles que: U ∗ AV = De où De est une matrice rectangulaire
(m, n) donné par:
 
µ1
 .. 
 . 
 
 
 µr 
e
D=  avec µi valeurs singulières de A
 0 ··· 0 
 
 .. .. 
 . ··· . 
 
0 ··· 0

2. Déduire le rang de A

49
 
2 1 0 0
 
 1 5 3 4 
Exercice 2.12.4. Soit A = 



 0 3 −20 15 
0 4 15 −5

1. Utiliser les transformations de Householder pour obtenir une matrice tridi-


agonale .

2. Utiliser les transformations de Givens pour obtenir une matrice tridiagonale.

Exercice 2.12.5. Soit B = (bi j ) une matrice tridiagonale donnée par: bi j = 1 et


1 1
bi−1i = bi+1i = et E une matrice carrée vérifiant:k Ek1 = ε < .
4 2
Montrer que les systèmes Bx = b et ( B + E) y = b ont des solutions uniques x et y

et prouver que: k y − xk1 ≤ kbk1 .
1 − 2ε

50
Chapitre 3

Méthodes indirectes de résolution


des systèmes linéaires Ax = b

3.1 Introduction
Pour résoudre le système
Ax = b, (3.1.1)

on utilise des méthodes, dites indirectes, du type

x(k+1) = Tx(k) + C (3.1.2)

où T est une matrice obtenue à partir de A et C un vecteur dépendant de A et de


b. Pour passer de l’équation (3.1.1) à l’équation (3.1.2) on écrit A sous la forme :
A = M − N avec M inversible. En remplaçant dans (3.1.2) on obtient Mx = Nx + b
et par la suite
x = M−1 Nx + M−1 b, (3.1.3)

qui suggère le procédé itératif suivant

x(k+1) = M−1 Nx(k) + M−1 b (3.1.4)

qui est de la forme (3.1.2) avec T = M−1 N et C = M−1 b.

Remarque 3.1.1. En général il y a une multitude de façons d’écrire A sous la forme


A = M − N. Dans le cadre de ce chapitre, nous nous limiterons à deux familles
de décomposition. La première comprend les méthodes classiques A = M − N =
D − L − U, en précisant:

• Méthode de Jacobi: M = D, N = L + U.

51
• Méthode de Gauss-Seidel: M = D − L, N = U.
1
• Méthode de relaxation : A = A(ω) = M(ω) − N (ω), avec M(ω) = D − L,
ω
1−ω
N (ω) = D − U où ω est un scalaire.
ω
La deuxième sera consacrée aux matrices positives.

3.2 Généralités et définitions


Définition 3.2.1. Une méthode de type (3.1.2) est dite convergente si pour toute
valeur initiale x(0) on a lim x(n) = x. Si une telle limite x existe alors elle vérifie
n−→+∞
Tx + C = x.

Définition 3.2.2. On appelle erreur de la méthode ( à la keme itération ) la quantité


e(k) = x(k) − x . avec e(0) = x(0) − x on obtient e(k) = T k e(0) pour tout k.
La méthode est convergente si lim T k = 0.
k−→+∞

Définition 3.2.3. Une matrice carrée B est dite convergente si lim Bk = 0.


k−→+∞

Théorème 3.2.1. Soit A une matrice carrée. Les assertions suivantes sont équivalentes :

i) lim Ak = 0.
k−→+∞

ii) lim Ak v = 0 pour tout v.


k−→+∞

iii) ρ( A) < 1.

iv) k Ak < 1, pour au moins une norme matricielle induite.

Preuve: On utilisera les résultats de l’exercice 1.5.3


i)=⇒ii)
On a k Ak vk ≤ k Ak kkvk; l’assertion i) et la continuité de la norme implique que
lim k Ak k = 0 et par suite lim k Ak vk = 0 et lim Ak v = 0 pour tout v.
k−→+∞ k−→+∞ k−→+∞
ii)=⇒ iii)
Ceci revient à montrer que : Non iii)=⇒ Non ii)
Supposons que ρ( A) ≥ 1 et soit v le vecteur propre associé à la valeur propre λ qui
vérifie |λ | = ρ( A), donc Av = λ v et on en tire Ak v = λ k v d’où, si |λ | ≥ 1 finalement
Ak v ne converge pas vers 0 pour ce v et donc Non ii) est vraie.
iii)=⇒ iv)
D ’après l’exercice 1.5.3, pour tout ε > 0 il existe une norme induite telle que
k Ak ≤ ρ( A) + ε il suffit de considérer un ε tel que ρ( A) + ε < 1, pour ce ε,

52
l’exercice 1.5.3 assure que k Ak ≤ ρ( A) + ε et par suite k Ak < 1.
iv)=⇒ i)
Elle est évidente car si k Ak < 1 alors lim k Akk = 0 et par ailleurs k Ak k ≤ k Akk
k−→+∞
d’où lim k Ak k = 0 et lim Ak = 0
k−→+∞ k−→+∞

Théorème 3.2.2. Soit A une matrice carrée et k.k une norme quelconque,
° °1/k
° °
alors lim ° Ak ° = ρ( A).
k−→+∞

Preuve:
¡ ¢
i) On a ρ( A) ≤ k Ak et comme ρ Ak = (ρ( A))k
¡ ¢ ° ° ° °1/k
il s’ensuit que ρ Ak = (ρ( A))k ≤ ° Ak ° et par suite ρ( A) ≤ ° Ak ° donc
° °1/k
° °
ρ( A) ≤ lim ° Ak ° .
k−→+∞
° °1/k
° °
ii) Pour montrer que lim ° Ak ° ≤ ρ( A), introduisons pour tout ε > 0 la ma-
k−→+∞
1 ρ( A)
trice Aε = A, pour cette matrice on a ρ( Aε ) = < 1 et d’après
ρ( A) + ε ρ( A) + ε
le théorème précédent on obtient : k Aε k < 1 pour au moins une norme matricielle
induite, donc lim Aεk = 0 et lim k Aε kk = 0.
k−→+∞ k−→+∞ ° °
Donc ∀ ε > 0, ∃ N (ε), tel que pour tout k ≥ N (ε) on ait: ° Aεk ° < 1
° ° ° °1/k
ou encore ° Ak ° ≤ (ρ( A) + ε)k soit encore ° Ak ° ≤ (ρ( A) + ε) pour tout ε > 0
° °1/k
° k°
finalement lim ° A ° ≤ ρ( A).
k−→+∞

Remarque 3.2.1. k Ak2 = ρ( A∗ A)1/2 et si A est hermitienne alors k Ak2 = ρ( A).

Théorème 3.2.3. Considérons deux méthodes itératives xe(k+1) = Tx e et


e (k) + C
³ ´
x(k+1) = Tx(k) + C, avec ρ( T ) < ρ T e et x(0) = xe(0) , alors ∀ ε > 0 ∃k0 > 0 tel que
∀ k ≥ k0 on a
 ³ ´ k
( k ) ρ T e
e
e
sup (k) ≥   .
e ρ( T ) + ε

Donc la méthode itérative de matrice T converge plus rapidement que celle de


e en résumé, l’étude des méthodes itératives consiste à étudier les deux
matrice T,
problèmes suivants:

1. Etant donné une méthode itérative de matrice T, déterminer si la méthode


converge, ie si ρ( T ) < 1 ou s’il existe une norme telle que k T k < 1.

2. Etant donné deux méthodes itératives convergentes de matrices T et T, e les


comparer, la méthode la plus rapide est celle ayant le plus petit rayon spectral.

53
Définition 3.2.4. On appelle taux moyen de convergence sur k itérations le nombre
° °
e (k, T ) = − log ° T k °1/k et taux asymptotique de convergence le nombre
R

R( T ) = e (k, T ) = − log(ρ( T )).


lim R
k−→+∞

R( T ) joue le rôle de vitesse de convergence, plus R( T ) est grand plus rapide est la
convergence.

3.3 Description des méthodes classiques


3.3.1 Méthode de Jacobi

Elle consiste à choisir M = D = diag( aii ) inversible et N = (− ai j )i6= j le schéma


itératif est comme suit

x(k+1) = D −1 ( L + U ) x(k) + D −1 b.

La matrice TJ = D −1 ( L + U ) est dite matrice de Jacobi associée à la matrice A. Si


x(0) est le vecteur initial (donné ), l’algorithme de Jacobi est de la forme
(k+1) 1 (k) bi
xi =−
aii ∑ ai j x j +
aii
i = 1, 2, · · · , n.
i6= j

Cet algorithme nécessite aii 6= 0 pour i = 1, · · · , n c.à.d D inversible .


Explicitement, on obtient :
(k +1) (k) (k)
a11 x1 = − a12 x2 − · · · − a1n xn + b1
.. .. ..
. . .
(k +1) (k) (k)
ann xn = − an1 x1 − · · · − ann−1 xn−1 + bn

On a besoin de stocker les n composantes de x(k) et les n composantes de x(k+1) .


Matriciellement, le schéma itératif est du même type que le schéma (3.1.2) avec
TJ = D −1 ( L + U ) et C = D −1 b.
D’après les théorèmes précédents, une condition suffisante pour que la méthode de
Jacobi converge est ρ( TJ ) < 1 ou k TJ k∞ < 1.

Théorème 3.3.1. Si A est une matrice carrée à diagonale strictement dominante en lignes
alors la méthode de Jacobi converge.

Preuve:
On a
n
∑ |ai j | < |aii | i = 1, · · · , n (3.3.1)
j=1
j 6 =i

54
ai j
d’autre part on a : ti j = − pour i 6= j et tii = 0 d’où
aii ½ ¾
1
= max ∑ |ti j | = max
| aii | ∑
k TJ k∞ | ai j | et d’après (3.3.1) on a k TJ k∞ < 1.
i j i j 6 =i

Corollaire 3.3.1. Si A est une matrice à diagonale strictemant dominante en colonnes,


alors la méthode de Jacobi converge.

Preuve : Identique à celle du théorème 3.3.1.


Pour le cas des matrices irréductibles la stricte dominance en lignes ou en colonnes
peut être affaiblie, pour de telles matrices le théorème qui va suivre assure que

Théorème 3.3.2. Si A est une matrice irréductible et vérifie


(| aii | ≥ ∑ | aik | , i = 1, 2, · · · , n), avec inégalité stricte pour au moins un indice i0 , alors
k 6 =i
la méthode de Jacobi converge.

Preuve:
On procède d’une manière analogue à celle de la preuve du théorème 3.3.1 pour
montrer que k TJ k∞ ≤ 1.
Donc
| TJ |e ≤ e, | TJ |e 6= e, e = (1, 1, · · · , 1)> . (3.3.2)

Puisque A est irréductible, TJ est aussi irréductible.


Pour montrer le théorème, il suffit de montrer que

| TJ |n e ≤ e,

car si c’était le cas alors

(ρ( TJ ))n = ρ( TJn ) ≤ k(| TJ |n )k < 1.

D’après (3.3.2) et le fait que | TJ | ≥ 0, on a

| TJ |2 e ≤ | TJ |e < e,

et par suite
| TJ |i+1 e ≤ | TJ |i e ≤ · · · < e,

donc le vecteur t(i) = e − | TJ |i e satisfait

0 < t(1) ≤ t(2) ≤ · · · (3.3.3)

55
Montrons que le nombre de composantes non nulles τi de t(i) croı̂t avec i.
Si ce n’était pas le cas, (3.3.3) impliquerait qu’il existe i ≥ 1 tel que τi = τi+1 .
t(i) peut s’écrire sous la forme
à !
a
, a > 0, a ∈ R p .
0

(3.3.3) et τi = τi+1 impliquent que t(i+1) est aussi de la forme


à !
b
, b > 0, b ∈ R p .
0

Si | TJ | est écrite sous la forme


à !
| T11 | | T12 |
| TJ | = , | T11 | matrice p × p.
| T21 | | T22 |

Il s’ensuit que
à !
b
= t(i+1) = e − | TJ |i+1 e ≥ | TJ |e − | TJ |i+1 e
0
à !à !
(i ) | T11 | | T12 | a
= | TJ |t =
| T21 | | T22 | 0

Puisque a > 0, ceci n’est possible que si T21 = 0 ie TJ est réductible. Ceci contredit
les hypothèses du théorème.
Donc 0 < τ1 < τ2 < · · · , et t(n) > 0. La preuve est ainsi achevée.
Pour remédier au problème du stockage et dans l’espoir d’améliorer les résultats
en accélérant la convergence, on cherche une méthode qui utilise les composantes
de x(k+1) au fur et à mesure qu’elles sont calculées. C’est ce que réalise la méthode
de Gauss-Seidel.

3.3.2 Méthode de Gauss-Seidel

Pour cette méthode, les matrices M et N sont données par : M = D − L inversible


et N = U où D, L et U proviennent de l’écriture A = D − L − U, le schéma itératif
est comme suit :
( D − L) x(k+1) = Ux(k) + b (3.3.4)

ou encore
x(k+1) = ( D − L)−1 Ux(k) + ( D − L)−1 b (3.3.5)

56
en supposant que D − L est inversible .
Les équations (3.3.4) et (3.3.5) peuvent aussi être présentées sous les formes :

Dx(k+1) = Lx(k+1) + Ux(k) + b (3.3.6)

et (si D est inversible)

x(k+1) = D −1 Lx(k+1) + D −1 Ux(k) + D −1 b (3.3.7)

en explicitant (3.3.6) on obtient :


(k+1) (k) (k)
a11 x1 = − a12 x2 − · · · − a1n xn + b1
(k+1) (k+1) (k) (k)
a22 x2 = − a21 x1 − a23 x3 − · · · − a2n xn + b2
.. .. ..
. . .
(k+1) (k+1) (k+1) (k) (k)
aii xi = − ai1 x1 · · · − aii−1 xi−1 − aii+1 xi+1 − · · · − ain xn + b2
.. .. ..
. . .
(k+1) (k+1) (k+1)
ann xn = − an1 x1 − · · · − ann−1 xn−1 + bn

La matrice TGS = ( D − L)−1 U est dite matrice de Gauss-Seidel associée à la matrice


A.

Remarque 3.3.1. Si D est inversible, la matrice de Gauss-Seidel s’écrit


TGS = ( I − D −1 L)−1 D −1 U.

Théorème 3.3.3. Si A est une matrice carrée à diagonale strictement dominante en lignes
alors la méthode de Gauss-Seidel converge .

Preuve:
k Txk∞
Posons T = ( D − L)−1 U et montrons que k T k∞ < 1 où k T k∞ = max .
x6=0 k x k∞
Soit y = Tx = ( D − L)−1 Ux on a alors ( D − L) y = Ux ou encore Dy = Ly + Ux et
y = D −1 Ly + D −1 Ux. Considérons l’indice i0 tel que

| yi0 | = max | yi | = k yk∞ = k Txk∞ .


i

Il vient :
i0 −1 n
yi0 = ∑ ( D −1 L )i0 j y j + ∑ ( D −1 U )i0 j x j .
j=1 j =i 0 + 1

Par suite
i0 −1 ¯¯a
¯
¯ n
¯ ¯
¯ ai0 j ¯
| yi0 | = k y k ∞ ≤ ∑ ¯ i0 j ¯ k yk∞ + ¯
∑ ¯ ai i ¯¯ kxk∞ .
¯a ¯
j=1 i0 i0 j =i 0 + 1 0 0

57
En regroupant les termes
à ¯!
i0 −1 ¯¯ ai0 j ¯ k y k ∞ n
¯ ¯
¯ ai0 j ¯
1− ∑ ¯ ¯ ∑ ¯¯ ai i ¯¯
¯ a ¯ k xk∞ ≤
j=1 i0 i0 j =i 0 + 1 0 0

i0 −1 ¯¯a
¯
¯
Par hypothèse, le terme 1 − ∑ ¯ i0 j ¯ est strictement positif d’où on en tire :
¯a ¯
j=1 i0 i0

à ¯ ¯! à ¯ !−1
n ¯ ai0 j ¯ i0 −1 ¯¯ a ¯
k Txk∞ k yk∞ i j
k xk∞
=
k xk∞
≤ ∑ ¯¯ ai i ¯¯ 1 − ∑ ¯¯ ai 0i ¯¯ ,
j =i0 + 1 0 0 j=1 0 0

finalement
k Txk∞
max < 1.
x6=0 k xk∞
Remarques 3.3.2. 1. Un résultat de convergence similaire a lieu si A est à diag-
onale dominante en colonnes.

2. Si on se place dans les conditions du théorème 3.3.2, la méthode de Gauss-


Seidel est convergente.

3.3.3 Méthode de relaxation

Si on considère des matrices M et N dépendantes d’un paramètre ω


on obtient : A = M(ω) − N (ω).
1 1−ω
Prenons M(ω) = D − L et N (ω) = D + U, en supposant M(ω) inversible.
ω ω
Le schéma itératif qui en résulte est le suivant :
µ ¶−1 µ ¶ µ ¶−1
(k+1) 1 1−ω (k) 1
x = D−L D+U x + D−L b (3.3.8)
ω ω ω

l’équation (3.3.8) peut être remplacée par :


µ ¶−1 µ ¶ µ ¶
(k+1) 1 (k+1) 1 −1 (k) 1 −1
x = D Lx + (1 − ω) I + D U x + D b (3.3.9)
ω ω ω
¶−1 µ µ ¶
1 1−ω
La matrice de relaxation est donnée par Tω = D−L D+U .
ω ω
¡ ¢−1 ¡ ¢
Remarques 3.3.3. • Si D est inversible, Tω = I − ω D −1 L ( 1 − ω ) I + ω D −1 U .

• Si ω = 1, on retrouve la méthode de Gauss-Seidel.

• Si ω > 1, on parle de sur-relaxation.

58
• Si ω < 1, on parle de sous-relaxation.
Ici la condition de convergence k Tω k < 1 dépendra du paramètre ω et par
conséquent, on est amené à chercher tous les ω pour lesquels il y a convergence et
ensuite choisir la valeur optimale ω0 de telle sorte que la vitesse de convergence
soit la meilleure possible.

Théorème 3.3.4. Soit A une matrice hermitienne et inversible définie positive ( A =


M − N ) telle que M soit inversible, et la matrice M∗ + N soit définie positive, alors le
schéma (3.1.4) converge si et seulement si la matrice A est définie positive.

Preuve:

i) Supposons que A est définie positive

A = A∗ =⇒ ( M − N )∗ = M∗ − N ∗ = M − N.

D’où M∗ + N = M∗ + M − A = M + N ∗ = ( M∗ + N )∗ . Par conséquent si


A est hermitienne alors M∗ + N est aussi hermitienne. Comme A est définie
positive, l’application v −→ (v∗ Av)1/2 définit une norme : v −→ kvk A =
(v∗ Av)1/2 . Considérons alors la norme matricielle induite par k.k A on a :
° ° ° ° ° °
° −1 ° ° −1 ° ° −1 °
° M N ° = ° I − M A ° = sup ° ( I − M A ) v °
A A v/kvk A =1 A

En posant ω = M−1 Av il vient que Mω = Av et on est amené à travailler sur


kv − ωk A avec kvk A = 1 on a :

kv − ωk2A = (v − ω)∗ A(v − ω)


= kvk2A − v∗ Aω − ω∗ Av + kωk2A
= 1 − ω∗ Mω − ω∗ M∗ω + ω∗ Aω
= 1 − ω ∗ M ∗ ω − ω ∗ Nω
= 1 − ω∗ ( M∗ + N )ω

On a v 6= 0 donc ω 6= 0 et M∗ + N est définie positive donc ω∗ ( M∗ +


° °
N )ω > 0 par conséquent kv − ωk2A < 1 et ° M−1 N ° A < 1.

ii) Réciproquement, posons T = I − M−1 A et R = AM∗−1 ( M∗ + N ) M−1 A.

h Rx, xi = h( M + M∗ − A) y, yi avec y = M−1 Ax.

Or la matrice M + M∗ − A = M + N est définie positive et A est inversible,


on a donc h Rx, xi > 0 ∀ x 6= 0.

59
Par suite R est hermitienne définie positive.
En remarquant que A = R + T ∗ AT, on obtient

A = R + T ∗ ( R + T ∗ AT ) T = R + T ∗ RT + T ∗2 ( R + T ∗ AT ) T 2
k−1
= ∑ T ∗i RTi + T ∗k RT k .
i =0

Par hypothèse le schéma (3.1.4) est convergent, donc


³ ´
ρ M−1 N < 1,

or M−1 N = I − M−1 A = T donc ρ( T ) < 1 et on a

lim T k = lim T ∗k = 0.
k−→∞ k−→∞

Donc
∞ ∞
A= ∑ T ∗i RTi = R + ∑ T ∗i RTi .
i =0 i =0

Puisque R est définie positive, et que h T ∗k RT k x, xi ≥ 0, ∀ x, il en résulte que


A est définie positive.

Théorème 3.3.5 (Condition nécessaire de convergence).


Si A est une matrice hermitienne définie positive alors la méthode de relaxation converge si
ω ∈]0, 2[.

Preuve:
D’après le théorème précédent, si A est hermitienne définie positive et M∗ + N
définie positive alors la méthode converge. Il suffit donc que M∗ + N soit définie
positive.
2−ω 2−ω
Or M∗ + N = D et par suite M∗ + N est définie positive si > 0 c.à.d
ω ω
si 0 < ω < 2.

Théorème 3.3.6 (Kahan).


Le rayon spectral de la matrice de relaxation vérifie toujours l’inégalité
ρ( Tω ) ≥ |ω − 1|, ω 6= 0 il s’ensuit que la méthode de relaxation ne peut converger que si
ω ∈]0, 2[.

Preuve:
µ ¶−1 µ ¶
1 1−ω
Tω = D−L D+U
ω ω

60
Si les valeurs propres de Tω sont notées λi (ω) on a :
µ ¶
1−ω
n det D+U
ω
det Tω = ∏ λi (ω) = µ ¶ = (1 − ω)n .
i =1
1
det D−L
ω
1
D’où ρ( Tω ) ≥ [|1 − ω|n ] n= |1 − ω|.
Pour que la méthode converge, il est nécessaire d’avoir ρ( Tω ) < 1 et par conséquent
|1 − ω| < 1 d’où ω ∈]0, 2[.

Remarque 3.3.4. Le résultat reste valable si A est tridiagonale par blocs (voir Ciar-
let(1984) ou Sibony(1986)).

3.4 Comparaison des méthodes classiques


3.4.1 Comparaison des méthodes de Jacobi et de Gauss-Seidel

Théorème 3.4.1. Soit A une matrice tridiagonale. Alors les méthodes de Jacobi et de
Gauss-Seidel convergent ou divergent simultanément; lorsqu’elles convergent, la méthode
de Gauss-Seidel est plus rapide que celle de Jacobi, plus précisément, on a
ρ( TGS ) = (ρ( TJ ))2 où TGS et TJ sont les matrices de Gauss-Seidel et Jacobi (respective-
ment).

Preuve:
TGS = ( D − L)−1 U et TJ = D −1 ( L + U )
On est donc amené à chercher les valeurs propres de ces deux matrices.
1) Soit λ une valeur propre de TJ . Alors λ est racine du polynôme caractéristique
PJ (λ )
³ ´
PJ (λ ) = det D −1 ( L + U ) − λ I
³ ´
= det − D−1 det(λ D − ( L + U ))
= K1 det(λ D − ( L + U ))

2) Soit α une valeur propre de TGS . Alors α est racine du polynôme caractéristique
PGS (α ).
³ ´
−1
PGS (α ) = det ( D − L) (U ) − α I
³ ´
= det −( D − L)−1 det(α D − α L − U )
= K2 det(α D − α L − U ).

61
Comme il s’agit de matrices tridiagonales, on a le résultat suivant (voir exercice
(3.7.2)) ³ ´
PGS (α ) = K2 det α D − αµ L − µ −1 U pour tout µ 6= 0.

En particulier pour µ = α −1/2 on obtient


³ ´
PGS (α ) = K2α n/2 det α 1/2 D − ( L + U ) .
³ ´
On voit bien donc que PGS (α ) = K12α n/2 PJ α 1/2 . Par suite, si β est une valeur
propre de TJ alors β2 est une valeur propre de TGS .
Réciproquement, si β2 est une valeur propre non nulle de TGS alors β et −β sont des
valeurs propres de TJ . En effet, en prenant µ = −1, il vient que det(β D − L − U ) =
det(β D + L + U ) = 0 donc PJ (β) = 0 et PJ (−β) = 0.

3.4.2 Comparaison des méthodes de Jacobi et de relaxation

Théorème 3.4.2. Soit A une matrice tridiagonale, telle que toutes les valeurs propres de
la matrice de Jacobi associée soient réelles. Alors les méthodes de Jacobi et de relaxation,
pour ω ∈]0, 2[, convergent où divergent simultanément. Lorsqu’elles convergent, on peut
déterminer une valeur optimale ω0 du paramètre ω telle que

2
ω0 = q , ρ( Tω0 ) = inf ρ( Tω ) = ω0 − 1.
ω∈]0,2[
1+ 1 − ρ( TJ )2

Plus précisément, si on considère la fonction qui à ω fait correspondre ρ( Tω )


alors cette fonction a l’allure suivante

0.95

0.9

0.85

0.8
ρ(Tω)

0.75

0.7

0.65

0.6

0.55
ω0 − 1
0.5
0 0.2 0.4 0.6 0.8 1
ω
1.2 1.4 ω1.60 1.8 2

62
Remarques 3.4.1. 1. ρ( TGS ) = ρ( T1 ) est obtenue comme cas particulier avec
ω = 1 on sait d’après le théorème précédent que ρ( TGS ) = (ρ( TJ ))2 .

2. On voit que pour la valeur ω0 de ω on obtient

ρ( Tω0 ) < ρ( TGS ) < ρ( TJ )

qui indique qu’avec un choix approprié de ω, la méthode de relaxation con-


verge plus rapidement que celles de Gauss-Seidel et de Jacobi.
Preuve:
Notons α une racine de PJ et notons λ une racine de Pω , On obtient alors

PJ (α ) = K1 det(α D − L − U )
µ ¶
1−ω−λ
et Pω (λ ) = Kω det D + λL + U
ω
µ ¶
n λ +ω−1
= (−1) Kω det D − λL − U
ω
à !
2
eω det λ + ω − 1
Pω (λ 2 ) = K D − λ2 L − U
ω
à !
2
eω det λ + ω − 1
= K D − λ L − λU , λ 6= 0
ω
Soit encore :
 
(ω − 1)
λ+
eω λ n det 
Pω (λ 2 ) = K  λ 
D − L − U  pour tout λ 6= 0
ω

Par identification, on voit que :


 
(ω − 1)
λ+
eω,λ PJ 
Pω (λ 2 ) = K  λ 

ω
à !
eω,λ PJ λ2 + ω − 1
= K
λω

Il s’ensuit qu’on peut déterminer une relation liant les valeurs propres non nulles
de Tω et celles de TJ .
λ2 + ω − 1
Soit λ 2 6= 0 une valeur propre de Tω donc ± est une valeur propre de TJ .
λω
Inversement, si α est valeur propre de TJ , on sait que −α est aussi valeur propre de
TJ et ceci implique que λ12 et λ22 sont valeurs propres de Tω où λ1 et λ2 sont données

63
par :

1³ 2 2 ´ αω q
=λ12 α ω − 2ω + 2 − (α 2ω2 + 4 − 4ω)
2 2
1³ 2 2 ´ αω q
λ22 = α ω − 2ω + 2 + (α 2ω2 + 4 − 4ω)
2 2
λ1 et λ2 proviennent de la résolution de l’équation du second degré en λ, à savoir

λ2 + ω − 1
α=
λω
ou encore
λ 2 − αωλ + ω − 1 = 0 (∗)
on a
∆(α ) = α 2ω2 − 4ω + 4 = α 2ω2 − 4(ω − 1) = α 2ω2 + 4(1 − ω)

1. Si α ≥ 1, on est dans le cas où la méthode de Jacobi diverge.


Considérons alors ∆(α ) comme équation du second degré en ω : ∆(α ) =
α 2ω2 − 4ω + 4, son discriminant est ∆0 = 4 − 4α 2 < 0 d’ où ∆(α ) est toujours
du signe de α 2 c’est à dire positif.
∆(α ) ≥ 0 implique que (*) admet deux solutions réelles
q q
αω − ∆(α ) αω + ∆(α )
λ1 = et λ2 =
2 2
on en tire
1³ 2 2 ´ αω q
λ12 =
α ω − 2ω + 2 − (α 2ω2 + 4 − 4ω)
2 2
1³ 2 2 ´ αω q
2
et λ2 = α ω − 2ω + 2 + (α 2ω2 + 4 − 4ω)
2 2
on a
1 ³ ´ ω
λ22 ≥ ω2 − 2ω + 2 + |ω − 2| si α ≥ 1
2 2
1 ³ ´
≥ ω − 2ω + 2 + 2ω − ω2 = 1
2
2
Donc si la méthode de Jacobi diverge (α ≥ 1) alors on a aussi ρ( Tω ) ≥ 1, par
conséquent la méthode de relaxation diverge aussi.

2. Si |α | < 1
On est amené à étudier
n ³¯ ¯ ¯ ¯´o
¯ 2 ¯ ¯ 2 ¯
ρ( Tω ) = max max ¯λ1 (α , ω)¯ , ¯λ2 (α , ω)¯
α ∈ Sp( TJ )

64
pour cela, considérons la fonction f définie par :

f : R+ ×]0, 2[−→ R+
n¯ ¯ ¯ ¯o
¯ ¯ ¯ ¯
(α , ω) −→ max ¯λ12 ¯ , ¯λ22 ¯

Remarque 3.4.2. on n ’a pas besoin de considérer α ∈ R− car


f (α , ω) = f (−α , ω).

i) D’abord si α = 0 alors f (0, ω) = |1 − ω|.


ii) Si 0 < α < 1 alors le trinôme ω −→ α 2ω2 − 4ω + 4 = ∆(α ) considéré
Comme équation de second degré en ω admet pour discriminant,
∆0 = 4 − 4α 2 > 0 d’ où deux racines réelles :
p
2 − 4 − 4α 2 4α 2 2
ω0 (α ) = 2
= ³ p ´ = p
α 2
2α 1 + 1 − α 2 1 + 1 − α2
p
2+ 4 − 4α 2 4α 2 2
ω1 (α ) = 2
= ³ p ´ = p
α 2
2α 1 − 1 − α 2 1 − 1 − α2

ω0 (α ) et ω1 (α ) satisfont les inégalités


2
1 < ω0 (α ) = p < 2 < ω1 (α )
1 + 1 − α2
Donc pour α telle que 0 < α < 1 et pour ω compris entre ω0 et ω1 (en
particulier ω0 < ω < 2 ) ∆(α , ω) est négatif. Ce qui veut dire que pour
ces valeurs, λ12 et λ22 sont des complexes conjugués.
Comme λ1 et λ2 vérifient λ1 + λ2 = αω et λ1 .λ2 = ω − 1.
¯ ¯ ¯ ¯
Or λ1 λ2 = |λ1 |2 = ¯λ12 ¯ = ¯λ22 ¯ = ω − 1 et par suite f (α , ω) = ω − 1.
¯ ¯
On vérifie que f (α , ω) = ¯λ22 ¯ = λ22 car ∆(α ) > 0 et on a deux racines réelles
λ1 et λ2 et on est amené à étudier l’allure des courbes f (α , ω) on obtient
∂f
< 0 pour 0 < α < 1 et 0 < ω < ω0 (α ) donc la fonction
∂ω
ω −→ f (α , ω) est décroissante.

(i) Si 0 < ω < ω0 (α ).


¯ ¯
Puisque 0 < ω < ω0 (α ) alors f (α , ω) = ¯λ22 ¯ = λ22 .
∆(α ) > 0 donc on a deux racines réelles
 
2
∂f α ωα − 2 
= + q 2λ2
∂ω 2 2 ∆(α )

65
p p
en utilisant 2λ2 = αω + ∆(α ) donc ∆(α ) = 2λ2 − αω d’où
à !
∂f α ωα 2 − 2
= + 2λ2
∂ω 2 2(2λ − αω)
à !
2αλ − ωα 2 + ωα 2 − 2
= 2λ
2(2λ − αω)
µ ¶
αλ − 1
= 2λ2
2λ − αω
µ ¶
λ2α − 1
= 2λ2
2λ2 − αω
∂f
Donc < 0 car αλ2 < λ2 < 1 pour 0 < α < 1 en effet
∂ω
q
α 2ω2 − 2ω + 2 αω
λ22 = + (α 2ω2 − 4ω + 4)
2 2
q
ω2 − 2ω + 2 ω
< + (ω2 − 4ω + 2)
2 2
ω2 − 2ω + 2 ω
< + (2 − ω)
2 2
< 1

Par ailleurs
∂f
1- (0) = 0 donc ∆(α )(ω = 0) = 4
∂ω q

∆(α )(ω = 0) 4
et λ2 (ω = 0) = = = 1par conséquent
2 2
 
2
∂f ωλ − 2
(ω = 0) = 2λ2 λ2 + q 
∂ω ∆(α )(ω = 0)
 
2
= 2λ2 (0) λ2 (0) − q 
∆(α )(ω = 0)
2
= 2(1 − )
2
= 0
∂f 1
2- (ω0 ) = ∞ car ω0 est racine de ∆(α ) d’où tend vers l’infini
∂ω ∆(α )
quand ω tend vers ω0 .

En conclusion, pour 0 < α < 1 et 0 < ω < ω0 la courbe de f comme fonction


de ω a l’allure suivante

66
1

0.95

0.9

0.85

0.8

ρ(Tω)
0.75

0.7

0.65

0.6

0.55
ω0 − 1
0.5
0 0.2 0.4 0.6 0.8 1
ω
1.2 1.4 ω1.60 1.8 2

Enfin, remarquons que la fonction :

2
α −→ p est croissante en fonction de α
1 + 1 − α2

donc le maximum est atteint pour ρ( TJ )

0.9

0.8
α3
0.7

0.6 α2
ρ(Tω)

0.5 α1

0.4 α0=0

0.3

0.2

0.1

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
ω

67
3.5 Méthodes semi-itératives

Dans la première partie de ce chapitre, nous avons considéré les méthodes itératives
du type x(k+1) = Tx(k) + C, impliquant deux itérés successifs x(k) et x(k+1) .
A présent, nous considérons des méthodes semi-itératives permettant d’exprimer
y(k) comme combinaison algébrique des k itérés précédents x(0) , x(1) , · · · , x(k−1) .
Nous obtenons l’expression:

k
y(k) = ∑ θ j (k ) x( j) , k ≥ 0,
j=0

k
avec ∑ θ j (k) = 1, k ≥ 0.
j=0
Sie( j) =x( j) − x est l’erreur de la jeme itération et ε( j) = y( j) − x est l’erreur de la
méthode semi-itérative alors on a:
k
ε(k) = ∑ θ j ( k ) e( j) ,
j=0

et comme e(k) = T k e(0) , il vient:


à !
k
ε(k) = ∑ θ j (k) T j e(0) ,
j=0

ou encore
ε(k) = Qk ( T ) e(0) , (3.5.1)
k
où Qk ( x) est le polynôme Qk ( x) = ∑ θ j (k) x j .
j=0

1
Remarques 3.5.1. 1. Si on prend θ j (k) = pour j = 0, 1, · · · , k, on retrouve
k+1
y(k) comme moyenne arithmétique des x(k) .

2. La méthode de Richardson donnée à l’exercice 3.7.6 peut être considérée comme


un cas particulier des méthodes semi-itératives.

Théorème 3.5.1. Si les coefficients des polunômes Qk ( x) sont réels et si la matrice T est
hermitienne et ses valeurs propres vérifient −1 ≤ a ≤ λ1 ≤ · · · ≤ λn ≤ b ≤ 1, alors

k Qk ( T )k2 = max | Qk (λi )| ≤ max | Qk (λ )|.


λi ∈ Sp( T ) a≤λ ≤b

68
En revenant à l’équation (3.5.1), nous sommes donc amenés au problème de
minimisation suivant:
min | Qk ( x)|.
Qk (1)=1

Ceci conduit au problème bien connu de minmax de Chebyshev:

min max | Qk ( x)|,


Qk (1)=1 −1≤ a≤ x≤b≤1

dont la solution est donnée par les polynômes de Chebyshev (voir Varga(2000),
Golub(1989))
(
cos(k cos−1 ( x)), −1 ≤ x ≤ 1, k ≥ 0
Ck ( x) =
cosh(k cosh−1 ( x)), x ≥ 1, k ≥ 0

3.6 Décomposition des matrices positives

Théorème 3.6.1. Soit B une matrice carrée; si B ≥ 0 alors les assertions suivantes sont
équivalentes:

i) β > ρ( B).

ii) β I − B est inversible et on a:

(β I − B)−1 ≥ 0

Preuve:
Supposons que β > ρ( B).
1
En posant M = (β I − B) = β( I − Bβ ) où Bβ = B, il est évident que ρ( Bβ ) < 1 et
β
il découle du théorème 1.4.1 que B est inversible et (β I − B)−1 ≥ 0.
Réciproquement, en supposant ii) et en utilisant le théorème 1.4.1 avec B ≥ 0, si
v ≥ 0 est un vecteur propre de B associé à la valeur propre ρ( B) alors v est aussi
vecteur propre de (β I − B) associé à la valerur propre (β − ρ( B)).
De l’inversibilité de (β I − B) il s’ensuit que (β − ρ( B)) 6= 0 et par suite
1
(β I − B)−1 v = v.
(β − ρ( B))
Enfin, v étant un vecteur propre ≥ 0 (non identiquement nul) et (β I − B)−1 ≥ 0
entraı̂ne que (β − ρ( B)) > 0.

Théorème 3.6.2. Soit A une matrice réelle avec ai j ≤ 0 pour tout i 6= j et D = ( aii ), on
a équivalence entre:

69
i) A est inversible et A−1 ≥ 0
et

ii) D > 0, et en posant B = I − D −1 A on a B ≥ 0 et B est convergente.

Preuve:
Supposons que A est inversible et A−1 = (αi j ) avec αi j ≥ 0 ∀ i, j = 1, n , en
explicitant A−1 A = I, il vient

αii aii + ∑ αi j a ji = 1 pour tout i = 1, · · · , n


j 6 =i

et par suite αii aii = 1 − ∑ αi j a ji ≥ 1 ∀ i = 1, · · · , n du fait que ai j ≤ 0 et αi j ≥ 0


j 6 =i
pour tout i 6= j.
On a donc aii > 0 ∀ i = 1, · · · , n et la matrice D est inversible avec D −1 > 0, d’où
B = I − D −1 A ≥ 0 et I − B = D −1 A est inversible comme produit de deux matrices
inversibles.
Enfin, la convergence de B (ρ( B) < 1) s’obtient en remarquant que
( I − B)−1 = A−1 D ≥ 0 puis en appliquant le théorème 3.6.1 avec β = 1.
Réciproquement, toujours d’après le théorème 3.6.1, on a I − B inversible et
( I − B)−1 ≥ 0 ce qui entraı̂ne que A−1 D ≥ 0 et A−1 ≥ 0.
Autres résultats
Avec des hypothèses suppémentaires, notamment d’irréductibilité, on obtient les
résultats suivants (voir Varga [169]).

Théorème 3.6.3. Si A ≥ 0 alors les assertions suivantes sont équivalentes:

i) α > ρ( A) et A est irreductible.

ii) α I − A est inversible et on a:

(α I − A)−1 > 0

Théorème 3.6.4. Soit A une matrice réelle avec ai j ≤ 0 pour tout i 6= j et D = ( aii ), on
a équivalence entre:

i) A est inversible et A−1 > 0 et

ii) D > 0 et en posant B = I − D −1 A on a B ≥ 0 et B est irreductible et convergente.

Théorème 3.6.5. Soit A une matrice réelle irreductible à diagonale dominante avec ai j ≤
0 pour tout i 6= j et aii > 0 ∀i = 1, · · · , n alors A−1 > 0.

Théorème 3.6.6. Soit A une matrice réelle symétrique inversible et irreductible avec
ai j ≤ 0 pour tout i 6= j, alors A−1 > 0 si et seulement si A est définie positive.

70
3.6.1 Décomposition régulière des matrices

Définition 3.6.1. Soient A, M et N des matrices carrées d’ordre n. Une décomposition


A = M − N est dite régulière si: M est inversible avec M−1 ≥ 0 et N ≥ 0.
La décomposition est dite régulière faible si: M est inversible avec M−1 ≥ 0 et
M−1 N ≥ 0.

Théorème 3.6.7. Soit A = M − N une décomposition régulière de A. Alors


A est inversible avec A−1 ≥ 0 si et seulement si ρ( M−1 N ) < 1 où

ρ ( A−1 N )
ρ ( M −1 N ) = <1
1 + ρ ( A−1 N )

et par conséquent, si A est inversible avec A−1 ≥ 0 alors la méthode x(k+1) = M−1 Nx(k) +
c est convergente pour n’importe quel choix initial.

Preuve:
Supposons A monotone.
En posant B = A−1 N, on peut aisement voir que

• M−1 N = ( I + B)−1 B,
λ µ
• si M−1 Nv = λ v alors Bv = µ v avec µ = et λ = ,
1−λ 1+µ
• M−1 N ≥ 0 et B ≥ 0,
µ
• la fonction µ −→ est strictement croissante pour µ ≥ 0 d’où ρ( M−1 N ) =
1+µ
ρ ( A−1 N )
< 1 et par conséquent la méthode converge.
1 + ρ ( A−1 N )
Réciproquement, si ρ( M−1 N ) < 1 alors( I − M−1 N ) est inversible et on a succes-
sivement
M−1 A = I − M−1 N et A−1 = ( I − M−1 N )−1 M−1 ,

comme M−1 ≥ 0 et que le théorème 1.4.1 donne ( I − M−1 N )−1 ≥ 0 on en déduit


que A−1 ≥ 0.

Théorème 3.6.8. Soient A = M1 − N1 = M2 − N2 deux décompositions régulières de


A avec A−1 ≥ 0.
Si 0 ≤ N1 ≤ N2 alors 0 ≤ ρ( M1−1 N1 ) ≤ ρ( M2−1 N2 ) ≤ 1.
Si de plus A−1 > 0 et si 0 < N1 < N2 alors 0 < ρ( M1−1 N1 ) < ρ( M2−1 N2 ) < 1.

Preuve:
On a A−1 N1 ≤ A−1 N2 et par suite ρ( M1−1 N1 ) ≤ ρ( M2−1 N2 ) ≤ 1.

71
3.7 Comparaison des méthodes classiques dans le cas des
matrices positives
Soit la décomposition A = D − E − F où D = ( aii )i=1,··· ,n et E etF sont respective-
ment triangulaire inférieure et supérieure. En supposant D et ( D − E) inversibles
et en posant L = D −1 E et U = D −1 F, on retrouve les matrices de Jacobi TJ = L + U
et de Gauss-Seidel TGS = ( I − L)−1 U qu’on peut comparer dans certains cas parti-
culiers.

Théorème 3.7.1 (Stein & Rosenberg).


Soit TJ = L + U la matrice de Jacobi supposée positive avec diagonale nulle et TGS =
( I − L)−1 U la matrice de Gauss-Seidel. Alors une et une seule des relations suivantes a
lieu

1. ρ( TJ ) = ρ( TGS ) = 0,

2. 0 < ρ( TGS ) < ρ( TJ ) < 1,

3. ρ( TJ ) = ρ( TGS ) = 1,

4. 1 < ρ( TJ ) < ρ( TGS ).

Corollaire 3.7.1. Si la matrice de Jacobi est positive avec ρ( TJ ) < 1, alors

R( TJ ) < R( TGS ).

Remarques 3.7.1. 1. Le théorème de Stein & Rosenberg affirme donc que les
matrices de Jacobi et de Gauss-Seidel convergent ou divergent simultanément.
Lorsqu’elles convergent, la matrice de Gauss-Seidel converge asymptotique-
ment plus rapidement.

2. En prenant L + U positive et en posant

M1 = I; N1 = L + U,

M2 = I − L; N2 = U.
Le théorème 3.6.8 permet d’obtenir directement le point 2 du théorème de
Stein & Rosenberg.

Théorème 3.7.2. Soit A = I − B où B = L + U est positive, irreductible et convergente


avec L et U, respectivement, triangulaire strictement inférieure et triangulaire strictement
supérieure alors la matrice de relaxation définie par

Mω = ( I − ω L)−1 (ωU + (1 − ω) I )

72
est convergente pour 0 < ω ≤ 1. De plus, si 0 < ω1 < ω2 ≤ 1, alors

0 < ρ( Mω2 ) < ρ( Mω1 ) < 1

et par conséquent R( Mω1 ) < R( Mω2 ).

3.8 Complément bibliographique


Selon le type de matrice à savoir, positive, définie positive, symétrique, hermi-
tienne, à diagonale dominante, tridiagonale ou autre, plusieurs auteurs se sont
intéressés aux méthodes itératives, à leur convergence et leurs comparaisons. Là
encore, il serait vain de vouloir faire la review de tous les papiers traitant ces su-
jets. A titre indicatif, nous donnons une chronologie de quelques travaux tout en
renvoyant à Ostrowski(1956), Collatz(1950), Bonnet & Meurant(1979), Stoer & Bul-
risch(1983), Golub(1989,), Berman & Plemmons(1994) et Varga(2000) pour plus de
détails.
Les méthodes classiques de Jacobi et de Gauss-Seidel ont été considérées par
différents auteurs dans différentes situations. Ainsi, Mehmke(1892) et von Mises
et al.(1929) figurent parmi les premiers à avoir considéré les conditions suffisantes
de convergence de ces méthodes prises individuellement ou simultanément. Les
résultats concernant les matrices à diagonale strictement dominante ont été démontr-
és par Collatz(1942) et autres. Stein & Rosenberg(1948) ont considéré les matri-
ces positives. Le traitement des matrices à inverses positives a débuté avec Stiel-
jes(1887) et Frobenius(1912) mais les concepts de M-matrice et H-matrice sont at-
tribués à Ostrowski (1937,1956) . D’après Varga(2000), un moyen de mesurer l’importance
de ce concept est l’existence d’au moins 70 définitions équivalentes de M-matrice
dans la litterature dont 50 ont été tabulées dans le livre de Berman & Plemmons(1994).
Pour les méthodes iteratives avec relaxation, semi-iteratives, d’extrapolation et
d’inverses généralisés, nous renvoyons aux contributions de Frankel(1950),
Young(1950,1971), Ostrowski(1954), Householder(1958), Keller(1958), Golub& Varga
(1961), Varga(1959,1979, 2000) et Golub & Van Loan(1989) parmi tant d’autres.
Il faut signaler aussi qu’avec l’avènement du calcul parallèle, les méthodes de
relaxation et de décomposition en général, ont connu une nouvelle relance. Voir à
ce propos Evans(1984), Plemmons(1986), White(1989) et Golub & Van Loan(1989).

73
3.9 Exercices
Exercice 3.9.1. Soit B une approximation de l’inverse A−1 d’une matrice carrée A
et x̂ une solution approchée du système Ax = b.
En posant R = I − BA et r = b − A x̂, montrer que si k Rk < 1 alors on a:
° ° k Bk
i) ° A−1 ° ≤
1 − k Rk
° ° k Bk.k Rk
ii) ° A−1 − B° ≤
1 − k Rk
k B k . kr k
iii) k x − x̂k ≤
1 − k Rk
Exercice 3.9.2. Soit θ un scalaire non nul et A(θ ) la matrice tridiagonale suivante:
 
a1 b1θ −1
 
 c2θ a 2 b 2θ −1 
 
 c3θ . 
 
A(θ ) =  
 . 
 
 . bn−1θ −1 
 
cnθ an

montrer que det A(θ ) = det A(1).

Exercice 3.9.3. Soit E un espace vectoriel normé complet et A un opérateur de


E −→ E vérifiant:

k Ax − Ayk ≤ α k x − yk ∀ x ∈ E, ∀ y ∈ E;

avec 0 ≤ α < 1.

1. Soit x0 ∈ E donné, montrer que l’itération xn+1 = Axn définit une suite de
Cauchy dans E. On notera x∗ la limite de cette suite .

2. On considère une itération approchée donnée par: yn+1 = Ayn + σn , y0 ∈ E


donné et kσn k ≤ ε pour tout n ≥ 0, prouver que
α ε
k x∗ − yn k ≤ k yn − yn−1 k +
1 −α 1 −α
à ! à ! à !
x1 1 1 1 1 cos x1
3. Soit x = ,M= et b( x) =
x2 3 1 1 4 sin x2

74
a) Montrer que l’équation x = Mx + b( x) admet une solution unique x∗
b) Montrer que si on utilise l’itération xn+1 = Mxn + b( xn ) alors on obtient

k x∗ − xn+1 k∞ ≤ k k xn+1 − xn k∞ ,

où k est une constante à déterminer.


c) Comment peut-on améliorer la vitesse de convergence de l’itération pro-
posée ci-dessus?

Exercice 3.9.4. On considère les deux matrices suivantes:


   
1 2 −2 1 −1 1
   
A =  1 1 1  et B =  2 2 2 
2 2 1 −1 −1 2

Chercher les matrices de Jacobi et de Gauss-Seidel associées aux matrices A et B et


comparer les rayons spectraux.

Exercice 3.9.5. Soit A une matrice symétrique définie positive et T la matrice définie
par: T = 2D −1 − D −1 AD −1 . On suppose que 2D − A est définie positive.

1. Montrer que la méthode de Jacobi appliquée au système Ax = b converge .

2. Soit la méthode itérative suivante:


( (0)
x donné ³ ´
x(n+1) = x(n) + T b − Ax(n)

Montrer que cette méthode converge et comparer sa vitesse de convergence à


celle de la la méthode de Jacobi.

Exercice 3.9.6. Soit A une matrice carrée d’ordre n à coefficients dans Cn . Pour
chercher la solution du système Ax = b on considère le schéma itératif suivant:
(
x(n+1) = ( I − α A ) x(n) + α b
(∗)
x(0) ∈ Cn donné

avec α > 0.

I- On suppose que A est à diagonale strictement dominante en lignes.


1
Montrer que si 0 < α ≤ alors (∗) converge.
max( aii )
i

II- On suppose que A est hermitienne définie positive dont les valeurs propres
sont rangées par ordre décroissant: 0 ≤ λn ≤ λn−1 ≤ · · · ≤ λ1 .

75
1. Quelle condition doit vérifier α pour que la méthode converge?
2. Déterminer la valeur optimale de α .

Exercice 3.9.7. Soit A(h) la matrice tridiagonale donnée par:


 
2 + h2 a1 −1
 
 −1 2 + h2 a2 −1 
 
1 
 −1 . 

A(h) = 2   avec ai > 0, i = 1, · · · , n.
h  . 

 . −1 
 
−1 2 + h2 an

1. Montrer que A(h) est définie positive

2. Donner
 un algorithme de décomposition
 A = LU oùAest donnée par: 
a1 d2 1 u1 d2
   
 c1 a2 d3  l1 1  u2 d3 
   
 c2 .   l2 .   . 
   
A=   
 .  .  . 
   
 . d   .   . d 
 n   n
cn−1 an ln−1 1 un
en posant: cn+1 = d1 = l1 = 0 et en supposant que | ai | > |ci+1 | + |di |
Montrer que: |li | < 1 et |ui | > |ci+1 |
 
a b b
 
Exercice 3.9.8. Soit A la matrice donnée par A =  b a b  avec a > b > .0
b b a

1. Ecrire les matrices de Jacobi et de relaxation associées à la matrice A.

2. Donner une condition sur a et b pour que la méthode de Jacobi soit conver-
gente.

3. On suppose que a > 2b, montrer que A est inversible que le conditionnement
α a + βb
de A pour la norme k k∞ vérifie C ( A) ≤ où α et β sont des constantes
α a − βb
à déterminer.

Exercice 3.9.9. Soit A une matrice carrée hermitienne et définie positive, pour résoudre
le systéme Ax = b, on pose A = D − E − F, L = D −1 E et U = D −1 F et on considère
1
le procédé itératif B(ω) x(k+1) = ( B(ω) − A) x(k) + b avec B(ω) = D ( I − ω L).
ω
76
1. Ecrire l’itération sous la forme x(k+1) = T (ω) x(k) + c (∗) et montrer que
T (ω) = ( I − ω L)−1 ((1 − ω) I + ωU ).

2. Montrer que la matrice B(ω) + B H (ω) − A est définie positive pour 0 <
ω < 2.

3. Montrer que si λ est valeur propre de Q(ω) = A−1 (2B(ω) − A) alors Reλ > 0.

4. Vérifier que Q(ω) + I est inversible et que ( Q(ω) − I )( Q(ω) + I )−1 = T (ω).

5. Trouver une relation entre les valeurs propres µ de T (ω) et les λ .

6. En écrivant µ en fonction de λ , prouver que le carré du module de µ peut


|λ |2 + δ − 2Reλ
s’écrire |µ |2 = où δ est un nombre strictement positif à ex-
|λ |2 + δ + 2Reλ
primer.

7. En déduire que l’itération (∗) converge pour 0 < ω < 2.

Exercice 3.9.10. Examen d’Analyse Numérique Faculté des sciences Oujda

Exercice 3.9.1. Soit A = ( ai j ) une matrice carrée inversible dont les éléments di-
agonaux sont non nuls. A est écrite sous la forme A = D − L − U où D est une
matrice diagonale et L ( respectivement U) est triangulaire inférieure (respective-
ment supérieure). Pour résoudre le système Ax = b, on utilise la méthode itétative
suivante:
i −1 i −1
(k+1) (k) (k +1) (k)
aii xi = aii xi − θ ∑ ai j x j − (1 − θ )ω ∑ ai j x j
j=1 j=1
i −1 n
(k) (k)
+ (1 − ω)θ ∑ ai j x j − ω ∑ ai j x j + ω bi
j=1 j =i

où θ et ω sont des réels fixés ( ω non nul) et k = 0, 1, · · ·

1. (a) Montrer que la méthode proposée peut s’écrire sous la forme matricielle:

x(k+1) = M(θ , ω) x(k) + c(θ , ω) (∗)

(b) Pour quelles valeurs de θ et ω obtient-on les méthodes de Jacobi et


Gauss-Seidel ?

2. On prend θ = 1

(a) Trouver une relation entre les valeurs propres de M(θ , ω) et celles de la
matrice de Gauss-Seidel associée à A.

77
(b) Peut-on comparer la vitesse de convergence de la méthode (∗) à celle de
Gauss-Seidel ?

3. On prend U = Lt et θ = 0

(a) Trouver une relation entre les valeurs propres de M(θ , ω) et celles de la
matrice de Jacobi associée à A.
(b) En supposant que la méthode de Jacobi converge, montrer que la méthode
2
(∗) avec θ = 0 converge pour 0 < ω < où µ1 est la plus petite
1 − µ1
valeur propre de la matrice de Jacobi associée à A.

4. En supposant que A est une matrice tridiagonale, trouver une relation entre
les valeurs propres M(0, ω) et celles de M(1, ω).

5. En supposant que A est définie positive et symétrique peut-on comparer les


vitesses de convergences des méthodes de Jacobi, Gauss-Seidel, M(0, ω) et
M(1, ω).

Exercice 3.9.11. k.k une norme matricielle subordonnée.

1. On considère le système linéaire: ( I + E) x = b et le système perturbé

( I + E + F )( x + δ x) = b

où I est la matrice carrée identité d’ordre n, E et F deux matrices carrées


d’ordre n; b et x sont des vecteurs à n composantes. On suppose que
1 1 a + bε
k Ek = et k F k = ε < . Montrer que kδ xk ≤ kbk où a, b, c et d sont
2 2 c + dε
des constantes à déterminer.

2. Soit A une matrice diagonalisable admettant λ1 , λ2 , · · · , λn pour valeurs pro-


pres, Montrer que si µ est une valeur propre de la matrice perturbée
i =n
A + δ A alors min |λi − µ | ≤ C ( P)kδ Ak où C ( P) désigne le conditionnement
i =1
de la matrice P telle que P−1 AP = diag(λi ).

Exercice 3.9.12. Soit A = ( ai j ) une matrice carrée inversible dont les éléments di-
agonaux sont non nuls. A est écrite sous la forme A = D − L − U où D est une
matrice diagonale et L (respectivement U) est triangulaire inférieure (respective-
ment supérieure). Pour résoudreÃle système Ax ! = b, on utilise la méthode itérative
n i −1 ³ ´
(k+1) (k) (k) (k) (k+1)
suivante: aii xi = aii xi + ω bi − ∑ ai j x j + r ∑ ai j x j − x j , où r et
j=1 j=1
ω sont des réels fixés (ω non nul ) et k = 0, 1, · · ·

78
1. Montrer que la méthode proposée peut s’écrire sous la forme matricielle:
x(k+1) = M(r, ω) x(k) + c avec: M(r, ω) = ( D − rL)−1 ( aD + bL + eU )
où a , b sont des réels qu’on exprimera en fonction de r et/ou de ω.

2. Vérifier que cette méthode permet d’obtenir les méthodes de Jacobi, Gauss-
Seidel et de relaxation pour des choix appropriés de r et ω.

3. Montrer que les valeurs propres de M(r, ω) sont les racines de l’équation:
det(α D − β L − ωU ) avec α = λ + ω − 1 et β = (λ − 1)r + ω.

4. En supposant que A est une matrice tridiagonale, montrer que les valeurs
propres µ de M(0, 1) sont liées aux valeurs propres λ de la matrice générale
M(r, ω) par la relation (λ + ω − 1)2 = ωµ 2 ((λ − 1)r + ω).

5. Comparer la vitesse de convergence des méthodes classiques en discutant


selon les valeurs des paramètres.

Exercice 3.9.13. 1. Soit H une matrice hermitienne définie positive.

a- Montrer que pour tout r > 0 , la matrice rI + H est inversible.


b- Montrer que la matrice (rI − H )(rI + H −1
¯ ) est¯ hermitienne et en déduire
° ° ¯ r − λj ¯
que: °(rI − H )(rI + H )−1 °2 = max j ¯¯ ¯ où les λ j sont les valeurs
r+λ ¯ j
propres de H.

2. Soient H1 et H2 deux matrices Hermitiennes définies positives.


Etant donné un vecteur initial x(0) on définit la suite des vecteurs x(k) par:
 1 
(k+ )
 (rI + H1 ) x 2 = (rI − H2 ) x(k) + b 
 
 1 
(k+ )
(rI + H2 ) x ( k + 1 ) = (rI − H1 ) x 2 +b
où b est un vecteur et r un scalaire strictement positif.

a- Ecrire le vecteur x(k+1) sous la forme: x(k+1) = Tx(k) + c


e = (rI −
b- Montrer que ρ( T ) < 1 (on pourra considérer la matrice T
H2 ) T (rI + H2 )−1
³ ´
c- Montrer que la suite x(k) converge vers x∗ , solution d’un système
linéaire que l’on déterminera.
c- On suppose que les valeurs propres de H1 et de H2 sont dans l’intervalle
[ a, b], a > 0, trouver la valeur de r qui rend minimum la quantité:
° ° ° °
° ° ° °
°(rI − H1 )(rI + H1 )−1 ° °(rI − H2 )(rI + H2 )−1 °
2 2

79
¯ ¯ Ã√ √ !2
¡ ¯ r − x ¯2 b − a
On pourra montrer que min max ¯¯ ¯ = √
¯ √ et qu’il
r≥0 0< a≤ x≤b r + x b+ a
√ ¢
est atteint pour r = ab

Exercice 3.9.14. Soit A une matrice carrée autoadjointe. On suppose que A est
symétrique.

1. En décomposant A sous la forme A = M − N, établir les relations suivantes:

(a) AM−1 N = N − NM−1 N


¡ ¢> ¡ ¢ ¡ ¢
(b) M−1 N AM−1 N = AM−1 N − I − ( M−1 N )> N I − M−1 N
¡ ¢>
(c) A = I − ( M−1 N ) M>
¡ ¢> ¡ ¢ ¡ ¢> ¡ > ¢¡ ¢
(d) A − M−1 N A M−1 N = I − M−1 N M + N I − M −1 N
(e) En déduire que si x est un vecteur propre de M−1 N associé à la valeur
propre λ alors
³ ´ D³ ´ E
1 − |λ |2 h Ax, xi = |1 − λ |2 M> + N x, x
­¡ ¢ ®
et que si |λ | < 1 alors h Ax, xi et M> + N x, x sont de même signe.

2. Théorème d’Ostrowski.
En supposant A définie positive et en la décomposant sous la forme
A = D − L − L>

(a) En notant T la matrice de Gauss-Seidel associée à A et en posant


T1 = D 1/2 TD −1/2 et L1 = D −1/2 LD −1/2 montrer que T1 = ( I − L1 )−1 L>
1

(b) Montrer que T1 et T ont mêmes valeurs propres.


(c) Soit λ une valeur propre de T1 associée au vecteur propre x tel que
a2 + b2
x H x = 1 en posant: x H L1 x = a + ib, montrer que: |λ |2 = .
1 − 2a + a2 + b2
(d) Montrer que 1 − 2a > 0 et déduire que ρ( T ) < 1.
(e) Conclure.

Problème 3.9.1. A désigne toujours une matrice carrée d’ordre n.

1. Montrer que si la matrice A = M − N est singulière alors on ne peut pas avoir


ρ( M−1 N ) < 1 même si M est régulière.

2. Soit A une matrice hermitienne mise sous la forme A = M − N où M est


inversible. on note B = I − ( M−1 A) la matrice de l’itération associée à Ax =

80
b. On suppose que M + M∗ − A est définie positive.
Montrer que si x est un vecteur et y = Bx alors:

h x, Axi − h y, Ayi = h x − y, ( M + M∗ − A)( x − y)i.

En déduire que ρ( B) < 1 si et seulement si A est définie positive.

3. Soit a ∈ R; la matrice A est définie de la manière suivante:


 
1 a a
 
A =  a 1 a
a a 1
(a) Pour quelles valeurs de a de la matrice A est-elle définie positive. Peut-
on en déduire les valeurs de a pour lesquelles la méthode de Gauss-
Seidel est convergente.
(b) Ecrire la matrice J de l’itération de Jacobi. Pour quelles valeurs de a la
matrice de Jacobi converge t-elle.
(c) Ecrire la matrice G de l’itération de Gauss-Seidel. Calculer ρ( G ). Pour
quelles valeurs de a la matrice de gauss-Seidel converge t-elle plus vite
que la méthode de Jacobi.

4. On donne deux matrices réelles régulières A et B et a, b ∈ Rn .

(a) On construit les deux itérations suivantes:


 n
 x0 , y0 ∈ R

xk+1 = Bxk + a (3.9.1)


yk+1 = Ayk + b
Donner une condition nécessaire et suffisante de convergence des deux
suites xk et yk .
(b) On pose zk = ( xk , yk )> . Expliciter les matrices C et c telles que zk+1 =
Czk + c et comparer ρ(C ) et ρ( AB).
On considère les deux itérations
(
xk+1 = Byk + a
(3.9.2)
yk+1 = Axk+1 + b

(c) Donner une condition nécessaire et suffisante de convergence de (3.9.2).


(d) Mettre (3.9.2) sous la forme zk+1 = Dzk + d. Expliciter D et d et comparer
ρ( D ) et ρ( AB).
(e) Comparer les taux de convergence des algorithmes (3.9.1)et (3.9.2).

81
Chapitre 4

Solutions numériques de
l’équation f ( x) = 0

4.1 Cas scalaire

4.1.1 Généralités et définitions

Dans ce chapitre, on s’intéresse aux solutions numériques des équations du type


f ( x) = 0 où f est une fonction de R dans R. On traitera, en particulier, une partie
de recherche des zéros d’un polynôme P de degré n.
Nous supposons que le lecteur est bien familiarisé avec des notions d’analyse
élémentaire notamment: théorèmes de Taylor, des Accroissements finis, de Rolle,
des valeurs intermédiaires ainsi que les propriétés fondamentales des suites.

Définition 4.1.1. Soit ( xn ) une suite réelle convergeant vers x∗ et ei = xi − x∗


l’erreur à la ieme itération. On dira que la convergence est d’ordre p si :

| ei +1 |
lim =c
i −→∞ | ei | p

c (constante).
(pour p = 1 on imposera la condition c < 1), c est appeleé constante de l’erreur
asymptotique.
p = 1 : convergence linéaire.
p = 2 : convergence quadratique.
p = 3 : convergence cubique.

Remarque 4.1.1. L’ordre de convergence indique la vitesse de convergence de la


suite. Plus l’ordre est élevé, plus rapide est la convergence.

82
4.1.2 Méthodes du point fixe ou d’approximations successives

Supposons que l’équation f ( x) = 0 (1) est transformée en l’ équation x = Φ( x) (2).


Alors on peut définir un procédé itératif comme suit :
(
x0 donné
xn+1 = Φ ( xn ) pour n = 1, 2, · · ·

Si la suite récurrente ( xn ) est convergente et si Φ est continue alors on obtient


nécessairement x∗ = Φ( x∗ ) et par suite f ( x∗ ) = 0. La limite de la suite ( xn ) est
donc la solution de l’équation (1). En général, il y a plusieurs façons de passer de
l’équation (1) à l’équation (2) comme le montre l’exemple suivant

Exemple 4.1.1. f ( x) = x3 − e x + 1, on peut prendre


x = Φ1 ( x) avec Φ1 ( x) = x3 − e x + x + 1.
x = Φ2 ( x) avec Φ2 ( x) = (e x − 1)1/3 .
x = Φ3 ( x) avec Φ3 ( x) = log( x3 + 1).
Il est donc important de choisir le procédé itératif de telle manière que la suite
obtenue soit convergente et qu’en plus la convergence soit la ” meilleure possible ”.

Théorème 4.1.1 ( Convergence globale ).


Soit Φ une fonction définie et continue sur un intervalle fermé I = [ a, b] vérifiant :

i) Φ( I ) ⊂ I.

ii) Il existe une constante 0 < L < 1 telle que |Φ( x) − Φ( y)| ≤ L| x − y| pour tous
x, y de I.

Alors le procédé itératif xn+1 = Φ( xn ) converge vers une solution x∗ qui est la solution
unique du problème du point fixe xn+1 = Φ( xn ). Cette convergence a lieu pour n’importe
quel point de départ x0 ∈ I. De plus on a une majoration de l’erreur :

Ln
| xn+1 − xn | ≤ Ln | x1 − x0 | , | en | ≤ | x1 − x0 |.
1−L
Preuve:
On montre que la suite ( xn ) est de cauchy :

| xn+1 − xn | = |Φ( xn ) − Φ( xn−1 )| ≤ L| xn − xn−1 | ≤ · · · ≤ Ln | x1 − x0 |

et pour tout p > 0 on obtient :

| xn+ p − xn | ≤ ( Ln + Ln+1 + · · · + Ln+ p )| x1 − x0 |.

83
Soit encore µ ¶
n 1 − Lp
| xn+ p − xn | ≤ L | x1 − x0 | (4.1.1)
1−L
pour n assez grand Ln tend vers zéro et la suite xn est de Cauchy .
Soit x∗ une limite de ( xn ) alors par la continuité de Φ on a x∗ = Φ( x∗ ).
Unicité :
Supposons que ( xn ) admet deux limites x∗ et y∗ alors : x∗ = Φ( x∗ ) et y∗ = Φ( y∗ )
et par suite | x∗ − y∗ | = |Φ( x∗ ) − Φ( y∗ )| ≤ L| x∗ − y∗ | qui contredit l’hypothèse
L < 1, si on suppose que x∗ 6= y∗ .

Remarques 4.1.2. 1. En général, il est difficile de connaı̂tre la constante L. On


préfère la remplacer par une condition plus forte mais plus usuelle qui est :
|Φ0 ( x)| < 1.

2. L’inégalité (4.1.1) permet d’estimer à l’avance le nombre d’itérations pour ap-


proximer x∗ avec une précision donnée ε.

3. Pratiquement on arrête le processus itératif dès que la différence, en valeur


absolue, de deux approximations successives xn et xn−1 ne dépasse pas une
certaine précision imposée à l’avance.

Exemple 4.1.2. Soit à chercher les solutions de f ( x) = 0 avec f ( x) = x − tan( x)



dans [π , ].
2
i) On peut prendre x = Φ1 ( x) avec Φ1 ( x) = tan( x) ou x = Φ2 ( x) avec
Φ2 ( x) = arctan( x) + π .

ii) On vérifie facilement que |Φ01 ( x)| > 1 et |Φ20 ( x)| < 1.

Théorème 4.1.2. Si l’itération xn+1 = Φ( xn ) produit une suite qui converge linéairement
vers x∗ et si Φ est de classe C 1 alors
| ei +1 |
C = lim = |Φ0 ( x∗ )|.
i −→∞ | ei |

Preuve:
Il suffit d’appliquer le théorème des accroissements finis
|ei+1 | = | xi+1 − x∗ | = |Φ( xi ) − Φ( x∗ )| = |( xi − x∗ )Φ0 (ξ )| avec x∗ < ξ < xi , d’où
| ei +1 |
lim = lim |Φ0 (ξ )| = |Φ0 ( x∗ )|.
i −→∞ | ei | i −→∞

Remarque 4.1.3. Le théorème 4.1.1 donne une convergence globale c.à.d pour tout
choix x0 ∈ I. On peut avoir une condition analogue à celle du théorème 4.1.1 mais
qui n’est pas vérifiée sur I tout entier .

84
Corollaire 4.1.1 (Convergence locale ).
Si Φ est de classe C 1 dans un ouvert contenant x∗ et si |Φ0 ( x∗ )| < 1, alors :
il existe ε > 0 tel que l’itération xn+1 = Φ( xn ) converge vers x∗ si x0 satisfait :
| x0 − x∗ | ≤ ε. En d’autres termes, on obtient convergence pour des choix de x0 assez proche
de la solution x∗ .

Preuve:
Puisque Φ0 est continue dans un voisinage de x∗ et que |Φ0 ( x∗ )| < 1 alors pour
tout K tel que |Φ0 ( x)| ≤ K < 1, il existe ε > 0 tel que |Φ0 ( x)| ≤ K pour tout
x ∈ [ x∗ − ε, x∗ + ε].
Soit K fixé et ε(K ) donné alors I = [ x∗ − ε, x∗ + ε] répond aux conditions du
théorème 4.1.1

i) Φ( I ) ⊂ I : en effet si x ∈ I alors | x − x∗ | < ε et Φ( x) − x∗ = Φ( x) − Φ( x∗ )


= Φ0 (η)( x − x∗ ), d’où |Φ( x) − x∗ | = |Φ0 (η)( x − x∗ )| ≤ K | x − x∗ | ≤ Kε < ε
et la conclusion s’ensuit d’après le théorème 4.1.1.

Exemple 4.1.3. Considérons f ( x) = 0 avec f ( x) = x2 − x − 2 les solutions sont


x∗1 = 2 et x∗2 = −1.

On peut prendre Φ1 ( x) = x2 − 2 et Φ01 ( x) = 2x ou Φ2 ( x) = x + 2 et
1
Φ02 ( x) = √ , x > −2. Si on cherchait à approcher x∗2 par Φ1 , on aurait
2 x+2
Φ01 ( x) > 1 pour x > 1/2 donc 2 n’est pas un point d’attraction.

4.1.3 Méthode du promoteur de convergence de Wegstein

La méthode du promoteur de convergence de Wegstein consiste à modifier la méthode


du point fixe vue au paragraphe précédent de façon à accélérer (ou forcer) systématiqu-
ement sa convergence.
Dans la métohde précédente, le schéma de calcul était le suivant:

xn+1 = xn + ∆xn (4.1.2)

Wegstein suggère de modifier l’équation (4.1.2) comme suit


(
xn+1 = xn + α ∆xn
(4.1.3)
∆xn = Φ( xn ) − xn

L’introduction du facteur de relaxation α approprié force la convergence dans le


cas où la méthode du point fixe divergerait, α est bien donc un promoteur de con-
vergence. Dans le cas où la méthode du point fixe convergerait, l’introduction du
facteur α permet d’accélérer la convergence.

85
Le meilleur choix α̂ pour α qui optimiserait la convergence du processus itératif
(4.1.3) serait tel que xn+1 = x∗ . Or ce point est a priori inconnu, donc α̂ l’est
également.
Toutefois, on peut obtenir un estimé de α̂ de la manière suivante:
La distance entre Φ( xn ) et x∗ est égale à Φ( xn ) − x∗ = (α − 1)∆xn .
Si θ désigne l’angle de l’intersection entre la droite passant par ( xn , Φ( xn )) et
parallèle à l’axe des abscisses et la droite passant par ( xn , Φ( xn )) et ( x∗ , Φ( x∗ ))
alors
(α − 1)∆xn α−1
tan(θ ) = = (4.1.4)
α ∆xn α
Φ( x∗ ) − Φ( xn )
d’autre part tan(θ ) = .
x∗ − xn
Le théorème des accroissements finis donne:

tan(θ ) = Φ0 (e) où e ∈] xn , x∗ [ (4.1.5)

Des équations (4.1.4) et (4.1.5) on tire

1
α= .
1 − Φ0 (e)

La valeur de Φ0 (e) est inconnue mais on peut l’approcher par

Φ ( xn ) − Φ ( xn−1 ) Φ( xn ) − xn
Φ0 (e) = = .
xn − xn−1 xn − xn−1

La méthode de Wegstein consiste à calculer à partir de xn−1 la valeur de xn , tan(θ ),


α et évaluer xn+1 selon le schéma (4.1.3).

Remarque 4.1.4. Si α = 1, on retrouve la méthode du point fixe.


f ( x)
A présent, on va s’intéresser aux schémas itératifs avec Φ du type Φ( x) = x − ,
h( x)
de telle sorte que le schéma itératif associé converge plus rapidement que le schéma
des approximations successives.

4.1.4 Méthode de Newton-Raphson

Elle consiste à prendre h( x) = f 0 ( x). Le procédé itératif de Newton est alors donné
par :
f ( xn )
xn+1 = xn − 0 = Φ( xn )
f ( xn )
on voit aisément que f ( x∗ ) = 0 à condition que f 0 ( x∗ ) 6= 0 ce qui nous assure au
moins une convergence locale (|Φ0 ( x∗ )| < 1).

86
f ( xn ) − f ( x∗ ) 1 00
∗ )2 f (η) .
En effet xn+1 − x∗ = xn − x∗ − = ( x n − x
f 0 ( xn ) 2 f 0 ( xn )
00 00 ∗
| en+1 | 1 | f (η)| 1 | f ( x )|
donc = 0 tend vers lorsque n tend vers l’infini.
|en | 2 2 | f ( xn )| 2 | f 0 ( x∗ )|

Exemple 4.1.4. Soit à calculer la racine carrée d’un réel positif A par le schéma
itératif · ¸
1 A
xn+1 = xn +
2 xn

A=2 A=2 A=2


x0 = 2 x0 = 20 x0 = −10
x1 = 1, 5 x1 = 10, 05 x1 = −5, 1
x2 = 1, 416666 x2 = 5.1245 x2 = −2, 7461
x3 = 1, 414215 x3 = 2.7574 x3 = −1.4442
x4 = 1, 41421356 x4 = 1, 7414 x4 = −1, 4142
x5 = 1, 41421356 x5 = 1, 4449 x5 = −1.4142
Interprétation géométrique de la méthode de Newton
f ( xn )
Le schéma itératif xn+1 = xn − 0 , revient à écrire l’équation de la tangente de
f ( xn )
f en xn , soit y( x) = f 0 ( xn )( x − xn ) + f ( xn ) et prendre xn+1 tel que y( xn+1 ) = 0.

Remarques 4.1.5. 1. D’après le corollaire 4.1.1, la méthode de Newton converge


pour un bon choix de x0 . En fait, pour x0 pas assez proche de x∗ , cette
méthode diverge ou converge vers un point autre que x∗ , ceci se produit
00
lorsque f change de signe au voisinage de x∗ .

2. On peut généraliser l’algorithme de Newton au cas où la racine est multiple


(d’ordre p), il suffit de l’appliquer à la fonction g( x) = ( f ( x))1/ p .

Théorème 4.1.3 (Convergence globale). Soit f une fonction de classe C2 [ a, b] . satis-


faisant les conditions suivantes:

i) f ( a) f (b) < 0,
0
ii) f ( x) 6= 0 ∀ x ∈ [ a, b] . (Monotonie)

iii) f 00 ( x) ≥ 0 (ou ≤ 0) (convexité ou concavité)

| f ( a)| | f (b)|
iv) 0 < b−a , 0 < b − a.
| f ( a)| | f (b)|
Alors la méthode de Newton converge vers l’unique solution x∗ de f ( x) = 0 dans [ a, b]
pour n’importe quel choix de x0 ∈ [ a, b] .

87
Preuve:
Considérons le cas f ( a) < 0 , f (b) > 0 , f 0 ( x) > 0 et f 00 ( x) ≥ 0 ( les autres cas se
traitent de façon similaire).
D’après i ) et ii ) , il existe une solution unique x∗ ∈ [ a, b] qui vérifie:
00
f ( x∗ ) − f ( xn ) 1 ∗ 2 f (ξ )
xn+1 − x∗ = xn − x∗ + = ( x n − x ) avec xn ≤ ξ ≤ x∗
f 0 ( xn ) 2 f 0 ( xn )
00
∗ f (ξ )
Par conséquent, le signe de xn+1 − x est celui de 0 .
f ( xn )
0 00
Si f > 0 et f ≥ 0 alors xn+1 ≥ x∗ ∀n, (xn ) est donc minorée par x∗ à partir de
x1 .
Par ailleurs on a deux possibilités de choix de x0 :

f ( x0 )
- ou bien x0 > x∗ et alors x1 = x0 − < x0 (puisque f ( x0 ) > f ( x∗ ) = 0)
f 0 ( x0 )
et xn > x∗ avec f ( xn ) > f ( x∗ ) = 0 ∀n ∈ N.
Dans ce cas, la suite (xn ) est décroissante minorée donc elle converge.

f ( x0 )
- ou bien x0 < x∗ et alors f ( x0 ) < 0 d’où x1 = x0 − 0 > x0 ,
f ( x0 )
f ( x1 )
mais on aussi x1 > x∗ et f ( x1 ) > 0 et par suite x2 = x1 − < x1
f 0 ( x1 )
Donc mis à part le point x0 , on aura encore une suite décroissante minorée
donc convergente.

Remarques 4.1.6. 1) les conditions i ) et ii ) assurent que f ( x) = 0 admet une


solution unique dans [ a, b] ,

2) les conditions ii ) et iii ) assurent que f 0 est monotone sur [ a, b] ,

3) la condition iv) assure que le point x1 restera dans [ a, b] si le point de départ


x0 est a ou b.

4.1.5 Méthode de Newton modifiée

La méthode de Newton est d’ordre 2, mais elle présente un inconvénient dans la


mesure où elle nécessite à chaque étape l’estimation de f ( xn ) et de f 0 ( xn ).
Une modification consiste à utliser f 0 ( x0 ) durant tout le procédé itératif. On
f ( xn )
obtient alors xn+1 = xn − 0 qui est une méthode d’ordre 1 avec
f ( x0 )
¯ 0 ∗ ¯
¯ f ( x ) − f ( x0 ) ¯
C=¯ ¯ ¯.
0
f ( x0 ) ¯

88
Cette méthode est particulièrement interessante dans le cas où f 0 ne varie pas
trop.
Entre la méthode de Newton qui nécessite le calcul de f 0 ( xn ) à chaque étape
0
et la méthode de Newton modifiée qui utilise seulement la valeur f ( x0 ), on peut
aussi utiliser une méthode qui estime f 0 ( xϕ(n) ) pour des valeurs intermédiaires de
n.
En général, on obtient des méthodes de Newton modifiées (encore dites discrètes)
en considérant le schéma:
f ( xn )
xn+1 = xn − ,
an
où an est une approximation de f 0 ( xn ).
f ( xn ) − f ( xn−1 )
En prenant an = on obtient la méthode de la sécante (voir exercice
xn − xn−1
4.4.9).

4.1.6 Méthodes de dichotomie

En général, la méthode de Newton converge uniquement si le choix de x0 est ”assez


proche” de x∗ . Une alternative qui garantie la convergence consiste à utiliser une
dichotomie de l’intervalle [ a, b] en localisant la solution à chaque itération.
Si f ( a) f (b) < 0 alors il existe au moins une solution x∗ ∈ [ a, b] telle que f ( x∗ ) = 0.

a+b
Soit c= si f ( a) f (c) < 0 on prend b=c
2
si f (b) f (c) < 0 on prend a = c,

a−b
et on reitére le procédé, après n itérations l’intervalle [ a, b] est réduit à .
2n

4.1.7 Regula falsi (fausse position)

Au lieu de prendre automatiquement le milieu de [ a, b], on prend le point d’interse-


ction de l’axe des abscisses avec la droite passant par ( a, f ( a)) et (b, f (b)) dont
x−a f ( x) − f ( a)
l’équation est donnée par = et coupe l’axe des abscisses au point
x−b f ( x) − f (b)
a−b
( a + f ( a) , 0).
f ( a) − f (b)

si f ( a) f (c) < 0 on remplace b par c


si f (b) f (c) < 0 on remplace a par c.

Inconvénient si f est convexe ou concave.

89
4.1.8 Méthode ∆2 d’Aitken (accélération de la convergence)

Soit xn une suite générée par un procédé itératif, on pose ∆xn = xn+1 − xn
(∆ opérateur de différence), la méthode d’Aitken consiste à génèrer une suite yn à
partir de la suite xn par la formule:

(∆xn )2 ( xn+1 − xn )2
yn = xn − = x n − .
∆2 xn xn+2 − 2xn+1 + xn
On a alors le résultat suivant:

Théorème 4.1.4. Supposons qu’il existe un réel k tel que |k| < 1 pour lequel la suite xn
vérifie:
xn 6= x∗ et xn+1 − x∗ = (k + δn )( xn − x∗ ) avec lim δn = 0.
n−→∞
alors la suite yn est bien définie pour n assez grand et on a

yn − y∗
lim = 0.
n−→∞ xn − x∗
Autrement dit, la suite yn converge plus rapidement que la suite xn vers la limite commune
x∗ .
| en+1 |
Remarque 4.1.7. On a lim = lim (k + δn ) = k, donc il y’a convergence
n−→∞ |en | n−→∞
linéaire avec k < 1, encore dite géometrique.
Preuve:

xn+1 − xn = ( xn+1 − x∗ ) − ( xn − x∗ ) = en+1 − en


= (k + δn )en − en = (k − 1 + δn )en
en+2 = (k + δn+1 )en+1 = (k + δn+1 )(k + δn )en
= (k2 + k(δn+1 + δn ) + δn+1 δn )en
∆2 xn = xn+2 − 2xn+1 + xn = en+2 − 2en+1 + en
= (k2 + k(δn+1 + δn ) + δn+1 δn − 2k − 2δn + 1)en
= ((k − 1)2 + µn )en avec µn = δn+1 δn − 2k − 2δn + 1, lim µn = 0.
n−→∞

Par conséquent, pour n assez grand, ∆2 xn est différent de 0 car k < 1, µn tend vers
0 et par suite, yn est bien définie.
Par ailleurs on a

(∆xn )2 = ((k − 1 + δn )2 e2n


= ((k − 1)2 + 2δn (k − 1) + δn2 )e2n
= ((k − 1)2 + σn2 )e2n avec σn −→ 0

90
d’où
(∆xn )2 ((k − 1)2 + σn2 )e2n
yn − x∗ = xn − x∗ − = e n −
∆2 xn ((k − 1)2 + µn2 )en
ou encore µ ¶
∗ ((k − 1)2 + σn2 )
yn − x = 1 − en
((k − 1)2 + µn2 )
i.e
yn − x∗ ((k − 1)2 + σn2 )
= 1 −
xn − x∗ ((k − 1)2 + µn2 )
yn − x∗
et par passage à la limite on obtient le résultat annoncé lim = 0.
n−→∞ xn − x∗

4.1.9 Méthode de Steffenson (accélération de la convergence)

Considérons une méthode itérative xn+1 = ϕ( xn ) pour approcher la solution x∗ de


f ( x) = 0.

Posons yn = ϕ( xn )
zn = ϕ( yn ) = ϕoϕ( xn ).

La méthode de Steffenson est définie par

( yn − xn )2
xn+1 = xn − ,
zn − 2yn + xn
ceci conduit à un procédé itératif avec la nouvelle fonction Ψ, soit Ψ( xn ) = xn+1
avec Ψ définie par
xϕoϕ( x) − (ϕ( x))2
Ψ( x) = .
ϕoϕ( x) − 2ϕ( x) + x
On obtient alors les deux résultats:

Théorème 4.1.5.

i) Si Ψ( x∗ ) = x∗ alors ϕ( x∗ ) = x∗ ,

ii) et si ϕ0 ( x∗ ) 6= 1 alors ϕ( x∗ ) = x∗ implique que Ψ( x∗ ) = x∗ .

Preuve: Voir Exercice 4.4.3.

Théorème 4.1.6.
Soit ϕ une fonction de classe C p+1 définissant un procédé itératif xn+1 = ϕ( xn ) dont la
convergence est d’ordre p. Alors la fonction Ψ donne un procédé itératif dont la convergence
est d’ordre 2p − 1 si p > 1 et d’ordre au moins égal à 2 si p = 1 et ϕ0 ( x∗ ) 6= 1.

Preuve: Voir Exercice 4.4.3.

91
4.2 Cas des polynômes: Solutions numériques des équations
algébriques
On s’intéresse à l’équation P( x) = 0, avec

P( x) = a0 xn + a1 xn−1 + · · · + an , ai ∈ R et a0 6= 0. (4.2.1)

Toutes les méthodes qu’on a vues pour résoudre f ( x) = 0 restent applicables.


Cependant, les polynômes ont des propriétés spéciales et nécessitent des fois des
méthodes appropriées. Dans le cadre de ce chapitre, on se limitera à quelques
résultats, l’étudiant intéressé pourra trouver des compléments dans la littérature
qui abonde sur ce sujet.

4.2.1 Schéma de Horner

Chaque fois que nous aurons à évaluer P( x) en un point x = a, nous utiliserons


l’algorithme suivant
(
b0 = a0
(4.2.2)
bi = bi x + ai , i = 1, 2, · · · , n
La valeur du polynôme P( x) est alors P( x) = bn . Le calcul se fait donc de la
manière suivante :

P( x) = (· · · ((( a0 x + a1 ) x + a2 ) x + a3 ) · · · ) x + an ) (4.2.3)

L’algorithme permettant d’obtenir P( x) à l’aide des bi est connu sous le nom de


schéma de Horner . Ce schéma nécessite n multiplications et n additions pour
n(n + 1)
l’évaluation de P( x) alors que la méthode directe demande n additions et
2
multiplications .
Si on écrit P( x) pour x = α à l’aide du schéma de Horner alors les quantités bi sont
les coefficients du polynôme P1 ( x) obtenu par division euclidienne de P( x) par
x − α . Soit P( x) = ( x − α ) P1 ( x) + bn et P1 ( x) = b0 x(n−1) + b1 x(n−2) + · · · + bn−1 .
On obtient aussi P0 (α ) = P1 (α ). Ce qui implique que la valeur de la dérivée
P0 (α ) peut être calculée à l’aide du schéma de Horner en utilisant les bi cette fois-ci
comme coefficients, P0 (α ) = (· · · (b0α + b1 )α + b2 ) · · · )α + bn−1 ).

4.2.2 Méthode de Laguerre

La recherche de racines d’un polynôme se construit de la manière suivante: soit


P( x) un polynôme de degré n. Si on obtient une première racine, on peut écrire

P( x) = ( x − r1 ) Q( x) (4.2.4)

92
où Q( x) est un polynôme de degré n − 1. Ainsi théoriquement, une fois obtenue
une première racine, on peut commencer la recherche d’une autre racine par un
polynôme de degré strictement inférieur. Successivement, on poursuit cette procéd-
ure jusqu’à l’obtention de l’ensemble des n racines du polynôme P( x). Rappelons
que les polynômes à coefficients complexes se factorisent en un produit de monômes
de degré 1. Cette propriété exprime le fait que les polynômes à coefficients com-
plexes ont l’ensemble de leurs racines dans le plan complexe.

n
P( x) = ∏ ( x − ri ) (4.2.5)
i =1

La méthode de Laguerre utilise le fait que les dérivées logarithmiques successives


d’un polynôme divergent au voisinage d’une racine. En prenant le logarithme de
l’équation (4.2.5) on obtient

n
ln(| P( x)|) = ∑ ln(|x − ri |) (4.2.6)
i =1

En dérivant l’équation (4.2.6), on obtient

n
d ln(| P( x)|) 1
dx
= ∑ x − ri
i =1
P0 ( x)
= (4.2.7)
P( x)
= G (4.2.8)

En dérivant l’équation(4.2.7), il vient

n
d2 ln(| P( x)|)) 1

dx2
= ∑ ( x − ri )2
i =1
µ ¶2
P0 ( x) P00 ( x)
= −
P( x) P( x)
= H (4.2.9)

Soit la racine r1 à déterminer, on suppose que la valeur de départ r0 est située à


une distance a de r1 et que l’ensemble des autres racines sont situées à une distance
supposée identique et qui vaut b

x − r1 = a (4.2.10)

x − ri = b, i = 2, · · · , n (4.2.11)

93
en insérant les équations (4.2.10) et (4.2.11) dans les équations (4.2.7) et (4.2.9), on
en déduit respectivement les relations suivantes

1 n−1
+ = G
a b
1 n−1
+ 2 = H (4.2.12)
a2 b
Après éliminition de b, la valeur de a est
n
a= p (4.2.13)
G± (n − 1)(nH − G2 )

Le signe placé devant la racine du dénominateur est choisi tel que le dénominateur
soit le plus grand possible, x − a devient alors la nouvelle valeur de départ et on
itére le processus.

4.2.3 Méthode de Bairstow

Soit P un polynôme de degré n:

P ( x ) = xn + a1 xn−1 + · · · + an−1 x + an

on conidère sa division par le polynôme du second degré x2 + bx + c:

P( x) = ( x2 + bx + c) Q( x) + rx + s

On cherche à déterminer b et c pour que r(b, c) = s(b, c) = 0.


Pour ceci on calcule b et c par la méthode de Newton-Raphson: à partir d’une
estimation de b et c on cherche ∆b et ∆c tels que

r(b + ∆b, c + ∆c) = s(b + ∆b, c + ∆c) = 0

soit au premier ordre:


∂r ∂r
r(b, c) + ∆b + ∆c = 0
∂b ∂c
∂s ∂s
s(b, c) + ∆b + ∆c = 0
∂b ∂c
on calcule ∆b et ∆c en résolvant ce système de deux équations puis on remplace b
par b + ∆b et c par c + ∆c; la suite des estimations obtenues converge.
En dérivant la relation entre P et Q par rapport à b et c on calcule les dérivées
∂r ∂r ∂s ∂s
partielles , , , , qui s’obtiennent par division de Q( x) et de xQ( x) par
∂b ∂c ∂b ∂c
2
x + bx + c.

94
4.2.4 Méthode de Maehly

Soit P un polynôme de degré n:

P ( x ) = xn + a1 xn−1 + · · · + an−1 x + an

On calcule ses racines par la méthode de Newton : x0 donné on forme

P( xk )
xk+1 = xk −
P0 ( xk )

P( x)
Soit r1 la première racine trouvée et P1 ( x) = , on a
x − r1

P0 ( x) P( x)
P10 ( x) = −
x − r1 ( x − r1 )2

La méthode appliquée a P1 donne la relation de récurrence:

P( xk )
xk+1 = xk −
P( xk )
P0 ( xk ) −
xk − r1

Si on a déjà trouvé j racines réelles de P: r1 , · · · , r j et si on note

P( x)
Pj ( x) =
( x − r1 ) · · · ( x − r j )

alors
j
P0 ( x) P( x) 1
Pj0 ( x)
( x − r1 ) · · · ( x − r j ) ( x − r1 ) · · · ( x − r j ) i∑
= −
=1 x − ri

et la méthode de Newton appliquée a Pj donne la relation de récurrence:

P( xk )
xk +1 = xk −
j
1
P0 ( xk ) − P( xk ) ∑
i =1
x k − ri

4.2.5 Localisation des racines

Théorème 4.2.1. Soit A = max{| a1 |, | a2 |, · · · , | an |} où les ai sont les coefficients du


polynôme P avec a0 6= 0. Alors si α est une racine de P, α vérifie :

A
|α | < R avec R = 1 + (4.2.14)
| a0 |

95
Preuve :
Soit α une racine de P.
Si |α | ≤ 1 alors α < R.
Si |α | > 1 la formule (4.2.1) entraı̂ne :

| P(α )| = | a0α n + · · · + an |
≥ | a0 ||α |n − | a1 ||α |n−1 − · · · − | an |
n
≥ | a0 ||α |n − A ∑ |α |k
k=1
µ ¶
n |α |n − 1
≥ | a0 ||α | − A
|α | − 1
· ¸
A
≥ | a0 | − |α |n
(|α | − 1)

A
Il s’ensuit que | P(α )| > 0 si | a0 | − ≥ 0, c’est à dire | P(α )| > 0 si |α | ≥ R.
(|α | − 1)
Donc si |α | ≥ R on obtient P(α ) 6= 0 ce qui contredit notre hypothèse. Par
conséquent, toute racine α de (4.2.1) vérifie (4.2.14).

Corollaire 4.2.1. Soit an 6= 0 et B = max{| a0 |, | a1 |, · · · , | an−1 |}. Alors toute racine α


de P satisfait :
1
|α | > r avec r = .
B
1+
| an |
Preuve :
Il suffit de reprendre la démonstration du théorème 4.2.1 en faisant le changement
1
de variable β = . En effet
α
P(α ) = α n Q(β) avec Q(β) = an βn + · · · + a0

le théorème 4.2.1 appliqué à Q donne


B 1 1
|β| < R = 1 + , d’où |α | = > = r.
| an | |β| B
1+
| an |
Remarque 4.2.1. Le Théorème 4.2.1 et le corollaire 4.2.1 entraı̂nent que, si a0 et an
sont non nuls alors toute racine en module de (4.2.1) est encadrée par r et R c.à.d

r < |α | < R.

En particulier, r et R sont les limites inférieures et supérieures des racines réelles


positives et −r et − R sont les limites correspondantes pour les réelles négatives.

96
Théorème 4.2.2 (Théorème de Lagrange).
Si a0 > 0 et ak est le premier des coefficients négatifs du polynôme P( x)r
, on peut prendre
B
pour limite supérieure des racines réelles positives le nombre R = 1 + k où B est la
a0
plus grande des valeurs absolues des coefficients négatifs de P( x).

Preuve :
Elle est analogue à celle du théorème 4.2.1. En effet, soit α une racine de P, sup-
posée réelle positive.
Si α < 1 on a bien α < R.
Si α > 1, en écrivant l’équation (4.2.1) dans laquelle on remplace tous les coeffi-
cients positifs a1 , · · · , ak−1 par zéro et tous les coefficients ak , ak+1 , · · · , an par − B,
on obtient la majoration :

α n−k +1
P(α ) ≥ a0α n − B(α n−k + · · · + α 0 ) = a0α n − B .
α−1

De telle sorte qu’avec α > 1 on obtient

α n−k +1 h i
P(α ) > a0 (α − 1)k − B
α−1
r
B
et par suite, pour α ≥ R = 1 + k , on a P(α ) > 0. Donc toute racine positive α
a0
de (4.2.1) vérifie α < R.

Théorème 4.2.3 (Méthode de Newton).


Si pour x = c > 0 le polynôme P( x) et toutes ses dérivées sont non négatives : P(k) (c) ≥ 0,
k = 0, 1, · · · , n et P(n) (c) = n!a0 > 0, alors on peut prendre pour limite supérieure des
racines positives la valeur R = c.

Preuve:
En fait, on peut construire une suite croissante 0 < c1 ≤ c2 ≤ · · · ≤ cn qui vérifie

P(n−1) (c1 ) ≥ 0, P(n−2) (c2 ) ≥ 0, · · · , P0 (cn−1 ) ≥ 0, P(cn ) > 0.

Il suffit d’écrire la formule de Taylor appliquée à P .

( x − c )n (n)
P( x) = P(c) + ( x − c) P0 (c) + · · · + P (c)
n!

et par suite, pour toute racine positive α on a α ≤ c , sinon on aboutit à une contra-
diction avec P(α ) > 0.

97
Théorème 4.2.4 (Théorème de Cauchy ).
Soient

Q1 ( x) = | a0 | xn − | a1 | xn−1 − · · · − | an | et Q2 ( x) = | a0 | xn + | a1 | xn−1 + · · · + | an−1 | x − | an |.

Alors Q1 et Q2 admettent chacun une seule racine positive, notons les R et r, alors toute
racine α de P( x) vérifie r < |α | < R.

4.2.6 Nombre de racines réelles d’un polynôme

Définition 4.2.1. Soit x1 , x2 , · · · , xn une suite de réels avec x1 6= 0 et xn 6= 0. On


appelle nombre inférieur de changements de signes de la suite, le nombre N de
changements de signes obtenu en omettant les termes nuls.
De même, le nombre supérieur de changements de signes de la suite, qu’on note
N, est obtenu en remplaçant chaque terme nul par un terme ayant le signe opposé
du terme qui le suit.

Exemple 4.2.1. Pour la suite ( x1 , x2 , x3 , x4 , x5 , x6 ) = (5, 0, 0, −1, 0, 7). On a : N = 2


et N = 4 ( signe de (5, −ε, ε, −1, −ε, 7)).

Remarque 4.2.2. Si la suite ne comporte aucun terme nul, alors N = N = N, où N


est le nombre de changements de signes.

Théorème 4.2.5 (Théorème de Budan-Fourier).


Etant donnés deux réels a et b ( a < b) tels que P( a) 6= 0, P(b) 6= 0.
Le nombre N ( a, b) de racines réelles de P( x) = 0, comprises entre a et b est égal à
∆N − 2k, k ∈ N où ∆N est le nombre donné par: ∆N = N ( a) − N (b) pour la suite des
³ ´
dérivées P( x), P0 ( x), · · · , P(n) ( x) prise en x = a et x = b.

Corollaire 4.2.2. N ( a, b) = ∆N − 2k = N ( a) − N (b) − 2k si les dérivées ne s’annulent


pas pour x = a ni pour x = b.

Corollaire 4.2.3. Si ∆N = 0 alors pas de racines réelles entre a et b.

Corollaire 4.2.4. Si ∆N = 1 alors une et une seule racine réelle dans l’intervalle [ a, b].

Corollaire 4.2.5 (Théorème de Descartes ).


Le nombre de racines positives d’une équation algébrique où chaque racine est prise avec
son ordre de multiplicité, est égal au nombre de changements de signes dans la suite des
coefficients a1 , a2 , · · · , an de P( x), les coefficients nuls étant omis, ou inférieur à ce nombre
d’un nombre pair.

98
Preuve :
On applique le théorème 4.2.5 à P(k) sur [ a, b] = [0, ∞] en remarquant que
an−k = 0, k = 0, 1, · · · , n. Les an−k ont même signe que P(k) (0) d’où les change-
ments
³ de signe dans ( a0 , ´ a1 , · · · , an ) Sont les mêmes que ceux de la suite
0 (
P(0), P (0), · · · , P (0) ils sont égaux à N (0) . Par ailleurs, P(k) (+∞) ont toutes
k )

même signe d’où N (+∞) = 0. On a donc

N ( a, b) = N (0, +∞) = N (0) − c(+∞) − 2k = N (0) − 2k.

Corollaire 4.2.6. Le nombre de racines réelles négatives est égal au nombre de changements
de signes −2k.

Preuve : On considère Q( x) = P(− x).

Exemple 4.2.2. P( x) = x4 − x3 − x2 + x − 1
Ici N = N = N = 3. Le nombre de racines positives est égal à 3 − 2k soit 3 ou 1.
Posons Q( x) = P(− x) = x4 + x3 − x2 − x − 1.
Le nombre de racines négatives est égal à 1 − 2k d’où une seule possibilité : 1.
En résumé P( x) admet soit 3 racines positives et une négative soit une positive, une
négative et 2 racines complexes conjuguées.

4.2.7 Cas des racines isolées

a- Fonctions symétriques élémentaires des racines

Soient x1 , x2 , · · · , xn les n racines de P( x) = 0, alors par identification des écritures


on obtient les relations :
n
a1
∑ xi = x1 + x2 + · · · xn = − a0
i =1
n
a2
∑ xi x j = x1 x2 + x1 x3 + · · · x1 xn + · · · + xn−1 xn =
a0
i< j
n
a3
∑ xi x j x k = x 1 x 2 x 3 + x 1 x 3 · · · · · · = −
a0
i < j<k
.. ..
. .
n
an
∏ xi = (−1)n a0
i =1

Exemple 4.2.3. Si x1 , x2 , x3 sont des racines de x3 + px2 + qx + r = 0 on obtient



 x1 + x2 + x3 = − p

x1 x2 + x1 x3 + x2 x3 = q


x1 x2 x3 = r

99
b- Relation de Newton
p p p
Si S p désigne la somme S p = x1 + x2 + · · · + xn = − p on a


 a0 S1 + a1 = 0


 a0 S2 + a1 S1 + 2a2 = 0
. ..
 ..

 .


a0 Sn + a1 Sn−1 + · · · + an−1 S1 + nan =0

c- Méthode de Graeffe :

On suppose ici que les racines sont nettement séparées c’est à dire :

| x1 | >> | x2 | >> · · · >> | xn |.

Alors, d’après (paragraphe a-) , on obtient pour x1


· ¸
x2 xn a
x1 1 + +···+ =− 1
x1 x1 a0
a1
On peut donc prendre − comme approximation de x1 , la plus grande racine
a0
a
en module. (En général, la racine xk peut être approchée par − k ). De même
ak −1
a2
x1 x2 ' .
a0
Remarque 4.2.3. Si les racines x1 , x2 , · · · , xn ne sont pas nettement séparées, on
transforme l’équation P( x) = 0 de la manière suivante :
Si P( x) = a0 ( x − x1 )( x − x2 ) · · · ( x − xn ) on pose f 0 ( x) = P( x)
et P(− x) = (−1)n a0 ( x + x1 )( x + x2 ) · · · ( x + xn ).
Alors (−1)n P( x) P(− x) = a20 ( x2 − x21 )( x2 − x22 ) · · · ( x2 − x2n ) = f 2 ( x2 ) = 0.
On peut continuer ainsi pour obtenir :
f m ( xm ) = am m m m m k
0 ( x − x1 ) · · · ( x − xn ) avec m = 2 = 2, 4, 8, · · · ,
si maintenant on écrit f m ( xm ) = f m ( z) = 0, avec f m ( z) = A0 zn + A1 zn−1 + · · · + An ,
Ak
les racines zk seront nettement séparées et pourront être approchées par zk '
√ Ak−1
et par suite xk = m zk .

e- Suites de Sturm et les racines réelles.

Définition 4.2.2. soit f 0 , f 1 , · · · , f n une suite de fonctions définies sur [ a, b], sup-
posées continues (avec f 0 de classe C 1 ). On dit que cette suite de fonctions est une
suite de Sturm si

100
1. f 0 n’admet que des racines simples dans [ a, b].

2. f n garde un signe constant sur [ a, b].

3. Pour tout k, 0 < k < n tel que f k (α ) = 0 on a f k−1 (α ) f k+1 (α ) < 0.

4. Si α est une racine de f 0 (α ) = 0 alors f 00 (α ) f 1 (α ) > 0.

Exemple 4.2.4. Soit P un polynôme de degré n qui n’admet que des racines simples
et réelles α1 , α2 , · · · , αn , on obtient une suite de Sturm de la façon suivante :

f 0 ( x) = P( x)
f 1 ( x) = P0 ( x)
..
.
f n−2 ( x ) = f n−1 ( x ) qn−1 ( x ) − f n ( x ) avec d◦ f n = 0

autrement dit, on prend pour f k l’opposé du reste de la division euclidienne de f k−2


par f k−1 . On vérifie facilement que :

• f k+1 (α ) = 0 ⇒ f k (α ) f k+2 (α ) < 0.

• Deux polynôme s consécutifs ne peuvent pas s’annuler pour la même racine .

• f n = constante.

Théorème 4.2.6 (Théorème de Sturm).


Soit { f 0 , f 1 , · · · , f n } une suite de Sturm dans [ a, b] et C ( x) le nombre de changement
de signe de la suite ( f 0 ( x), · · · , f n ( x)). Alors le nombre de racines réelles distinctes de
f 0 dans [ a, b], en supposant que ni a ni b ne sont racines est égal à la différence entre le
nombre de changements de signes de la suite ( f 0 ( a), f 1 ( a), · · · , f n ( a)) et celui de la suite
( f 0 (b), f 1 (b), · · · , f n (b)). Soit N ( a, b) = C ( a) − C (b).

Preuve :
Pour tout x ∈ [ a, b], posons N ( x) = C ( a) − C ( x), N ( x) est un entier qui vérifie :

1. N ( x) reste constant tant que f i ( x) ne s’annule pour aucun i.

2. Si pour i 6= 0, f i (α ) = 0 alors d’après la définition, f i−1 (α ) f i+1 (α ) < 0, ce qui


entraı̂ne que f i−1 (α ) et f i+1 (α ) sont non nuls, et par continuité, f i−1 et f i+1
garderont le même signe dans un voisinage de α ; c’est à dire pour ε assez
petit, f i−1 et f i+1 gardent chacune un signe constant dans [α − ε, α + ε] = Iε .
Si on considère les trois fonctions f i−1 , f i et f i+1 sur Iε alors les quatre possi-
bilités suivantes peuvent se présenter (en supposant que f i ne change pas de

101
signe en α )

α −ε α α +ε α −ε α α +ε α −ε α α +ε α −ε α α +ε
f i −1 − − − + + + − − − + + +
fi − 0 − − 0 − + 0 + + 0 +
f i +1 + + + − − − + + + − − −
chang. de signes 1 1 1 1 1 1 1 1 1 1 1 1

Le nombre de changements de signe de la suite ( f 0 (α − ε), f 1 (α − ε), · · · , f n (α − ε))


est même que celui de la suite ( f 0 (α + ε), f 1 (α + ε), · · · , f n (α + ε)).
Par conséquent, N ( x) est constant dans[α − ε, α + ε].

3. Si f 0 (α ) = 0 (α 6= 0, α 6= b) on obtient les deux cas suivants :

α −ε α α +ε α −ε α α +ε
f0 − 0 + + 0 −
f1 + + + − − −
chang. de signes 1 . 0 1 . 0

Dans les deux cas, on remarque que la suite ( f 0 (α − ε), f 1 (α − ε), · · · , f n (α − ε))
présente un changement de signe de plus que la suite ( f 0 (α + ε), f 1 (α + ε), · · · , f n (α + ε))
dans Iε . D’où N (α + ε) = N (α − ε) + 1 et N (b) = C ( a) − C (b) = n.
La fonction N ( x) se présente comme une fonction en escalier.

Remarque 4.2.4. 1. Si on suppose que f i change de signe en α , on arrive à la


même conclusion.

2. Sous MATLAB le polynôme de degré n, p( x) = an xn + · · · + a0 est défini


par un vecteur p de dimension n + 1 contenant les coefficients { ai }in=0 rangés
dans l’ordre décroissant des indices. c’est à dire que l’on a
p(1) = an , · · · , p(n + 1) = a0 .
La commande polyval permet d’évaluer p (la fonction polynômiale) en des
points donnés. La syntaxe est polyval(p,x) où x est une valeur numérique ou
un vecteur. Dans le second cas on obtient un vecteur contenant les valeurs
de la fonction polynômiale aux différents points spécifiés dans le vecteur x.
Utilisé avec la commande fplot, la commande plyval permet de tracer le graphe
de la fonction polynômiale sur un intervalle [ xmin , xmax ] donné. La syntaxe de
l’instruction est fplot(’polyval([ an , · · · , a0 ],x)’,[ xmin , xmax ]).
On obtient les racines du polynôme grâce à l’instruction roots(p).

102
4.3 Applications
Application 4.3.1. Dynamique élémentaire de population
Considérons une population de taille P(t) à un certain temps t et supposons
que nous nous interessions à son évolution dans le temps. Quatre paramètres peu-
vent contribuer au changement de P(t) :

• B: naissances( birth),

• D: mortalités( death),

• E: émigration,

• I: immigration.

Si on suppose que les paramètres B,D,E et I ne dépendent pas du temps et si on


note Pn la population à l’instant tn et Pn+1 celle de l’intant tn+1 on peut exprimer la
variation de la population par la formule:

Pn+1 − Pn = R (4.3.1)

où R = B + I − D − E.
On voit facilement que la population croı̂t ou décroı̂t avec le temps selon que R est
positif ou négatif.

Application 4.3.2. Malthus et la croissance géométrique(Malthus, 1798)


Supposons maintenant que P0 désigne la population initiale et qu’à chaque in-
stant tn le paramètre R soit donné par R = rPn l’équation (4.3.1) devient alors:

Pn+1 = (1 + r) Pn (4.3.2)

A partir de l’équation (4.3.2), il est facile de voir que:


si r = 0 alors Pn = P0 et la taille de la population reste constante dans le temps
(c’est le cas des populations pour lesquelles les naissances compensent juste les
mortalités et l’immigration compense l’émigration),
si r < 0 alors Pn+1 < Pn et la population décroı̂t jusqu’à extinction ( Pn −→ 0
quand n → ∞),
si r > 0 alors Pn+1 > Pn et la population croı̂t jusqu’à explosion ( Pn −→ ∞
quand n → ∞).
Si r 6= 0 la croissance ou la décroissance de la population est géométrique et
nous retrouvons ainsi la théorie de Malthus qui peut être résumée par l’équation
suivante:

103
une croissance géométrique de la population + une croissance arithmétique des moyens de
subsistance = grande misère humaine.

Remarque 4.3.1. La théorie de Malthus a été beaucoup critiquée. Elle est notam-
ment mise en cause par les économies des pays industrialisés mais aussi et surtout
par la répartition inégale et injuste des richesses dans d’autres pays.

Application 4.3.3. Equation logistique et ressources limitées(Verlhust, 1845)


Si maintenant on suppose que les ressources sont limitées et que toute popula-
tion ne peut continuer à croı̂tre au delà de la capacité permise par l’environnement
dans lequel vit cette population, on est amené à l’équation
r 2
Pn+1 = (1 + r) Pn − P (4.3.3)
K n
En écrivant l’équation (4.3.3) sous la forme:

Pn+1 = g( Pn )

on voit aisement que l’équation logistique admet deux points d’équilibre (les points
fixes de g) qui sont:
l’équilibre trivial P∗ = 0 et l’équilibre non trivial atteint pour la capacité d’environn-
ement P∗∗ = K.
En étudiant la dérivée de g aux points d’équilibre, on déduit que si r > 0 alors le
point d’équilibre trivial est instable (g0 (0) > 1) tandis que pour le point d’équilbre
non trivial ( g0 (K ) = r − 1), la zone de stabilité est donnée par 0 < r < 2.
L’équation logistique constitue un exemple pédagogique interessant. La varia-
tion de r exhibe différentes situations allant de l’équilibre stable (0 < r < 1) voir
figure 4.1, au chaos (r = 3) voir figure 4.2, en passant par des oscillations cycliques
(2 < r < 3) voir figure 4.2.

104
Convergence
30

25

20
Population

15

10

0
0 5 10 15 20 25 30 35 40 45 50
Temps

Figure 4.1: Convergence(r = 0.9)

Cycle Chaos
30 30

25 25

20 20
Population

Population

15 15

10 10

5 5

0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
Temps Temps

Figure 4.2: 2 cycles(r = 2.5),Chaos(r = 3)

105
Application 4.3.4. Equation logistique et captivité (harvest)(Schaefer, 1954)
Si on considère une population de poissons vivant dans un environnement aux
ressources limitées et assujettie à une captivité (harvest) on obtient l’équation
r 2
Pn+1 = (1 + r) Pn − P − qEPn (4.3.4)
K n
L’équation (4.3.4) admet deux points d’équilibre qui sont l’équilibre trivial P∗ = 0,
qE
et l’équilibre non trivial P∗∗ = K (1 − ).
r
L’équilibre trivial correspond à l’épuisement du stock de poissons et l’équilibre
non trivial permet d’élaborer des stratégies optimales en fonction du stock Pn , de
l’effort de pêche E et de la constante q mesurant la captivité.

Application 4.3.5. Equation logistique avec retard (Nicholson, 1954)


Certains phénomènes n’apparaissent pas instantanément dans l’évolution des
populations, la dynamique exige alors de considèrer un effet à retard . L’effet d’une
guerre ou d’une saturation d’environnement peut être vécu par des populations à
posteriori . L’équation logistique avec retard (ou retardée) est donnée par

Pn − Pn−τ = rτ Pn−τ (1 − Pn−τ /K ).

106
4.4 Complément bibliographique
• Population de rats et suites de Fibonacci (Fibonacci, 1202)
Fibonacci a proposé un modèle de croissance d’une population de rats en
partant d’un couple de rats (une femelle et un male) qui atteignent maturité
pour donner un nouveau couple, qui, après maturité, donne un autre couple
qui s’ajoute au couple que donne le premier couple s’il survit, etc... Les suites
de Fibonacci vérifient
B0 = 1, B1 = 1,
Bn+1 = Bn + Bn−1 , n = 1, 2, · · ·

• Population avec structure d’âge (Euler, 1760)


Si on considère une population humaine recensée à des intervalles de temps
reguliers en tenant compte uniquement des femelles parmi les nouveaux nés.
On note Bn le nombre de femelles nées durant le keme recensement, la popu-
lation est divisée en classe d’âge de longueur égale à la longueur du recense-
ment (10 ans par exemple).
On note λk la proportion de ceux qui sont nés k recensements auparavant
et qui survivent, autrement dit, λk représente la probabilité qu’un nouveau
né survive au keme recensement. De façon similaire, on note bk la fertilité des
femmes qui sont dans leur keme intervalle de recensement. Par conséquent, les
femmes nées k recensements auparavant devraient produire λk bk Bn−k filles
durant le keme recensement. On obtient ainsi ce qu’on appelle l’équation de
renouvellement donnée par

Bn = hn + λ1 b1 Bn−1 + λ2 b2 Bn−2 + · · · + λn bn B0 .

Cette équation peut être vue comme une généralisation des suites de Fibonacci
(en prenant hn = 0, λ1 = λ2 = 1 et λ j = 0 pour j ≥ 3).

• Dépendance de la densité (Verhulst, 1845)


Le modèle de Malthus suppose un taux de croissance r constant alors qu’en
réalité, à partir d’un certain niveau, la conjugaison des facteurs d’environn-
ement et de la densité d’une population peut empêcher la croissance de celle-
ci. On obtient alors une généralisation des modèles de Malthus et de l’équation
logistique en prenant
Bn+1 = R( Bn ) Bn ,
où R( Bn ) est le taux de croissance intrinsèque de la population à l’instant tn .
Les exemples ci-dessous peuvent en constituer des cas particuliers.

107
a- Equation de Ricker(1954): Bn+1 = exp [r(1 − Bn /K )] Bn .
R0
b- Equation de Beverton-Holt(1957): Bn+1 = Bn .
1 + [( R0 − 1)/K ] Bn
c- Equation généralisée de Beverton-Holt (1957):

Rβ0
Bn+1 = Bn .
{1 + [( R0 − 1)/K ] Bn }β

d- Equation de Hassel-Lawton-May (1976): Bn+1 = (1 + r)(1 + aBn )−β Bn .

Voir aussi exercices 4.4.3, 4.4.4, 4.4.5.

108
4.5 Exercices
Exercice 4.5.1. Etudier la convergence de l’itération définie par
xs + α sx
xn+1 = Φ ( xn ) avec Φ( x) = .
sxs−1 + α
Exercice 4.5.2. Soit f une fonction réelle admettant un minimum m en un point x∗
de l’intervalle [ a, b].
On cherche à encadrer ce minimum par une méthode de dichotomie. La méthode
du nombre d’or consiste à prendre L1 = b − a puis à localiser x∗ dans un intervalle
de longueur Ln en calculant Li par la relation de récurrence: Li = Li−2 − Li−1 et en
lui imposant que le rapport de réduction soit constant c’est à dire
Li L
= i−1 = constante.
Li −1 Li −2
a) Trouver le nombre d’or α .

b) Proposer un algorithme permettant d’obtenir x∗ = min f ( x).


x∈[ a,b]

Exercice 4.5.3. Soit g une fonction de classe C p avec p ≥ 1 et g( x∗ ) 6= 1 on suppose


que le procédé itératif xn+1 = g( xn ) vérifie xn+1 − x∗ = (k + δn )( xn − x∗ ) avec
|k| < 1 et lim δn = 0. Soit
n−→∞

( xn+1 − xn )2
zn = xn +
xn+2 − 2xn+1 + xn
zn − x∗
1. Chercher lim et comparer la vitesse de convergence des suites ( xn )
n−→∞ xn − x∗
et ( zn ).

2. On généralise le procédé précédent de la manière suivante: on définit la fonc-


xg( g( x)) − ( g( x))2
tion h par h( x) = puis on pose yn = g( xn ), zn = g( yn )
g( g( x)) − 2g( x) + x
et xn+1 = h( xn ) pour n = 0, 1, 2, · · ·

(a) Prouver que g( x∗ ) = x∗ si et seulement si h( x∗ ) = x∗ .


(b) On suppose de plus que g0 ( x∗ ) = · · · = g( p−1) ( x∗ ) = 0 et que
x p+1
g( p) ( x∗ ) = p!A 6= 0 en prenant x∗ = 0 et g( x) = Ax p + g(θ x) ,
( p + 1)!
0 < θ < 1, montrer que:
h( x) = − A2 x2p−1 + O( x2p ) si p > 1 et h( x) = O( x2 ) si p = 1

Exercice 4.5.4. Soit f une fonction réelle de classe C 2 sur un intervalle [ a, b] et telle
que f 00 ( x) = m ∀ x ∈ [ a, b] .

109
1. Donner l’ordre de convergence de la méthode de fausse position avec
xn − x0
x0 fixé (x0 = a), xn+1 = xn − f ( xn ), quelle est la constante
f ( xn ) − f ( x0 )
d’erreur asymptotique.

2. On considère l’algorithme consistant à effectuer alternativement une itération


de Newton-Raphson et une itération de la méthode de la sécante
f ( xn ) xn − zn
zn = xn − 0 , xn+1 = zn − f ( zn ). Trouver l’ordre de cette
f ( xn ) f ( xn ) − f ( zn )
méthode et la constante d’erreur asymptotique (on pourra poser: εn = xn − x∗
et en = zn − x∗ ).

Exercice 4.5.5. (May-Conway-Hassell-Southwood, 1974)


Chercher les points d’équilibre et donner les conditions de stabilité pour les équations
suivantes:
−(1+b)
Pn+1 = λ Pn

Pn+1 = λ Pn exp [−α Pn ]

Pn+1 = Pn {1 + r(1 − Pn /K )}

Exercice 4.5.6. (Ludwing-Jones-Holling, 1978)


En l’absence de prédation, la dynamique d’une population de vers est régie par
l’équation logistique. Soumise à une prédation par des oiseaux , l’équation devient:

Pn+1 − Pn = f ( Pn ) − g( Pn )

avec
r 2 β P2
f ( Pn ) = rPn − Pn , g( Pn ) = 2 n 2 .
K α + Pn
En traçant les graphes de f et g en fonction de Pn , montrer que le système admet
un point non trivial d’équilibre stable ou 3 points d’équilibre dont 2 stables et un
instable.

Exercice 4.5.7. (Brauer & Scanchez, 1975)


Supposons qu’une population régie par l’équation logistique subit une moisson à
taux constant donnant lieu à l’équation:

dP(t) r
= rP(t) − P2 (t) − E
dt K
1
a) Montrer que si E < rK; il ya deux possibilités d’équilibre, l’un stable, l’autre
4
instable.
1
b) Montrer que si E > rK alors la population disparaitra en un temps fini.
4

110
c) Que deviennent les résultats a) et b) si E est remplacé par EP.

d) Comparer avec le cas discret en considérant l’équation:


r 2
Pn+1 = rPn − P −E
K n

Exercice 4.5.8. Soit f ( x) = x3 − x2 − x − 1 = 0

1. Montrer que cette équation admet une racine dans l’intervalle [1, 2]

2. Montrer que: l’itération xn+1 = x3n − x2n − 1 ne converge pour aucune valeur
1 1
initiale x0 ∈ [1, 2] mais que la méthode xn+1 = 1 + + 2 converge pour
· ¸ x n x n
7
toute valeur initiale x0 ∈ ,2 .
4
Exercice 4.5.9. On suppose que l’équation x = g( x) admet une seule racine α et que
g est de classe C p dans l’intervalle I = { x tels que: | x − α | ≤ r avec r > 0} . Pour
chercher α , on utilise le procédé itératif : xn+1 = g( xn ).

1. Montrer que l’ordre de convergence est p si et seulement si: α = g(α ) ;


g(i) (α ) = 0 pour 0 ≤ i ≤ p − 1 et g( p) (α ) 6= 0.

2. Determiner la constante d’erreur asymptotique.



3. Pour approcher A , A > 0 , on utilise le procédé ci-dessus avec
3A 3x x3
g( x) = + − donner l’ordre de convergence et la constante d’erreur
8x 4 8A
asymptotique.

Exercice 4.5.10. On s’interrese à la solution numérique de l’équation f ( x) = 0 où f


est une fonction scalaire régulière de R dans R.

1. On considère la méthode de Newton modifiée


f ( xn )
xn+1 = xn − ,
an
où an est une approximation de f 0 ( xn ).
Montrer que l’ordre de convergence est supérieur à 1 si an −→ f 0 ( x∗ ) quand
n −→ ∞.
f ( xn ) − f ( xn−1 )
2. La méthode de la sécante est un cas particulier avec an = .
xn − xn−1
Prouver que si cette méthode converge vers x∗ alors
en+1 f 00 ( x∗ )
lim = 0 ∗ , en = xn − x∗ .
n−→∞ en en−1 2 f (x )
En déduire l’ordre de convergence de cette méthode.

111
3. Etant donné deux réels a et b tels que f ( a) f (b) < 0, de quelle façon peut-on
adapter la méthode de la sécante pour garantir la convergence vers x∗ ∈ [ a, b].

Exercice 4.5.11. Soit p un entier ≥ 2 et soit Φ la fonction définie sur R+


∗ par φ ( x ) =
1
Ax .− p

On voudrait calculer une valeur approchée de la racine neme de A > 0.

1. Le schéma: xn+1 = Φ( xn ) converge t-il vers la solution A1/ p .

2. On considère une autre fonction définie par:

f ( x) = x + λ (Φ( x) − x).

(a) Pour quelles valeurs de λ a-t-on convergence de l’itération

xn+1 = f ( xn ) .

(b) Donner la valeur optimale de λ.


(c) Comparer avec la méthode de Newton appliquée à la fonction
g( x) = x p − A.

3. Soit à résoudre f ( z) = 0, z ∈ C.
En écrivant z = x + iy et f ( z) = u( x, y) + iv( x, y) et sachant que:

∂u ∂v ∂u ∂v
= et =− .
∂x ∂y ∂y ∂x

Montrer que le schéma de Newton dans C est équivalent à deux schémas de


Newton dans R et écrire ces deux schémas.

Exercice 4.5.12 (Conditions de Routh-Hurwitz).


Soit A une matrice carrée d’ordre n, dont le polynôme caractéristique est donné par

P ( λ ) = λ n + a1 λ n−1 + · · · + an ,

où ai , i = 1, 2, · · · , n sont réels. Montrer que les conditions nécessaires et suffisantes


pour que les racines de P soient de partie réelle strictement negative sont:
¯ ¯
¯ a a ¯
¯ 1 3 ¯
an > 0, D1 = a1 > 0, D2 = ¯ ¯>0
¯ 1 a2 ¯
¯ ¯
¯ a1 a3 a5 ¯
¯ ¯
¯ ¯
D3 = ¯ 1 a 2 a 4 ¯ > 0
¯ ¯
¯ 0 a1 a3 ¯

112
..
.
¯ ¯
¯ a1 a3 a5 ··· ··· ··· ¯
¯ ¯
¯ ¯
¯ 1 a2 a4 ··· ··· ··· ¯
¯ ¯
¯ 0 a1 a3 ··· ··· ··· ¯
¯ ¯
Dk = ¯ ¯ > 0 k = 1, 2, · · · , n
¯ 0 1 a2 ··· ··· ··· ¯
¯ ¯
¯ ··· ··· ··· ··· ··· ··· ¯
¯ ¯
¯ ¯
¯ 0 0 ··· ··· ··· ak ¯

où | D | désigne le déterminant de D.

Exercice 4.5.13. Soit P un polynôme de degré n ≥ 2 à coefficients réels. On suppose


que les zéros de P( x) sont tous réels et vérifient:

α1 ≥ α2 ≥ · · · ≥ αn .

On considère le schéma itératif de Newton appliqué à P( x) avec:

x(0) donné tel que x(0) et P( x(0) ) > 0.

1. Vérifier que P( x) > 0 et P0 ( x) > 0 pour tout x > α1 .

2. Montrer que la suite ( x(k) ) est strictement décroissante.

3. Montrer que x(k) > α1 et x(k+1) > α1 .

4. Conclure.

Exercice 4.5.14. Soit f une fonction : f : R −→ R. On suppose que f est de classe C 2


et qu’elle admet une fonction réciproque g. On cherche à résoudre numériquement
l’équation f ( x) = 0 . Si f (α ) = 0 alors α = g(0) d’où l’idée de chercher α en
passant par g( y) évaluée au point y = 0. Soit P un polynôme vérifiant l’une des 3
conditions suivantes:
C1 : P( yn ) = g( yn ) et P( yn−1 ) = g( yn−1 )
C2 : P( yn ) = g( yn ) et P0 ( yn ) = g0 ( yn )
C3 : P( yn ) = g( yn ) , P0 ( yn ) = g0 ( yn ) et P00 ( yn ) = g00 ( yn )

1. On suppose que P est un polynôme de degré 1 verifiant la condition C2

(a) Donner l’expression de P( y) en fonction de y, yn , g( yn ) et g0 ( yn ).


(b) Donner l’expression de P( y) en fonction de y, xn , f ( xn ) et f 0 ( xn ).
(c) Quel procédé obtient-on si on pose xn+1 = P(0)( avec yn = f ( xn ))?

113
2. On suppose que P est un polynôme de degré 1 vérifiant la condition C1 , quel
procédé d’itération obtient-on en evaluant P( y) et en prenant xn+1 = P(0)?

3. on suppose que P est un polynôme de degré 2 vérifiant la condition C3

(a) Donner l’expression de P( y) en fonction de y, yn , g( yn ) , g0 ( yn ) et g00 ( yn ).


(b) En exprimant les dérivées de g en fonction de celles de f et en prenant
xn+1 = P(0) montrer qu’on obtient le procédé de Tchebychev:
f ( xn ) f 2 ( xn ) f 00 ( xn )
xn+1 = xn − 0 − avec f 0 ( xn ) 6= 0.
f ( xn ) 2( f 0 ( xn ))3
(c) Montrer que l’ordre de cette méthode est 3 puis donner la constante
d’erreur asymptotique.

Exercice 4.5.15. Soit P( x) le polynôme donné par

P( x) = 2x5 − 100x2 + 2x − 1.

On cherche un encadrement des zéros x1 , · · · , x5 de l’équation P( x) = 0 (∗).

a) Determiner les limites inférieure et supérieure des modules des racines.

b) Préciser les limites des racines positives

c) En posant z = − x, montrer que l’équation (*) n’admet pas de racines négatives

d) En utilisant le théorème de Newton, montrer qu’on peut trouver des nombres


c1 , c2 , · · · , c5 tels que c1 ≤ c2 ≤ · · · ≤ c5 avec
P(4) (c1 ) ≥ 0, P(3) (c2 ) ≥ 0, P” (c3 ) ≥ 0, P0 (c4 ) ≥ 0 et P(c5 ) ≥ 0.

Exercice 4.5.16. Soit Ak la matrice tridiagonale donnée par


 
α1 β2
 
 β2 α2 β3 
 
 β . 
 3 
Ak =  .
 . 
 
 . β 
 k 
βk αk

En posant P0 = 1 , P1 = α1 − λ et Pk = det( Ak − λ Ik ).

1. Montrer que Pk = (αk − λ ) Pk−1 − (βk )2 Pk−2 pour k ≥ 2.

2. Montrer que les zéros de Pn+1 sont distincts et strictement séparés par les
zéros de Pn .

114
3. En déduire que ( Pn , Pn−1 , · · · , P0 ) est une suite de Sturm.
 
1 2 0 0
 
 2 3 −1 0 
4. Application: soit A la matrice donnée par   0 −1 4


 1 
0 0 1 1

(a) Montrer que les valeurs propres de A sont comprises entre −1 et 6.


(b) En appliquant le théorème de Sturm, prouvez que A possède une seule
valeur propre négative.
(c) Obtenir d’autres encadrements des valeurs propres positives ( sans les
calculer).

115
Chapitre 5

Méthodes numériques de
résolution des systèmes non
linéaires

5.1 Méthodes itératives


Soit F : Rn −→ Rn une fonction vectorielle.
On cherche à résoudre numériquement l’équation F ( x) = 0, x ∈ Rn , 0 ∈ Rn .
Comme au chapitre précédent, on peut se ramener aux méthodes du point fixe
Φ( x) = x.

Théorème 5.1.1. Soit M un sous-espace fermé borné de Rn tel que

i) Φ : M −→ M continue.

ii) Φ est contractante sur M c.à.d ∃ 0 < L < 1 tel que:

||Φ( x) − Φ( y)|| ≤ L|| x − y|| ∀( x, y) ∈ M × M

pour une certaine norme k.k.


³ ´
Alors Φ possède un point fixe unique x∗ ∈ M et l’itération x(k+1) = Φ x(k) converge
vers x∗ pour n’importe quel vecteur initial x(0) ∈ M, de plus
° ° µ Lk ¶ ° °
° (k) ∗° ° (1) °
°x − x ° ≤ ° x − x(0) ° .
1−L

Preuve :
Analogue à celle du cas scalaire en remplaçant |.| par ||.||.

116
Théorème 5.1.2. On suppose ¯ que Φ ¯possède un point fixe α et que les composantes Φi
¯ ∂Φi ( x) ¯
sont de classe C 1 et vérifient : ¯¯ ¯ ≤ λ avec λ < 1.
∂xi ¯ n ³ ´
Alors pour tout x(0) ∈ V = { x/|| x − α || ≤ d}, la suite x(k) définie par
³ ´
x(k) = Φ x(k−1) vérifie x(k) ∈ V et x(k) converge vers α .

Preuve :
n
∂Φi (ξ (t))
Soient x et y ∈ V, Φi ( x) − Φi ( y) = ∑ ∂xi
(x j − y j )
j=1
où ξ (t) = (1 − t) y + tx, t ∈]0, 1[, on a ξ (t) − α = (1 − t)( y − α ) + t( x − α ) et
kξ (t) − α k ≤ (1 − t)d + td = d donc ξ (t) ∈ V.
Par suite
n ¯
¯ ¯
¯ ∂Φi (ξ (t)) ¯¯
|Φi ( x) − Φi ( y)| ≤ ∑ ¯ ¯ k x − yk∞
j=1
∂xi
λ
≤ n k x − yk∞ = λ k x − yk∞
n

et kΦ( x) − Φ( y)k∞ ≤ λ k x − yk∞

avec λ < 1, donc Φ est contractante sur V.


° Φ(V )°⊂ V.° ³
Reste à montrer que ´ ° ° °
° ° ° ° ° °
On a x ∈ V, ° x(1) − α ° = °Φ x(0) − Φ(α )° ≤ λ ° x(0) − α ° ≤ λ d ≤ d donc
( 0 )

x(1) ∈ V et par récurrence, on montre que tous les x(k) ∈ V.


Méthode de Newton :
Elle est définie par le procédé itératif :
³ ´ ³ ´
x(k+1) = x(k) − JF−1 x(k) F x(k) . (5.1.1)

Cependant, on évite de calculer l’inverse de JF en solvant à chaque étape un système


linéaire. L’équation (5.1.1) est équivalente à :
³ ´³ ´ ³ ´
JF x (k ) x (k +1) − x (k ) = − F x (k )
³ ´ ³ ´
soit JF x(k) C (k) = − F x(k) et x(k+1) = x(k) + C (k) , les C (k) sont appelés des
corrections. A chaque étape, on obtient x(k+1) en corrigeant la valeur de l’étape
précédente en lui ajoutant C (k) obtenue comme solution d’un système linéaire.
¡ 2 ¢
2 − 4, x + x − 2 > .
Exemple 5.1.1. Résoudre
à ! F ( x ) = 0 avec :ÃF ( x ) = x 1 +
! x 2 1 2
à !
1 2x1 2x2 ³ ´ 2 6
(
Si on choisit x =0 ) alors JF ( x) = , JF x ( 0 ) =
3 1 1 1 1

117
³ ´ ³ ´ ³ ´
et F x(0) = (6, 2)> , on résoud donc : JF x (0 ) C (0) = − F x ( 0)
ce qui donne : C(0) = (−3/2, −1/2)> , x(1) = x(0) + C (0) = (−1/2, 5/2)>

x(2) = x(1) + C (1) = (−1/12, 25/12)> ' (−0.08, 2.08)> .


³ ´
x(k) converge vers la solution (0, 2)> .
Théorème 5.1.3 (Convergence quadratique de la méthode de Newton).
Si x∗ est une solution de F ( x∗ ) = 0 et F est de classe C 1 dans B( x∗ , d) et α et γ sont des
constantes telles que
° °
i) JF ( x) est inversible et ° JF−1 ( x)° < α ∀ x ∈ B( x∗ , d).

ii) k JF ( x) − JF ( y)k ≤ γ k x − yk ∀ x, y ∈ B( x∗ , d).


2
iii) d < .
αγ
Alors la méthode de Newton converge vers x∗ pour tout choix de x(0) ∈ B( x∗ , d) et la
convergence est quadratique.
Preuve :

Posons Φ( x) = x − JF−1 ( x) F ( x)
Si x ∈ B( x∗ , d) donc
° °
° °
kΦ( x) − x∗ k = ° x − JF−1 ( x) F ( x) − x∗ °
° °
° °
= ° x − x∗ − JF−1 ( x) [ F ( x) − F ( x∗ )]°
° °
° °
= ° JF−1 ( x) [ F ( x∗ ) − F ( x) − JF ( x)( x∗ − x)]°
° ° °Z 1 °
° −1 ° ° °
≤ ° JF ( x)° ° ( JF (ξ (t)) − JF ( x))( x − x)dt°
° ∗
°
0
° °Z 1
° °
≤ ° JF−1 ( x)° k JF (ξ (t)) − JF ( x)k k x − x∗ k dt
0
Z 1
≤ αγ k x − x∗ k kξ (t) − xk dt
0
Z 1

≤ αγ k x − x k tdt k x − x∗ k
0
αγ
≤ k x − x∗ k2
2
αγ
≤ d k x − x∗ k
2
d’où kΦ( x) − x∗ k < k x − x∗ k ≤ d si la condition iii ) est vérifiée et comme on a
° ° αγ ° °2 ³ ´
° (k +1) ° ° (k) °
°x − x∗ ° ≤ ° x − x∗ ° alors la suite x(k) converge vers x∗ et la conver-
2
gence est quadratique.

118
Remarques 5.1.1. 1. D’après le théorème 5.1.3, la méthode de Newton converge
avec ordre de convergence quadratique mais à condition que le choix de
départ soit assez proche de x∗ , x(0) ∈ B( x∗ , d). Il s’agit donc d’une conver-
gence locale. Comme dans le cas scalaire, on peut obtenir une convergence
globale mais au prix d’hypothèses supplémentaires sur F.

2. Pour réduire le nombre de calculs nécessaires, on peut remplacer l’équation


(5.1.1) par : ³ ´ ³ ´
x (k +1) = x (k ) − JF x (0 ) F x (k ) (5.1.2)

on obtient ainsi une méthode de Newton modifiée qui est évidemment moins
précise que la précédente mais moins coûteuse.

3. Si au lieu de l’équation (5.1.2) on considère un Schéma itératif où JF ( x(0) )


est remplacé par une matrice Θ, on³ obtient
´ avec Θ diagonale, la méthode de
Whittaker : x ( k + 1 ) ( k )
= x − ΘF x ( k ) , qui est une méthode de relaxation
semblable à ce qu’on obtient en dimension un.

Exemple 5.1.2. Soit à résoudre F ( x) avec F ( x) = ( x21 + x22 − x3 − 2, x1 + 5x2 +


 
−1/4 0 0
>  
2, x1 x3 − 2x1 ) alors en choisissant Θ =  0 1/5 0  , on obtient le
0 0 −1/2
schéma
³ ´ µ ¶>
(k+1) (k) 1 1 1 1 1 2 1
x =Φ x où Φ( x) = x1 + x21 + x22 − x3 − , − x1 − , x3 + x1 x3 − x1
4 4 4 2 5 5 2
 
1 1 −1
x +1 x2
 2 1 2 4 
 
et JΦ ( x) =  −1/5 0 0 
 1 1 
x3 − 1 0 x1 + 1
2 2
x∗ = (−2, 0, 2)> est solution de F ( x) = 0 et on vérifie que
 
−1
0 0
 4 
JΦ ( x∗ ) =   ∗
 −1/5 0 0  et k JΦ ( x )k < 1, impliquant convergence locale.
0 0 0
Théorème 5.1.4 (Convergence globale quadratique de la méthode de Newton).
Soient C un ouvert de Rn et C0 un convexe tel que C 0 ⊂ C, et soit F : C −→ Rn une
fonction differentiable sur C0 et continue sur C.
Pour x0 ∈ C0 on définit les constantes positives α , γ , β, h telles que

B( x0 , r) = { x/k x − x0 k < r} ⊂ C0 ,

119
αβγ
h= < 1,
2
α
r= ,
1−h
si F ( x) vérfie les conditions suivantes
° °
i) JF ( x) est inversible et ° JF−1 ( x)° ≤ β ∀ x ∈ C0

ii) k JF ( x) − JF ( y)k ≤ γ k x − yk ∀ x, y ∈ C0 .
° °
iii) ° JF−1 ( x0 ) F ( x0 )° ≤ α .

Alors la méthode de Newton converge vers x∗ et la convergence est quadratique.

Preuve: Voir Stoer et Bulirsch [165].


Avec des conditions plus fortes on obtient unicité de la solution

Théorème 5.1.5 (Newton - Kantorovich).


Soit F : C ⊂ Rn −→ Rn une fonction continûment differentiable sur un convexe C0 ⊂ C
vérfiant les conditions suivantes
° °
i) ° JF−1 ( x0 )° ≤ β,

ii) k JF ( x) − JF ( y)k ≤ γ k x − yk ∀ x, y ∈ C0 .
° °
iii) ° JF−1 ( x0 ) F ( x0 )° ≤ α ,

pour x0 ∈ C0 . Soient h et r12 des constantes telles que

h = αβγ ,

1 ± 1 − 2h
r12 = α.
h
1
Si h ≤ et B( x0 , r12 ) ⊂ C0 alors la méthode de Newton converge vers la solution unique
2
x∗ .

Preuve: Voir Stoer et Bulirsch [165].

5.2 Problèmes d’optimisation


Considérons les deux problèmes suivants:

1. Trouver x∗ ∈ Rn solution de F ( x) = 0 avec F : Rn −→ Rn .

2. Trouver x∗ ∈ Rn minimisant f ( x) avec f : Rn −→ R.

120
Ces deux problèmes sont liés de la manière suivante

i) En posant f ( x) = ( F ( x))> F ( x), f admet un minimum x∗ qui est solution de


F ( x) = 0.
µ ¶>
∂f ∂f
ii) Réciproquement, en prenant F ( x) = ∇ f = grad f = ,··· , , alors
∂x1 xn
F ( x∗ ) = 0 en x∗ solution du problème 2.

A- Méthodes de descente :
Nous cherchons des solutions du problème 2 en utilisant des méthodes itératives
donnant une suite de points x(1) , x(2) , · · · à partir d’un point initial x(0) et qui con-
verge vers un³minimum ∗
´ ³local´x . On voudrait
³ ´obtenir ³ une convergence
´ monotone
c’est à dire f x ( 0 ) > f x ( 1 ) > ··· > f x ( i ) > f x ( i + 1 ) > · · · > f ( x∗ ).
Pour cela, on a besoin de deux paramètres pour passer d’un itéré x(i) à l’itéré suiv-
ant x(i+1) .

a) La direction dans laquelle on se dirigera (direction de recherche ).

b) La longueur avec la quelle on avance à chaque étape.

On obtient ainsi un algorithme de descente qu’on peut présenter de la manière


suivante :
³ ´
1. i = 0 ; évaluer f x(0)

2. chercher ρ(i) , direction de recherche

3. chercher αi , longueur de l’étape

4. calculer le nouveau point x(i+1) = x(i) + αi ρ(i)


³ ´
5. évaluer f x(i+1)

6. faire i = i + 1 et tester pour s’arrêter ou repartir de 2.

1- Quelle direction choisir ?

Nous
³ cherchons ´ une³direction
´ de manière à aller en descendant, en d’autres termes:
f x(i) + ερ(i) < f x(i) pour tout ε assez petit.
En appliquant la formule de Taylor à f ( x(i) + ερ(i) ) on obtient :
³ ´ ³ ´ ³ ´>
f x(i) + ερ(i) = f x(i) + ε ∇ f ( x(i) ) ρ(i) + O(ε2 )

121
³ ´>
et par suite nous exigeons que ∇ f ( x(i) ) ρ(i) < 0 (∗)
En posant g( x) = ∇ f ( x) pour alléger les notations, l’inégalité (∗) s’écrit :
³ ´>
g (i ) ρ(i) < 0,

c’est donc la condition qui permet de choisir à chaque étape i la direction ρ(i) .

2- Longueur de l’étape (le pas)

Une fois la direction ρ(i) choisie, nous sommes ramenés à un problème de min-
imisation à une dimension de f dans la direction ρ(i) . Le problème se pose donc
comme suit : ³ ´ ³ ´
Trouver α ∗ tel que f x(i) + α ∗ ρ(i) < f x(i) + αρ(i) pour tout α dans un voisi-
nage de α ∗ .
Ce procédé s’appelle une recherche en ligne. On peut utiliser des méthodes numéri-
ques pour encadrer α ∗ . ³ ´
Si on utilise une recherche en ligne exacte de telle sorte que f x(i) + α ∗ ρ(i) Soit
un minimum local de f dans la direction ρ(i) , alors on doit avoir

∂f
= 0 pour α = α ∗ ,
∂α
µ ¶>
∂f
ou encore ρi = 0 au point x = x(i) + α ∗ ρ(i) .
∂x
³ ´>
Ce qui donne la condition d’orthogonalité suivante : g(i+1) ρi = 0. En d’autres
termes, le gradient de f au point x(i+1) doit être orthogonal à la direction de recherche
si on utilise la recherche en ligne exacte.
Choix des directions:

a- Un moyen simple et naturel de choisir des directions de recherche est de


(0)
minimiser par rapport à chaque variable à part. Partant de x1 , on garde
(0) (0) (0)
x2 , · · · , xn fixes et on minimise par rapport à x1 ensuite on refait le même
(1) (0) (0)
chemin avec x1 , x3 , · · · , xn fixes etc · · · En dimension deux on obtient une
allure en escalier.

Exemple 5.2.1. f ( x1 , x2 ) = 2 2
³ 2x1´− 6x1 x2 + 5x2 − 2x1 + 2x2 .
Prenons x(0) = (0, 0)> , f x(0) = 0,
µ ¶³ ´
(0) (1) ∂f (1)
1. On garde x2 = 0 et en cherche x1 tel que x1 , 0 = 0 on ob-
∂x1
tient

122
∂ f ³ (1) ´ (1) 1
x1 , 0 = 4x1 − 6x2 − 2 d’où x1 = et x(1) = (1/2, 0)> , f ( x(2) ) =
∂x1 2
−1
2
µ ¶
(1) 1 (2) ∂ f ³ (1) (2) ´
2. On garde x1 = et en cherche x2 tel que x1 , x2 =0
2 ∂x2
∂ f ³ (1) (2) ´ (2) 1
Ce qui donne x1 , x2 = −6x1 + 10x2 + 2 d’où x2 = d’où
∂x2 10
³ ´ −11
x(2) = (1/2, 1/10)> et f x(2) =
20
µ ¶
(2) 1 (3) ∂ f ³ (3) (2) ´
3. On garde x2 = et on cherche x1 tel que x1 , x2 = 0···
10 ∂x1
b- Méthode de la meilleure descente (de la plus grande pente).
³ ´ ³ ´ ³ ´>
En écrivant f x(i) + ρ = f x(i) + g(i) ρ + · · ·
³ ´>
On choisit ρ de telle sorte à minimiser g(i) ρ avec une condition de min-
imisation ||ρ|| = C pour une certaine norme ||.||. On obtient alors (avec la
norme euclidienne)
³ ´> ° ° ³ ´> ° °
° ° ° °
− g(i) ρ < ° g(i) ° ||ρ||2 pour tout ρ, d’où g(i) ρ > − ° g(i) ° kρk2 pour
2
C ³ ´> ° ° ³2 ´>
( ) ( ) ° °
tout ρ. Soit ρe = − ° i
° g alors g i e = −C ° g ° , donc g(i) ρ >
ρ ( i )
° (i ) ° 2
°g °
° ° 2
³ ´>
° °
−C ° g(i) ° = g(i) ρe ∀ ρ.
2
Dans la méthode classique on prend ρ(i) = − g(i) .

Exemple 5.2.2. F ( x1 , x2 ) = 2x21 − 6xÃ1 x2 + 5x22 −!2x1 + 2xÃ2 qu’on


! peut écrire
1 4 −6 −2
f ( x1 , x2 ) = x> Gx + b> avec G = , b= .
2 −6 10 2
On a g( x) = Gx + b = (−4x1 − 6x2 − 2, −6x1 + 10x2 + 2)> . Prenons x0 = (0, 0)>
donc g(0) = (−2, 2)> , ρe(0) = − g(0) = (2, −2)> et x(1) = x(0) + αρ(0) = (2α , −2α )
³ ´ 8 1
f x(1) + αρ(0) = 52α 2 − 8α qui atteint son minimum pour α = =
2 × 52 13
( 1 ) ( 0 ) 1 (0) > ( 1 ) −4
on obtient donc x = x + ρ = (2/13, −2/13) et f ( x ) =
13 13
ensuite ρ(0) = − g(1) = (−6/13, −6/13)> etc · · ·

Remarque 5.2.1. Si on considère la méthode de Newton pour la résolution de


F ( x) = 0 c.à.d
³ ´−1 ³ ´ ³ ´−1 ³ ´
x (k +1) = x (k ) − JF x (k ) F x(k) = x(k) + αk ρ(k) avec ρ(k) = JF x(k) F x(k)
et αk = 1. Alors il s’agit d’une méthode de descente pour minimiser la fonction

f ( x) = 1/2F ( x)> F ( x).

123
³ ´>
En effet ∇ f = JF> F et on vérifie aussi que g(k) ρ(k) < 0 puisque
³ ´> ¡ ¢> ¡ −1 ¢
g ( k ) ρ(k) = Jk> Fk − Jk Fk = − Fk> Jk Jk−1 Fk = − Fk> Fk .
B- Méthodes des directions conjuguées
Ces méthodes sont aussi basées sur les algorithmes de descente :
x(k+1) = x(k) + αk ρ(k) mais elles choisissent des directions conjugueés.

Définition 5.2.1. Soit ρ(1) , · · · , ρ(n) un ensemble de directions et M une matrice


définie positive. Alors on dira que les directions ρ(i) sont conjuguées par rapport à
M ou M− conjuguées si :
³ ´>
ρ (i ) Mρ( j) = 0 ∀ i 6= j.

On sait que pour les méthodes de descente avec direction en ligne exacte on
obtient : ³ ´>
g(k+1) ρ(k) = 0 k = 0, 1, · · ·

posons s(k) = x(k+1) − x(k) et t(k) = g(k+1) − g(k) et supposons que f est une
fonction quadratique f ( x) = 1/2x> Gx + b> x + c de telle sorte que
g( x) = ∇ f ( x) = Gx + b et ∇2 f ( x) = G Hessien . Il s’ensuit alors que :
³ ´
t(k) = G s(k) = αk Gρ(k)

par suite, pour tous i et j tel que 1 ≤ j ≤ i ≤ n on a :


³ ´> ³ ´>
g (i + 1 ) ρ ( j ) = g ( j + 1 ) + t ( j + 1 ) + · · · + t (i ) ρ ( j )
³ ´>
= g( j+1) + α j+1 Gρ( j+1) + · · · + αi Gρ(i) ρ( j)
= 0

en particulier, on obtient :
³ ´>
g(n+1) ρ( j) = 0 j = 1, 2, · · · , N

( j) n
³ ρ sont
et comme les ´ linéairement indépendantes et donc engendrent R , on con-
clue que g x(n+1) = 0, nous venons donc de prouver le théorème suivant

Théorème 5.2.1. Si f est une fonction quadratique avec Hessien définie positive alors les
directions de recherche sont conjuguées par rapport à G.

C- Méthode du gradient conjugué


Elle consiste à choisir la direction ρ(k) sous la forme:

ρ(k) = − g(k) + βk ρ(k−1) avec ρ0 = − g0

124
L’algorithme est donc le suivant:

 (i + 1 ) = x (i ) + α ρ (i )
 x i
ρ (i ) = − g (i ) + β i ρ (i − 1 )

 (0)
ρ = − g(0)

On démontre alors que pour les fonctions quadratiques les αi et les βi sont données
³ ´> ³ ´>
g (i ) g (i ) g (i ) g (i )
par αi = ¡ ¢> , où G est le Hessien et βi = ¡ ¢> .
ρ(i) Gρ(i) g (i − 1 ) g (i − 1 )
Remarques 5.2.2. 1. La méthode du gradient conjugué appliquée à la résolution
du système Ax = b se présente sous une forme similaire .

• on choisit x(0) ∈ Rn
• on prend ρ(0) = r(0) = b − Ax(0)
• pour k = 1, 2, · · ·
– si ρ(k) = 0 stop, x(k) est la solution de Ax = b
³ ´>
r(k) r(k)
– sinon calculer ak = ¡ ¢> , x(k+1) = x(k) + ak ρ (k) ,
ρ ( k ) Aρ ( k )
³ ´>
r(k +1) r(k +1)
r(k+1) = r(k) − ak Aρ(k) , bk = ³ ´> et
r(k) r(k)
ρ (k +1) = r(k +1) + bk ρ (k) .

2. Résultat analogue pour f quelconque

125
5.3 Applications

5.3.1 Modèles écologiques

A la fin du chapitre quatre, nous avons considéré la dynamique des populations en


nous limitant à l’étude d’une seule éspèce vivant dans un certain environnement
qui caractérise son comportement( croissance, décroissance, extinction, explosion,
stabilité, etc...).
Dans ce chapitre, nous retenons toutes les considérations intraclasses liées au
comportement d’une espèce en l’absence des autres espèces mais nous introduisons
en plus l’effet d’interactions interespèces.

5.3.2 Modèles à deux espèces

Une poupulation ne peut vivre isolée dans un environnement, elle entre en contact
avec d’autres populations d’une manière ou d’une autre, et la nature de ces inter-
actions contribue à son évolution. Un ensemble de deux ou plusieurs espèces est
dit communauté. Une classification traditionnelle d’un système de populations est
basée sur la nature des interactions interespèces et le comportement intraespèce.
Une grande et importante classe de modèles écologiques consacrés à la modéli-
sation de la dynamique des communautés de populations, notamment avec inter-
action, peut être obtenue à partir du modèle général de Lotka-Volterra

n
dNi
= Ni (ri − ∑ ai j N j ) i = 1, · · · , n
dt j=1

où Ni (t) représente la taille ou la densité de l’espèce i, ri est le taux intrinsèque de


croissance ou décroissance de l’espèce i en l’absence des autres espèces, A = ( ai j )
est appelée matrice des communautés, | ai j | indique l’intensité d’interaction entre
l’espèce i et l’espèce j. Le signe de ai j indique la nature d’interaction entre l’espèce
i et l’espèce j.
Dans le cas de deux espèces Ni et N j , les formes d’interaction les plus fréquentes
dans la littérature sont données par le tableau suivant:

Volterra est considéré comme le pionnier de la modélisation écologique mais


depuis ses premiers travaux en 1926, une litterature abondante est consacrée à ce
sujet.
Dans le cadre de ce chapitre, nous donnons succintement quelques exemples
mais sans rentrer dans les détails d’étude de stabilité (voir exercices). Le lecteur

126
+ + Coopération ou mutualisme ou symbiose
+ - Proie-Prédateur ou ressource-consommateur ou hôte-parasite
+ 0 Commensalisme
- - compétition
- 0 Amensalisme
0 0 Neutralisme

Tableau 5.1: Natures des interactions

interessé trouvera dans la littérature les études complètes des comportements des
différents systèmes avec les outils mathématiques et écologiques nécessaires.

5.3.3 Modèle proie-prédateur

-Cas continu : (
x0 = r1 x − b1 xy
y0 = −r2 x + b2 xy
x: densité de populations des proies.
y: densité de populations des prédateurs.
r1 : taux de croissance des proies.
r2 : taux de mortalité des prédateurs.
b1 et b2 : taux de prédation.
∆x x(t + ∆t) − x(t)
L’approximation de = avec ∆t = 1 donne:
∆t ∆t
(
xn+1 = ( 1 + r1 − b1 yn ) xn
yn+1 = ( 1 − r2 + b2 xn ) yn

r2 = 1 le système devient alors:


(
xn+1 = ( 1 + r1 − b1 yn ) xn
yn+1 = b2 xn yn

En l’absence des prédateurs les proies croı̂ent infiniment mais en réalité cette crois-
sance est soumise à la capacité d’accueil de l’environnement, on introduit alors un
terme −cx2n qui caractérise la compétition intraespèce au sein de la communauté
des proies, les nouvelles équations sont :
(
xn+1 = (1 + r1 − cxn − b1 yn ) xn
yn+1 = b2 xn yn

127
Exemple 5.3.1. ([41])

r1 = 1 , b1 = 2 , b2 = 2 ,c = 3 =⇒ convergence vers (0.333,0) voir figure 5.1);

r1 = 1 , b1 = 1 , b2 = 3 ,c = 2 =⇒ convergence asymptotique vers (0.333,0.33) voir


figure 5.2);

r1 = 3 , b1 = 4.5 , b2 = 3 , c = 2 =⇒ stabilité du point (0.333,0.777) voir figure(5.3);

r1 = 2.3 , b1 = 3.3 , b2 = 3.3 ,c = 3.3 =⇒ 2 points cycles voir figure 5.4);

r1 = 2.4 , b1 = 3.4 , b2 = 3.4 ,c = 3.4 =⇒ 4 points cycles voir figure 5.5);

r1 = 2.5 , b1 = 3.5 , b2 = 3.5 ,c = 3.5 =⇒ comportemet chaotique voir figure 5.6) .


PREDATION PREDATION
0.5 0.35
Proie
Predateur

0.45

0.3
0.4

0.35
0.25
Population

Population

0.3

0.2
0.25

0.2
0.15

0.15

0.1 0.1
0 10 20 30 40 50 60 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Temps
Figure 5.1: Convergence Temps

PREDATION PREDATION
0.5 0.3
Proie
Predateur

0.45 0.28

0.26
0.4

0.24
0.35
Population

Population

0.22
0.3

0.2

0.25
0.18

0.2
0.16

0.15
0.14

0.1 0.12
0 10 20 30 40 50 60 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Temps Temps

Figure 5.2: Stabilité asymptotique

128
PREDATION
0.35

0.3

0.25

0.2

population 0.15

0.1

0.05

Proie
Predateur
0
0 10 20 30 40 50 60
Temps

Figure 5.3: Stabilité


PREDATION
0.7 PREDATION
Proie 0.65
Predateur
0.6
0.6

0.55

0.5
0.5

0.45
0.4
Population

Population

0.4

0.3
0.35

0.2 0.3

0.25
0.1
0.2

0
5 10 15 20 25 30 35 40 45 50 55 60 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65
Temps
Figure 5.4: 2 cycles Temps

PREDATION PREDATION
0.8 0.8
Proie
Predateur

0.7
0.7

0.6
0.6

0.5
0.5
Population

Population

0.4

0.4
0.3

0.3
0.2

0.2
0.1

0 0.1
5 10 15 20 25 30 35 40 45 50 55 60 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
Temps Temps
Figure 5.5: 4 cycles

129
PREDATION PREDATION
0.8 0.7
Proie
Predateur

0.7
0.6

0.6
0.5

0.5
0.4
Population

Population
0.4

0.3
0.3

0.2
0.2

0.1
0.1

0 0
5 10 15 20 25 30 35 40 45 50 55 60 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
Temps Temps

Figure 5.6: Chaos

5.3.4 Modèle à compétition

L’interaction entre les deux espèces a un effet négatif sur les deux densités; le
modèle est régi par le système d’équations suivantes:
(
xn+1 = (1 + r1 − a11 xn − a12 yn ) xn
yn+1 = (1 + r2 − a22 yn − a21 xn ) yn

ri : taux de croissance de chaque espèce.


aii : compétition intra-espèce.
ai j : compétition inter-espèce.

Exemple 5.3.2. ([41])

r1 = 0.5 , a11 = 1 , a12 = 3 , a21 = 4 , r2 = 0.2 , a22 = 1 =⇒ extinction de la première


espèce voir figure(5.7);

r1 = 1.6 , a11 = 1 , a12 = 4 , a21 = 3 , r2 = 1.5 , a22 = 2 =⇒ extinction de la deuxième


espèce voir figure(5.7);

r1 = 0.9 , a11 = 0.5 , a12 = 0.4 , a21 = 0.3 , r2 = 0.8 , a22 = 0.6 =⇒ coexistence des
deux espèces voir figure(5.8);

130
COMPETITION COMPETITION
0.6 0.8

0.7
0.5

0.6
0.4

0.5

0.3

Population
Population

0.4

0.2
0.3

0.1
0.2

0
0.1

Population1 Population1
Population2 Population2
−0.1 0
0 10 20 30 40 50 60 5 10 15 20 25 30 35 40 45 50 55 60
Temps Temps

Figure 5.7: Extinction d’une espèce

COMPETITION
1.6

Population1
Population2
1.4

1.2

1
population

0.8

0.6

0.4

0.2
0 10 20 30 40 50 60
Temps

Figure 5.8: Coexistence

131
5.3.5 Modèle à coopération

Il est donné par le système d’équations suivantes:


(
xn+1 = (1 + r1 − a11 xn + a12 yn ) xn
yn+1 = (1 + r2 − a22 yn + a21 xn ) yn

Exemple 5.3.3. ([41])


r1 = 0.1, a11 = 0.4, a12 = 0.2, a21 = 0.15, r2 = 0.15, a22 = 0.5 générent une
coexistence des deux espèces voir figure(5.9).

COOPERATION
0.8
Population1
Population2

0.7

0.6

0.5
Population

0.4

0.3

0.2

0.1

0
5 10 15 20 25 30 35 40 45 50 55 60
Temps

Figure 5.9: Coexistence

5.4 Complément bibliographique


En 1926, sur proposition d’un ensemble de statsiques concernant la vente de pois-
sons dans les marchés de Trieste par le biologiste et marin d’Ancona, Volterra pro-
posa le modèle classique proie-prédateur

N 0 = rN − cNP

P0 = bNP − mP.

Et depuis lors, ce modèle avec ses variantes et ramifications n’arrête pas de sus-
citer l’intérêt des chercheurs. A titre indicatif, nous citons les travaux de Scuda &
Ziegler(1978) et Oliveira & Conolly(1982) qui donnent des traductions et des com-
mentaires des principaux écrits de Volterra.

132
Pour les modèles à compétition, la formulation classique due à Lotka(1932)
et Volterra(1926) suppose une compétition par interference dans laquelle chaque
espèce empêche la croissance de l’autre. Le modèle se présente comme suit:

N10 = r1 N1 (1 − N1 /K )

N20 = r2 N2 (1 − N2 /K )

May & Leonard(1975) ont considéré un modèle de compétition non transitive en-
tre trois espèces, d’autres auteurs ont étudié la possibilité de coexistence de deux
prédateurs en compétition par rapport à une troisième espèce. Le lecteur intéressé
pourra consulter la review des recherches récentes sur ce sujet donnée par Grover(1997).
Contrairement aux cas compétition et prédateur-proie, dans le modèle de Mu-
tualisme la présence mutuelle de deux espèces favorise la croissance de chacune
d’elles. Une telle symbiose a été notamment décrite en 1874 par le naturaliste
Thomas Belt qui a observé un mutulalisme formidable entre les fourmis et les ar-
bres acacias. Une formulation du modèle est donnée par le système suivant:

N1 − α12 N2
N10 = r1 N1 (1 − )
K1
N2 − α21 N1
N20 = r2 N2 (1 − )
K2
Pour l’étude théorique des systèmes écologiques en général, le lecteur pourra con-
sulter les auteurs suivants: Hirsch(1982)[88, 89, 90, 91, 92]: Systèmes d’équations
differentielles qui sont coopératif et compétitif, Smilatova & Sujan (1991): Systèmes
préda-teur-proie ( continu, discret, aléatoire, chaos , formes de stabilité) Logofet(1993)
:Différentes formes de stability passant par l’étude matricielle et les graphes, Kot(2000):
Une revue globale des mathémtiques pour l’écologie ( interaction, dispersion, struc-
ture d’âge) et références incluses.

133
5.5 Exercices
Exercice 5.5.1. Supposons que f est une fonction quadratique montrer pour une
reche-rche en ligne exacte on obtient
³ ´> ³ ´>
g(k) g(k) g(k) ρ(k)
αk = ³ ´> ; αk = − ³ ´> .
g(k) Gg(k) ρ(k) Gρ(k)

Exercice 5.5.2. Démontrer que le système suivant admet une solution unique

 2 sin( x)
 ex + + ye y = 0
x 2
 3 y cos( y)
 e − =0
y 2

Exercice 5.5.3. Résoudre par la méthode de Newton-Raphson le système


(
−2x1 + 4x2 − 2x1 x2 = 0
−4x1 − 5x2 + 5x22 + x1 x2 − 39 = 0

Exercice 5.5.4. soit g : Rn −→ Rn une fonction de classe C p ayant un point fixe


∂gi
α on note g( x) = ( g1 ( x), · · · , gn ( x))t op et gi j = . Soit ρ > 0 et on suppose que
∂x j
pour la boule
B = { x ∈ Rn /k x − α k∞ ≤ ρ}

on a |1 − gi j ( x)| > ∑ | gi j (x)|, pour 1 ≤ i ≤ n et on considère le schéma itératif


j 6 =i
suivant (
x0 ∈ B
( S)
xk+1 = Dg( xk ) + ( I − D ) xk
où D est une matrice diagonale inversible.

1. On pose ek = xk − α , montrer que ek+1 = ( I − D + DGk )ek où Gk est une


matrice qui ne dépend que des gi j . (On pourra utiliser la formule de Taylor).

2. Trouver une matrice D telle que xk −→ α (on pourra utliser la norme k.k∞ ).

3. Trouver la matrice D qui minimise k I − D + DGk k.

4. Quel est l’intéret du schéma ( S).

Exercice 5.5.5. 1. Soit F : Rn −→ Rn , on considère le schéma de Newton

xk+1 = xk − J −1 ( xk ) F ( xk )

134
(a) En posant sk = xk+1 − xk , écrire le système en sk qui permet d’eviter
d’inverser J.
(b) Rappeler l’expression de l’inverse P−1 d’une matrice de la forme
P = I − α uv> .
(c) Pour éviter le calcul de J −1 à chaque itération, on considère une matrice
Bk qui approche J et on utilise l’itération: xk+1 = xk − Bk−1 F ( xk ).
B−1 uv> Bk−1
Montrer que si Bk+1 = Bk + uv> alors Bk−+11 = Bk−1 − k .
1 + v> Bk−1 u
(d) On considère l’algorithme de Broyden qui consiste à prendre:
sk
u = yk − Bk sk et v = >
sk sk

Exprimer Bk−+11 en fonction de Bk−1 , sk et yk et vérifier que : Bk−+11 yk = sk .

2. On suppose maintenant que f : Rn −→ R est définie par :

f ( x) = 1/2x> Gx + b> x

où x et b sont des vecteurs de Rn et G est une matrice symétrique définie


positive.
On note g( x) = ∇ f ( x) le gradient de f et pour simplifier on adopte les nota-
tions suivantes: f k = f ( xk ), gk = g( x)k , yk = gk+1 − gk et sk = xk+1 − xk , on
considère alors le schéma suivant:

xk+1 = xk + αk pk ; αk ∈ R et pk ∈ Rn

tel que
pi> Gp j = 0 pour tout i 6= j; i, j = 1, · · · , n

gi>+1 pi = 0 pour i = 1, · · · , n

(a) Montrer que : gi>+1 p j = 0 pour 1 ≤ j ≤ i ≤ n.


(b) En déduire que g( xn+1 ) = 0.
(c) Conclure.

Exercice 5.5.6. (Modèle prédateur-proie)


On suppose qu’une population de proies ( xn ) et une population de prédateurs ( yn )
sont amenées à vivre dans le même environnement. En l’absence de prédateurs,
la population des proies croı̂t avec le taux 1 + r1 alors que l’absence des proies
entraı̂ne la décroissance des prédateurs avec un taux 1 − r2 .

135
Si les deux populations sont présentes on obtient le système suivant:

Xn+1 = g( Xn )

donné par:
xn+1 = ( 1 + r1 − b1 yn ) xn
yn+1 = ( 1 − r2 + b2 xn ) yn

1- Chercher les points d’équilible( points fixes de g)

2- Etudier la convergence de la méthode itérative Xn+1 = g( Xn )

3- Donner les conditions de coexistence des deux populations ou de leur extinc-


tion.

4- Que signifie le remplacement de la première equation par: xn+1 = (1 + r1 −


cxn − b1 yn ) xn

Exercice 5.5.7. ( Modèle à compétition)


Dans ce modèle on suppose que l’absence d’une espèce entraine la croissance de
l’autre espèce mais la présence des deux espèces entraine la décroissance de cha-
cune d’elles à cause de la compétition pour les ressources. Le modèle peut-être
formulé comme suit

xn+1 = (1 + r1 − a11 xn − a12 yn ) xn

yn+1 = (1 + r2 − a22 yn − a21 xn ) yn

1- Chercher les points d’équilibre.

2- Etudier la convergence.

3- Donner les conditions qui favorisent la première espèce par rapport à la deux-
ième.

Exercice 5.5.8. (Modèle à coopération)


Dans le modèle de coopération, l’interaction entre les deux espèces joue en leur
faveur.
On obtient alors le système d’équations suivantes

xn+1 = (1 + r1 − a11 xn + a12 yn ) xn

yn+1 = (1 + r2 − a22 yn + a21 xn ) yn


Etudier le comportement écologique des deux espèces en fonction des paramètres
du modèle.

136
Exercice 5.5.9. ( Modèle Maynard Smith)

Nn+1 = Nn + rNn (1 − Nn /K ) − cNn Pn

Pn+1 = bNn Pn
Nn cPn
1- En posant xn = , yn = et a = bK on obtient le système
K bK
xn+1 = (1 + r) xn − rx2n − axn yn

yn+1 = axn yn

2- Montrer que le nouveau système admet 3 points déquilibre E1 (extinction des


deux espèces), E2 (extinction de la deuxième espèce) et E3 (coexistence des
deux espèces).

3- Etudier la convergence locale autour de chaque point d’équilibre.

Problème 5.5.1. 1. Soit A une matrice carrée d’ordre n symétrique, définie pos-
itive. Deux vecteurs a et v sont dits A-conjugués si h Av, ai = 0.

(a) Montrer que si les vecteurs propres v0 , · · · , vn−1 sont A-conjugués, ils
forment une base de Rn .
(b) On définit les deux suites de matrices suivantes:
k−1 vi vi>
Ck = ∑ h Avi , vi i
i =0

Dk = I − Ck A.
Montrer que
Ck Av j = v j
Dk v j = 0
Dk> Av j = 0
Que valent Dn et Cn .
(c) Supposons que v0 , · · · , vk−1 soient connues.
Si Dk = 0 que peut-on conclure.
Sinon, soit v ∈ Rn tel que Dk v 6= 0, montrer que vk = Dk v est A-conjugué
par rapport à v0 , · · · , vk−1 .
(d) Ecire un algorithme qui à partir de v0 , donné constuit la suite v0 , · · · , vn−1 .
On peut considérer un vecteur de la forme Dk ei où ei est le ieme vecteur
de la base canonique.
En déduire un algorithme de calcul de A−1 .

137
Chapitre 6

Calcul des valeurs propres et


vecteurs propres

6.1 Introduction

Comme on l’a vu dans les chapitres précédents, l’analyse spectrale ( calcul des
valeurs et vecteurs propres , rayon spectral, · · · ) joue un rôle important quant aux
décisions concernant la convergence , la stabilité etc · · · Par ailleurs, de nombreux
problèmes (statistique, modélisation,· · · ) se ramènent à l’étude spectrale des ma-
trices ou d’opérateurs en général .
Il est donc nécessaire de savoir calculer numériquement les valeurs et les vecteurs
propres dans des situations concrètes impliquant des grands systèmes où les métho-
des théoriques sont pratiquement inutilisables.
La stratégie générale pour déterminer les valeurs propres et les vecteurs propres
consiste à construire une suite de transformations de similarité jusqu’à l’obtention
d’une matrice diagonale, ou plus simplement jusqu’à l’obtention d’une matrice
triangulaire à partir de laquelle il est possible de déterminer assez facilement les
vecteurs propres .
pour réaliser ces transformations, deux grandes classes de méthodes
sont disponibles : les méthodes directes et les méthodes itératives.
Les premières consistent à effectuer une suite de transformations similaires et
ne s’appliquant que sur des matrices de taille modeste, car le temps de calcul croı̂t
comme le cube de la dimension linéaire de la matrice.
Pour les matrices de grande taille et généralement creuse, les méthodes itératives
sont plus adaptées. Dans la mesure ou la plupart du temps, le spectre complet
d’une très grande matrice n’est pas recherché mais seulement une partie, les métho-

138
des itératives peuvent réaliser aisément cette tâche.
Nous allons voir dans la suite de ce chapitre quelques algotithmes de base, tout
en ayant à l’esprit qu’il existe une vaste littérature sur ce sujet, et pour un problème
particulier il est nécessaire de commencer par analyser précisément le type de ma-
trice dont on souhaite obtenir le spectre, afin de choisir la méthode la plus adaptée
pour résoudre ce problème.

6.2 Méthodes basées sur le polynôme caractéristique

Soit Pn (λ ) = det( A − λ I )

et P(λ ) = (−1)n Pn (λ )
= λ n − a1 λ n−1 − · · · − an−1 λ − an
n
= λn − ∑ ak λ n−k
k=1

les racines de P(λ ) sont les valeurs propres de A

Exemple 6.2.1. Méthode de Krylov


Elle consiste à calculer les coefficients du polynôme P dont les racines sont ap-
prochées par les méthodes du chapitre 3.
n
D’après le théorème de Cayley-Hamilton on a P( A) = 0 donc An = ∑ ak An−k .
k=1
Soit alors x(0) un vecteur non nul quelconque et a le vecteur
³ ´
(0) (0) >
a = ( a1 , · · · , an )> , x(0) = x1 , · · · , xn

n
On a : An x(0) = ∑ ak A n−k x(0)
k=1
Alors, en posant x(1) = Ax(0) et x(k) = Ax(k−1) = Ak x(0) ,
on obtient : x(n) = a1 x(n−1) + · · · + an x(0) , ou encore
    
(n) (n−1) (n−2) (1) (0)
x1 x1 x1 · · · x1 x1 a1
 .   .. 
 .   ..  .. 
 .   . ··· ··· ··· .  . 
 (n)   (n−1) (n−2) (1)

(0)  


 x = x · · · ai  (6.2.1)
 i   i x i x i x i 
 .   . .  
.. 
 ..   .. · · · · · · · · · ..  
    . 
(n) (n−1) (n−2) (1) (0)
xn xn xn ··· xn xn an

139
Soit en condensant
Ba = An x(0) .

La détermination des coefficients ai du polynôme P revient donc à la résolution


d’un système linéaire. Si la matrice B est inversible on obtient une solution unique,
sinon on change le x(0) . Cette méthode permet aussi de calculer les vecteurs propres
en écrivant x(0) sur la base de ces vecteurs propres x(0) = ∑ αi vi .

Exemple 6.2.2. Méthode de Danilevski


Soient
 A et P les matrices réelles
 carrées d’ordre
 n. 
a11 a12 · · · · · · a1n p1 p2 · · · · · · pn
   
 a21 a22 · · · · · · a2n  1 0 · · · · · · 0 
   
  0 1 0 · · · · · ·
A=  et P =  .
 . .. .. .. ..  . . . . . 
 .. . . . 
.   . .. .. .. .. 
 . 
an1 · · · · · · · · · ann 0 ··· ··· 1 0
La méthode de Danilevski consiste à transformer la matrice carrée quelconque
A en une matrice de Frobenius de type P en cherchant une matrice S telle que

P = S−1 AS.

On effectue n − 1 réductions transformant successivement les lignes de la matrice


A en lignes respectives de P en commençant par la dernière ligne.
³ ´
étape 1 On cherche à transformer la dernière ligne de A, an1 , · · · , ann pour obtenir
³ ´
la dernière ligne de P, 0, · · · , 1, 0 .
Ceci peut-être réalisé si on suppose que ann−1 6= 0 puis en divisant tous les
termes de la (n − 1)eme colonne de A par ann−1 et en retranchant la (n − 1)ieme
colonne transformée multipliée respectivement par les nombres an1 , an2 , · · · , ann
de toutes les colonnes de A.
Matriciellement, cette étape est équivalente au produit matriciel AMn−1 où la
matrice élémentaire Mn−1 est donnée par
 
1 0 ··· ··· 0
 
 0 1 ··· ··· 0 
 .. .. .. .. 
 .. 
Mn−1 = . . . . . ,
 
 .. 
mn−11 mn−12 · · · . mn−1n 
0 ··· ··· 0 1

1 ani
où mn−1n−1 = et mn−1i = − pour i 6= n − 1.
ann−1 ann−1

140
On verifie que la matrice inverse Mn−−11 a la même forme que Mn−1 et qu’elle
est donnée par

 
1 0 ··· ··· 0
 
 0 1 ··· ··· 0 
 .. .. .. .. 
 .. 
Mn−−11 = . . . . . .
 
 .. 
 an−11 an−12 · · · . an−1n 
0 ··· ··· 0 1

On aboutit donc à une matrice semblable à A et dont la dernière ligne est


celle de la matrice de Frobenius soit C = Mn−−11 AMn−1 et comme C est obtenu
à partir de B par le produit Mn−−11 B, il est facile de voir que tous élements de C
sont égaux aux élements de B sauf ceux de la (n − 1)ieme ligne qui sont donnés
par
n
cn−1 j = ∑ ank bk j pour j = 1, · · · , n.
k=1

étape 2 Si cn−1n−2 6= 0 on reprend les mêmes opérations de l’étape 1 avec la matrice


C au lieu de A.

Si toutes les étapes sont exécutées on aboutit à la matrice de Frobenius

P = M1−1 · · · Mn−−12 Mn−−11 AMn−1 Mn−2 · · · M1 .

La méthode de Danilevski permet aussi de calculer les vecteurs propres d’une ma-
trice A si ses valeurs propres sont connues.
En effet si λ est une valeur propre de A, elle est aussi valeur propre de la matrice
de Frobenius semblable à A Soit donc v = (v1 , v2 , · · · , vn )> un vecteur propre de P
associé à la valeur propre λ, alors en écrivant Pv = λ v et en identifiant composante
à composante, on obtient le système

p1 v1 + p2 v2 + · · · + pn vn = λ v1
v1 = λ v2
v2 = λ v3
.. .. ..
. . .
vn−1 = λ vn .

141
6.3 Méthodes itératives

Méthode de la puissance itérée

Soient λ1 , λ2 , · · · , λn les valeurs propres de A. On suppose que |λ1 | > |λ2 | >
n
· · · > |λn |. Tout vecteur x(0) peut s’écrire sur la base des vecteurs propres x(0) = ∑ αi vi .
i =1
³ ´ Ax(k−1)
On considère alors les deux suites x(k) et mk : x(k) = où mk est l’élément
° mk°
° °
de Ax(k−1) le plus grand en valeur absolue,mk = ° Ax(k−1) ° de telle sorte que 1

est la plus grande composante de x(k) .
³ ´
Théorème 6.3.1. Dans ces conditions, les suites mk et x(k) convergent vers λ1 et v1 ,
respectivement, où v1 est le vecteur propre associé à λ1 .

Preuve : " µ ¶k #
n n n
λi
soit x(0) = ∑ αi vi , Ak x(0) = ∑ αi λik vi = λ1k α1 v1 + ∑ αi
λ1
vi
i =1 i =1 i =1
d’où

Ax(k−1)
x(k) =
mk
1 1
= A2 xk−2
mk mk−1
Ak x(0)
=
k
∏ mi
i =1
k
1 k (0)
=
Ck
A x avec Ck = ∏ mi
i =1
" µ ¶k #
λk n
λi
Par suite x(k) = 1 α 1 v 1 + ∑ αi vi donc lorsque k tend vers l’infini x(k)
Ck i =1
λ1
λ1k α1 λ1k
tend vers α1 v1 . Par identification, on obtient lim = 1 et donc lim x(k) = v1 ,
Ck k−→∞ Ck k−→∞
(k−1)
Ax λ1 v1
comme lim Ax(k) = Av1 = λ1 v1 on a lim x(k) = lim = d’où
k−→∞ k−→∞ k−→∞ mk lim mk
k−→∞
lim mk = λ1 .
k−→∞
     
4 1 1 1 6
  (0)   ( 0 )  
Exemple 6.3.1. A =  1 0 −1  x =  1  , Ax =  0  m1 = 6 donc
1 −1 4 1 4

142
     
1 14/3 1
     
x(1) =  0 , et Ax(1) =  1/3  , m2 = 14/3, x(2) =  1/14  , · · ·
2/3 11/3 11/14

Remarque 6.3.1. • Si λ1 est de multiplicité r alors on écrit


r n r
x(0) = ∑ αi vi + ∑ αi vi et Ak x(0) = ∑ αi λ 1 vi + · · · = λ1 u + · · · avec
i =1 i =r + 1 i =1
r
u= ∑ αi vi .
i =1

λ1
• Si les valeurs propres ne sont pas bien séparées, i.e ' 1, la convergence
λ2
sera très lente.

Méthode LR

Soit A une matrice carrée d’ordre n, la méthode LR est basée sur le procédé suiv-
ant: A1 = A = LR où L est triangulaire inférieure avec lii = 1 et U triangulaire
supérieure, Ai = Li Ri , Ai+1 = Ri Li . On suppose que toutes les décompositions
Li Ri existent. Alors on a:

Théorème 6.3.2. 1. Ai+1 est semblable à Ai .

2. Ai+1 = Ti−1 Ai Ti avec Ti = L1 L2 · · · Li .

3. Ai = Ti Ui avec Ui = Ri Ri+1 · · · R1 .

Preuve:

1. Li étant inversible , il suffit de multiplier Ai par Li−1 à gauche et par Li à droite


pour obtenir Li−1 Ai Li = Ri Li = Ai+1 .

2. Ai+1 = Li−1 Ai Li = Ri Li est une conséquence directe de 1. Puisqu’on a


A2 = L− 1 −1 −1
1 A1 L1 , A3 = L2 ( L1 A1 L1 ) L2 etc · · ·

3. on en tire Ti Ai+1 = Ai Ti et en écrivant Ti Ui , il vient

TiUi = L1 · · · Li−1 ( Li Ri ) Ri−1 · · · R1


= A 1 L 1 · · · ( Li −1 Ri −1 ) · · · R 1
= ···
= Ai1−1 T1 U1
= Ai1−1 T1 R1 = Ai1 = Ai

143
Théorème 6.3.3. On suppose que les valeurs propres de A vérifient: |λ1 | > |λ2 | >
· · · > |λn | > 0 et que la matrice de passage P ( P−1 AP = D ) ainsi que P−1 admettent les
décomposition P = L P R P et P−1 = Q = LQ RQ , (( L P )ii = 1 et ( LQ )ii = 1). Alors les
suites de matrices ( Ai ), ( Li ) et ( Ri ) convergent et on a :

 
λ1 ∗ ∗
 .. 
lim Ai = lim Ri = 
 0 . ∗  et lim Li = I.
i −→∞ i −→∞ i −→∞
0 0 λn

Preuve:
¡ ¢
Soient A = PDQ et Ai = PDi Q = L P R P Di LQ RQ qui s’écrit A = L P R P Di LQ D −i Di RQ .
µ ¶i
i − i i
λj
Comme D LQ D = (l jk ) = l jk avec |λ j | < |λk | pour j ≥ k, il s’ensuit que
λk
lim l ijk = 0 pour j 6= k; On peut donc écrire Di LQ D −i = I + Ei avec lim Ei = 0.
i −→∞ i −→∞
Maintenant on remplace Di LQ D −i par I + Ei dans l’expression de Ai , on obtient:

Ai = L P R P ( I + Ei ) D i R Q
³ ´
= L P I + R P Ei R − P
i
R P Di RQ
= L P ( I + Fi ) R P Di RQ en posant Fi = R P Ei R−
P
1

Comme lim Fi = 0, la matrice I + Fi admet bien une décomposition I + Fi = Lei Rei


i −→∞  
1 ∗
 .. 
pour i assez grand, avec Lei = 
 . ∗  et Rei triangulaire supérieure. De

1
plus on a lim Lei = lim Rei = I. D’après le théorème 6.3.2 on a: Ai = Ti Ui =
i −→∞ i −→∞
L P Lei Rei R P Di RQ et par unicité de décomposition on tire : Ti = L P Lei et Ui =
Rei R p Di Rq .
Finalement, Lei converge vers I ce qui implique que Ti converge vers L P et Rei con-
verge vers I donc Ui converge vers lim R P Di RQ , d’ou lim Li = lim Ti−−11 Ti = I et
i i i
lim Ri = lim Ui Ui−1 = R p DR− 1
p .
i i

 
λ1 ∗ ∗ · · ·
 .. 
lim Ai = lim Li Ri = R P DR−
P
1
=
 . ∗··· 

i i
λn

144
Méthode QR

Considérons une matrice A carrée d’ordre n ( A = A1 ), des matrices Qi unitaires et


des matrices Ri triangulaires et posons:

Ai = Qi Ri

et Ai+1 = Ri Qi ( Qi Ri est la décomposition Qi Ri de Ai avec Qi unitaire). On a alors :

Lemme 6.3.1. i) Ai+1 = ( Q1 · · · Qi ) H A1 ( Q1 · · · Qi ),

ii) Q1 · · · Qi Ri · · · R1 = Ai1 ,

iii) la décomposition QR de Ai1 est unique si R est triangulaire supérieure avec diagonale
strictement positive.

Preuve: voir exercice(6.5.1).

Théorème 6.3.4.

lim Ai = T
i→∞

où T est triangulaire supérieure contenant en diagonale les valeurs propres λ j rangées par
ordre décroissant en module.

Preuve: Supposons que |λ1 | > |λ2 | > · · · > |λn |.


Alors:

1. il existe une matrice P telle que:

P−1 A1 P = D = diag(λ j )

2. En posant ( Q1 · · · Qi ) = Qi , on a d’aprés 1- et le lemme 6.3.1:

Ai+1 = QiH PDP−1 Qi = QiH Q P R P DR− 1 H


P Q P Qi

où P = Q P R P est la décomposition QR de P.


Le reste de la démonstration est similaire à celle du théorème 6.3.3.

145
Méthode de Jacobi

Considérons la matrice élémentaire



1 p q
 
 0 1 
 
 .. 
 . 
 
 c s  p
 
Ω=  avec c = cos θ , s = sin θ et k 6= l
 −s c  q
 
 1 
 
 . 
 .. 
 
1

Ω est une matrice orthogonale Ω> Ω = I.

Théorème 6.3.5. Soit θ un nombre réel et p et q tels que 1 ≤ p < q ≤ n deux entiers
aux quels on associe une matrice élémentaire Ω

1. Si A est une matrice symétrique alors la matrice B = Ω> AΩ est également symétrique
et vérifie ∑ bi2j = ∑ ai2j soit encore k Bk2E = k Ak2E .
ij ij

π π
2. Si a pq 6= 0, il existe une seule valeur de θ dans I =] − , 0[∪]0, [ telle que
4 4
b pq = 0, c’est la solution dans I de l’équation:

aqq − a pp
cotg(2θ ) = .
2a pq

n n
θ ainsi choisi, on obtient ∑ bii2 = ∑ aii2 + 2a2pq .
i =1 i =1

Preuve:
° °2 ¡ ¢ ¡ ¢
1. k Bk2E = °Ω> AΩ° E = k Ak2E = tr A> A = tr A2 .

2. De ce qui précède et de fait que le produit Ω> AΩ touche uniquement les


lignes et les colonnes p et q on obtient a2pp + 2a2pq + a2qq = b2pp + 2b2pq + b2qq
aqq − a pp
et b pq = bqp = a pq cos(2θ ) + sin(2θ ), d’où bqp = 0 si θ est tel que
2
aqq − a pp n n
cotg(2θ ) = , pour cette valeur de θ il est évident que ∑ bii2 = ∑ aii2 + 2a2pq .
2a pq i =1 i =1
¯ ¯ ¯ ¯
(k) ¯ (k) ¯ ¯ (k) ¯
Dans la méthode de Jacobi classique, on choisit a pq tel que ¯ a pq ¯ = max ¯ ai j ¯ .
i, j

146
Méthode de Jacobi classique

On note maintenant Ωk la matrice Ω de l’étape k (pour p et q choisi tel que


(k) (k)
| a pq | = max | ai j |. La matrice Ak+1 est donnée par Ak+1 = Ω> Ak Ω et on a
i, j

Théorème 6.3.6. La suite ( Ak+1 ) des matrices obtenues par la méthode de Jacobi classique
converge vers diag(λσ (i) ) où σ est une permutation convenable.

Pour la preuve de ce théorème, on se sert de trois lemmes.


³ ´
(k)
Lemme 6.3.2. Soit Ak décomposée sous la forme Ak = Dk + Ek avec Dk = diag aii ,
alors lim Ek = 0.
k−→∞

Preuve: ³ ´
(k) 2
Posons εk = ∑ ai j = k Ek k2E d’après le théorème 6.3.5 on a: εk+1 = εk −
i 6= j
³ ´2 ³ ´ ³ ´ ³ ´
(k) (k+1) 2 (k+1) 2 (k) 2
2 a pq ∑ = ε +
ai j
k+1 ∑ ii a = ε k + ∑ ii . a
i6= j i =1 i =1
¯ ¯ ¯ ¯
¯ (k) ¯ ¯ (k) ¯
Comme on a supposé que ¯ a pq ¯ = max ¯ ai j ¯ on a :
i, j
³ ´2 ³ ´2 ³ ´ µ ¶
(k) (k) 2 (k) 2 2
ε k = ∑ ai j ≤ ∑ a pq = (n − n) a pq d’où εk+1 ≤ 1 − ε
i6= j i6= j
n(n − 1) k
i.e εk+1 ≤ αεk avec 0 < α < 1 ce qui entraı̂ne que lim εk = 0 et donc lim k Ek k = 0.
k−→∞ k−→∞

Lemme 6.3.3. Soit E un espace vectoriel de dimension finie et ( xk ) une suite bornée de
E, admettant un nombre fini de valeurs d’adhérence et telle que: lim k xk+1 − xk k = 0.
k−→∞
Alors la suite ( xk ) converge vers l’une des valeurs d’adhérence.

Lemme 6.3.4. La suite ( Dk ) vérifie les hypothèses du lemme 6.3.3, par conséquent ( Dk )
converge vers une des valeurs d’adhérence, qui est de la forme diag(λσ (i) ).

Preuve: ³ ´
(k+1) (k)
Puisque Dk+1 − Dk = diag aii − aii alors on a
(
(k+1) (k) 0 si i 6= p i 6= q
aii − aii = (k)
± tan(θk ) a pq si i=p ou i = q.
π
avec |θk | < .
¯ ¯ 4 ³ ´
¯ (k) ¯ (k+1) (k)
¯ a pq ¯ ≤ k Ek k d’où lim aii − aii = 0 parsuite k Dk k E ≤ k Ak kE = k Ak k E est
k
bornée. Dk n’a qu’un nombre fini des valeurs d’adhérence, qui sont nécessairement
de la forme diag(λσ (i) ).
λ1 · · · λn supposées rangées dans un certain ordre .

147
en effet:
si ( Dk0 ) est une suite extraite de ( Dk ) et telle que lim
0
Dk0 = D, alors
k
lim
0
Ak0 = lim
0
( Dk0 + Bk0 ) = D et
k k

det( D − λ I ) = 0lim det( Ak0 − λ I ) = det( A − λ I ).


k −→∞

Donc A et D ont mêmes valeurs propres. Comme D est diagonale, elle contient les
λi en diagonale.
Finalement les lemmes 6.3.2, 6.3.3 et 6.3.4 entraı̂nent que
 
λ1
 .. 
lim Ak = lim Dk =   . 

k k
λn

Théorème 6.3.7. En posant Ak+1 = Ω> > > > >


k Ak Ωk = Ωk Ωk−1 · · · Ω1 AΩ1 Ω2 · · · Ωk = Hk AHk
et en supposant que toutes les valeurs propres de A sont distinctes, alors la suite des ma-
trices ( Hk ) construite par la méthode de Jacobi classique, converge vers une matrice H
orthogonale dont les colonnes constituent une base orthogonale formée des vecteurs propres
de A.

Preuve: Voir Ciarlet(1984).

148
6.4 Applications
Notions de persistance et d’extinction

Définition 6.4.1. Une population sera dite persistante si lim n(t) > 0 pour toute
t−→+∞
valeur initiale n(0) et elle tendra vers l’extinction si lim n(t) = 0 pour un certain
t−→+∞
n ( 0 ).

Soit un modèle du type n(t + 1) = L(n(t))n(t).

Théorème 6.4.1. Soit L une matrice à coefficients constants non négatifs et réguliere avec
valeur propre dominante λ

- Si lim L(n) = L et λ > 1 alors la population est persistante.


t−→+∞

- Si L(n) ≤ L pour t ≥ t1 > 0 et λ < 1 alors la population tend vers l’extinction.

Preuve: Voir ([41]).

Remarques 6.4.1. 1. Les résultats du théorème sont évidents puisque le taux de


croissance mesuré par la valeur propre dominante de L croı̂t pour la persis-
tance et décroı̂t pour l’extinction.

2. Comme conséquence du théorème de persistance et extinction on définit un


paramètre critique de persistance et extinction Nc .
Supposons que λ (n, p) est une fonction continue et monotone pour n ∈ N où
n désigne par exemple le nombre de régions et p un vecteur de paramètres
du modèle, p ∈ Rl+ .
Le nombre critique de régions est défini comme étant le plus petit entier Nc
s’il existe satisfaisant

i) λ (n, p) > 1 et λ (n + 1, p) < 1,


ou
ii) λ (n, p) > 1 et λ (n − 1, p) < 1 et n > 1.

Nc a deux interprêtations différentes:


Dans le cas i) il est le nombre maximal pour la persistance donc la population
est persistante dans n régions telle que n ≤ Nc , dans le cas ii) la population
est persistante si n ≥ Nc .

Application 6.4.1. ([41])


On suppose que lim L(n) = L × D k , où L est une matrice de Leslie m × m et D est
une matrice de diffusion n × n.

149
Exemple 6.4.1. (Modèle ”Island”)
 
1 − (n − 1)d1 d2 ··· d2
 
 d2 1 − (n − 1)d1 · · · d2 
D=
 .. .. .. .. 

 . . . . 
d2 ··· ··· 1 − (n − 1)d1

La valeur propre dominante λ de L × D k est λ1 × λ kD où λ D et λ1 sont les valeurs


propres dominantes de D et L respectivement.
La matrice D est une matrice circulaire et λ D = 1 + (n − 1)(d2 − d1 ).

- Si d2 > d1 alors λ > 1, la population est persistante pour tout n.

- Si d2 < d1 , λ est décroissante en fonction de n en résolant l’équation

λ ( Nc , p) = 1

on obtient µ ¶
1−d
Nc = E 1 + .
d1 − d2
avec
µ ¶1/k
1
d= .
λ1
Nc est le nombre maximal des régions qui assure la persistance puisque λ (n, p)
est décroissante.

– Si n < Nc , la population persiste.


– Si n > Nc , la population tend vers l’extinction.

Exemple 6.4.2. (Modèle ”stepping Stone”)


Dans ce type de modèle le mouvement est seulement entre les régions voisines, D
est la de forme  
a d2 · · · 0
 
 d2 a ··· 0 
 . .. .. 
 . .. 
 . . . . 
0 · · · d2 a
µ ¶
1 πN
avec a = 1 − 2d1 et 0 < d1 , d2 < , λ D = 1 − 2d1 − 2d2 cos .
2 N+1
µ µ ¶¶k
πN
λ (n, p) = λ1 1 − 2d1 − 2d2 cos .
N+1

150
La valeur critique Nc vérifie l’équation
µ µ ¶¶k
πN
λ1 1 − 2d1 − 2d2 cos = 1.
N+1

Cette équation n’admet de solution que si

1 − b ≤ 2(d1 + d2 )

avec µ ¶1/k
1
b= .
λ1
 µ ¶ 
b
 arccos 1 − 2d1 − 2d2 
Nc = E 
 µ ¶ + 1.
b 
π − arccos 1 − 2d1 −
2d2
Nc est la valeur minimale qui assure la persistance.

- Si n > Nc la population est persistante.

- Si n < Nc la population tend vers l’extinction.

151
6.5 Exercices
Exercice 6.5.1. 1. Rappelez la méthode de Householder permettant d’obtenir
une matrice réelle orthogonale .P telle que:

Px = ke1

où e1 représente la première colonne de la matrice identité, x est un vecteur à


n copmposantes et k un scalaire convenablement choisi.

2. On définiot la méthode QR pour une matrice symétrique A comme suit:

Qi Ri = Ai − pi I;

Ai+1 = Ri Qi + pi I, i = 1, 2, · · · .

où Qi est une matrice réelle orthogonale, Ri une matrice triangulaire supérieure
et pi un paramètre de translation ( shift).

(a) Montrer que Ai+1 = ( Q1 · · · Qi )T A1 ( Q1 · · · Qi ).


k =i
(b) déduire que: Q1 · · · Qi Ri · · · R1 = ∏ ( A1 − pk I ).
k=1

Exercice 6.5.2. Soit A une matrice symétrique ayant les valeurs propres (λi )in=1 as-
sociées aux vecteurs propres (ui )in=1 .
On pose ρ(µ , x) = Ax − µ x ∀ x ∈ Rn (ρ = 0 si x est vecteur propre associé à µ )

1. Montrer que le spectre de A contient au moins une valeur propre λi telle que

|λi − µ | ≤ kρ(µ , x)k.

2. Soit λi une valeur propre vérifiant les deux conditions

i) min |λi − λ j | = d > 0,


j 6 =i

ii) |λi − µ | ≤ kρ(µ , x)k.

kρ(µ , x)k
Montrer qu’il existe une constante α telle que k x − α ui k ≤ .
d − kρ(µ , x)k
Exercice 6.5.3. Soit A une matrice dont les vecteurs propres v1 , · · · , vn sont associés
aux valeurs propres λ1 , · · · , λn vérifiant

λ1 > λ2 > · · · > λn

152
1. On suppose que la valeur propre dominante λ1 et le vecteur propre associé v1
aient été déterminés et soit

v1 v>
1
A1 = A − λ1
v> v
1 1

(a) Montrer que λ2 est la valeur propre dominante de A1 .


(b) Appliquer la méthode des puissances itérées à A1 pour calculer λ2 et le
vecteur propre associé v2 .
(c) Conclure.

2. On suppose toujours que λ1 et v1 aient été déterminés.

(a) Soit x un vecteur tel que x> v1 = 1 et A1 = A − λ1 v1 x> déterminer les


valeurs propres de A1 .
(b) Montrer que les vecteurs propres de A1 sont donnés par

λ1
w1 = v 1 , wi = vi − v1 x> vi i 6= 1.
λi

(c) Montrer que


λ1
vi = wi + x> wi v1 i 6= 1.
λi − λ1
µ ¶
ai1 ai2 ain >
(d) On prend x> = , ,··· , , ( ai1 ai2 , · · · , ain )> est la ieme
λ1 v1i λ1 v1i λ1 v1i
ligne de A et v1i est la ieme composante de v1 . Montrer que la ieme com-
posante de w j , j = 2, · · · , n est nulle.
(e) Soit A01 la matrice obtenue de A1 en supprimant la ieme ligne et la ieme
colone de A, donner la valeur propre dominante de A01 . Peut on appli-
quer la méthode des puissances itérées pour déterminer λ2 et le vecteur
propre associé w02 .
(f) Déduire le vecteur propre w2 de la matrice A1 associé à λ2 .
(g) Montrer que
(λ2 − λ1 )w2 + λ1 x> w2 v1
v2 = .
λ2 − λ1
(h) Conclure.

153
Chapitre 7

Analyse numérique des équations


differentielles ordinaires (e.d.o)

7.1 Rappels sur les équations differentielles ordinaires (e.d.o)


On considère l’e.d.o du premier ordre
0
y ( x) = f ( x, y), f : R × Rm −→ Rm , x ∈ R, y ∈ Rm où y = ( y1 , y2 , · · · , ym )>
(7.1.1)
L’équation (7.1.1) peut encore s’écrire sous la forme d’un système d’e.d.o :
0
y1 = f 1 ( x, y1 , · · · , ym )
0
y2 = f 2 ( x, y1 , · · · , ym ) (7.1.2)
.. .. ..
. . .
0
ym = f m ( x, y1 , · · · , ym )

Lorsque les conditions initiales sont précisées, on obtient un problème de condition


initiale ( p.c.i) encore appelé problème de Cauchy :
0
y ( x) = f ( x, y)
y( a) = α avec α = (α1 , · · · , αm )> donné (7.1.3)

L’existence et l’unicité de la solution du p.c.i (7.1.3) sont données par le théorème


suivant
Théorème 7.1.1. Soit f : R × Rm −→ Rm une fonction définie et continue pour tout
couple ( x, y) ∈ D où D = {( x, y); a ≤ x ≤ b, −∞ < yi < ∞} , avec a et b finis. On
suppose qu’il existe une constante L telle que:

k f ( x, y) − f ( x, y∗ )k ≤ Lk y − y∗ k pour tous ( x, y) et ( x, y∗ ) appartenant à D (7.1.4)

154
Alors pour tout α ∈ Rm , il existe une solution unique y( x) du problème (7.1.3), où y est
continue differentiable pour tout couple ( x, y) ∈ D.

Remarque 7.1.1. Un système differentiel d’ordre q peut toujours être ramené à un


système du premier ordre du type (7.1.3)
(q)
³ ´
y = ϕ x, y(0) , · · · , y(q−1) ; ϕ : R × Rm × · · · × Rm −→ Rm

0 0 0
En posant: Y1 = y, Y2 = Y1 (= y ), · · · , Yq = Yq−1 (= y(q−1) ) on obtient
0
³ ´>
Y = F ( x, Y) avec Y = Y> 1 , Y > , · · · , Y>
2 q ∈ Rqm
³ ´>
F = Y>
2 , Y >
3 , · · · , Y >
q , ϕ >
∈ Rqm

où y(r) ( a) = αr+1 , r = 0, 1, · · · , q − 1.


On obtient
0
Y = F ( x, Y); Y(a) = α

Exemple 7.1.1.
y(iv) = f ( x, y), f : R × R −→ R
0 0 0 00 0 000 0
Y1 = y, Y2 = Y1 = y , Y3 = Y2 = y , Y4 = Y3 = y , Y4 = y(iv)

si on pose Y = (Y1 , Y2 , · · · , Y4 )> on obtient Y = F( x, Y).

7.2 Systèmes linéaires


Le système
0
y ( x) = f ( x, y), f : R × Rm −→ Rm

est dit linéaire si f est de la forme

f ( x, y) = A( x) y + ψ( x) (7.2.1)

où A( x) est une matrice d’ordre m et ψ ∈ Rm .


Si de plus A( x) = A est indépendante de x, on obtient un système linéaire à
coefficients constants de la forme:
0
y ( x) = Ay + ψ( x) (7.2.2)

Si ψ( x) = 0, le système est dit homogène.


0
y = Ay (7.2.3)

155
Si les valeurs propres de A sont distinctes, la solution du système homogène est de
la forme
k
y( x) = ∑ C j exp(λ j x)V j + ϕ(x) (7.2.4)
j=1

où λ j est valeur propre de A associée au vecteur propre V j et les C j sont des con-
stantes arbitraires et ϕ( x) est une solution particulière de l’équation (7.2.2).

Exemple 7.2.1.
0
y = Ay + ψ( x) , y(0) = α
à !
1 2
avec A = , ψ( x) = (2x − 1, x + 1)> , α = (0, 0)> , les valeurs propres de
2 1
A sont λ1 = 3 et λ2 = −1.
Les vecteurs propres de A sont V1 = (1, 1)> et V2 = (1, −1)> . Ã !
ax + b
En cherchant une solution particulière de la forme: ϕ( x) = , on
cx + d
obtient
à ! à ! à !
1 1 −5/3
y( x) = C1 exp(3x) + C2 exp(− x) + .
1 −1 − x + 4/3

 initiale on obtient C1 = 1/6 et C2


Enfin, en considérant la condition = 3/2,
à ! 1 3 5
y1 ( x)  exp(3x) + exp(− x) −
d’où y( x) = = 16 2 3 
y2 ( x) 3 4 .
exp(3x) − exp(− x) − x +
6 2 3

7.3 Notions de stabilité

Considérons le système nonlinéaire suivant

dX (t)
= F ( X (t)) (∗∗)
dt

où X (t) = ( X1 , · · · , Xn )> est un vecteur de Rn et F = ( f 1 , · · · , f n )> une fonction


de Rn dans Rn suffisamment régulière.
Si F est lineaire le système est dit linéaire

Définition 7.3.1 (Point d’équilibre). Un vecteur X̄ est un point équilibre du système


(∗∗) si à l’ instant t0 l’état du système est égal à X̄ et il restera égal à X̄ dans le futur
c.à.d:
X (t0 ) = X̄ et ∀ t > t0 X (t) = X̄.

156
On parle aussi de point stationnaire, état stationnaire et solution stationnaire
qui désignent la même notion.

Définition 7.3.2. 1. Un point d’équilibre X̄ est dit stable si :


∃ R0 > 0 et ∀ R < R0 ∃r 0 < r < R tel que si X (t0 ) ∈ B( X̄, r) alors
X (t) ∈ B( X̄, R) ∀ t > t0 , B( X̄, r) :boule de centre X̄ et de rayon r;

2. Un point d’équilibre est dit asymptotiquement stable s’il est stable et en plus
∃ R0 tel que pour tout X (t0 ) ∈ B( X̄, R0 ) on a lim X (t) = X̄;
t−→+∞

3. Un point d’équilibre est dit marginalement stable s’ il est stable et non asymp-
totiquement stable;

4. Un point est instable si il n’ est pas stable;

5. Un point est globalement asymptotiquement stable si pour tout X (t0 ) on a


lim X (t) = X̄ .
t−→+∞

Théorème 7.3.1. Si F est linéaire, une condition nécessaire et suffisante pour que le
système (∗∗) admette 0 comme point d’équilibre asymptotiquement stable est que
Re(λ ) < 0, pour toute valeur propre λ de F.
Si au moins une des valeurs propres de F vérifie Re(λ ) > 0 alors le point d’équilibre 0 est
instable .

Définition 7.3.3. Si le système non linéaire (∗∗) admet un point d’équilibre X̄, on
appelle matrice de linéarisation du système la matrice
 
∂ f1 ∂ f1
 ∂X1
···
 ∂f ∂Xn 
 2 ∂ f2 

 ··· 
A= ∂X
 .1
∂Xn  ,
 .. .. .. 
 . . 
 ∂f ∂f 
n n
···
∂X1 ∂Xn X̄

dY (t)
le système = AY (t) est dit système linearisé obtenu à partir du système
dt
(∗∗).

Théorème 7.3.2. Si le système non linéaire (∗∗) admet l’origine comme point fixe unique
alors dans un voisinage de l’origine, les comportements du système non linéaire et du
système linearisé sont équivalents à condition que le système n’admette pas de point centre
(valeurs propres imaginaires pures).

157
Remarque 7.3.1. Le théorème peut s’appliquer aux points d’équilibre qui sont dis-
tincts de l’origine, il suffit d’introduire des coordonnées locales.

Théorème 7.3.3 (Théorème de Liapunov). Soient X̄ un point d’équilibre de (∗∗) et V


une fonction définie de U dans R de classe C 1 , U un voisinage de X̄ tel que:

i) V ( X̄ ) = 0 et V ( X ) > 0 si X 6= X̄,

ii) V̇ ( X ) ≤ 0 ∀ X ∈ U \ { X̄ }.
Alors X̄ est stable. Si de plus

iii) V̇ ( X ) < 0 ∀ X ∈ U \ { X̄ }

Alors X̄ est asymptotiquement stable. V ( X ) est dite fonction de Liapunov.

Pour les preuves des théorèmes 7.3.1, 7.3.2 et 7.3.3, voir ([10, 88, 103]).

7.4 Système d’équations aux differences linéaires avec coéfficients


constants
Soit { yn , n = N0 , N0 + 1, · · · , } une suite de vecteurs de Rm et (αn ) une suite de
réels. On appelle système d’équations aux differences linéaires d’ordre k le système
d’équations suivantes
k
∑ α j yn+ j = ψn , n = N0 , N0 + 1, · · · avec ψ n ∈ Rm (7.4.1)
j=0

Si de plus ψn = 0, le système est dit homogène:


k
∑ α j yn+ j = 0, n = N0 , N0 + 1, · · · (7.4.2)
j=0

La solution générale du système (7.4.1) s’obtient de façon similaire à celle qui donne
la solution du système d’équations differentielles linéaires (7.2.1). Elle est donnée
par la somme d’une solution (Yn ) du système homogène (7.4.2) et d’une solution
particulière ϕn du système (7.4.1) (yn = Yn + ϕn ).

Définition 7.4.1. On appelle polynôme caractéristique de l’équation aux differ-


k
ences linéaires le polynôme défini par π (r) = ∑ α j r j . Si les racines r j de π (r)
j=0
sont simples alors la solution générale du système (7.4.1) est donnée sous la forme
k
yn = ∑ θ j rnj + ϕn , où ϕn est une solution particulière du système (7.4.1).
j=1

158
Si r1 est une racine de π (r) de multiplicité m, la solution générale du système
m k
(7.4.1) est donnée sous la forme: yn = ∑ n j−1θ j rn1 + ∑ θ j rnj + ϕn .
j=1 j=m+1

1
Exemple 7.4.1. yn+2 − yn+1 + yn = 1, K = 2 est une solution particulière
2
1
π (r ) = r 2 − r + , ∆ = 1 − 2 = i 2 .
2
Les racines sont complexes conjugués r1 = (1 + i )/2 et r2 = (1 − i )/2. La solution
générale est donnée par yn = θ1 (1 + i )n /2n + θ2 (1 − i )n /2n + 2.

7.5 Méthodes numériques pour les problèmes de condition


initiale
Considérons le problème de condition initiale
0
y ( x) = f ( x, y), y( a) = α . (7.5.1)

On suppose que ce problème admet une solution unique dans l’intervalle [ a, b] .


Les méthodes numériques utilisent la discretisation de l’intervalle [ a, b] en posant

xi = a + ih, i = 0, 1, · · · , N
b−a
où h = est le pas de discrétisation (ici le pas est supposé constant mais on
N
peut envisager des pas hi variables).
La solution exacte au point xi est notée y( xi ), la solution approchée est notée yi
( y( xi ) ' yi ), une méthode numérique est un système d’équations aux differences
impliquant un certain nombre d’approximations successives yn , yn+1 , · · · , yn+k où
k désigne le nombre de pas de la méthode.
Si k = 1 on parle de méthode à un pas.
Si k > 1 la méthode est dite à pas multiples ou multi-pas.

Exemple 7.5.1.
yn+1 − yn = h f n
h
yn+2 + yn+1 − 2yn = ( f n+2 + 8 f n+1 + 3 f n )
4
h
yn+2 − yn+1 = ( 3 f n+1 − 2 f n )
3
h
yn+1 − yn = ( k1 + k2 )
4

159
avec µ ¶
1 1
k1 = f n = f ( xn , yn ) et k2 = f xn + h, yn + hk1 + hk2 .
2 2
Ces exemples peuvent être donnés sous la forme générale

k
∑ α j yn+ j = φ f ( yn+k , · · · yn , xn ; h ) . (7.5.2)
j=0

7.5.1 Convergence

Considérons une méthode numérique de type (7.5.2) avec des valeurs initiales ap-
propriées:
 k 

 
∑ α j yn+ j = φ f ( yn+k , · · · yn , xn ; h )  (7.5.3)
j=0

 

yκ = γκ (h) , κ = 0, 1, · · · , k − 1

Définition 7.5.1. La méthode (7.5.3) est dite convergente si pour tout problème de
condition initiale vérifiant les hypothèses du théorème 7.1.1 ( existence et unicité)
on a
max k y( xn ) − yn k = 0 quand h −→ 0
0≤n≤ N

Définition 7.5.2. On appelle erreur de troncature locale de la méthode numérique


le résidu Rn+k (h) défini par

k
Rn+k ( h ) = ∑ α j y(xn+ j ) − hφ f ( y(xn+k ), y(xn+k−1 ), · · · , y(xn ), xn , h) (7.5.4)
j=0

1
Remarque 7.5.1. Parfois on utilise aussi τn (h) = Rn+k (h) comme définition d’erreur
h
de troncature locale, mais dans le cadre de ce chapitre c’est la première définition
qui est adoptée.
¡ ¢
Définition 7.5.3. La méthode (7.5.3) est dite d’ordre p si Rn+k = O h p+1 .

7.5.2 Consistance

La méthode numérique est dite consistante si son ordre est au moins 1 ou encore,
pour tout p.c.i vérifiant les hypothèses du théorème 7.1.1 d’existence et d’unicité
on a
1
lim Rn+k (h) = 0, x = a + nh.
h−→0 h

Lemme 7.5.1. La méthode numérique (7.5.2) est consistante si et seulement si

160
k
i) ∑ α j = 0.
j=0

k
ii) (φ f ( y( xn ), y( xn ) · · · y( xn ), xn , 0))/ ∑ jα j = f (xn , y(xn )).
j=0

7.5.3 Stabilité

Considérons le problème de condition initiale

z0 = f ( x, z), z( a) = α , x ∈ [ a, b]

Avant de définir la stabilité de la méthode numérique, on pourrait se poser la ques-


tion de savoir comment réagirait la solution z( x) de ce problème à une perturbation
des conditions initiales et/ou de f ? Soit donc z∗ la solution du problème perturbé:

z0 = f ( x, z) + δ ( x), z( a) = α + δ , x ∈ [ a, b] .

Définition 7.5.4 (Hahn,Stetter). Si (δ ( x), δ ) et (δ ∗ ( x), δ ∗ ) sont deux perturbations


et z( x) et z∗ ( x) les solutions qui en résultent et s’il existe une constante S telle que

∀ x ∈ [ a, b] , k z( x) − z∗ ( x)k < Sε si kδ ( x) − δ ∗ ( x)k < ε et kδ − δ ∗ k < ε

Alors le p.c.i est dit totalement stable.

Remarque 7.5.2. Dans cette définition de stabilité, on exige simplement l’existence


d’une constante S finie ( mais pas nécessairement petite) et on montre que les hy-
pothèses du théorème 7.1.1 sont suffisantes pour que le p.c.i soit totalement stable.
On dit aussi que le problème est bien posé.
Si maintenant on considère la méthode numérique, on peut se demander quel
effet aurait une perturbation de l’équations aux differences sur la solution numérique
yn . On a alors la définition suivante:

Définition 7.5.5 (Lambert). Soient (δn , n = 0, 1, · · · N ) et (δn∗ , n = 0, 1, · · · N ) deux


perturbations de l’équation aux differences (7.1.1)et ( zn , n = 0, 1, · · · N ) et
( z∗n , n = 0, 1, · · · N ) les solutions qui en résultent. On dira que la méthode numérique
est zéro-stable si il existe deux constantes S et h0 telles que pour tout h ∈ [0, h0 ] , si
kδn − δn∗ k < ε 0 ≤ n ≤ N alors k zn − z∗n k < Sε, 0 ≤ n ≤ N.

Remarque 7.5.3. La zéro-stabilité est encore appelée stabilité au sens de Dahlquist.

Définition 7.5.6. On appelle 1er polynôme caractéristique de la méthode numérique


k
le polynôme ρ(t) défini par ρ(t) = ∑ α jt j.
j=0

161
Définition 7.5.7. On dit que la méthode numérique satisfait les conditions aux
racines si tous les zéros du 1er polynôme catactérisitique sont de module inférieur
ou égal à 1 et ceux ayant un module égal à 1 sont des zéros simples.

Théorème 7.5.1. Une condition nécessaire et suffisante pour que la méthode soit zéro-
stable et que la méthode vérifie la condition aux racines.

Théorème 7.5.2. Une condition suffisante et nécessaire pour que la méthode (7.5.2) soit
convergente est qu’elle soit zéro- stable et consistante.

Pour les preuves des théorèmes 7.5.1 et 7.5.2, voir ([48, 103]).

7.5.4 Méthode d’Euler

La plus simple et la plus connue des méthodes d’approximation des solutions des
e.d.o est la méthode d’Euler donnée par:

yn+1 − yn = h f n , y0 = α (7.5.5)

En considérant
1 2
y( xn + h) − y( xn ) − h f ( xn , y( xn )) = h y”(θn ) avec xn ≤ θn ≤ xn+1 (7.5.6)
2
On voit que la méthode d’Euler est une méthode explicite d’ordre 1 (donc consis-
tante).

Lemme 7.5.2. i) Pour tout x ≥ −1 et toute constante positive m on a

0 ≤ (1 + x)m ≤ exp(mx)

ii) Si s et t sont des réels positifs et ( zn )nn= k


=0 une suite vérifiant

t
z0 ≥ − et zn+1 ≤ (1 + s) zn + t ∀n = 1, · · · , k
s
Alors on a µ ¶
t t
zn+1 ≤ exp((n + 1)s) + z0 − .
s s
Théorème 7.5.3. Soit f : R × R −→ R une fonction continue et vérifiant la condition
de Lipschitz pour y sur D = {( x, y); a ≤ x ≤ b, −∞ < y < ∞} avec a et b finis. On
suppose qu’il existe une constante M telle que | y”( x)| ≤ M pour tout x ∈ [ a, b] . Soit
0
y( x) la solution unique du p.c.i y ( x) = f ( x, y) , y( a) = α et ( yn )nn= N
=0 la suite des
approximations générée par la méthode d’Euler. Alors on a:
hM
| y( xn ) − yn | ≤ (exp( L( xn − a)) − 1) pour chaque n = 0, 1, · · · , N
2L

162
Preuve.
Pour n = 0, l0 inégalité est vérifiée puisque y( x0 ) = y0 = α .
Les équations (7.5.5) et (7.5.6) donnent:
1
| y( xn+1 ) − yn+1 | ≤ | y( xn ) − yn | + h| f ( xn , y( xn ) − f ( xn , yn )| + h2 | y”(θn )| (7.5.7)
2
Les hypothèses du théorème conduisent alors à la mojoration

h2 M
| y( xn+1 ) − yn+1 | ≤ | y( xn ) − yn |(1 + hL) +
2
h2 M
En appliquant le lemme avec zn = | y( xn ) − yn |, s = hL et t = il vient:
2
µ ¶
h2 M h2 M
| y( xn+1 ) − yn+1 | ≤ exp(((n + 1)hL) | y( x0 ) − y0 | + −
2hL 2hL

et comme | y( x0 ) − y0 | = 0 et (n + 1)h = xn+1 − a , on obtient:


hM
| y ( xn+1 ) − yn+1 | ≤ (exp( L( xn+1 − a)) − 1)
2L
D’après le théorème 7.5.3, l’erreur de la méthode d’Euler est majorée par une fonc-
tion linéaire en h. Ceci laisse comprendre que plus on diminue h plus on réduit
l’erreur. Cependant, le corollaire qui va suivre indique autre chose.
0
Corollaire 7.5.1. Soit y( x) la solution unique du p.c.i y ( x) = f ( x, y) , a ≤ x ≤ b ,
y( a) = α et w0 , w1 , · · · , w N les approximations vérifiant w0 = α + δ0 et
wn+1 = wn + h f ( xn , wn ) + δn+1 ; n = 0, · · · , N − 1. Si |δn | < δ ∀n = 0, · · · , N et les
hypothèses du théorème précedent sont vérifiées, alors
µ ¶
1 hM δ
| y( xn ) − wn | ≤ + (exp( L( xn − a)) − 1) + |δ0 | exp L( xn − a)
L 2 h

h2 M
Preuve. Identique à celle du théorème avec y( x0 ) − w0 = δ0 et t = + |δn |.
2
Remarque 7.5.4. La simplicité de la méthode d’Euler en fait un exemple pédagogi-
que d’introduction aux autres méthodes plus complexes. Cependant, un des critères
principaux de l’analyse numérique consiste à chercher des méthodes ayant l’ordre
de précision le plus élevé possible et comme la méthode d’Euler est d’ordre 1, son
utilisation se trouve limitée en pratique et on est amené à considérer des méthodes
plus précises. Trois directions principales permettent d’obtenir des méthodes d’ordres
élevés.
La première direction consiste à travailler avec des méthodes à un pas mais en
cherchant à atteindre des ordres élevés en utilisant un développement de Taylor

163
et en négligeant le terme d’erreur mais ces méthodes ont un handicap à cause des
dérivées susccessives de f .
Une deuxième possibilité est donnée par des choix appropriés de
φ f ( yn+k , · · · yn , xn ; h) dans l’équation (7.5.1), les méthodes de Runge-Kutta sont la
meilleure illustration de cette direction.
Enfin, une troisième direction est offerte par les Méthodes Linéaires à Pas Mul-
tiples (MLPM).
En se basant sur le critère de précision, on voit qu’on est obligé de chercher des
méthodes dont la performance est supérieure à celle d’Euler. On fait donc appel à
d’autres méthodes plus précises.

7.5.5 Méthodes de Taylor dans le cas scalaire

Supposons que la solution y( x) du p.c.i


0
y ( x) = f ( x, y), a ≤ x ≤ b, y( a) = α (7.5.8)

est de classe C (n+1) . Alors en écrivant le développement de Taylor au point xn+1 = xn + h


on obtient

h2 00 hn hn+1 (n+1)
y( xn+1 ) = y( xn ) + hy0 ( xn ) + y ( xn ) + · · · + y(n) ( xn ) + y (ζn ),
2! n! (n + 1)!

xn < ζn < xn+1


0 0
En remplaçant y ( xn ) par f ( xn , yn ) ainsi que les dérivées supérieures de y par celles
hn+1 (n+1)
de f puis en laissant tomber le terme y (ζn ), on obtient la méthode
(n + 1)!
numérique:
 

 y0 = α 


 

n
yn+1 = yn + hT f ( xn , yn , h), n = 0, 1, · · · , N − 1

 h hn−1 (n−1) 


 T fn ( xn , yn , h) = f ( xn , yn ) + f 0 ( xn , yn ) + · · · + f ( xn , yn ) 

2! n!
(7.5.9)

Exemple 7.5.2. La méthode d’Euler fait partie des méthodes de Taylor.

Exercice 7.5.1. En faisant un développement de Taylor de y( x) à l’ordre 3 puis


1
en remplaçant y”( xn ) par ( y0 ( xn+1 ) − y0 ( xn )) + O(h), montrer qu’on obtient la
h
h
méthode d’Euler modifiée yn+1 − yn = ( f ( xn , yn ) + f ( xn+1 , yn+1 )).
2

164
Remarque 7.5.5. Au vu du critère de précision et bien que les méthodes de Taylor
paraissent faciles dans leur écriture, elles sont rarement utilisées dans la pratique à
cause des difficultés engendrées par le calcul des dérivées successives de f comme
fonction de deux variables. C’est pour cette raison qu’on cherche des méthodes
permettant d’atteindre un ordre élevé tout en évitant le calcul des dérivées succes-
sives de f . Au critère de précision s’ajoute le critère de coût.

7.5.6 Méthodes de Runge-Kutta (R.K) dans le cas scalaire

Revenons au p.c.i (7.1.3), les méthodes de R.K se présentent sous la forme:

l
y n+1 − y n = h ∑ bi ki
i =1
à !
l l
avec ki = f xn + ci h, yn + h ∑ ai j k j , i, = 1, 2, · · · , l et on suppose que ci = ∑ ai j , i, = 1, 2, · · · , l
j=1 j=1
Si ai j = 0 pour j > i alors:
à !
i
ki = f xn + ci h, yn + h ∑ ai j k j i, = 1, 2, · · · , l
j=1

on obtient ainsi:
k1 = f ( xn , yn )

k2 = f ( xn + c2 h, yn + c2 hk1 )

k3 = f ( xn + c3 h, yn + (c3 − a32 )hk1 + a32 hk2 )

Remarques 7.5.6. 1. Les méthodes de R.K sont des méthodes à un pas, elles
peuvent-être écrite sous la forme générale yn+1 − yn = hφ f ( xn , yn , h), où
l
φ f ( x, y, h) = ∑ bi ki .
i =1

2. Les méthodes de R.K satisfont la condition aux racines, elles sont donc zéro-
stables. Par conséquent, pour étudier la convergence il suffit d’étudier la con-
sistance.

7.5.7 Méthodes de Runge-Kutta explicites

Les méthodes explicites de R-K d’ordre 1,2 ,3 et 4 sont obtenues en considérant

yn+1 = yn + h ( b1 k1 + b2 k2 + b3 k3 + b4 k4 )

165
en déterminant pour chaque ordre les valeurs possibles des paramètres.

k1 = f ( xn , yn )
k2 = f ( xn + c2 h, yn + c2 hk1 )
k3 = f ( xn + c3 h, yn + (c3 − a32 )hk1 + a32 hk2 )
.. .. ..
. . .

Les formes explicites des méthodes d’ordre 1,2 et 3 sont obtenues aprés differenti-
ation et identification.
Méthode d’ordre 1
En considérant yn+1 = yn + hb1 k1 avec k1 = f ( xn , yn ) on voit que le l’odre maximal
est 1 obtenu avec le paramètre b1 égal à 1 et qui donne la méthode d’Euler:

yn+1 − yn = h f ( xn , yn )

Méthodes d’ordre 2
En partant de yn+1 = yn + hb1 k1 + b2 k2 avec k1 = f ( xn , yn ) et
k2 = f ( xn + c2 h, yn + c2 k1 ), p = 2 est l’ordre maximal possible qu’on peut atteindre
1
si les paramètres b1 , b2 et c2 vérifient les équations b1 + b2 = 1 et b2 c2 = . Comme
2
on a deux équations pour trois inconnues, il en résulte une infinité de méthodes
explicites d’ordre 2 . On en donne quelques unes:
1
Méthode d’Euler modifiée: (b1 = 0, b2 = 1 et c2 = )
2
µ ¶
1 1
yn+1 − yn = h f xn + h, yn + k1
2 2

1
Méthode d’Euler améliorée: ( b1 = b2 = et c2 = 1)
2
h
yn+1 − yn = ( f ( xn , yn ) + f ( xn + h, yn + k1 ))
2
1 3 2
Méthode de Heun d’ordre 2 ( b1 = , b2 = et c2 = )
4 4 3
µ ¶
h 2 2
yn+1 = yn + f ( xn , yn ) + 3 f ( xn + h, yn + k1 )
4 3 3

k1 = h f ( xn , yn )

Méthodes d’ordre 3
En considérant yn+1 = yn + b1 k1 + b2 k2 + b3 k3 avec k1 = h f ( xn , yn ) ,
k2 = h f ( xn + c2 h, yn + c2 hk1 ) et k3 = h f ( xn + c3 h, yn + (c3 − a32 )k1 + a32 k2 ).

166
On obtient une famille de méthode d’ordre 3 si les paramètres vérifient les
équations

b1 + b2 + b3 = 1
1
b2 c2 + b3 c3 =
2
1
b2 c22 + b3 c23 =
3
1
b3 c2 a32 =
6
Deux représentants de cette famille de méthode d’ordre 3 sont :
1 3 1
Méthode de Heun d’ordre 3 (b1 = , b2 = 0, b3 = et c2 = et c3 =
4 4 3
2 2
, a32 = )
3 3
h
yn+1 = yn + (k1 + 3k3 )
4
k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
3 3
µ ¶
2 2
k3 = h f xn + h, yn + k2
3 3

1 2 1 1
Méthode de Kutta d’ordre 3 (b1 = , b2 = , b3 = et c2 = et c3 = 1, a32 = 2)
6 3 6 2
h
yn+1 = yn + (k1 + 4k2 + k3 )
6
k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
2 2
k3 = h f ( xn + h, yn − k1 + 2k2 )

Méthode d’ordre 4
Méthode de Runge-Kutta d’ordre 4

h
yn+1 = yn + (k1 + 2k2 + 2k3 + k4 )
6
k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
2 2
µ ¶
1 1
k3 = h f xn + h, yn + k2
2 2
k4 = h f ( xn + h, yn + k3 )

167
Méthode de Runge-Kutta d’ordre 4

h
yn+1 = yn + (k1 + 3k2 + 3k3 + k4 )
8
k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
3 3
µ ¶
2 1
k3 = h f xn + h, yn − k1 + k2
3 3
k4 = h f ( xn + h, yn + k1 − k2 + k3 )

Méthodes de Runge-Kutta d’ordre supérieur et contrôle de l’erreur


Des méthodes de R-K d’ordres successifs peuvent être combinées pour le contrôle
de l’erreur. Deux types de cette utilisation sont illustrées [37] par:

1. Méthode de Runge-Kutta-Fehlberg. Elle consiste à utiliser une méthode de


R-K d’ordre 5
16 6656 28561 9 2
yen+1 = yn + k1 + k3 + k4 − k5 + k6
135 12825 56430 50 55
pour estimer l’erreur de troncature locale de la méthde de R-K d’ordre 4

25 1408 2197 1
yn+1 = yn + k1 + k3 + k4 − k5
216 2565 4104 5
avec

k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
4 4
µ ¶
3 3 9
k3 = h f xn + h, yn + k1 + k2
8 32 32
µ ¶
12 1932 7200 7296
k4 = h f xn + h, yn + k1 − k2 + k3
13 2197 2197 2197
µ ¶
439 3680 845
k5 = h f xn + h, yn + k1 − 8k2 + k3 − k4
216 513 4104
µ ¶
1 8 3544 1859 11
k6 = h f xn + h, yn − k1 + 2k2 − k3 + k4 − k5
2 27 2565 4104 40

2. Méthode de Runge-Kutta-Verner. Elle consiste à utiliser une méthode de R-K


d’ordre 6 :
3 875 23 264 125 43
yen+1 = yn + k1 + k3 + k4 + k5 + k7 + k8
40 2244 72 1955 11592 616

168
pour estimer l’erreur de troncature locale de la métohde de R-K d’ordre 5 :

13 2375 5 12 3
yn+1 = yn + k1 + k3 + k4 + k5 + k6
160 5984 16 85 44
avec

k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
6 6
µ ¶
4 4 16
k3 = h f xn + h, yn + k1 + k2
15 75 75
µ ¶
2 5 8 5
k4 = h f xn + h, yn + k1 − k2 + k3
3 6 3 2
µ ¶
5 165 55 425 85
k5 = h f xn + h, yn − k1 + k2 − k3 + k4
6 64 6 64 96
µ ¶
12 4015 11 88
k6 = h f xn + h, yn + k1 − 8k2 + k3 − k4 + k5
5 612 36 255
µ ¶
1 8263 124 643 81 2484
k7 = h f xn + h, yn − k1 + k2 − k3 − k4 + k5
15 15000 75 680 250 10625
µ ¶
3501 300 297275 319 24068 3850
k8 = h f xn + h, yn + k1 − k2 + k3 − k4 + k5 + k7
1720 43 52632 2322 84065 26703

Méthodes Linéaires à Pas Multiples (MLPM)


k k
En posant f n = f ( xn , yn ) , on définit une MLPM par ∑ α j yn+ j = h ∑ β j f n+ j ,
j=0 j=0
avec α j et β j des constantes vérifiant les conditions αk = 1 et |α0 | + |β0 | 6= 0.

Exemple 7.5.3. yn+2 − yn+1 = h f n+1 ( ou de façon équivalente yn+1 − yn = h f n ) est


la méthode d’Euler à un pas.

Définition 7.5.8. On appelle 2eme polynôme caractéristique de la méthode, le polynôme


k
défini par σ (t) = ∑ β jt j.
j=0
L’opérateur de difference linéaire est défini par

k
0
L( z( x); h) := ∑ (α j z(x + jh) − hβ j z (x + jh))
j=0

Si on suppose que z est une fonction qu’on peut dériver autant de fois qu’on
veut, on obtient:

L( z( x); h) = C0 z( x) + C1 hz0 ( x) + · · · + Cq hq z(q) ( x) + · · ·

169
Définition 7.5.9. La MLPM est dite d’ordre p si

C0 = C1 = · · · = C p = 0 et C p+1 6= 0.

C p+1 est appelée constante d’erreur de la MLPM

7.6 Applications
La modélisation et la simulation par ordinateur ont fait de l’outil mathématique
un moyen important pour la compréhension, l’analyse et le contrôle de certaines
maladies. La formulation d’un modèle permet de tester des hypothèses, d’estimer
des paramètres, de construire des théories, de discuter des conjonctures, de for-
muler des scénarios prédictifs, de visualiser certaines sensibilités et de remédier
à l’impossibilité de certaines expériences pour coût élevé ou danger opérationnel.
La modélisation mathématique permet de mieux saisir les concepts d’épidémie, de
seuil et des nombres de contacts, de replacements ou de reproduction. Le modèle
mathématique fournit également le support nécessaire à la réalisation d’appareils
et d’équipements d’analyse et de contrôle dans le domaine médical. A ce propos,
nous renvoyons à une review récente de Hethcote [85] et aux 200 références citées
par l’auteur.
Dans ce chapitre, nous considérons trois types d’applications, la première traite
les maladies d’infection transmise de façon directe, la deuxième est consacrée à
la transmission par vecteur et la troisième traite l’effet de l’effort physique sur les
dynamiques d’insuline et de glucose.
Pour les modèles à transmission directe, nous nous limiterons aux cas discrets.

Application 7.6.1. Modèles épidémiologiques


Pour les maladies infectieuses, les modèles mathématiques utilisés sont en général
des modèles à compartiments c à d que la population est subdivisée en sous classes:

• M(t) : nombre d’individus avec immunité passive à l’instant t;

• S(t) : nombre des susceptibles à l’instant t (on désigne par susceptibles, les
individus qui peuvent avoir la maladie);

• E(t) : nombre des exposés à l’instant t (on désigne par exposés, les individus
qui sont infectés mais ne sont pas infectieux);

• I (t) : nombre des infectieux à l’instant t(les personnes qui sont déjà touchées
par la maladie et peuvent transmettre la maladie);

170
• R(t) : nombre des résistants à l’instant t (les personnes qui sont guéries avec
immunisation )
Chacune des classes précédentes est dite compartiment, et suivant les caractéristiques
de chaque maladie on a les types de modèles suivants : SI, SIS, SIR, SEIR, SEIRS,· · · )
Remarque 7.6.1. • En général les classes M et E sont souvent omises.

• une population est dite fermée si on néglige l’émigration et l’immigration,

• une population est dite homogène si la population se mixe de façon homogène


c à d si on néglige, les détails associés à l’âge, la location géographique (ville,
village), les facteurs socio-culturels et l’hétérogénéité génétique,

• une population est de taille fixe si le taux de naissance est égal au taux de
mortalité.
Exemple 7.6.1. Modèle SIS
C’est un modèle à deux compartiments utilisé essentiellement pour décrire les mal-
adies sexuellement transmissibles. Les guéris ne développent pas une immunité et
redeviennent susceptibles à la maladie: deux classes de sous populations suscep-
tibles et infectieux. La dynamique des sous populations est régie par le système
d’équations suivant:


 Sn+1 = Sn (1 − λ .∆t.In ) + γ .∆t.In + µ .∆t(1 − Sn )
In+1 = In (1 − γ .∆t − µ .∆t + λ .∆t.Sn )


I0 + S0 = 1 avec S0 ≥ 0 et I0 > 0
où Sn et In sont les proportions d’individus susceptibles et infectieux, respective-
ment.
Comme Sn + In = 1 alors In+1 = In (1 − (γ + µ ).∆t + λ .∆t − λ .∆t.In ).
• si (λ − γ )∆t < 2 alors on a convergence vers le point fixe;

• si 2 < (λ − γ )∆t < 2.449 alors on a 2 points cycles;

• si (λ − γ )∆t est assez grand alors on a comportement chaotique.


N = 150,I0 = 2,γ = 1.5,∆t = .5
λ = 4.5 =⇒ convergence voir figure 7.1;

λ = 6.0 =⇒ 2 points cycles voir figure 7.1;

λ = 6.5 =⇒ 4 points cycles voir figure 7.2;

λ = 7.0 =⇒ comportemet chaotique voir figure 7.2.

171
Le modèle SIS Le modèle SIS
0.7 0.9

0.8
0.6

0.7

0.5
0.6
Nombre des infectieux

Nombre des infectieux


0.4
0.5

0.4
0.3

0.3
0.2

0.2

0.1
0.1

0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
Temps Temps

Figure 7.1: Convergence λ = 4.5,2 cycles λ = 6

Le modèle SIS Le modèle SIS


1 1.4

0.9
1.2

0.8

1
0.7
Nombre des infectieux

Nombre des infectieux

0.6
0.8

0.5

0.6
0.4

0.3
0.4

0.2

0.2
0.1

0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
Temps Temps

Figure 7.2: 4 cycles λ = 6.5,Chaos λ = 7

172
Exemple 7.6.2. Modèle SIR
Le modèle SIR est un modèle simple de transmission des maladies par contact entre
les individus ,ces derniers deviennent immunisés après une seule infection, une
troixième classe de sous populations est considérée: la classe R des isolés ou enlevés
”removed” ce sont les personnes qui, une fois infectés soit deviennent immunisés
soit ils meurent. Le modèle SIR est plus adapté pour les maladies d’enfants comme
la rougeole. Les équations qui régissent ce modèle sont :


 Sn+1 = Sn (1 − λ .∆t.In ) + µ .∆t(1 − Sn )


 I = In (1 − γ .∆t − µ .∆t + λ .∆t.Sn )
n+1

 Rn+1 = Rn (1 − µ .∆t) + γ .∆t.In


 S + I + R = 1 avec S > 0, I > 0 et R ≥ 0
0 0 0 0 0 0

N = 200,I0 = .115,S0 = .885 et ∆t = 0.2 :

1. λ = 3.5 ,γ = 2 voir figure 7.3 ;


Le modèle SIR Le modèle SIR
25 60

2. λ = 5.5 ,γ = 2.5 voir figure 7.3.


50
20

40
Nombre des infectieux

Nombre des infectieux

15

30

10

20

5
10

0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
Temps Temps

Figure 7.3: λ = 3.5 ,γ = 2-λ = 5.5 ,γ = 2.5

173
(SIR à deux populations)

i) ∆t = 0.25, α11 = 2, α12 = 0.5, α21 = 4, α22 = 2, γ1 = 2, γ2 = 1, N 1 =


100, N 2 = 200, I01 = 10, I02 = 50.

ii) ∆t = 0.25, α11 = 2, α12 = 0.5, α21 = 4, α22 = 2, γ1 = 2, γ2 = 1, N 1 =


100, N 2 = 200, I01 = 10, I02 = 150.

Le modèle SIR à deux populations Le modèle SIR à deux populations


100 200
Population1 Population1
Population2 Population2
90 180

80 160

70 140
Nombre des infectieux

60 Nombre des infectieux 120

50 100

40 80

30 60

20 40

10 20

0 0
5 10 15 20 25 30 35 40 45 50 5 10 15 20 25 30 35 40 45 50
Temps
Figure 7.4: SIR à deux populations Temps

174
Exemple 7.6.3. Modèle SEIR
Modèle SEIR avec λ indépendante du temps
Le modèle SEIR est une variante du modèle SIR où la période de latence est prise
en compte c.à.d une classe de la population est intermédiaire entre la classe des
susceptibles et les infectieux: la classe des exposés qu’ un susceptible traverse pour
passer à l ’état d’infection. Un autre paramètre est introduit qu’on note β et on
1
parle de période de latence . Les équations régissant ce modèle sont:
β


 Sn+1 = Sn (1 − λ .In .∆t) + µ .∆t(1 − Sn )



 En+1 = En + Sn λ .In .∆t − (β + µ ).∆t.En )

In+1 = In (1 − γ .∆t − µ .∆t) + β.∆t.En



 Rn+1 = Rn (1 − µ .∆t) + γ .∆t.In



S0 + I0 + R0 + E0 = 1

On suppose toujours que la taille de la population est constante.


Pour λ = 10−6 β = 45.6 , γ = 73 , µ = 0.02 , I0 = 0.0006 , E0 = 0.001 et
S0 = 0.25 , le modèle SEIR a le comportement suivant:

i) ∆t = 0.01 −→ convergence voir figure 7.5.

ii) ∆t = 0.018 −→ oscillation puis convergence voir figure 7.5.

iii) ∆t = 0.027 −→ oscillation voir figure 7.6.

175
Le modèle SEIR Le modèle SEIR
35 35

30
30

25
25
Nombre des infectieux

Nombre des infectieux


20
20

15

15
10

10
5

5
0

0 −5
0 50 100 150 200 250 300 0 50 100 150 200 250 300
Temps Temps

Figure 7.5: Convergence ∆t = 0.01, Convergence oscillatoire ∆t = 0.018

Le modèle SEIR
50

40

30

20
Nombre des infectieux

10

−10

−20

−30

−40

−50
0 50 100 150 200 250 300
Temps

Figure 7.6: Oscillation ∆t = 0.027

Exemple 7.6.4. Modèle SEIR saisonnier


Le modèle saisonier SEIR tient compte de la variation du taux d’infections selon les
saisons donc on a le système suivant:


 Sn+1 = Sn (1 − λn .In .∆t) + µ .∆t(1 − Sn )



 En+1 = En + Sn λn .In .∆t − (β + µ ).∆t.En )

In+1 = In (1 − γ .∆t − µ .∆t) + β.∆t.En



 Rn+1 = Rn (1 − µ .∆t) + γ .∆t.In



S0 + I0 + R0 + E0 = 1
avec λn = λ (n.∆t) = c0 + c1 (1 + cos(2π n∆t)) (dû à Bolker et Grenfell)
i) Pour β = 45, γ = 78, µ = 0.01, ∆t = 0.001, I0 = 0.006, E0 = 0.03 et S0 = 0.25
il y’a une épidémie voir figure 7.7.

176
ii) Pour β = 45, γ = 73, µ = 0.02, ∆t = 0.027, I0 = 0.001, E0 = 0.01 et S0 = 0.25
il y’a oscillation voir figure 7.7.

Le modèle SEIR Le modèle SEIR


600 50

40
500

30

400
Nombre des infectieux

Nombre des infectieux


20

300 10

0
200

−10

100
−20

0 −30
0 50 100 150 200 250 300 0 50 100 150 200 250 300
Temps Temps

Figure 7.7: Convergence-Oscillation

Application 7.6.2. Transmission indirecte par vecteur


Nous considérons le cas de la maladie infectueuse DENGUE transmise à l’homme
par le mosquito (Aedes) et qui est actuellement endemique dans plus de cent pays
d’Afrique, d’Amérique et d’Asie [53].
Le modèle comporte un ensemble d’équations pour l’homme et un autre pour
le vecteur (mosquito) exprimés à partir du diagramme de la figure 7.8.
v -
Sh - h S v
 }

O v
h Chv Ih =Nh v
Cvh Iv=Nh
? ?
O
Ih h- Iv v -
h

h
h ?
Rh h-
Figure 7.8: Schéma de transmission

On suppose qu’on dispose d’une population humaine (respectivement de vecteurs


mosquitos) de taille Nh (resp. Nv ) composée de Susceptibles Sh , d’infectieux Ih et de
guéris Rh (resp. Sv et Iv ).

177
Le modèle suppose un mixage homogène d’humain et de vecteur de telle sorte
que chaque piqure a la même probabilité d’être appliquée à un humain particulier.
En notant bs le taux moyen de piqures d’un vecteur susceptible, phv la probabilité
moyenne de transmission d’un infectieux humain à vecteur susceptible, le taux
d’exposition pour les vecteurs est donné par: (phv Ih bs )/ Nh .
en notant pvh la probabilité moyenne de transmission d’un infectieux vecteur à
un humain et Iv le nombre de vecteurs infectieux, le taux d’exposition pour les
humains est donné par: ( pvh Iv bi )/ Nh par conséquent:

• Le taux de contact adéquat d’humain à vecteurs est donné par: Chv = phv bs

• Le taux de contact adéquat de vecteurs à humain est donné par:


Cvh = pvh bi .

La durée de vie humaine est prise égale à 25 000 jours (68.5 ans), et celle des
vecteurs est de: 4 jours. Les autres paramètres sont donnés dans le tableau 7.1
d’après [141].

Nom du paramètre Notation valeur de base


probabilité de transmission de vecteur à humain phv 0.75
probabilité de transmission d’humain à vecteur pvh 0.75
piqure par susceptible mosquito par jour bs 0.5
piqure par infectieux mosquito par jour bi 1.0
taux de contact effectif humain à vecteur Chv 0.375
taux de contact effectif, vecteur à humain Cvh 0.75
1
Durée de vie des humains 25000 jours
µh
1
Durée de vie des vecteurs 4 jours
µv
1
durée de l’infection 3 jours
µh + γh
Tableau 7.1: définitions et valeurs des paramètres

Les équations qui régissent le modèle sont données par


Population humaine

 dSh

 = µh Nh − (µh + p + Cvh Iv / Nh ) Sh

 dt
dIh
= (Cvh Iv / Nh ) Sh − (µh + γh ) Ih

 dt

 dRh = pS + γ I − µ R

h h h h h
dt

178
Population vecteur

 dSv = µv Nv − (µv + Chv Ih / Nh ) Sv

dt
 dIv = (Chv Ih / Nh ) Sv − µv Iv

dt
Avec les conditions Sh + Ih + Rh = Nh , Sv + Iv = Nv , Rh = Nh − Sh − Ih et
Sv = Nv − Iv
Le système s’écrit

 dSh

 = µh Nh − (µh + p + Cvh Iv / Nh ) Sh

 dt
dIh
= (Cvh Iv / Nh ) Sh − (µh + γh ) Ih

 dt

 dIv = C I / N ( N − I ) − µ I

hv h h v v v v
dt
Pour l’étude de stabilité et d’autres détails concernant les paramètres du modèle,
le lecture pourra consulter le papier cité en réferences. Dans le cadre restreint de ce
chapitre, nous discutons très brièvement l’output du modèle.
La diffuculté principale de la dengue provient du fait qu’elle est causée par qua-
tre virus différents et que l’ummunité provisoire acquise contre un virus ne protège
pas contre les autres virus, au contraire, un individu attaqué par un deuxième virus
court le danger d’évoluer vers le stade de Dengue Hemorragique.
La recherche de vaccin se complique par le fait que ce vaccin doit couvrir le
spectre des quatre virus et ceci constitue un problème.
Le modèle montre que la réduction du nombre de mosquitos (par insecticides
ou autre) n’est pas suffisante pour éradiquer l’épidémie de la Dengue. Elle peut
tout au plus retarder l’apprition de l’épidémie. Comme la découverte d’un vaccin
global n’est pas attendue dans le court terme, les auteurs suggèrent la combinaison
du contrôle des facteurs environnementaux et de vaccins partiels contre chaque
virus.

179
number of the infectious humans first epidemic
6000

N =30000
4000 v
N =50000
v
Nv=8000
2000

−2000
0 100 200 300 400 500 600
time

number of the infectious humans second epidemic


6000

Nv=30000
4000
Nv=50000
population

Nv=8000
2000

−2000
700 750 800 850 900 950 1000
time

Figure 7.9:

Application 7.6.3. (Diabète et effort physique[54])


Pour un diabétique, l’effort physique figure au même niveau que le traitement
medical et la diétitique. Il peut l’aider à contrôler la quantité de sucre dans le sang
de façon directe ou indirecte en améliorant la sensibilité de l’insuline et la réponse
des muscles et des cellules ou encore en combattant l’excès de poids qui constitue
un facteur à risque. S’il est bien connu que les spécialistes du diabètes insistent
toujours sur le rôle de l’effort physique en prenant en compte les capacités et les
données de chaque individu, il est aussi intéressant de voir comment les modèles
mathématiques sont utilisés dans ce domaine.
En 1939, Himsworth et Ker ont introduit la première approche de mesure de
sensibilité d’insuline in vivo. Les modèles mathématiques ont été utilisés pour la
dynamique de glucose et d’insuline. Le pionnier dans ce domaine est Bolie(1961)
qui a proposé un modèle simple supposant que la disparition du glucose est une
fonction linéaire du glucose et d’insuline , la secretion d’insuline est proportion-
nelle au glucose et elle disparait proportionnellement à la concentration d’insuline
dans le plasma. Ce modèle qui sera utilisé avec quelques modifications par d’autres
auteurs ( Akerman et al (1965), Della et al (1970), Serge et al. (1973)) peut-être for-
mulé par le système différentiel suivant:

 dG (t) = − a1 G − a2 I + p

dt

 dI (t)
= − a3 G − a4 I
dt
où G = G (t) représente la concentration de glucose et I = I (t) représente l’insuline,
p, a1 , a2 , a3 , a4 sont des paramètres.

180
Durant les dernières décennies, une littérature abondante a été consacrée à ce
sujet, le lecteur interessé pourra consulter les deux reviews récentes par Bellazi et
al (2001) et Parker et al. (2001).
Incorporant l’effet de l’effort physique sur la dynamique du glucose et de l’insuline,
Derouich et Boutayeb (2002) ont proposé le modèle suivant

 dG (t) = −(1 + q2 ) X (t) G (t) + ( p1 + q1 )( Gb − G (t))

dt

 dI (t)
= ( p3 + q3 )( I (t) − Ib ) + p2 X (t)
dt
où ( I (t) − Ib ) représente la différence entre l’insuline dans le plasma et l’insuline
de base (Gb − G (t)) représente la différence entre la concentration de glucose dans
le plasma et le glucose de base X (t) est l’insuline interstitiale, q1 , q2 ,q3 sont des
paramètres liés à l’effort physique.
Les auteurs ont discuté les résultats de ce modèle dans trois cas différents:

• cas normal( non diabétique),

• cas diabétique insulino-dépendant,

• cas diabétique non insulino-dépendant.

Dans les trois cas, le modèle met en évidence l’intérêt de l’effort physique à améliorer
la sensibilité de l’insuline mais le dernier cas reste le plus illustratif comme l’indique
la figure 7.10 où on voit qu’un diabétique non insulino-dépendant pourrait étre
amené à vivre continuellement avec 2g/ml de glucose dans le sang sans se rendre
compte des conséquences à long terme de cette overdose. Avec un effort physique,
le diabétique peut ramener la courbe de glucose au voisinage de la concentration
normale de 1g/ml.

181
glucose
300

250

200

glucose
150

100

50
0 20 40 60 80 100 120 140 160 180 200
time

iterstitial insulin plasma insulin


0.05 150

0.04
interstitial insulin

plasma insulin
100
0.03

0.02
50
0.01

0 0
0 50 100 150 200 0 50 100 150 200
time time

Figure 7.10: Effet de l’effort physique

7.7 Complément bibliographique


La modélisation épidémiologique remonte au moins à 1760 lorsque Bernouilli pro-
posa un modèle mathématique pour la variole.
En 1906 un modèle discret pour l’épidémie de la rougeole a été considéré par
Haner.
Ross utilisa les équations differentielles pour des modèles hôte-vecteur de Malaria
en 1911.
D’autres modèles déterministes ont été proposés par Ross, Hudson et Lotka
(1922).
A partir de 1926 la contribution de Kermack et McKendrick restera marquée
par le seuil endémique que la densité des susceptibles doit dépasser pour que
l’épidémie se propage .
Le livre de Bailey publié en 1957 sur la théorie mathématique des maladies in-
fectieuses marquera la lancée d’une nouvelle vague de la deuxième moitié du 20eme
siécle.
Bartlett (1960) est parmi les precurseurs des modèles épidémiologiques stochas-
tiques même si ceux-ci ont été utilisés auparavant par Yule(1924) et d’autres.
Les années 60 verront aussi le débat s’animer entre stochastique et determin-
isme. Certains écologistes vont soutenir que les modèles stochastiques sont les
mieux adaptés à décrire la nature avec des facteurs imprédictibles et des événements

182
aléatoires conduisant à des séries chronolgiques. D’autres vont défendre les modéles
déterministes sous-jaçant l’idée du chaos apparaissant comme du stochastique ou
un bruit blanc dans les séries chronologiques. Les travaux de May (1974, 75) et
plus particulièrement son excitant papier publié dans la revue Nature en 1976 sous
le titre de ”Simple mathematical models with very complicated dynamics” con-
stitueront des réferences pour les écologistes. Par la suite, Anderson et May vont
publier une multitude de papiers et de livres dévoués à l’épidémiologie des mal-
adies infectieuses.
Hoppensteadt (1975) est considéré par certains auteurs comme le premier à
avoir proposé une analyse mathématique des modèles avec structure d’âge.
Durant les dernières décennies, la littérature consacrée à la modélisation
épidémiologique a connu un essort considérable comme en atteste la dizaine de re-
views (Becker, 1978; Castillo-Chavez, 1989; Dietz, 1967-75-85; Wickwire, 1977; Het-
hcote, 1981-94-2000; Isham, 1988) et la trentaine de livres (Anderson & May, 1982-
91; Bailey, 1975-82; Bartlett, 1960; Castillo-Chavez, 1989; Diekman, 2000; Frauen-
thal, 1980; Grenfell and Dobson, 1995; Hethcote, 1984-92; Isham & Medeley, 1996;
Kranz, 1990; Lauwerier, 1981; Ludwig & Cooke, 1975; Mollison, 1991; Scott &
Smith, 1994). D’autres ouvrages et reviews traitent les modèles épidémiologiques
comme partie des modèles écologiques (Dietz K. (1975), Pielou (1977), Okubo (1980),
Kot (2000)).

183
7.8 Exercices
Exercice 7.8.1. On considère le modèle discret suivant:

Sn+1 = exp(− aIn ) Sn

In+1 = bIn + (1 − exp(− aIn )) Sn

Rn+1 = (1 − b) In + Rn

On suppose que R0 = 0, montrer que

1. La population des susceptibles tend vers une limite S quand n tend vers
l’infini.

2. Si F = S/ S0 alors

F = exp(− aS0 /(1 − b))(1 + I / S0 − F ).

3. Expliquer comment F peut jouer un rôle de seuil.

Exercice 7.8.2. Chercher l’ordre et la constante d’erreur C p pour la méthode suiv-


ante:

yn+2 − (1 + α ) yn+1 + α yn = h((1 + β) f n+2 − (α + β + αβ) f n+1 + αβ f n )

Exercice 7.8.3. Chercher les solutions des systèmes differentiels et aux differences
0
suivants: y = Ay + ψ( x) , y(0) = α avec
à ! à ! à !
1 1 1 2
A= , ψ( x) = , α=
−1 1 x 1/2
à !
n
yn+4 − 6yn+3 + 14yn+2 − 16yn+1 + 8yn = φn avec yn ∈ R2 et φn = .
1
Exercice 7.8.4. Considérons le système aux differences :

yn+2 − 2µ yn+1 + µ yn = c, n = 0, 1, · · ·

avec yn , c ∈ Rm et 0 ≤ µ ≤ 1.
Montrer que yn converge vers c/(1 − µ ) quand n −→ ∞.

Exercice 7.8.5. A- Montrer que:

i) Pour tout x ≥ −1 et toute constante positive m on a:

0 ≤ (1 + x)m ≤ exp(mx)

184
ii) Si s et t sont des réels positifs et ( zn )nn= k
=0 une suite vérifiant:

t
z0 ≥ − et zn+1 ≤ (1 + s) zn + t ∀ n = 1, · · · , k
s
Alors on a:
µ ¶
t t
zn+1 ≤ exp((n + 1)(1 + s)) + z0 − .
s s

0
B- Soit y( x) la solution unique du p.c.i y ( x) = f ( x, y) ,a ≤ x ≤ b , y( a) = α
et w0 , w1 , · · · , w N , les approximations vérifiant: w0 = α + δ0 et wn+1 = wn +
h f ( xn , wn ) + δn+1 ; n = 0, ..., N − 1

1. On suppose que: D = {( x, y); a ≤ x ≤ b, −∞ < y < ∞} avec a et b


finis
i) il existe une constante L positive telle que:

| f ( x, y) − f ( x, y∗ )| ≤ L| y − y∗ |∀ y, y∗ ∈ D

ii) il existe une constante M telle que:| y”( x)| ≤ M pour tout x ∈ [ a, b] .
iii) les perturbations verifient: |δn | < δ ∀n = 0, · · · , N
Montrer que:
µ ¶
1 hM δ
| y( xn ) − wn | ≤ + (exp( L( xn − a)) − 1) + |δ0 | exp L( xn − a)
L 2 h

(Preuve: identique à celle du théorème du cours avec y( x0 ) − w0 = δ0 et


h2 M
t= + |δn |)
2
hM δ
2. En posant ε(h) = + et en remarquant que lim ε(h) = ∞, montrer
2 h h→0
qu’on peut déterminer une limite inférieure h0 de h qui rend minimum
ε(h).

Exercice 7.8.6. Soit A une matrice diagonalisable admettant les vecteurs propres V j
associés aux valeurs propres λ j avec Re(λ j ) < 0 pour tout j.
On considère les deux schémas d’Euler donnés par:

E1 : un+1 = un + hAun , u0 = η
E2 : un+1 = un + hAun+1 , u0 = η

185
Montrer que les solutions de ces deux schémas sont données par:

k
S1 : un = ∑ c j (1 + hλ j )n V j
j=1
k
S2 : un = ∑ c j ( 1 − h λ j )−n V j
j=1

Quelles conditions doit-on imposer à h pour que les solutions S1 et S2 tendent vers
zéro ou restent bornées quand n −→ ∞

Exercice 7.8.7. En posant f n = f ( xn , yn ), on définit une MLPM par:

k k
∑ α j yn+ j = h ∑ β j f n+ j
j=0 j=0

avec α j et β j des constantes vérifiant les conditions:

αk = 1 et |α0 | + |β0 | 6= 0

On appelle 1 er (resp. 2 eme) polynôme caractéristique de la MLPM le polynôme


ρ(t)(resp. σ (t)):
k k
ρ(t) = ∑ α j t j , σ (t) = ∑ β jt j.
j=0 j=0

Si l’opérateur de difference linéaire est donné par:

k
0
L( z( x); h) := ∑ (α j z(x + jh) − hβ j z (x + jh)) = C0 z(x) + C1 hz0 (x) + · · · + Cq hq z(q) (x) + · · ·
j=0

1. Montrer que:
k
C0 = ∑ α j = ρ(1)
j=0

k
C1 = ∑ ( jα j − β j ) = ρ0 (1) − σ (1)
j=0

k µ ¶
1 q 1 q−1
Cq = ∑ q
j αj −
(q − 1)
j β j , q = 2, 3, · · ·
j=0

2. La MLPM est dite consistante si son ordre est supérieur ou égal à 1 ( p ≥ 1)


Montrer que la MLPM est consistante si et seulement si :

ρ(1) = 0 et ρ0 (1) = σ (1)

186
Exercice 7.8.8. Chercher l’ordre des méthodes numériques suivantes:

h
1) yn+2 = yn + ( f n + 4 f n+1 + f n+2 )
6
4h
2) yn+4 = yn + ( 2 f n+1 − f n+2 + 2 f n+3 )
3
µ ¶
h 2 2
3) yn+1 = yn + f ( xn , yn ) + 3 f ( xn + h, yn + k1 ) , k1 = h f ( xn , yn )
4 3 3

h
4) yn+1 = yn + (k1 + 4k2 + k3 )
6
k1 = h f ( xn , yn )
µ ¶
1 1
k2 = h f xn + h, yn + k1
2 2
k3 = h f ( xn + h, yn − k1 + 2k2 )

Exercice 7.8.9. Considérons la méthode numérique

h
yn+2 − ( 1 + α ) yn+1 + α yn = ((3 − α ) f n+1 − (1 + α ) f n )
2
où f n = f ( xn , yn ) et −1 ≤ α ≤ 1.

1. Donner l’erreur de troncature locale de la méthode et l’ordre de la méthode


en fonction de α .

2. Cette méthode est utilisée numériquement pour résoudre l’équation scalaire


(
y0 ( x) = y( x)
y(0) = 1

en supposant que y0 = 1 + ω h3
y1 = exp(h) + θ h3

Montrer que la solution approchée yn peut-être donnée sous la forme

Ω(r2 )rn1 − Ω(r2 )rn1


yn =
r1 − r2

où r1 et r2 sont les racines de l’équation caractéristique asociées à l’équation


aux différences. et Ω(r) = exp(h) − r + (θ − rω)h3 .

187
3. On suppose que r1 est de la forme

h2
r1 = 1 + h + + O( h3 )
2
(a) Donner une expression analogue pour r2 .
(b) Etudier la convergence de yn dans le cas α = −1.

Exercice 7.8.10. On considère la méthode numérique suivante

yn+2 + α1 yn+1 + α0 yn = h(β1 f n+1 + β0 f n ) ( M)

où f n = f ( xn , yn ) et f ( xn , y( xn )) = y0 ( xn ).

1. Déterminer les constantes α0 , α1 , β0 et β1 pour que la méthode soit d’ordre


maximum.

2. La méthode est-elle zéro-stable pour les valeurs des constantes trouvées?

3. On utilise la méthode ( M) avec y0 = 1 et y1 = exp(−h) pour approcher la


solution du problème de condition initiale suivant

y0 ( x) = − y( x), y(0) = 1 ( P)

Montrer qu’on obtient l’équation aux différences suivante

yn+2 + 4(1 + h) yn+1 + (−5 + 2h) yn = 0; n = 0, 1, · · · (D)

4. Montrer que les racines r1 et r2 de l’équation caractéristique associée à ( D )


sont
µ ¶ µ ¶
2 4 2 1/2 2 4 2 1/2
r1 = −2 − 2h + 3 1 + h + h et r2 = −2 − 2h − 3 1 + h + h .
3 9 3 9

5. Montrer que la solution de ( D ) est de la forme

yn = C1 (r1 )n + C2 (r2 )n ,

r2 − exp(−h) exp(−h) − r1
avec C1 = et C2 = .
r2 − r1 r2 − r1
µ ¶
2 4 2 1/2 1 1 1 1 4
6. On donne 1 + h + h = 1 + h + h2 − h3 + h + O( h5 ).
3 9 3 6 18 216
1 1 1 4
En déduire que r1 = 1 − h + h2 − h3 + h + O(h5 ), r2 = −5 − 3h +
2 6 72
O( h2 ).

188
1 4
7. Montrer alors que C1 = 1 + O(h2 ) et C2 = − h + O( h5 ).
216
8. En considérant pour x fixé, nh = x, montrer que C1 (r1 )n −→ exp(− x) quand
n −→ ∞.

9. Montrer que ( yn ) diverge. Cette divergence était-elle attendue? (justifiez).

189
Annexe

Cette annexe est un guide d’initiation à MATLAB. MATLAB est un programme in-
teractif de calcul scientifique utilisable pour la résolution numérique de nombreux
problèmes mathématiques ou appliqués. En outre, MATLAB dispose de poten-
tialités graphiques importantes.
L’objectif est de permettre au débutant de se familiariser avec MATLAB qui est
avant tout un programme de calcul matriciel.
Toutefois, nous nous sommes limités aux méthodes les plus courantes décrites
dans les chapitres précédents, il est recommandé d’exécuter les exemples dans
l’ordre où ils apparaissent.

function [n]=mat_square(A)
[n,m] = size(A);
if n ~= m
disp(’ Error: the matrix should be squared’);
stop
end
return

Broyden

function [x,it]=broyden(x,Q,nmax,toll,f)
[n,m]=size(f); it=0; err=1;
fk=zeros(n,1); fk1=fk;
for i=1:n, fk(i)=eval(f(i,:)); end
while it < nmax & err > toll
s=-Q\fk; x=s+x; err=norm(s,inf);
if err > toll
for i=1:n, fk1(i)=eval(f(i,:)); end
Q=Q+1/(s’*s)*fk1*s’;
end

190
it=it+1; fk=fk1;
end

Choleski

function [A] = cholesky (A)


[n,n]=size(A); for k=1:n-1
A(k,k)=sqrt(A(k,k));
A(k+1:n,k)=A(k+1:n,k)/A(k,k);
for j=k+1:n
A(j:n,j)=A(j:n,j)-A(j:n,k)*A(j,k);
end
end A(n,n)=sqrt(A(n,n)); return

Jacobi

function [xvect,err,nit]=jacobi(x0,n_max,tol,A,b)
P=diag(diag(A));
N=P-A; B=eye(size(A))-inv(P)*A; bb=P\b; r=b-A*x0; erreur=norm(r);
nit=1; xvect(:,1)=x0; err(1)=erreur;

while (nit <= n_max) & (erreur > tol)


xvect(:,nit+1) = B*xvect(:,nit) +bb;
r=b-A*xvect(:,nit+1);
erreur = norm(r);
err(nit+1) =erreur;
nit = nit + 1;
end

return

Gauss-Seidel

function [xvect,err,nit]=gauss_seidel(x0,n_max,tol,A,b)
P=tril(A); F=-triu(A,1); B=inv(P)*F; bb=P\b; r=b-A*x0;
erreur=norm(r); nit=1; xvect(:,1)=x0; err(1)=erreur;

while (nit <= n_max) & (erreur > tol)


xvect(:,nit+1) = B*xvect(:,nit) +bb;
r=b-A*xvect(:,nit+1);

191
erreur = norm(r);
err(nit+1) =erreur;
nit = nit + 1;
end

return

Householder
function [H,Q]=houshess(A) n=max(size(A));
Q=eye(n); H=A; for
k=1:(n-2),
[v,beta]=vhouse(H(k+1:n,k));
I=eye(k);
N=zeros(k,n-k);
m=length(v);
R=eye(m)-beta*v*v’;
H(k+1:n,k:n)=R*H(k+1:n,k:n);
H(1:n,k+1:n)=H(1:n,k+1:n)*R;
P=[I, N; N’, R];
Q=Q*P;
end return

Horner
function [pnz,b] = horner(a,n,z)
b(1)=a(1);
for j=2:n+1,
b(j)=a(j)+b(j-1)*z;
end; pnz=b(n+1);

LU
function [L,U,P,Q] = LUpivtot(A,n)
P=eye(n); Q=P; Minv=P; for
k=1:n-1
[Pk,Qk]=pivot(A,k,n);
A=Pk*A*Qk;
[Mk,Mkinv]=MGauss(A,k,n);
A=Mk*A;
P=Pk*P;

192
Q=Q*Qk;
Minv=Minv*Pk*Mkinv;
end U=triu(A); L=P*Minv;

Gradient
function [x, error, niter, flag] = gradient(A, x, b, M, maxit,tol)

flag = 0;
niter = 0;
bnrm2 = norm( b );
if ( bnrm2 == 0.0 ),
bnrm2 = 1.0;
end
r = b - A*x;
error = norm( r ) / bnrm2;
if ( error < tol )
return,
end
for niter = 1:maxit
z = M \ r;
rho = (r’*z);
q = A*z;
alpha = rho / (z’*q );
x = x + alpha * z;
r = r - alpha*q;
error = norm( r ) / bnrm2;
if ( error <= tol ),
break,
end
end
if ( error > tol )
flag = 1;
end
return

Substitution
function [b]=backward_col(U,b)
[n]=mat_square(U);

193
l = min(diag(abs(U)));
if l == 0
disp(’Error: the matrix is singular’);
b = [];
break
end
for j = n:-1:2,
b(j)=b(j)/U(j,j);
b(1:j-1)=b(1:j-1)-b(j)*U(1:j-1,j);
end;
b(1) = b(1)/U(1,1);
return

Relaxation

function [x, iter]= sor ( a, b, x0, nmax, toll, omega)


[n,n]=size(a); iter = 0; r = b - a * x0; r0 = norm (r); err = norm
(r); xold = x0; while err > toll & iter < nmax
iter = iter + 1;
for i=1:n
s = 0;
for j = 1:i-1
s = s + a (i,j) * x (j);
end
for j = i+1:n
s = s + a (i,j) * xold (j);
end
x (i) = omega * ( b(i) - s) / a(i,i) + (1 - omega) * xold (i);
end
x = x(:); xold = x;
r = b - a * x;
err = norm (r) / r0;
end
return

Sturm

function [p]=sturm(dd,bb,x)
n=length(dd);

194
p(1)=1;
p(2)=d(1)-x;
for i=2:n
p(i+1)=(dd(i)-x)*p(i)-bb(i-1)^2*p(i-1);
end
return

Point fixe
function [xvect,xdif,fx,nit]=fixpoint(x0,nmax,toll,fun,phi)
err=toll+1;
nit=0;
xvect=x0;
x=x0;
fx=eval(fun);
xdif=[];
while (nit < nmax & err > toll),
nit=nit+1;
x=xvect(nit);
xn=eval(phi);
err=abs(xn-x);
xdif=[xdif; err];
x=xn;
xvect=[xvect;x];
fx=[fx;eval(fun)];
end;

Gradient conjugué
function [x, error, niter, flag] = conjgrad(A, x, b, P, maxit, tol)
flag = 0;
niter = 0;
bnrm2 = norm( b );
if ( bnrm2 == 0.0 ),
bnrm2 = 1.0;
end
r = b - A*x;
error = norm( r ) / bnrm2;
if ( error < tol )
return,

195
end
for niter = 1:maxit
z = P \ r;
rho = (r’*z);
if niter > 1
beta = rho / rho1;
p = z + beta*p;
else
p = z;
end
q = A*p;
alpha = rho / (p’*q );
x = x + alpha * p;
r = r - alpha*q;
error = norm( r ) / bnrm2;
if ( error <= tol ),
break,
end
rho1 = rho;
end
if ( error > tol )
flag = 1;
end
return

décomposition LU

function [A] = lu_band (A,p,q)


% decomposition LU de A
[n,n]=size(A);
for k = 1:n-1
for i = k+1:min(k+p,n)
A(i,k)=A(i,k)/A(k,k);
end
for j = k+1:min(k+q,n)
for i = k+1:min(k+p,n)
A(i,j)=A(i,j)-A(i,k)*A(k,j);
end

196
end
end
return

Méthode de Newton
function [xvect,xdif,fx,nit]=newton(x0,nmax,toll,fun,dfun)
err=toll+1;
nit=0;
xvect=x0;
x=x0;
fx=eval(fun);
xdif=[];
while (nit < nmax & err > toll),
nit=nit+1;
x=xvect(nit);
dfx=eval(dfun);
if (dfx == 0), err=toll*1.e-10;
disp(’ Stop ’);
else,
xn=x-fx(nit)/dfx;
err=abs(xn-x);
xdif=[xdif; err];
x=xn;
xvect=[xvect;x];
fx=[fx;eval(fun)];
end;
end;

Mé thode de Newton cas vectoriel


function [x, nit] = newtonsys(F, J, x0, toll, nmax, p)
[n,m]=size(F); nit=0; Fxn=zeros(n,1); x=x0; err=toll+1; for i=1:n,
for j=1:n, Jxn(i,j)=eval(J((i-1)*n+j,:)); end; end
[L,U,P]=lu(Jxn); step=0; while err > toll
if step == p
step = 0;
for i=1:n;
Fxn(i)=eval(F(i,:));
for j=1:n; Jxn(i,j)=eval(J((i-1)*n+j,:)); end

197
end
[L,U,P]=lu(Jxn);
else
for i=1:n, Fxn(i)=eval(F(i,:)); end
end
nit=nit+1; step=step+1; Fxn=-P*Fxn; y=forward_col(L,Fxn);
deltax=backward_col(U,y); x = x + deltax; err=norm(deltax);
if nit > nmax
disp(’ pas de convergence’);
break
end
end

198
Bibliographie

[1] Acevado M. (1994), Fundamentals of species interaction: Two and three communi-
ties, University of North Texas, Denton, Texas.

[2] Acevado M. (1994), Two species interaction, stage structure and environmental
factors, University of North Texas, Denton, Texas.

[3] Akerman E. et al. (1965), Model studies of blood glucose regulation, Bulletin of
mathematics and Biophysics 27: 21-37.

[4] Allen L. J. (1992), Some discrete-time SI, SIR, SIS, epidemic models, Lub-
bock,Texas.

[5] Allen L. J. (1994), Discrete-time population with age and structure I, II, Lub-
bock,Texas.

[6] Allen L. J. et al. (1990), Persistence in age-structured population for a patch-type


environment, Lubbock,Texas.

[7] Anderson R. M. (1982), Population dynamics of infectious diseases, Chapman


and Hall, London.

[8] Anderson R. M., May R. M. (1991), Infectious disease of humans: Dynamics and
control, Oxford University Press, Oxford.

[9] Arminjon A. (1978), Analyse numérique matricielle, PUM.

[10] Arrowsmith D. K., Place C. M. (1995), Dynamical systems differential equations


maps and chaotic behaviour, Chapman & Hall Mathematics.

[11] Attera, Pradel (1989), Eléments d’analyse numérique, Editions Cépaduès.

[12] Axelsson O. (1994), Iterative solution methods, Cambridge University, Press,


Cambridge, England.

[13] Bailey N. T. J. (1982), The biomathematics of Malaria, Charles Griffin, London.

199
[14] Bailey N. T. J. (1975), The mathematical theory of infectious diseases, 2nd ed.,
Hafner, NewYork.

[15] Bajpai et al. (1978), Numerical methods for engineers and scientists, John Wiley.

[16] Bakhvalov N. (1976), Méthodes numériques, MIR.

[17] Baranger J. (1977), Introduction à l’analyse numérique, Hermann.

[18] Baranger J. (1991), Analyse numérique, Hermann édireurs, Paris.

[19] Bartlett M. (1960), Stochastic population models in ecology and epidemiology,


Methuen, London.

[20] Bass (1966), Cours de mathématiques, Masson.

[21] Becker N. (1989), Analysis of infectious diseases data, Chapman and Hall, New
York.

[22] Bellazi R. et al.(2001), The subcutaneous route to insulin-dependent diabetes the-


ory, IEEE Engineering in Mediciner and biology 20: 54-64.

[23] Berman A., Plemmons R. J. (1994), Non negative matrices in the mathematical
sciences, Classics in Applied Mathematics 9, SIAM, Philadelphia.

[24] Bernardelli H. (1941), Population waves, Journal of the Burma Research Soci-
ety 31, 1-18

[25] Bernouilli D. (1760), Essai d’une nouvelle analyse de mortalité causée par la petite
vérole, Académie Royale des Sciences, Paris, 1-45

[26] Biswas T. N. et al. (1990), Environnement modelling for developing countries,


Tycooly Publishing, London and New York.

[27] Bolie V. W. (1960), Coefficients of blood glucose regulation, J. Applied Physiology


16: 783-788

[28] Bonnet, Meurant (1979), Comparaisons de différentes méthodes itératives de


résolution de systèmes linéaires et non linéaires, Méthodes numériques dans la
science de l’ingénieur Tome I, Dunod.

[29] Boutayeb A., Twizell E. H. (1992), Numerical methods for the solution of special
sixth-order bvp, Intern. J. Computer Math. 45: 207 - 223.

200
[30] Boutayeb A., Kerfati A. (1994), Mathematical models in diabetology, Modelling,
Measurement & Control, C, AMSE Vol.44, N◦ 2: 53-63.

[31] Boutayeb A., Derouich M. (2002), Age strucured models for diabetes in East
Morocco, Mathematics and Computers in simulation 58: 215- 229,

[32] Boutayeb A., Chetouani A. (2003), Global extrapolation of numerical methods for
solving a parabolic problem with non local boundary conditions, Intern. J. Com-
puter Math 80, n◦ 6, 789-797.

[33] Boutayeb A., Chetouani A. (2003), Dynamics of a disabled population in Morocco,


Biomedical Engineering Online, 2: 2.

[34] Brauer A. (1957), A new proof of theorems of Perron and Frobenius on nonnegative
matrices, Ducke Math. J. 24: 367-378.

[35] Brezinski C. (1978), Algorithmes d’accélération de la convergence, Technip.

[36] Bugl P. (1995), Differential equation matrices and models, Prentice Hall Inc. New
Jersey.

[37] Burden, R. Faires J. D. (1993), Numerical analysis fifth edition, PWS-Kent


publishing company, Boston.

[38] Carnahan B., Luther H. and Wilkes J. (1969), Applied numerical methods, John
Wiley, New York.

[39] Castillo-Chavez C. ED. (1989), Mathematical and statistical approaches to AIDS


epidemiology, Lectures notes in Biomath. 83, Spring-Verlag, Berlin.

[40] Caswell H. (2001), Matrix populations model, Sinauer associates, Inc., Sunder-
land, MA.

[41] Chetouani A., Derouich M. (1997), Revue de certains modèles épidémiologiques


et écologiques à temps discret, Mémoire de CEA, Faculté des sciences, Oujda .

[42] Ciarlet P. (1984), Introduction à l’analyse numérique matricielle et à l’optimisation,


Edition Masson.

[43] Ciarlet P. et al. (1995), Exercices d’analyse numérique matricielle et optimisation


2eme édition, Edition Masson.

[44] Conte S. D., de Boor C. (1978), Elementary numerical analysis, Third edition,
McGraw-Hill International Book Company.

201
[45] Couffignal (1956), Résolution numérique des systèmes d’équations linéaires, Ey-
rolles.

[46] Cushing J. M, (1998), An introduction to structured population dynamics, SIAM,


Philadelphia.

[47] Daget (1976), Les modèles mathématiques en écologie, Masson.

[48] Dahlquist G. (1956), Convergence and stability in the numerical integration of


ordinary differential equations, Math. Scand. 4: 33-53.

[49] Dautray, Lions (1984), Analyse mathématique et calcul numérique pour les sci-
ences et les techniques, Masson.

[50] DeAngelis D. L., Gross J. L. (1990), Individual-based models and approaches in


ecology, Chapmann & Hall.

[51] Della C. et al. (1970), On a mathematical model for the analysis of the glucose
tolerance curve, Diabetes 19: 445-449.

[52] Démidovitch B., Maron I. (1987), Eléments de calcul numérique, Edition


Moscou.

[53] Derouich M., Boutayeb A., Twizell E. H. (2003), A dengue fever model, Bio-
medical engeneering online 2:4.

[54] Derouich M., Boutayeb A. (2002), The effect of physical exercice on the dynamics
of glucose and insulin, Journal of Biomechanics 35 : 911-917.

[55] Diekman O., Heesterbeek J. (2000), Mathematical Epidemiology of Infectious


Diseases, Wiley, New York.

[56] Dietz K. (1967), Epedemics and rumours: A survey, J.Roy. Statist. Soc. Ser.A,
130: 505-528.

[57] Dietz K. (1975), Transmission and control of arbovirus diseases, in epidemiology,


K, L, Cooke, ed. , SIAM, Piladelphia.

[58] Dietz K., Schenzle D. (1985), Mathematical models for infectious disease statstics,
in A celebration of statstics Atkinson eds, Spring Verlag, New York.

[59] Djidjeli K., Twizell E. H., Boutayeb A. (1993), Numerical methods for special
nonlinear bvp of order 2m, J. Comp. Appl. Math. 47: 35 - 45

202
[60] Djidjeli K., Twizell E. H. (1991), Global extrapolations of numerical methods for
solving a third-order depersive partial differential equation, Intern. J. Computer
Math, Vol 41: 81-89.

[61] Durand (1972), Solution numérique des équations algébriques tome I, Masson.

[62] Durand (1972), Solution numérique des équations algébriques tome II, Masson.

[63] Edelstein K. L. (1988), Mathematical models in biology, Random House, New


York.

[64] Evans D.J. (1984), Parallel SOR Iterative Methods, Parallel Computing 1: 3-18.

[65] Fisher R. A. (1930), The genitical theory of natural selection, Dover, New York.

[66] Frauenthal J. C. (1980), Mathematical modeling in epidemiology, Springer-Verlag


Universitext Berlin.

[67] Frobenius G. (1908), Uber matrizen aus positiven elelmenten, S.B Preuss Akad.
Wiss Berlin, 471-76

[68] Gantmakher F. R., Krein M. G. (1937), Sur les matrices oscillatoires et


complétement non négatives, Composito Math. 4: 445-476.

[69] Gastinel N. (1966), Analyse numérique linéaire, Hermann.

[70] Gerald C. F. (1978), Applied numerical analysis, second edition, Addison-Wesley.

[71] Gerschgorin S. (1931), Uber die Abgrenzung der eigenwerte einer matrix, Izv
Akad. Nauk SSSR Ser Mat. 7: 749-754.

[72] Giordino F. R. et al.(1997), A First Course in mathematical modeling, Brooks


Cole Publishing Copmany.

[73] Golub G. H, Van Loan C. (1983), Matrix computations, Johns Hopkins Uni-
veristy Press, Baltimore.

[74] Golub G. H. (1989), Some history of the conjugate gradient and Lanczos algo-
rithms, Siam review, vol. 31.

[75] Golub G. H. (1983), Résolution numérique des grands systèmes linéaires, Eyrolles.

[76] Golub G.H. & Varga R.S. (1961), Chebychev Semi-Iterative Methods, Successives
Over- Relaxation Iterative methods, and second-Order Richardson Iterative Meth-
ods. Parts I & II, Numer. Math. 3: 147-56; 157-68.

203
[77] Gourdin A., Boumahrat M. (1988), Méthodes numériques appliquées, Office
Press Université Alger.

[78] Grenfell B. T., Dobson A. P. EDS. (1995), Ecology of infectious diseases in natural
populations, Cambridge University Press, Cambridge, UK.

[79] Hanski I. (1999), Metapopulation ecology, Oxford University Press.

[80] Héron B. et al. (1999), Analyse numérique: Exercices et problèmes corrigés,


Edition Dunod.

[81] Hestenes, Stiefel (1952), Methods of conjugate gradients for solving linear sys-
tems, J. Res. Nat. Bur. Standards 49.

[82] Hethcote H. R. et al. (1981), Periodicity ans stability in epidemics models: A


survey, in Differential Equations and Applications in Ecology, Epidemics and pop-
ulation problems, Busenberg & Cooke eds., Academic Press, New York.

[83] Hethcote H. R., Levin S. (1989), Periodicity in epidemiological models, in Ap-


plied Mathematical Ecology, Gross eds., Spring- Verlag, Berlin.

[84] Hethcote H. R. (1994), A thousand and one epidemic models, in frontiers in the-
oretical biology, Levin ed., Lectures notes in Biomath. 100 , Spring- Verlag,
Berlin.

[85] Hethcote H. R. (2000), The mathematics of infectious diseases, Review, SIAM


Review Vol. 42, N◦ 4: 599-653.

[86] Hildebrand F. B. (1952), Methods of applied mathematics, Prentice-Hall, Engle-


wood Cliffs, NJ.

[87] Himsworth H. P. & Ker R. B. (1939), Insulin sensitive and insulin insensitive
types of diabetes mellitus, Clinical Science4: 119-125.

[88] Hirsch M. W. & Smale S. (1974), Differential equations, Dynamical Systems, and
linear Algebra, Academic Press. Inc.

[89] Hirsch M. W. (1982), Systems of differential equations which are competitive or


cooperative: I. Limit sets, SIAM. Journal on Mathematical Analysis 13: 167-
179.

[90] Hirsch M. W. (1985), Systems of differential equations which are competitive or


cooperative: II. Convergence almost everywhere, SIAM. Journal on Mathematical
Analysis 16: 423-439.

204
[91] Hirsch M. W. (1988), Systems of differential equations which are competitive or
cooperative: III. Competing species, Non linearity 1: 51-71.

[92] Hirsch M. W. (1990), Systems of differential equations which are competitive or


cooperative: IV. Structural stability in three dimensional systems, SIAM. Journal
on Mathematical Analysis 21: 1225-1234.

[93] Hoppensteadt F. C. (1993), Analysis and simulation of chaotic systems, Spring-


Verlag, NewYork.

[94] Hoppensteadt F. C. (1982), Mathematical methods of population biology, Cam-


bridge studies in the mathematical biology, Cambridge University Press.

[95] Hoppensteadt F. C. , Peskin C. S. (1996), Mathematics in medecine and the life


sciences, Springer, New york, Berlin, Tokyo.

[96] Hoppensteadt F. C. (1975), Mathematical theories of populations demographics,


Genitics and Epidemics, SIAM, Philadelphia,1975.

[97] Horn R., Jonshon R. (1985), Matrix analysis, Cambridge University Press,
Cambridge, England.

[98] Householder A. S. (1953), Principales of numerical analysis, McGraw Hill Book


Co,Inc New York.

[99] Householder A. S. (1958), The approximate solution of matrix problems, J. Assoc.


Comput. Math. 56: 204-43

[100] Householder A. S. (1970), The numerical treatment of single nonlinear equations,


McGraw-Hill.

[101] Isham V. (1988), Mathematical modeling of the transmission dynamics of HIV and
AIDS: A review, J.Roy. Statist.Soc. SEr. A, 151: 5-31.

[102] Isham V., Medeley G., EDS. (1996), Models for infectious human diseases, Cam-
bridge University Press, Cambridge, UK.

[103] Issaacson E., Keller H. B. (1966) Analysis of numerical methods, John Wiley.

[104] Jansen H. (1994), The Numerical modelling of measles dynamics, Brunnel, Uni-
versity, Uxbridge, England.

[105] Kendall D. G. (1949), Stochastic processus and population growth J, Roy. Statist.
Soc. B 11: 230-64.

205
[106] Kendall D. G. (1956), Deterministic and stochastic epidemics in closed populations,
Proc. 3rd Berkeley Symp. Math. Stat. Prob. Vol VI: 149-165.

[107] Kermack W. O., McKendrick (1927), Contributions to the mathematical theory


of epidemics, part 1, Proc. Roy. Soc. London, Ser. A, 115: 700-721.

[108] Kershau (1978), The incomplete Choleski conjugate gradient method for the itera-
tive solution of systems of linear equations, J. Comp. Phys. 26.

[109] Kolmogorov A. (1938), Zur Losung einer biologschen, Gosudarstvennom uni-


versitete 2: 1-6

[110] Kot M. (2000), Elements of mathematical ecology, Cambridge University Press,


Cambridge, UK.

[111] Kranz J. ED. (1990), Epidemics of plant diseases: Mathematical analysis and mod-
elling, Spring-Verlag, Berlin.

[112] Kuntzmann J. (1969), Méthodes numériques, Collection enseignement des sci-


ences, Hermann.

[113] Lambert J. D.(1991), Numerical methods for ordinary differential systems, John
Wiley & Sons.

[114] Lascaux P., Théodor R. (1986), Analyse numérique matricielle appliquée à l’art de
l’ingénieur tome 1, Edition Masson.

[115] Lascaux P., Théodor R. (1987), Analyse numérique matricielle appliquée à l’art de
l’ingénieur tome 2, Edition Masson.

[116] Laurent-Gegoux, Trystram (1989) Comprendre l’informatique numérique, Edi-


tions techniques et documentation.

[117] Lauwerier H. M. (1981), Mathematical models of epidemics, Mathematisch


Centrum, Amsterdam.

[118] Legras J. (1968), Initiation à l’analyse numérique, Collection science poche,


Dunod.

[119] Legras J. (1971), Méthodes et techniques de l’analyse numérique, Dunod.

[120] Leslie P. H. (1945), On the use of matrices in certain population mathematics,


Biometrika, 33: 183-212

206
[121] Leslie P. H. (1948), Some further notes on matrices in population mathematics,
Biometrika, 35: 213-245

[122] Lin Y., Wu C. W. (1994), Solution of quasi-tridiagonal system of linear equations,


In Functional Analysis

[123] Lions J. L. (1978), Etude numérique des grands systèmes, Dunod.

[124] Logofet D. O. (1993), Matrices and Graphs: Stability Problems in Mathematical


Ecology, CRC Press.

[125] Lomen D., Lovelock D. (1999), Differential equations graphics -models-data,


John Wiley & Sons.

[126] Lotka A. J. (1922), The stabilty of the normal age distribution, Proc. Nat. Acad.
Sci. USA, 8: 339-345.

[127] Lotka A. J. (1931), The extinction of families, Journal of the Washington Acad-
emy of sciences: 377-380.

[128] Ludwig D., Cooke K. L. EDS. (1975), Epidemiology, SIMS Utah Conference
Proceedings, SIAM, Philadelphia.

[129] Luenberger D. G. (1979), Indroduction to dynamic systems theory, models, and


application, John Wiley & Sons.

[130] Lui Y. (1997), Numerical solution of the heat equation with nonlocal boundary
conditions, Technical Report Cambridge University.

[131] Marcati P. (1983) Some dicretizations on the mathematical approach to nonlinear


age dependent population, Comput.Math. Appl. 9: 367-370.

[132] Marcus M., Minc H. (1964), A survey of matrix theory and matrix inequalities,
Allyn and Bacon , Boston.

[133] May R. M. (1976), Simple mathematical models with very complicated dynamics
nature, Lond. 261: 459-67

[134] Mckendrick A. G. (1926), Application of mathematics to medical problems, Pro-


ceeding of the Edinburg mathematical society, 40: 98-130.

[135] McKendrick A. G. (1926), Applications of mathematics to medical problems, Proc.


Edinburgh Math. Soc. 44: 98-130.

207
[136] Mendel G. J. (1865), Versuche uber Pflanzen-Hybriden. Verh, Naturforsch. Ver.
Brunn. 10.

[137] Mewborn A. C. (1960), Generalization of some theorems on positive matrices


to completely continuous linear transformations on a normed linear space, Duke
Math. J. 27: 273-281

[138] Minc H. (1988), Nonnegative matrices, John Wiley & sons, New York.

[139] Mollison D. (1996), Epidemic models: Their structure and relation data, Cam-
bridge University, Cambridge,UK.

[140] Murray J. D. (1989), Mathematical biology, Spring-Verlag, Berlin.

[141] Newton E. A., Reiter P. (1992), A model of the transmission of dengue fever with an
evoultion of the impact of ultra-low volume (ULV) insecticide apllications on dengue
epidemics, Am J Trop Med Hyg, 47, 709-720.

[142] Nougier J. P. (1987), Méthodes de calcul numérique 2eme édition, Masson.

[143] Okubo A. (1980), Diffusion and ecological problems: Mathematical models,


Spring-Verlag, Berlin.

[144] Ostrowski (1966), Solution of equations and systems of equations, 2nd edition,
Academic Press.

[145] Parker R.S et al.(2001), The intravenuous route toblood glucose control, IEEE
Engineering in Mediciner and biology 20: 65-73.

[146] Pearl R., Reed L. J. (1920), On the rate of growth of the population of the United
States since 1790, Proceeding of the National Academy of Sciences 6: 275-288.

[147] Pelletier (1971), Techniques numériques appliquées au calcul scientifique, Masson.

[148] Pielou E. C. (1977), Mathematical ecology, John Wiely & Son New York.

[149] Plemmons R.J. (1986), A parallel block iterative Scheme Applied to Computations
in Structural Analysis, SIAM J Alg. and Disc Methods 7: 337-347.

[150] Qin Mengzhao (1983), Difference schemes for the dispersive equation, Comput-
ing, 31: 261-267.

[151] Rabinowtz (1970), Numerical methods for nonlinear algebraic equations, Gordon
and Breach.

208
[152] Reed M.(1987), Msc lectures notes, Brunel University Middx U.K.

[153] Reid J. (1970), On The method of conjugate gradient method of large sparse systems
of linear equations, Proc. of Oxford conf of Inst of Math. appl.

[154] Ross R. (1911), The prevention of Malaria, 2nd ed. , Murray, London.

[155] Roux J. (1980), De la méthode de Newton à la méthode B.F.G.S., Bulletin de la di-


rection des études et recherches d’EDP, série C, Mathémetique, Informatique
N0 2.

[156] Scott M. E., Smith G. EDS. (1994), Parasitic and infectious diseases, Academic
Press, San Diego.

[157] Schuster H. G. (1988), Deterministic chaos : An introduction, VCH Weinheim.

[158] Schwart (1973), Analysis of symmetric matrices, Prentice-Hall.

[159] Serge G. et al. ( 1973), Modelling blood glucose and insulin kinetics in normal
diabetic, Diabetes 22: 94-99 and obese subjects.

[160] Sibony M., Mrdon J. Cl. (1984), Analyse numérique I et II, Hermann éditeurs.

[161] Smilatova K., Sujan S. (1991), Dynamical methods in biological science: A math-
ematical treatement, Ellis Horwood.

[162] Stein P. & Rosenberg R. L.(1948), On the solution of linear simultaneous equation
by iteration, J. London Math. Soc. 23:111-118.

[163] Stewart, Jensen (1975), Solutions numériques des problèmes matriciels, Eyrolles,
(1975).

[164] Stiefel E. (1983), Introduction à la mathématique numérique, Dunod.

[165] Stoer J., Bulrisch R. (1983), Introduction to numerical analysis, Spring-Verlag,


New York Heddelberg Berlin.

[166] Temam R. (1970), Analyse numérique, Sup-puf.

[167] Twizell E. H. (1988), Numerical methods with applications in the Biomedical sci-
ences, Ellis Horwood, Chichester and John Wiley & Sons, New york.

[168] Twizell E. H., Boutayeb A. (1991), Numerical methods for the solution of special
and general sixth-order bvp, with application to Bénard eigenvalue problems, Proc.
Roy. Soc. Lon. 431: 433 - 450.

209
[169] Varga R. (2000), Matrix iterative analysis 2nd edition, Springer, Berlin-Tokyo.

[170] Varah J. M. (1972), On the solution of block tridiagonal systems araising from
certain finite difference equations, Math. Comp. 26: 859-868.

[171] Verlhust P. F. (1845), Recherches mathématiques sur la loi d’accroissement de la


population Mem. Acad. Roy. Belgium 18: 1-38.

[172] Vignes (1980), Algorithmique numérique tome II, équations et systèmes linéaires,
Technip.

[173] Von Foerster H. (1959), Some remarks on changing populations in the kinetics of
cellular proliferation, Math. Comp. 26: 382-407.

[174] Watson (1980), Approximation theory and numerical methods, John Wiley.

[175] Whelpton P. K. (1936), An empirical method of calculating future population,

[176] White R.E. (1989), Multisplitting with different weighting schemes, SIAM J.
Matrix Anal. Appl. 10: 481-493.

[177] Wickwire K. (1977), Mathematical models for the controle of pests and infectious
diseases: A survey, Theoret. Population Biol., 11: 182-238.

[178] Wiggins S. (1990), Introduction to applied nonlinear systems and chaos, Spring-
Verlag, New York.

[179] Wilde (1966), Méthode de recherche d’un optimum, Dunod

[180] Wilkinson J. H. (1988), The algebraic eigenvalue problem, Clarendon Press Ox-
ford.

[181] Yicang Z., Xiwen L. (1996), The dynamics and application of the nonlinear matrix
model of the disabled population, Science College, XiánJiaotang University.

[182] Yule U. A. (1924), Mathematical theory of evolution based on the conclusions of Dr


J.C Willis, FRS, Philosophical Transactions of the Royal Society Of London,
213: 21-87.

210
Notes de solutions des exercices

Chapitre 1
exercice 1.6.1

i) ¯ ¯
¯ ¯ ¯ ¯
a x
∑i ¯∑ j i j j ¯ ∑i ∑ j ¯ ai j x j ¯ ¯ ¯
¯ ai j ¯ .
k Ak1 = sup ¯¯ ¯
¯ ≤ sup ¯ ¯
∑ j ¯x j ¯
≤ max
i

x6=0 ¯∑ j x j ¯ x6=0 j

Si on considère ei = (0, 0, · · · , 1, · · · , 0)> alors

k Aei k1 = ∑ | ai j |,
j

et par suite max ∑ | ai j | ≤ k Ak1 .


i j

ii) On procède comme dans i).

iii) A> A est une matrice symétrique définie positive, considérons une base or-
thonormée (e1 , · · · , en ) de vecteurs propres de A> A.

h A> Ax, xi
k Ak2 = sup
x6=0 h x, xi
∑ λi | xi |2
i
= sup
x6=0 ∑ | xi |2
i
≤ λn = ρ( A> A).

On prend ensuite x = en vecteur propre associé à λn .

exercice 1.6.2. En effet Lv = λ1 v.


exercice 1.6.3

1. Il suffit de considérer un vecteur propre x associé à une valeur propre λ.

211
2. evident.

3.
k Axk∗ k BAxk∞
k Ak∗ = sup = sup .
x6=0 k xk∗ x6=0 k Bx k∞

k D −1 PAxk∞ k D−1 UDD−1 Pxk∞ k D−1 UDyk∞


B = D −1 P =⇒ k Ak∗ = sup = sup = sup
x6=0 k D−1 Pxk∞ x6=0 k D−1 Pxk∞ y6=0 k yk∞
≤ k D−1 UD k∞

4. Il existe une norme matricielle k.k∗ telle que ρ( A) = k Ak∗ .

5. la jeme colone de A−1 est (2 j−2 , 2 j−3 , · · · , 1, · · · , 0)> 1 est situé à la jeme posi-
tion.
k Ak1 = n et k A−1 k1 = 2n−1 .

6. ¯ ¯
¯ ¯
¯ ¯
k Axk∞ = max ¯∑ ai j xi ¯ ≥ | aii | − ∑ | ai j | max | x j | ≥ δ k xk∞ .
j ¯ i ¯ i6= j j

On prend y = A−1 x.

7. k Ak∞ = 4 + ε, le 1 donne λ4 ≤ 4 + ε.
On prend dans le 2, B = I.

Chapitre 2
exercice 2.12.1

1.
(2) ai1
ai j = ai j − a1 j , i, j = 2, · · · , n.
a11
(2) a
aii = aii − i1 a1 j , i = 2, · · · , n.
a11
2.
¯ ¯ ¯ ¯ ¯ ¯
¯ (2) ¯ ¯ ai1 ¯ ¯ ai1 ¯
¯ a j j ¯ > | a j j | − ¯¯ a1 j ¯ > | a j j | − ¯¯ a1 j ¯¯
a11 ¯ i∑ 6= j a11
¯ ¯ ¯ ¯
¯ (2) ai1 ¯ ¯ ai1 ¯
¯
> ∑ ¯a j j + ¯
a1 j ¯ + | a1 j | − ¯ ¯ a1 j ¯¯
i6= j
a 11 a 11
¯ ¯ ¯ ¯
¯ (2) ¯ ¯ a1 j ¯
¯
> ∑ ¯ a j j ¯ − ∑ | ai1 | ¯ ¯¯ + | a1 j |
i6= j i6= j
a11
¯ ¯
¯ (2) ¯
> ∑ ¯ ai j ¯ .
i6= j

212
3. Il n’est pas nécessaire de pivoter

exercice 2.12.2
1
1. Si α 6= alors I − α ab> est inversible.
b> a
¡ ¢−1 A−1 ab> A−1
A + ab> = A−1 − où λ = b> A−1 a.
1+λ
¡ ¢−1
2. I + mk e>
k = I − mk e>
k .

3. ( I + m1 e> > > > >


1 )( I + m2 e2 ) = I + m1 e1 + m2 e2 car e1 mk = 0.
On procède ensuite par récurrence.

exercice 2.12.3 Appliquer les résultats du cours.


exercice 2.12.4 Appliquer les résultats du cours.
° °
exercice 2.12.5 On montre que ° B−1 °1 = 2, les propriétés du conditionnement don-
nent ° −1 °
° B ° k Ek1
1
k y − xk1 ≤ kbk1 .
1 − k B−1 k1 k E k1

Chapitre 3
exercice 3.8.1

i) A−1 = ( I − R)−1 B.

ii) A−1 − B = A−1 R.

iii) x̂ − x = A−1 r.

exercice 3.8.2 Procéder par récurrence.


exercice 3.8.3

1. A est contractante donc admet un point fixe.

2. Calcul facile.
° ° 1
3. (a) ( I − M)−1 b( x) est contractante car °( I − M)−1 °∞ ≤ 3 et kbk∞ ≤ .
4
24
(b) k = .
33
(c) On peut améliorer la vitesse de convergence en prenant εb( x) avec ε <<
1.

exercice 3.8.4 Exemples de matrices dont les méthodes de Jacobi et Gauss-Seidel ne


convergent pas simultanément.
exercice 3.8.5

213
1. Utiliser le théorème 3.3.4.

2. Posons TS = TJ2 où x(n+1) = TS x(n−1) − Tb.


Si λ est valeur propre de TJ alors λ 2 est valeur propre de TS donc ρ( TS ) <
1 ainsi convergence. La méthode converge rapidement que la méthode de
Jacobi.

exercice 3.8.6

I il suffit qu’il existe une norme matricielle telle que k I − α Ak < 1, ceci est
assuré si on prend k.k∞ .

II 1) 1 + λiα est valeur propre de I − α A par suite pour que la méthode con-
2
verge, il faut et il suffit que α < .
λ1
2
2) α∗ = .
λ1 + λn
exercice 3.8.7

1. M(r, ω) = ( D − rL)−1 ((1 − ω) D + (ω − r) L + ωU ).

2. θ = 0 et ω = 1 donnent Jacobi.
r = ω = 1 donnent Gauss-Seidel.
r = ω donne relaxation.

3. il suffit d’écrire.

4. Comme il s’agit de matrices tridiagonales, on utilise la propriété

det(α D − β L − U ) = det(α D − βµ L − µ −1 U ).

exercice 3.8.8

1. On suppose ici que les ai sont positifs. Vous pouvez le montrer directement
en regroupant dans la somme h A(h) x, xi des termes positifs, ou utiliser un
théorème qui assure qu’une matrice est définie positive si et seulement si ces
éléments diagonaux sont positifs.

2. Voir chapitre 3.

exercice 3.8.9

1. (a) rI + H est définie positive et hermitienne donc inversible.


¯ ¯
¯r − λj ¯
(b) k(rI − H )(rI + H )k2 = ρ((rI − H )(rI + H )) = max ¯ ¯ ¯.
j r + λj ¯

214
2. (a) T = (rI + H2 )−1 (rI − H1 )(rI + H1 )−1 (rI − H2 ), c = (rI + H2 )−1 (rI −
H1 )(rI + H1 )−1 (rI − H2 )b + (rI + H2 )−1 b.
¯ ¯ ¯ ¯
¯r − λj ¯ ¯r − µj ¯
¯
(b) ρ( T ) ≤ max ¯ ¯ max ¯ ¯ , où λi et µi désignent les valeurs pro-
j r + λ ¯ j ¯r + µ ¯
j j
pres de H1 et H2 .
(c) xk converge vers x∗ solution de ( I + T )−1 ( I − T ) x∗ = b.
¯ ¯ µ¯ ¯ ¯ ¯¶
¯ (r − x ) 2 ¯ ¯ (r − a ) 2 ¯ ¯ (r − b ) 2 ¯ √
(d) min max ¯ ¯ ¯ = min max ¯ ¯ , ¯ ¯ , et ropt = ab.
r ≥0 a ≤ x ≤b (r + x ) 2 ¯ r ≥0 a ≤ x ≤b ¯ (r + a ) 2 ¯ ¯ (r + b ) 2 ¯

exercice 3.8.10

1. (a), (b), (c), (d) calculs simples.

2. On utilise le (d) et le fait que M−1 Nx = λ x.

3. (a) T = ( D − L)−1 L> , T1 = T = T = D −1/2 TD −1/2 = D −1/2 ( D − L)−1 D −1/2 =


³ ´−1
I − D −1/2 LD −1/2 L> D −1/2 = ( I − L1 )−1 L>
1.

a − ib
(b) λ = .
1 − a + ib
(c) On a x H L1 x + x H L> H −1/2 ( L + L> ) D −1/2 x = 2a, or A = D − L −
1 x = x D 1 1
L est définie positive, donc x D /2 Ax H D −1/2 > 0 ainisi 1 − 2a > 0 et
> H − 1

par suite |λ | < 1 et ρ( T ) < 1.


(d) La méthode de Gauss-Seidel est convergente.

Chapitre 4

exercice 4.4.1 les points d’équilibre sont 0 et s−1 α si α > 0.
Si α > 0 alors 0 n ’est pas un point d’attraction.
Si α = 0 alors 0 est un point d’attraction si s > 1.

Le point x∗ = s−1 α est un point d’attraction si s < 1.
exercice 4.4.2

5−1
1. α = , β = 1 − α.
2
2. Posons L1 = b − a, x1 = a, x4 =  b x2 = x0+ L1 β, x3 =x4 − L1 β.
x1 x2
   
 x2   x3 
 
Si f ( x3 ) < f ( x2 ) on remplace   par   
x x − αβ L 
 3  4 1
x4 x4

215
   
x1 x1
   
 x2   x1 + αβ L1 
  
Si f ( x3 ) > f ( x2 ) on remplace   par  

 x3   x2 
x4 x3
x1 + x2
min = .
x∈[ a,b] 2
exercice 4.4.6

1. Φ( x) = x3 − x2 − 1, |Φ0 ( x)| ≥ 1.
1 1
2. Φ( x) = 1 + + 2 , |Φ0 ( x)| < 1.
x x
exercice 4.4.3

1. Soit λ > 0.

Si 1 + b > 0 alors il existe un seul point d’équilibre P∗ = 2+b
λ, il est stable si
1
λ< .
1+b
Si b = −1, le système est stationnaire.
1
Si 1 + b < 0 alors il existe deux points d’équilibre P∗ = 0 et P∗∗ = √ , où
r−1
λ
1
r = −(1 + b), 0 est stable si λ < , P∗∗ est stable si −2 < b < −1.
−(1 + b)
1
2. Les points d’équilibre sont P∗ = 0 et P∗∗ = log λ .
α
0 est stable si 0 < λ < 1.
P∗∗ est stable si e−2 < λ < 1.

3. Les points d’équilibre sont P∗ = 0 et P∗∗ = K.


0 est instable si r > 0.
P∗∗ est stable si 0 < r < 2.

exercice 4.4.9

1. Utiliser la formule de Taylor.

2. Utiliser la formule de Taylor en considérant f ( xn ) et f ( xn−1 ).


La méthode est d’ordre supérieur à 1.

3. On peut adapter la méthode de convergence la sécante de la manière suiv-


ante: f ( a) f (b) < 0 et on définit la suite
f ( xn )( xn − x∗ )
xn+1 = xn − ,
f ( xn ) − f ( xn−1 )
où x∗ est le dernier x j , j = n − 1, · · · , 1 calculé tel que f ( xn ) f ( x∗ ) < 0.

216
exercice 4.4.10

1. Affirmatif.

2. (a), (b) voir (paragraphe 4.1.3, page 85).


1
(c) Si λ = on retrouve la méthode de Newton.
p
3.
∂u ∂v
u( xn , yn ) ( xn , yn ) + v( xn , yn ) ( xn , yn )
xn+1 = xn − ∂x ∂x
µ ¶2 µ ¶2
∂u ∂v
( xn , yn ) − ( xn , yn )
∂x ∂x
∂u ∂v
v( xn , yn ) ( xn , yn ) − u( xn , yn ) ( xn , yn )
yn+1 = yn − ∂x ∂x
µ ¶2 µ ¶2
∂u ∂v
( xn , yn ) − ( xn , yn )
∂x ∂x

exercice 4.4.14
à r ! à r !
4rE 4rE
K r+ r2 − K r− r2 −
K K
a) Les points d’esuilbre sont P∗ = et P∗∗ = .
2r 2r
Le point P∗ est stable et P∗∗ est instable.
rK
b) Si E > , le système n’admet pas de points d’équilibre et P(t) est strictement
4
décroissante.
K (r − E )
c) Les points d’esuilbre sont P∗ = 0 et P∗∗ = , si r > E.
r
Le point P∗ est instable et P∗∗ est stable.
à r !
4rE
K (r − 1 ) + (r − 1 ) 2 −
K
c) Les points d’esuilbre sont P∗ = et
à r ! 2r
4rE
K (r − 1 ) − (r − 1 ) 2 −
K 4KE
P∗∗ = , si (r − 1)2 > .
2r r
4KE
Le point P∗ est stable si 0 < (r − 1)2 − < 4 et P∗∗ est instable.
r
exercice 4.4.7
1
a) < α < 51.
101
1
b) R = 51, r = .
101

217
c) Le nombre de racines négatives = 0 − 2k, donc une seule possibilité: 0.

d) Appliquer le théorème de Newton.

exercice 4.4.4. Il suffit de tracer les graphes des fonctions f et g (les points d’equlibre
sont l’intersection des 2 graphes) et de dériver les conditions de stabilité en les im-
β x2
posant à la fonction Φ( x) = x + rx − .
α + x2
exercice 4.4.2

1. Utiliser la Formule de Taylor.


g p (α )
2. C = .
p!
3. Méthode d’ordre 1.

exercice 4.4.4

1. Utiliser la Formule de Taylor.

2.

exercice 4.4.13

1. (a) P( y) = g0 ( yn ) y + ( g( yn ) − g0 ( yn ) yn ).
y f −1 ( xn )
(b) P( y) = + ( xn − ).
f 0 ( f −1 ( xn )) f 0 ( f −1 ( xn ))
(c) Méthode de Newton.

2. Méthode de la sécante.
g00 ( yn ) 2 g00 ( yn ) 2
3. (a) P( y) = y + ( g( yn ) − g00 ( yn ) yn ) y + g( yn ) + yn − g0 ( yn ) yn .
2 2
f 00 o f −1 1
(b) g00 = − 00 −1 3 , g0 = 0 −1 .
(f of ) (f of )
f 000 (α ) f 00 (α )
(c) C = − + .
6 f 0 (α ) 2( f 0 (α ))2

Chapitre 5
1. a) J ( xk )sk = F ( xk ), xk+1 = xk + sk .
α uv>
b) P−1 = I + .
1 − α v> u
B−1α uv> Bk−1
c) Bk−+11 = Bk−1 − k .
1 + α v> Bk−1 u

218
d) Bk−+11 yk = sk .

2. a), b) ,c) définissent la méthode des directions conjuguées décrite das le chapitre
cinq.

Chapitre 6

exercice 6.5.2 Il suffit de considérer une base orthonormée de vecteurs propres.


exercice 6.4.3

(a) Les valeurs propres de A1 sont 0, λ2 , · · · , λn .


A1 x(k−1)
(b) Considérer les suites x(k) = , mk = k A1 x(k−1) k∞ .
mk
(c) Cette méthode peut être utilisée pour calculer d’autres valeurs propres
de A.

1. Les valeurs propres de A1 sont 0, λ2 , · · · , λn .


(a)
(b) En effet Awi = λi wi , i = 1, · · · , n.
(c) La ieme ligne de A01 est nulle et ses valeurs propres sont λ2 , · · · , λn ,. La
méthode des puissances peut être utilsée à condition que |la2 | > |λ1 |.
(d) Si w02 = (w01 , · · · , w0n−1 )> alors w2 = (w01 , · · · , wi0−1 , 0, wi0 , · · · , w0n−1 )>
(e) utiliser le 2) c).
(f) On peut commencer recommencer ce processus sur A01 et obtenir ainsi
de proche en proche une matrice d’ordre 1.

Chapitre 7

exercice7.7.1
µ ¶
1 1
si α 6= 1 et β 6= − l’ordre p = 1 et C2 = (α − 1) β +
2 2

1 1
si α 6= 1 et β = − l’ordre p = 2 et C3 = (α − 1)
2 12
µ ¶
1 1
si α = 1 et β 6= − l’ordre p = 2 et C3 = − β +
2 2
1 1
si α = 1 et β = − l’ordre p = 3 et C4 = −
2 12

219
exercice7.7.2 On cherchera une solution particulière du système differentiel (resp.
du système aux differences) de la forme:
à ! à à !!
ax + b an + b
φ( x) = resp.ψn =
cx + d cn + d

où a, b, c et d sont des constantes réelles.


exercice 7.7.9

1. α0 = −5, α1 = 4, β0 = 2, β1 = 4, ordre 3.

2. non zéro stable car |α0 | = 5.

3. ,4,5,6,7,8 il suffit d’écrire.

4. diverge car α0 = −5.

exrecice 7.7.4
c
Par passage à la limite yn −→ .
1−µ
exercice 7.7.5

A) i) Considérer f ( x) = m log(1 + x) − mx.


ii) Procéder par récurrence.

B) 1. Identique à celle du théorème du cours avec y( x0 ) − w0 = δ0 et t =


h2 M
+ |δn |.
2 r

2. h0 = .
M
exercice 7.7.6 On considère une base de vecteurs propres de A.
2Re(λ j )
Pour S1 : h < .
|λ j |2
Pour S1 : inconditionnellemnt stable.
exercice 7.7.7

1. Il suffit de développer en utilisant la formule de Taylor.

2. La condition est nécessaire et suffisante (c0 = 0 et c1 = 0).

exercice 7.7.8

1. Méthode d’ordre 1.

2.

3.

220
Chapitre 8
problème 8.0.1

1. Prendre M = I et N = I − A.

2. Voir (théorème 3.3.4,59).

3. (a) a > 1.
 
0 −a −a
 
(b) J =  a 0 − a , J converge si a < 1/2.
a a 0
 
0 0 0
 
(c) G = − a 0 0 , ρ( G ) = 0, si a 6= 0 la méthde de Gauss Seidel
−a −a 0
converge plus vite que la méthode de Jacobi.

4. (a) Si ∃ une norme telle que k Ak < 1 et k Bk < 1.


à !
A 0
(b) C = , c = ( a, b)> , ρ( AB) ≤ ρ(C ).
0 B
(c) ρ( AB) < 1 ou k ABk < 1.
(d) D = AB, d = Aa + b, ρ( AB) = ρ( D ).
(e) Le deuxième schéma converge plus rapidement que le premier.

Problème 8.0.2

1. On montre qu’elles sont lnéairement indépendentes.

2. Il suffit d’écrire, Dn = 0, Cn = A−1 .

3. Si Dk = 0 alors Ck = A−1 .

4. Utiliser l’indication, la suite eatnt ainsi construite alors Cn = A−1 .

Problème 8.0.3
exercice 1
 
b b
0 − −
 a a
 b b
1. M J = 
− a 0 − 
 a
b b
− − 0
a a

221
2b
2. Méthode convergente si k M J k∞ = < 1 donc a > 2b.
a
a + 2b
3. A est inversible car elle est à diagonale dominante, C ( A) ≤ .
a − 2b
exercice 2

1. Méthode d’ordre 1.

2. Méthode d’ordre 3.

exercice 3. Il s’agit de simples calculs, il suffit d’écrire.


Examen exercice 1
k F kkbk 4ε
1. kδ xk ≤ = kbk.
(1 − k Ek − k F k)(1 − k Ek) 1 − 2ε
2b
2. Méthode convergente si k M J k∞ = < 1 donc a > 2b.
a
3. On distingue deux cas.
Si ∃i tel que λi = µ c’est fini.
Sinon soit µv un vecteur
¶ propre de A associé à µ on montre alors que v =
1
− P−1 diag Pδ Av et parsuite min |λi − µ | ≤ C ( P)kδ Ak.
λi − µ i

exercice 2

1. (a) M(θ , ω) = ( D − θ L)−1 ((1 − ω) D + (ω − θ ) L + ωU ).


(b) θ = 0 et ω = 1 donnent Jacobi.
θ = ω = 1 donnent Gauss-Seidel.

2. (a) θ = 1, si µ est valeur propre de M(1, ω) et µ est valeur propre de M(1, 1)


alors µ = 1 − ω + ωλ .
(b) Affirmatif.

3. (a) Si µ est valeur propre de M(0, 1) et λ est valeur propre de M(0, ω) alors
λ = 1 − ω + ωµ .
(b) Si la méthode de Jacobi converge alors |µi | < 1 pour tout i, A étant
symetrique on peut ranger ses valeurs propres par ordre croissant µ1 ≤
1 1
µ2 ≤ · · · ≤ µn , donc ≤ ∀i.
1 − µ1 1 − µi
La méthode (∗) converge si −1 < 1 − ω + ωµi < 1 et ceci est vérifié si
2
0<ω< .
1 − µ1

222
Index

A C
Acacias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Carrée . 6, 22, 24, 31, 33, 47–49, 51–53, 56,
Age . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15–17 73–75, 77, 86, 142
Akerman . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Castillo-Chavez . . . . . . . . . . . . . . . . . . . . . . 182
Algorithme . . . 25, 37, 38, 41, 42, 46, 47, 53, Caswell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
75, 86, 91, 109, 120, 123, 124, 134 Cauchy . . . . . . . . . . . . . . . . . . . 73, 83, 97, 153
Anderson . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . 138
Applications . . . . . . . . . . . . 15, 102, 125, 169 Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Approximation . . . . . . . . . . . . . . . . . . . . 82, 85 Choleski . . . . . . . . . . . . . . . . . . 34, 35, 46, 190
Ciarlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Axelsson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Classique . . . . . . . . . . . . . . . . . . . . . . 53, 60, 78
Collatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21, 72
B Comparaison . . . . . . . . . . . . . . . . . . . . . . . . . 61
Bailey . . . . . . . . . . . . . . . . . . . . . . . . . . 181, 182 Conditionnement . . . . . . . . . . . 36, 46, 75, 77
Bartlett . . . . . . . . . . . . . . . . . . . . . . . . . 181, 182 Conolly . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Becker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Consistance . . . . . . . . . . . . . . . . . . . . . 159, 164
Bellazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Convergence . . . . . . . . 14, 53, 55, 58, 59, 74,
Belt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 77, 78, 81–85, 108–110, 117–120,
Berman . . . . . . . . . . . . . . . . . . . . . . . . . . . 21, 72 137, 142
Convergente . . . . . . . . . . . . . . . . . . . 51, 75, 82
Bernardelli . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Conway . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Cooke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Beverton-Holt . . . . . . . . . . . . . . . . . . . . . . . 107
Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Bolie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Creuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37, 47
Bolker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
Bonnet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 D
Boutayeb . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Décomposition . . . 44, 46, 75, 142, 143, 195
Brauer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Définie positive . . . . . . . . . . . . . . . . . . . . . . . 74
Broyden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 Définie positive 9, 34, 41, 46, 58, 59, 74, 75,
broyden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 78, 123
Budan-Fourier . . . . . . . . . . . . . . . . . . . . . . . . 97 Danilevski . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

223
Della . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Gauss . 26, 29–33, 40, 47, 48, 51, 55–57, 60,
Dengue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 62, 74, 76–79, 190
Derouich . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Givens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Descartes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Globale . . . . . . . . . . . . . . . . . . . . . . . 82, 83, 118
Descente . . . . . . . . . . . . . . . . 25, 120, 122, 123 Glucose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
Diabète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Golub . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Gradient . . . . . 121, 123, 124, 134, 192, 194
Diekman . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Graeffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Dietz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Grenfell . . . . . . . . . . . . . . . . . . . . . . . . 175, 182
Directe . . . . . . . . . . . . . . . . . . . . . . . 24, 50, 137 Grover . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Direction . . . . . . . . . . . . . . . . . . . . . . . 121, 123
Dobson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 H
H-matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
E Hahn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Ecologiques . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Haner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Elémentaire . . . . . . . . . . 26, 27, 29, 31, 32, 98 Hassel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Epidémiologiques . . . . . . . . . . . . . . . . . . . . 169 Hassell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Equivalente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 hermitienne . 7, 9, 11, 46, 52, 58, 59, 74, 75,
Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 78
Erreur . . . . 36, 37, 51, 81, 82, 109, 110, 113 Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Euler . . . . . . . . . 106, 161–163, 165, 168, 184 Hessien . . . . . . . . . . . . . . . . . . . . . . . . . 123, 124
Evans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Hethcote . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Exemple . . . . . . . . . . . . . . . . . . . 12, 13, 27, 30, Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . 165, 166
35, 36, 44, 82–84, 86, 97, 98, 100, Hilbert . . . . . . . . . . . . . . . . . . . . . . . . 13, 35, 37
116, 118, 121, 122, 138, 141 Himsworth . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Exercices . . . . . . . . . . . . . . . . . . 22, 48, 73, 133 Hirsch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Holling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
F Hoppensteadt . . . . . . . . . . . . . . . . . . . . . . . . 182
Factorisation . . . . . . . . . . . . 32–36, 39–42, 47 Horn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Fehlberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Horner . . . . . . . . . . . . . . . . . . . . . . . . . . 91, 191
Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Householder . . . . 21, 26, 35, 36, 49, 72, 191
Frankel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Hudson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Frauenthal . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Frobenis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 I
Frobenius . . . . . . . . . 14, 21, 26, 72, 139, 140 Imprimitive . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Indirecte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
G Induite . . . . . . . . . . . . . . . . . . . . . 12, 51, 52, 58
Gantmakher . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Inférieure . . . . . . . 22, 25, 33, 34, 39, 77, 142

224
Insuline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Longueur . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Inversible . . 8, 12, 13, 24, 26, 30–34, 36, 37, Lotka . . . . . . . . . . . . . . . . . . . . . . . . . . . 132, 181
39–41, 50, 53, 56, 58, 75–78, 117, LR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
119, 139, 142 LU . . . . . . . . . . . . . . . 32–34, 47, 75, 191, 195
Irréductible . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Ludwig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
irréductible . . . . . . . . . . . . . . . . . . . . . . . . 16, 39 Ludwing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Isham . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Isolé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 M
Itération . . . . . 51, 53, 73, 74, 81, 83, 84, 115 M-matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Méthode . . . . . . . . . . . . . . . . . . . . . . 24, 25, 29–
J 33, 36, 40, 45–47, 50–53, 55–57,
Jacobi . 50, 53, 60–63, 74–78, 145–147, 190 59–63, 74, 75, 77, 78, 86, 91, 115,
Johnson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 117–124, 137–139, 142, 145–147
Jones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Malthus . . . . . . . . . . . . . . . . . . . . . . . . 102, 106
Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 Marcus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 14, 15
K
Kahan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Maximum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Kantorovich . . . . . . . . . . . . . . . . . . . . . . . . . 119 May . . . . . . . . . . . . . . . . . . . . . . . 107, 132, 182
Karlin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Maynard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Keller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 McKendrick . . . . . . . . . . . . . . . . . . . . . . . . . 181
Ker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Medeley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Kermack . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Mehmke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Kot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132, 182 Meurant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Kranz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Mewborn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Krylov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Minc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Minimum . . . . . . . . . . . . . . . . 45, 78, 120–122
L Modèles . . . . . . . . . . . . . . . . . . . . . . . . 125, 169
Lambert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 Moindres carrées . . . . . . . . . . . . . . . . . . . . . . 45
Lauwerier . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Mollison . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Lawton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Morison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Leonard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Multi-pas . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Leslie . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 16, 21
Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 N
Linéaire . . . . . . . . . . . . . . . . . . . . . . . 24, 47, 50 Newton . 85, 86, 96, 99, 109, 113, 116–119,
Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 122, 133, 196
Locale . . . . . . . . . . . . . . . . . . . . . . . . 84, 85, 118 Nicholson . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Logistique . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Non carrée . . . . . . . . . . . . . . . . . . . . . . . . 43, 44
Logofet . . . . . . . . . . . . . . . . . . . . . . . . . . 21, 132 Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

225
Norme . 6, 11, 12, 22, 36, 51, 52, 58, 75, 77, Rectangulaire . . . . . . . . . . . . . . . . . . 43–46, 48
115, 122 Regula falsi . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Numérique . . . . . . . . 24, 37, 81, 91, 101, 121 Relaxation . . 51, 57–59, 61–63, 75, 78, 118,
193
O Ricker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Okubo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Rosenberg . . . . . . . . . . . . . . . . . . . . . . . . . 71, 72
Oliveira . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Opération . . . . . . . . . . . . . . . . . . . . . 24, 25, 47 Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Optimisation . . . . . . . . . . . . . . . . . . . . . . . . 119 Runge-Kutta . . . . . . . . . . . 163, 164, 166, 167
Orthogonale . . . . 7, 26, 35–37, 46, 145, 147
Ostrowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 S
Schaefer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
P Schur . . . . . . . . . . . . . . . . . . . . . . . . . . 9, 10, 12
Parker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Scott . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Perlis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Scuda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Permutation . . . . . . . . . . . . 7, 27, 31–33, 146 SEIR . . . . . . . . . . . . . . . . . . . . . . . . . . . 170, 174
Perron . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14, 21 SEIRS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Perturbation . . . . . . . . . . . . . . . . . . . . . . 36, 37 Semblable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Pielou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Serge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Pivot . . . . . . . . . . . . . . . . . . . . . . . . . . 29–33, 47 Sherman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Plemmons. . . . . . . . . . . . . . . . . . . . . . . . . 21, 72 SI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Point fixe . . . . . . . . . . . . . . . 82, 115, 116, 194 Singulière . . . . . . . . . . . . 9, 22, 36, 44, 46, 48
Polynôme8, 60, 81, 91, 94, 96, 97, 100, 101, SIR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170, 172
138, 139
SIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Primitive . . . . . . . . . . . . . . . . . . . . . . . . . . . 7, 14
Smilatova . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . 6
Smith . . . . . . . . . . . . . . . . . . . . . . . . . . 136, 182
Puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Sous-matrice . . . . . . . . . . . . . . . . . . . . . . 33, 34
Southwood . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Q
Spectre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
QR . . . . . . . . . . . . . . . . . . . . . . . . . 47, 143, 144
Stable . . . . . . . . . . . . . . . . . . . . . . . . . . . 36, 137
Quasi-dominante . . . . . . . . . . . . . . . . . . . . . . . 8
Stationnaire . . . . . . . . . . . . . . . . . . . . . . . . . 156
R Steffenson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Réductible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Stein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71, 72
Résolution 24, 25, 30, 36, 40, 41, 44, 46, 50, Stetter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
63, 122, 124, 139 Stieljes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7, 72
Racine . 8, 9, 60, 62, 64, 65, 78, 86, 94–101, Stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
110, 113, 138 Structure . . . . . . . . . . . . . . . . . . . . . . . . . 37, 46
Rayon spectral . . . . . 6, 8, 22, 52, 59, 74, 137 Sturm . . . . . . . . . . . . . . . . . . 99, 100, 114, 193

226
Subordonnée . . . . . . . . . . . . . . . . . . . 12, 22, 36 Y
Sujan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Supérieure 14, 22, 25, 29, 31, 33, 39, 77, 96, Yule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
142, 143
Z
Symétrique . . . . . . . 7, 26, 34, 46, 74, 98, 145
Ziegler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Système . . 14, 24, 25, 29–31, 34, 36, 38, 40,
44–47, 49, 50, 73, 74, 77, 78, 116,
124, 137, 139

T
Taylor . . . . . . . . . . . . . . . 81, 96, 120, 162–164
Triangulaire . . 22, 25, 29, 31–34, 38, 39, 46,
76, 77, 137, 142, 143
Tridiagonale . . 39, 49, 60, 61, 73, 75, 77, 78,
113
Troncature . . . . . . . . . . . . . . . . . 159, 167, 168

U
Unitaire . . . . . . . . . . . . . . . . . . . . . 7, 35, 43, 48

V
Valeur propre . . . . . . . . . . . . . . . . . . . . 7–9, 11,
14, 22, 23, 60–62, 74, 76–79, 114,
137, 138, 141–143, 147
Van Loan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Varga . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21, 72
Vecteur propre . . . . 8, 14, 137, 139, 141, 147
Verhulst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Verner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Vitesse . . . . . . 14, 53, 58, 74, 77, 78, 81, 108
Volterra . . . . . . . . . . . . . . . . . . . . . . . . 131, 132
von Mises . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

W
Wegstein . . . . . . . . . . . . . . . . . . . . . . . . . . 84, 85
White . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Whittaker . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Wickwire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

227

Vous aimerez peut-être aussi