[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
27 vues226 pages

Mon Cours

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 226

Cours d’Algèbre

Rym Chemmam

Classe préparatoire
2
Table des matières

1 Outils Mathématiques 5
1.1 Eléments de Logique . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Opération sur les propositions . . . . . . . . . . . . . . . 5
1.2 Différents types de raisonnement . . . . . . . . . . . . . . . . . 7
1.2.1 Raisonnement par l’absurde . . . . . . . . . . . . . . . . 7
1.2.2 Raisonnement par contraposée . . . . . . . . . . . . . . . 7
1.2.3 Raisonnement par récurrence . . . . . . . . . . . . . . . 7
1.3 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Ensembles - Applications et Relations 13


2.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Ensembles et éléments . . . . . . . . . . . . . . . . . . . 13
2.1.2 Sous-ensembles . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.3 Ensemble P(E) . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.4 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2 Restriction et prolongement . . . . . . . . . . . . . . . . 20
2.2.3 Composée de deux applications . . . . . . . . . . . . . . 20
2.2.4 Injectivité et Surjectivité . . . . . . . . . . . . . . . . . . 21
2.3 Image directe ou réciproque d’une partie . . . . . . . . . . . . . 26
2.4 Relation binaires . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.1 Relation d’équivalence . . . . . . . . . . . . . . . . . . . 29
2.4.2 Classes d’équivalence . . . . . . . . . . . . . . . . . . . . 30
2.4.3 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3
4 TABLE DES MATIÈRES

3 Entiers Naturels - Ensemble finis Analyse Combinatoire 39


3.1 Entiers naturels . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Propriétés fondamentales de N . . . . . . . . . . . . . . 39
3.2 Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1 Coefficients binominaux . . . . . . . . . . . . . . . . . . 48
3.3.2 Triangle de Pascal . . . . . . . . . . . . . . . . . . . . . 49
3.3.3 Formule du binôme de Newton . . . . . . . . . . . . . . 49
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4 Arithmétique dans Z 53
4.1 Multiples et diviseurs d’un entier . . . . . . . . . . . . . . . . . 53
4.1.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Division euclidienne dans Z . . . . . . . . . . . . . . . . . . . . 54
4.3 Diviseurs communs de deux entiers . . . . . . . . . . . . . . . . 54
4.3.1 Algorithme d’Euclide . . . . . . . . . . . . . . . . . . . . 54
4.4 Somme de multiples de deux entiers . . . . . . . . . . . . . . . . 56
4.5 Entiers premiers entre eux . . . . . . . . . . . . . . . . . . . . . 57
4.6 Carctérisation du P.G.C.D . . . . . . . . . . . . . . . . . . . . . 58
4.7 Multiples communs de deux entiers . . . . . . . . . . . . . . . . 58
4.8 Nombres premiers . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.9 Théorème fondamental . . . . . . . . . . . . . . . . . . . . . . . 60
4.10 Valuation d’un entier n en un entier premier p . . . . . . . . . . 61
4.11 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5 Structures algébriques 65
5.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.1 Loi de composition interne . . . . . . . . . . . . . . . . . 65
5.1.2 Structure de groupes . . . . . . . . . . . . . . . . . . . . 68
5.1.3 Groupe produit . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.4 sous-groupe . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.1.5 Groupe engendré . . . . . . . . . . . . . . . . . . . . . . 72
5.1.6 Morphismes de groupes . . . . . . . . . . . . . . . . . . . 73
5.1.7 Ordre d’un élément dans un groupe . . . . . . . . . . . . 75
5.1.8 Groupe symétrique . . . . . . . . . . . . . . . . . . . . . 77
5.2 Structure d’Anneau . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2.1 Calcul dans un anneau . . . . . . . . . . . . . . . . . . . 82
5.2.2 Sous-anneau . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2.3 Morphisme d’anneaux . . . . . . . . . . . . . . . . . . . 84
5.2.4 Anneau intègre . . . . . . . . . . . . . . . . . . . . . . . 84
TABLE DES MATIÈRES 5

5.2.5 Eléments inversibles d’un anneau . . . . . . . . . . . . . 86


5.3 Structure de corps . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

6 Polynômes 95
6.1 Polynômes à coefficients dans K . . . . . . . . . . . . . . . . . . 95
6.2 Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . 95
6.2.1 Une addition . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2.2 Une multiplication interne . . . . . . . . . . . . . . . . . 96
6.2.3 Une multiplication externe par les réels . . . . . . . . . . 96
6.3 Fonctions associées à un polynôme de K[X] . . . . . . . . . . . 97
6.4 Degré et valuation d’un polynôme . . . . . . . . . . . . . . . . . 98
6.5 Autres opérations sur les polynômes . . . . . . . . . . . . . . . . 99
6.5.1 Composition des polynômes . . . . . . . . . . . . . . . . 99
6.5.2 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.5.3 Dérivées successives . . . . . . . . . . . . . . . . . . . . . 100
6.6 Divisions dans K[X] . . . . . . . . . . . . . . . . . . . . . . . . 100
6.6.1 Division suivant les puissances croissantes . . . . . . . . 100
6.6.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . 102
6.7 Applications du procédé de Hörner . . . . . . . . . . . . . . . . 104
6.7.1 La division euclidienne par X − α (α ∈ K). . . . . . . . . 104
6.7.2 La division euclidienne par (X − α)(X − β) (α, β ∈ K) . 105
6.7.3 La formule de Taylor . . . . . . . . . . . . . . . . . . . . 105
6.8 Propriétés arithmétiques de K[X] . . . . . . . . . . . . . . . . . 108
6.8.1 Divisibilité dans K[X] . . . . . . . . . . . . . . . . . . . 108
6.8.2 P.G.C.D de deux polynômes . . . . . . . . . . . . . . . . 108
6.8.3 Algorithme d’Euclide . . . . . . . . . . . . . . . . . . . . 109
6.8.4 P.P.C.M de deux polynômes . . . . . . . . . . . . . . . . 112
6.8.5 Polynômes irréductibles . . . . . . . . . . . . . . . . . . 112
6.9 Factorisation dans K[X] . . . . . . . . . . . . . . . . . . . . . . 114
6.10 Formule d’interpolation de Lagrange . . . . . . . . . . . . . . . 117
6.11 Relations entre coefficients et racines d’un polynôme . . . . . . . 120
6.12 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

7 Fractions rationnelles 127


7.1 Définition d’une fraction rationelle . . . . . . . . . . . . . . . . 127
7.1.1 Opérations sur les fractions . . . . . . . . . . . . . . . . 128
7.1.2 Partie entière . . . . . . . . . . . . . . . . . . . . . . . . 129
7.2 Décomposition en éléments simples . . . . . . . . . . . . . . . . 130
7.2.1 Décomposition d’une partie polaire . . . . . . . . . . . . 131
6 TABLE DES MATIÈRES

7.2.2 Décomposition en éléments simples de première espèce . 132


7.2.3 Pratique de la décomposition . . . . . . . . . . . . . . . 133
7.2.4 Expression de la partie polaire relative à un pôle simple . 134
7.2.5 Expression de la partie polaire relative à un pôle multiple 135
7.2.6 Pratique de la décomposition dans R(X) . . . . . . . . . 136
7.2.7 Applications de la décomposition . . . . . . . . . . . . . 137
7.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

8 Espaces vectoriels 141


8.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . 141
8.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . 143
8.3 Somme de deux sous-espaces vectoriels . . . . . . . . . . . . . . 146
8.4 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.5 Familles libres - familles liées . . . . . . . . . . . . . . . . . . . . 147
8.6 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . 149
8.7 Bases de E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.7.1 Coordonnées d’un vecteur de E. . . . . . . . . . . . . . . 149
8.8 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . 150
8.8.1 Espaces vectoriels de dimension finie . . . . . . . . . . . 150
8.9 Dimension d’un sous-espace vectoriel . . . . . . . . . . . . . . . 153
8.10 Rang d’une famille finie de vecteurs . . . . . . . . . . . . . . . . 155
8.10.1 Calcul pratique du rang d’une famille de p vecteurs . . . 156
8.11 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

9 Applications linéaires 161


9.1 Image et noyau d’une application linéaire . . . . . . . . . . . . . 162
9.2 Espace L(E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
9.3 Projections et symétries . . . . . . . . . . . . . . . . . . . . . . 166
9.3.1 Projections . . . . . . . . . . . . . . . . . . . . . . . . . 166
9.3.2 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . 167
9.4 Noyau d’une forme linéaire . . . . . . . . . . . . . . . . . . . . . 168
9.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

10 Matrices 171
10.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
10.1.1 Définitions et Notations . . . . . . . . . . . . . . . . . . 171
10.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . 172
10.2.1 somme de deux matrices de Mn,p (K) . . . . . . . . . . . 172
10.2.2 Mutliplication d’une matrice de Mn,p (K) par un scalaire 173
10.3 L’espace vectoriel Mn,p (K) . . . . . . . . . . . . . . . . . . . . . 174
TABLE DES MATIÈRES 7

10.4 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . 174


10.4.1 Propriétés du produit matriciel . . . . . . . . . . . . . . 176
10.5 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . 177
10.6 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
10.7 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . 180
10.8 Trace d’une matrice carée . . . . . . . . . . . . . . . . . . . . . 181
10.9 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . 182
10.9.1 Représentation matricielle d’une famille de vecteurs . . . 182
10.9.2 Représentation matricielle d’une application linéaire . . . 183
10.9.3 Expression matricielle de l’application linéaire . . . . . . 184
10.9.4 Liens avec le calcul matriciel . . . . . . . . . . . . . . . . 185
10.9.5 Matrice de la composée de deux applications linéaires . . 186
10.9.6 Matrice d’un isomorphisme . . . . . . . . . . . . . . . . 186
10.10Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 186
10.11Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . 188
10.11.1 Changement de base sur un vecteur . . . . . . . . . . . . 188
10.11.2 Changement de bases sur une application linéaire . . . . 190
10.11.3 Changement de bases sur un endomorphisme . . . . . . . 191
10.12Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

11 Déterminants et systèmes linéaires 199


11.1 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
11.1.1 Applications multilinéaires . . . . . . . . . . . . . . . . . 199
11.1.2 Déterminant d’une application m-linéaire . . . . . . . . . 202
11.1.3 Déterminant d’une matrice carrée . . . . . . . . . . . . . 204
11.1.4 Conséquences et propriétés . . . . . . . . . . . . . . . . . 207
11.1.5 Développement du déterminant selon une rangée . . . . . 210
11.1.6 Calcul du déterminant . . . . . . . . . . . . . . . . . . . 211
11.2 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 214
11.2.1 Interprétation en termes d’applications linéaires . . . . . 215
11.2.2 Résolution d’un système de Cramer . . . . . . . . . . . . 215
11.2.3 Résolution par la méthode du pivot de Gauss . . . . . . 216
11.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
8 TABLE DES MATIÈRES
Chapitre 1

Outils Mathématiques

1.1 Eléments de Logique


Définition 1.1 Une assertion ou une proposition est un énoncé dont on peut
dire s’il est vrai ou faux. Donc elle a deux valeurs de vérité possibles notées
(V ) ou (F ).

Exemple 1.1 1. ≪ 2 est un nombre impair ≫ est une assertion fausse.



2. ≪ 2 est un irrationnel ≫ est une assertion vraie.

1.1.1 Opération sur les propositions


1.1.1.1 Négation

Si (P ) est une proposition, sa négation est la proposition notée (P ) ou


non (P ).

Exemple 1.2 1. La négation de ≪ x≥0 ≫ est ≪ x < 0 ≫.


2. La négation de ≪f est la fonction nulle ≫ est ≪ f n’est pas la fonction
nulle ≫ et non f ne s’annule pas.

Remarque 1.1 On a (P ) = (P ) (c’est à dire non (non (P )) = (P )).

1.1.1.2 Connecteurs logiques ≪ et ≫ et ≪ ou ≫

Soit (P ) et (Q) deux assertions. On définit

9
10 CHAPITRE 1. OUTILS MATHÉMATIQUES

• La conjonction de (P ) et (Q), notée (P et Q) ou (P ∧ Q) par la table


de vérité
P Q P∧Q
V V V
F F F
V F F
F V F

• La disjonction de (P ) et (Q) notée (P ou Q) ou (P ∨ Q) par la table de


vérité
P Q P∨Q
V V V
V F V
F V V
F F F

Remarque 1.2 En général, la place d’éventuelles parenthèses est importante.


Par exemple ≪ (non P ) ou Q ≫ ne veut pas dire la même chose que ≪ non (P
ou Q) ≫ : Si P et Q sont toutes les deux vraies, la première proposition est
vraie, mais le seconde est fausse.

1.1.1.3 Implication

On appelle implication et on note ((P ) ⇒ (Q)) la proposition P̄ ∨ Q.


(P ) en est l’hypothèse et Q la conclusion.
On lit, (P ) implique (Q) ou, (P ) entraine (Q) ou encore, si (P ) est vraie alors
(Q) est vraie.

1.1.1.4 Equivalence
On dit que les assertions (P ) et (Q) sont équivalentes et on note

(P ) ⇔ (Q) si [(P ) ⇒ (Q) et (Q) ⇒ (P )]

On lit, (P ) équivalent (Q) ou, on a (P ) si et seulement si on a (Q) ou encore,


pour que (P ) soit vraie il faut et il suffit que (Q) le soit.

Remarque 1.3 ≪ ⇒ ≫ est dite condition nécessaire.


≪ ⇐ ≫ est dite Condition suffisante.
1.2. DIFFÉRENTS TYPES DE RAISONNEMENT 11

1.2 Différents types de raisonnement


1.2.1 Raisonnement par l’absurde
Pour établir que (P ) ⇒ (Q) est vraie. On suppose que P est vraie et Q est
fausse et on montre que cela entraine une contradiction. On dit qu’on a fait
un raisonnement par l’absurde. Ce raisonnement peut être
√ aussi utilisé pour
montrer une assertaion : Par exemple, pour montrer que 2 est irrationnel.

Exemple 1.3 Montrons que (2 divise n2 ) ⇒ (2 divise n).


Supposons que (2 divise n2 ) et que (2 ne divise pas n) c’est à dire que n est
impair. Alors, il existe p ∈ N, tel que

n = 2p + 1 ⇒ n2 = 2(2p2 + 2p) + 1

et donc 2 ne divise pas n2 . Ceci est en contradiction avec notre hypothèse.

1.2.2 Raisonnement par contraposée


Pour montrer que (P ) ⇒ (Q) on peut montrer que (Q̄) ⇒ (P̄ ).
En effet (P ⇒ Q) signifie (P̄ ) ou (Q) signifie (Q) ou (P̄ ) signifie (Q̄) ⇒ (P̄ ).
On dit qu’on a fait un raisonnement par contraposée et l’assertion
(Q̄) ⇒ (P̄ ) est dite la contraposée de l’assertion (P ) ⇒ (Q).

Exemple 1.4 Soit k, k ′ ∈ N∗ . Montrons que kk ′ = 1 ⇒ k = 1 et k ′ = 1.


Supposons que (k ̸= 1 ou k ′ ̸= 1) ⇒ (k ≥ 2 et k ′ ≥ 1) ou (k ≥ 1 et k ′ ≥ 2) et
dans les deux cas kk ′ ≥ 2 et donc kk ′ ̸= 1.

1.2.3 Raisonnement par récurrence


Soit P (n) une propriété portant sur un entier naturel n, telle que P (0) est
vraie et que, pour tout entier n, P (n) implique P (n + 1). Alors P (n) est vraie
pour tout entier naturel n. En pratique, on utilise souvent la variante suivante
P (n) est une assertion telle que P (0) soit vraie et que la conjonction des
assertions P (0), ..., P (n) implique P (n + 1). Alors P (n) est vraie pour tout
entier naturel n.

Remarque 1.4 Nous donnons une démonstration du principe de récurrence


dans le chapitre 2.

Exemple 1.5 1. Montrons que pour tout n ∈ N, n! ≥ 2n−1 .


Pour n = 0 on a, 0! = 1 ≥ 2−1 vraie.
12 CHAPITRE 1. OUTILS MATHÉMATIQUES

Pour n = 1 on a, 1! = 1 = 20 ceci est encore vraie.


Soit n ≥ 1, supposons que n! ≥ 2n−1 , on a
(n + 1)! = (n + 1)n! ≥ (n + 1)2n−1 ≥ 2.2n−1 = 2n .
C’est à dire P (n + 1) est vraie. Ainsi
∀ n ≥ 0, n! ≥ 2n−1 .

n
n(n + 1)(2n + 1)
2. Montrons que pour tout n ≥ 1, Sn = k2 = .
k=1
6
Pour n = 1, l’égalité est vraie.
n(n + 1)(2n + 1)
Supposons que pour n ≥ 1, Sn = .
6
On a
(n + 1)(n + 2)(2n + 3)
Sn+1 = Sn + (n + 1)2 = .
6
D’où le résultat.

1.3 Quantificateurs
• Le quantificateur universel noté ≪ ∀ ≫ , se lit ≪ quelque soit ≫ et signifie
≪ pour tout élément... ≫ .

Par exemple : pour tout x dans R, s’écrit ∀ x ∈ R.


• Le quantificateur existentiel noté ≪ ∃ ≫ , se lit ≪ il existe au moins un
élément... ≫ .
La notation ≪ ∃! ≫ se lit ≪ il existe un unique élément... ≫ .
Exemple 1.6 ∃! n ∈ N, tel que n < π < n + 1.

Attention ! ! Dans une proposition quantifiée, on ne peut pas changer l’ordre


des quantificateurs.

Exemple 1.7 Une fonction f est dite majorée sur R si (∃ M ∈ R : ∀ x ∈ R,


f (x) ≤ M ) est une proposition vraie, alors que la proposition (∀ x ∈ R,
∃ M ∈ R : f (x) ≤ M ) est une proposition fausse (dans ce cas M dépend de
x).

Remarque 1.5 1. On peut permuter les quantificateurs de même nature


(∀ x ∈ E, ∀ y ∈ E, P (x, y)) ⇔ (∀ y ∈ E, ∀ x ∈ E, P (x, y))
(∃ x ∈ E, ∃ y ∈ E, P (x, y)) ⇔ (∃ y ∈ E, ∃ x ∈ E, P (x, y)).
1.4. EXERCICES 13

2. Soit (P ) une proposition

∀ x ∈ E, P (x) ⇔ ∃ x ∈ E, P (x).

Exercice 1.1 Ecrire avec les quantificateurs, les propositions suivantes


1. f n’est pas nulle sur R.
2. f n’est pas croissante sur R.

Solution
1. ∃ x ∈ R : f (x) ̸= 0.
2. ∃ (a, b) ∈ R2 : a ≤ b et f (a) > f (b). (C’est la négation de a ≤ b ⇒
f (a) ≤ f (b)).
Erreurs à ne pas commettre
1. Croire que la négation de x ≤ 0 est x ≥ 0. (La négation de x ≤ 0 est
x > 0).
2. Confondre ≪ ⇒ ≫ et ≪ ⇔≫.
3. Refuser l’usage de ≪ ∀ ≫ et ≪ ∃ ≫ . La phase sin x ̸= x n’a pas de sens.
(tout résultat contenant une variable doit être précédé d’un quantifica-
teur adéquat).
4. La phrase f (x) ̸= 0, ∀ x ∈ R n’est pas correcte. On doit écrire ∀ x ∈
R, f (x) ̸= 0.
5. Attention ! ! ∀ x ∈ R, (f (x) = 0 ou g(x) = 0) n’a pas le même sens que
(∀ x ∈ R, f (x) = 0) ou (∀ x ∈ R, g(x) = 0).

1.4 Exercices
Exercice 1. Soient I un intervalle de R et f : I → R, une application.
1. Exprimer à l’aide des quantificateurs les assertions suivantes :
a) L’applicattion f s’annule sur I.
b) f est l’application nulle.
c) f présente un minimum sur I.
2. Ecrire les négations des assertions a), b) et c) de la question 1.
1). Exercice 2. Soient les quatres assertions suivantes :
a) ∃ x ∈ R, ∀ y ∈ R x + y > 0 ;
b) ∀ x ∈ R ∃ y ∈ R x + y > 0 ;
c) ∀ x ∈ R ∀ y ∈ R x + y > 0 ;
d) ∃ x ∈ R ∀ y ∈ R y 2 > x.
14 CHAPITRE 1. OUTILS MATHÉMATIQUES

1. Les assertions a), b), c), d) sont-elles vraies ou fausses ?


2. Donner leurs négation.
Exercice 3. Soient f et g deux fonctions de R dans R. Traduire en termes de
quantificateurs les expressions suivantes :
1. f est majorée ;
2. f est bornée ;
3. f est paire ;
4. f est impaire ;
5. f ne s’annule jamais ;
6. f est périodique ;
7. f est croissante ;
8. f est strictement décroissante ;
9. f n’est pas la fonction nulle ;
10. f n’a jamais les mêmes valeurs en deux points distincts ;
11. f atteint toutes les valeurs de N;
12. f est inférieure à g ;
13. f n’est pas inférieure à g.
Exercice 4. Soit f une application de R dans R. Nier, de la manière la plus
précise possible, les énoncés qui suivent :
1. Pour tout x ∈ R f (x) < 1.
2. L’application f est croissante.
3. L’application f est croissante et positive.
4. Il existe x ∈ R+ tel que f (x) < 0.
5. Il existe x ∈ R tel que quel que soit y ∈ R, si x < y alors f (x) > f (y).
On ne demande pas de démontrer quoi que ce soit, juste d’écrire le contraire
d’un énoncé.
Exercice 5.(Questions indépendantes)
1. Les phrases suivantes sont elles équivalentes ?
a) (∀ x ∈ R, f (x) = 0 et g(x) = 0) et (∀ x ∈ R, f (x) = 0) et (∀x ∈
R, g(x) = 0).
b) (∀ x ∈ R, f (x) = 0 ou g(x) = 0) et (∀ x ∈ R, f (x) = 0) ou
(∀x ∈ R, g(x) = 0).
2. Donner un exemple de fonctions f et g de R dans R toutes deux non
nulles et dont le produit est nul.
1.4. EXERCICES 15

3. Nier en utilisant les quantificateurs les assertions suivantes :


a) ∀ x ∈ R, f (x) ̸= 0.
b) ∀ M ∈ R, ∃ A > 0 : ∀ x ≥ A, f (x) > M.
c) ∀ x ∈ R, f (x) > 0 =⇒ x ≤ 0.
d) ∀ ε > 0, ∃ η > 0 : ∀ (x, y) ∈ R2

|x − y| ≤ η =⇒ |f (x) − f (y)| ≤ ε.

Exercice 6. Déterminer parmi les propositions suivantes lesquelles sont vraies :


1. ∃ x ∈ R∗ , ∀ y ∈ R∗ , ∀ z ∈ R∗ , z − xy = 0 ;
2. ∀ y ∈ R∗ , ∃ x ∈ R∗ , ∀ z ∈ R∗ , z − xy = 0 ;
3. ∀y ∈ R∗ , ∀ z ∈ R∗ , ∃ x ∈ R∗ , z − xy = 0;
Exercice 7. Déterminer les réels x pour lesquels l’assertion suivante est vraie :

∀ y ∈ [0, 1], x ≥ y ⇒ x ≥ 2y.


16 CHAPITRE 1. OUTILS MATHÉMATIQUES
Chapitre 2

Ensembles - Applications et
Relations

2.1 Ensembles
2.1.1 Ensembles et éléments
On appelle ensemble toute collection d’objets appelés éléments de cet ensemble.
Pour signifier qu’un élément x appartient à un ensemble E, on écrit x ∈ E.
Sinon, on écrit x ∈
/ E.

Exemple 2.1 N, Z, Q, R et C sont les ensembles de nombres usuels.

Remarque 2.1 L’ensemble constitué d’aucun élément est dit ensemble vide
et est noté par ≪ ∅ ≫ .

2.1.2 Sous-ensembles
Etant donnés deux ensembles E et F non vides. On dit que E est inclus dans
F (ou que E est un sous-ensemble ou une partie de F ou encore que F contient
E) et on note E ⊂ F , si tout élément de E est un élément de F .

Exemple 2.2 1. N ⊂ Z ⊂ Q ⊂ R ⊂ C.
2. {a, c} ⊂ {a, b, c}.

Remarque 2.2 1. Deux ensembles sont égaux si, et seulemenet s’ils ont
exactement les mêmes éléments c’est à dire

E = F ⇔ (E ⊂ F et F ⊂ E).

17
18 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

2. Un sous-ensemble de E peut être défini comme l’ensemble des éléments de


E vérifiant une certaine proposition. Par exemple R+ = {x ∈ R : x ≥ 0}.
En particulier, si cette proposition est impossible, on obtient l’ensemble
vide qui doit donc être considéré comme un sous-ensemble de n’importe
quel ensemble. Par exemple {x ∈ R : x > 0 et x < 0} = ∅.
3. Un ensemble qui possède un élément est appelé singleton. Il ne faut pas
confondre l’élément x et le singleton {x}. Par exemple, on peut écrire
2 ∈ N ou {2} ⊂ N.

2.1.3 Ensemble P(E)


Tous les sous ensembles d’un ensemble E constituent un nouvel ensemble ap-
pelé ensemble de parties de E, noté P(E). Ainsi
A ∈ P(E) ⇔ A ⊂ E.

Exemple 2.3 Si E = {a, b, c}, alors P(E) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, E}.

Remarque 2.3 L’ensemble P(∅) n’est pas vide puisqu’il contient l’ensemble
∅, c’est un singleton P(∅) = {∅}.

2.1.3.1 Opérations dans P(E)


Soient E un ensemble et A, B deux parties de E. On peut définir de nouvelles
parties de E par les opérations suivantes
• Complémentaire
CE A est l’ensemble des éléments de E qui n’appartiennent pas à A. Ainsi
∀ x ∈ E, x ∈ CE A ⇔ x ∈
/ A.

Exemple 2.4 CR {0} = R∗ .


Notation Quand il n’y a pas de confusion, on peut noter par A le complémentaire
de A dans E.
• Intersection
A ∩ B est l’ensemble des éléments appartenant à la fois à A et B. Ainsi
∀ x ∈ E, x ∈ A ∩ B ⇔ x ∈ A et x ∈ B.
2.1. ENSEMBLES 19

Exemple 2.5 R+ ∩ R− = {0}.


• Réunion
A ∪ B est l’ensemble de tous les éléments appartenant à A ou à B. Ainsi

∀ x ∈ E, x ∈ A ∪ B ⇔ x ∈ A ou x ∈ B.

Exemple 2.6 R+ ∪ R− = R.
• Différence
A \ B est l’ensemble des éléments de E qui appartienent à A mais pas à B.
Ainsi
A \ B = A ∩ CE B.

Exemple 2.7 R+ \ R− = R∗+ .


• Différence symétrique
A△B est l’ensemble des éléments de E qui appartiennent soit à A soit à B,
mais pas aux deux à la fois. Ainsi

A△B = (A ∪ B) \ (A ∩ B).

Exemple 2.8 R+ △R− = R∗ .

Remarque 2.4 1. Si A ⊂ B alors A ∩ B = A et A ∪ B = B.


2. Pour tout A ∈ P(E) on a A ∩ CE A = ∅ et A ∪ CE A = E.
3. Pour i ∈ I, on considère Ai ∈ P(E)

x ∈ ∩i∈I Ai ⇔ ∀ i ∈ I : x ∈ Ai .

et
x ∈ ∪i∈I Ai ⇔ ∃ i0 ∈ I : x ∈ Ai0 .

Proposition 2.1 Pour toutes parties A, B et C d’un ensemble E on a


1. A ∪ ∅ = A.
2. A ∩ ∅ = ∅.
3. A ∪ A = A ∩ A = A.
20 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

4. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
5. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
6. Si A ⊂ B ⇒ B ⊂ A.
7. A ∩ B = A ∪ B.
8. A ∪ B = A ∩ B.
Preuve . Les propriétés ci dessus sont faciles à établir, montrons par exemple
les propriétés 4. et 7.
4. On a
x ∈ A ∩ (B ∪ C) ⇔ x ∈ A et x ∈ (B ∪ C)
⇔ x ∈ A et (x ∈ B ou x ∈ C)
⇔ (x ∈ A et x ∈ B) ou (x ∈ A et x ∈ C)
⇔ (x ∈ A ∩ B) ou (x ∈ A ∩ C)
⇔ x ∈ (A ∩ B) ∪ (A ∩ C).
7. On a
x∈A∩B ⇔x∈ / A∩B
⇔x∈ / A ou x ∈
/B
⇔ x ∈ A ∪ B.


Exercice 2.1 Soient A, B et C des parties de E. On suppose que


A ∪ C = A ∪ B et que A ∩ B = A ∩ C. Montrer que B = C.
Solution
Première méthode Montrons que B ⊂ C et que C ⊂ B.
Soit x ∈ B ⇒ x ∈ A ∪ B = A ∪ C ⇒ x ∈ A ou x ∈ C.
• Si x ∈ C alors B ⊂ C.
• Si x ∈ A ⇒ x ∈ A ∩ B = A ∩ C ⇒ x ∈ C.
Par symétrie on en déduit que C ⊂ B.
Deuxième méthode En utilisant le fait que A ∪ C = A ∪ B et que
A ∩ B = A ∩ C, on peut alors écrire
B = B ∪ (A ∩ B)
= B ∪ (A ∩ C)
= (B ∪ A) ∩ (B ∪ C)
= (A ∪ C) ∩ (B ∪ C)
= (A ∩ B) ∪ C
= (A ∩ C) ∪ C
= C.
2.2. APPLICATIONS 21

D’où le résultat.

2.1.4 Produit cartésien


Définition 2.1 On appelle produit cartésien de E par F et on note E × F,
l’ensemble formé par des couples (a, b) avec a dans E et b dans F. Ainsi,

E × F = {(a, b), a ∈ E et b ∈ F }.

Exemple 2.9 Pour E = {a, b, c} et F = {1, 2},

E × F = {(a, 1), (a, 2), (b, 1), (b, 2), (c, 1), (c, 2)}.

Remarque 2.5 1. Lorsque E et F sont des ensembles distincts non vides,


on a E × F ̸= F × E.
2. Lorsque E = F , il est usuel de noter E 2 au lieu de E × E.

Généralisation
Soient n ∈ N∗ , E1 , E2 , ..., En des ensembles. On appelle produit cartésien de
∏n
E1 , E2 , ..., En noté E1 × E2 × ... × En ou simplement Ei , l’ensemble des
i=1
n-uplets (x1 , x2 , ..., xn ) tel que xi ∈ Ei pour tout i ∈ {1, 2, ..., n}.

Remarque 2.6 (x1 , x2 , ..., xn ) = (y1 , y2 , ..., yn ) ⇔ xi = yi , ∀ i ∈ {1, 2, ..., n}.

2.2 Applications
2.2.1 Définition
On appelle application d’un ensemble E dans un ensemble F , toute opération
f permettant d’associer à tout x de E un élément bien déterminé unique de
F noté f (x). Ainsi,

f application de E dans F ⇔ ∀ x ∈ E, ∃! y ∈ F : y = f (x).

Notations et vocabulaires
On note par

f : E −→ F
x 7−→ f (x)
22 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

 E est appelé ensemble de départ de l’application f.


 F est appelé ensemble d’arrivée de l’application f.
 y est appelé image de x par l’application f .
 x est appelé un antécédent de y par l’application f .
 On appelle graphe de f et on note Gf, l’ensemble
Gf = {(x, f (x)) : x ∈ E}.
 On note F(E, F ), l’ensemble de toutes les applications de E dans F .
Définition 2.2 Deux applications sont égales si, et seulement si, elles ont
même ensemble de départ, même ensemble d’arrivée et même graphe.
Exemple 2.10 Les applications f : R → R et g : R+ → R+ sont
x 7→ x2 x 7→ x2
différentes car elles n’ont pas du tout les mêmes propriétés (parité, crois-
sance...).
Exemple généraux
1. Application identique de E
idE : E −→ E
x 7−→ x

2. Injection canonique de E dans F (E ⊂ F )


jE : E −→ F
x 7−→ x

3. Projections

p1 : E × F → E et p2 : E × F → F
(x, y) 7 → x (x, y) 7→ y

4. Application caractéristique de A

Soient E un ensemble et A ∈ P(E). On appelle application caractéristique


de A l’application définie par
χA : E −→ {0, 1}
{
1 x ∈ A,
x 7−→
0 x∈/ A.
2.2. APPLICATIONS 23

Exercice 2.2 Soient E un ensemble, A et B deux parties de E. Montrer que


1. A ⊂ B ⇔ χA ≤ χB .
2. A = B ⇔ χA = χB .
3. χA∩B = χA χB.
4. χĀ = 1 − χA .
5. χA∪B = χA + χB − χA χB .
6. χA\B = χA (1 − χB ).
7. χA△B = χA + χB − 2χA χB .
8. Déduire que A△(B△C) = (A△B)△C.
Solution
1. Soit x ∈ E = A ∪ A.

Si x ∈ A, alors x ∈ B car A ⊂ B. Ainsi χA (x) = χB (x) = 1.

Si x ∈
/ A, alors χA (x) = 0 et donc χA (x) ≤ χB (x).
Ainsi si A ⊂ B, alors χA (x) ≤ χB (x). Réciproquement, soit x ∈ A, alors
χA (x) = 1. Or χA ≤ χB donc χB (x) = 1 et par suite x ∈ B.
2. A = B ⇔ A ⊂ B et B ⊂ A ⇔ χA ≤ χB et χB ≤ χA ⇔ χA = χB .
3. Soit x ∈ E = (A ∩ B) ∪ (A ∩ B).

Si x ∈ A ∩ B alors x ∈ A et x ∈ B. Ainsi χA∩B (x) = 1, χA (x) = 1 et
χB (x) = 1. D’où χA∩B = χA χB .

Si x ∈/ A ∩ B alors x ∈ / A ou x ∈/ B. Ainsi χA∩B (x) = 0 et
χA (x)χB (x) = 0 donc χA∩B = χA χB .
4. Soit x ∈ E = A ∪ A.

Si x ∈ Ā ⇒ x ∈ / A et par suite χĀ (x) = 1 et χA (x) = 0 d’où
χĀ = 1 − χA .

Si x ∈ A ⇒ x ∈ / Ā et par suite χA (x) = 1 et χĀ (x) = 0 d’où
χĀ = 1 − χA .
5. En utilisant l’égalité 4., on a
χA∪B = 1 − χA∪B = 1 − χĀ∩B̄ = 1 − χĀ χB̄
= 1 − (1 − χA )(1 − χB ) = χA + χB − χA χB .
6. Comme A \ B = A ∩ B, on a d’après 1., χA\B = χA∩B̄ = χA χB̄ =
χA (1 − χB ).
7. Comme A△B = (A ∪ B) \ (A ∩ B), on a d’après 1.,
χA△B = χ(A∪B)\(A∩B) = χA∪B (1 − χA∩B )
= (χA + χB − χA χB )(1 − χA χB )
= χA + χB − 2χA χB .
24 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

8. Il suffit de montrer en utilisant les propriétés précédentes que


χA△(B△C) = χ(A△B)△C .

2.2.2 Restriction et prolongement


Soient f une application d’un ensemble E vers un ensemble F et A une partie
de E. On appelle restriction de f à une partie A de E, l’application notée f|A
définie par
f|A : A −→ F
x 7−→ f (x)
Définition 2.3 Soient E et E ′ deux ensembles tels que E ⊂ E ′ et soit f une
application de E vers un ensemble F. On appelle prolongement de f à E ′ toute
application g : E ′ → F telle que g|E = f c’est à dire ∀ x ∈ E, g(x) = f (x).
Exemple 2.11 1. Soient
f : R+ → R et g: R → R
x 7 → ln x x 7 → ln |x|
g est un prolongement de f car g|R+ = f .
2. Soit
h : R −→ R
x 7−→ ln(2|x| − x)
On a h|R+ = f .
Remarque 2.7 L’exemple ci dessus montre qu’en général le prolongement
n’est pas unique.

2.2.3 Composée de deux applications


Soient E, F et G trois ensembles, f une application de E dans F et g une
application de F dans G.
On appelle application composée de f et g l’application de E dans G notée
g ◦ f , qui à un élément x de E, fait correspondre l’image par g de l’image par
f de x.
Attention ! ! L’ordre peut paraı̂tre paradoxal, mais il est en fait trés commode,
en effet
∀ x ∈ E, g ◦ f (x) = g[f (x)].
2.2. APPLICATIONS 25

Théorème 2.1 Si E, F, G et H sont quatre ensembles et f, g et h sont trois


applications appartenant respectivement à F(E, F ), F(F, G) et F(G, H), alors

h ◦ (g ◦ f ) = (h ◦ g) ◦ f.

Preuve . Les deux applications h ◦ (g ◦ f ) et (h ◦ g) ◦ f ont le même ensemble


de départ E et le même ensemble d’arrivée H et

∀ x ∈ E, h ◦ (g ◦ f )(x) = h(g(f (x))) = (h ◦ g) ◦ f (x).

Ces deux applications sont donc égales. 

2.2.4 Injectivité et Surjectivité


2.2.4.1 Application injective
Définition 2.4 Soient E et F deux ensembles et f une application de E dans
F.
1. On dit que f est injective (ou que c’est une injection), si tout élément
de F a au plus un antécédent dans E. Autrement dit, si pour tout y ∈ F
l’équation f (x) = y, d’inconnue x dans E admet au plus une solution .
A l’aide des quantifications, l’injectivité de f s’écrit

∀ (x, x′ ) ∈ E 2 , f (x) = f (x′ ) ⇒ x = x′ ,

ou encore
∀ (x, x′ ) ∈ E 2 , x ̸= x′ ⇒ f (x) ̸= f (x′ ).

En pratique
I Pour montrer que f : E → F est injective,
Soit x, y ∈ E tel que f (x) = f (y)... ⇒ x = y.
I Pour montrer que f n’est pas injective il suffit de trouver x0 , y0 tel que
x0 ̸= y0 et f (x0 ) = f (y0 ).

Exemple 2.12 1. L’application

f : N −→ N
n 7−→ 2n

est injective.
26 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

2. L’application

g : R −→ N
x 7−→ x2

est non injective (g(1) = g(−1) et 1 ̸= −1).

Exercice 2.3 Soit I un intervalle de R et soit f : I → R une application


strictement croissante. Montrer que f est injective.

Solution Soit x, y ∈ E,

x ̸= y ⇒ x < y ou x > y ⇒ f (x) < f (y) ou f (x) > f (y) ⇒ f (x) ̸= f (y).

Théorème 2.2 1. La composée de deux injections est une injection.


2. Si la composée g ◦ f est injective alors f est injective.
3. L’application de E dans F est injective si, et seulement si, il existe une
application g de F dans E telle que g ◦ f = idE .

Preuve . Soient E, F, G trois ensembles, f une application de E dans F et


g une application de F dans G.
1. Supposons que f et g soient deux applications injectives. Soit (x, x′ ) ∈
E 2 , tel que g◦f (x) = g◦f (x′ ) c’est à dire g(f (x)) = g(f (x′ )). En utilisant
l’injectivité de g, on en déduit que f (x) = f (x′ ) et du fait de l’injectivité
de f , on aura x = x′ . Ainsi, g ◦ f est injective.
2. Supposons que l’application g ◦ f est injective. Soit (x, x′ ) ∈ E 2 , tel que
f (x) = f (x′ ). On a alors g ◦ f (x) = g ◦ f (x′ ) et du fait de l’injectivité de
g ◦ f, on en déduit que x = x′ et par suite f est injective.
3. Si f est une injection E dans F , construisons une application de F dans
E de la façon suivante. A tout élément de F qui possède un antécédent
dans E par f , on associe cet antécédent (qui est unique), à tout élément
de F qui ne possède pas d’antécédent, on associe un élément fixe de E.
On a bien
∀ x ∈ E g ◦ f (x) = x.
Réciproquement, s’il existe une application g telle que g ◦ f = idE , le
résultat du point 2. garantit l’injectivité de f .

2.2. APPLICATIONS 27

2.2.4.2 Application surjective


Définition 2.5 Soit f une application d’un ensemble E dans un ensemble
F . On dit que f est surjective (ou que c’est une surjection) si tout élément
de F a au moins un antécédent dans E. Autrement dit si pour tout y ∈ F ,
l’équation f (x) = y, d’inconnue x dans E, admet au moins une solution. A
l’aide de quantifications, la surjectivité de f s’écrit

f surjective ⇔ ∀ y ∈ F, ∃ x ∈ E : f (x) = y.

En pratique
I Pour montrer que f : E → F est surjective
Soit y ∈ F...∃ x ∈ E, f (x) = y.
I Pour montrer que f n’est pas surjective il suffit de trouver y ∈ F qui n’a
pas d’antécédents.

Exemple 2.13 1. L’application

g : N −→ N
n 7−→ 2n

n’est pas surjective car le nombre 3 n’a pas d’antécédent.


2. L’application

f : R −→ R+
x 7−→ x2

est surjective.

Théorème 2.3 1. La composée de deux surjections est une surjection.


2. Si la composée g ◦ f est surjective alors g est surjective.
3. L’application f de E dans F est surjective si et seulement si, il existe
une application h de F dans E telle que f ◦ h = idF .

Preuve . Soient E, F, G trois ensembles, f une application de E dans F et


g une application de F dans G.
1. Supposons que f et g soient surjectives. Soit z ∈ G, z possède un antécédent
y dans F par g et y possède un antécédent x dans E par f . Ainsi,
g ◦ f (x) = g(y) = z, x est donc un antécédent de z par g ◦ f . Cette
application est surjective.
28 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

2. Supposons que g ◦ f est surjective. Soit z ∈ G, z possède un antécédent


x dans E par g ◦ f, d’où z = g ◦ f (x) = g(f (x)). Ainsi, f (x) est un
antécédent de z dans F par g. L’application g est donc surjective.
3. Si f est une surjection de E dans F , construisons une application h de F
dans E qui à tout élément de F assure l’un quelconque de ses antécédents
par f dans E. On a
∀ y ∈ F, f ◦ h(y) = y.
Réciproquement, s’il existe une application h telle que f ◦ h = idF , le
résultat du point 2. garantit le surjectivité de f .


2.2.4.3 Application bijective


Définition 2.6 Une application f de E dans F est dite bijective (ou que
c’est une bijection) si elle est à la fois injective et surjective c’est à dire si tout
élément de F a un antécédent et un seule dans E, autrement dit, si pour tout
y ∈ F , l’équation f (x) = y, d’inconnue x dans E, admet une solution unique.
A l’aide de quantifications, la bijectivité de f s’écrit

f bijective ⇔ ∀ y ∈ F, ∃! x ∈ E : y = f (x).

Exemple 2.14 1. idE est bijective.


2. L’application

f : R+ −→ R+
x 7−→ x2

est bijective.

Théorème 2.4 1. La composée de deux bijections est une bijection.


2. Si la composée g ◦ f est bijective alors g est surjective et f est injective.
3. L’application f de E dans F est bijective si, et seulement si il existe une
application de F dans E notée f −1 telle que

f −1 ◦ f = idE et f ◦ f −1 = idF

Ainsi, f est inversible à gauche et à droite et son inverse est ici unique.
L’application f −1 est appelée bijection réciproque de f .
2.2. APPLICATIONS 29

4. Si f et g sont deux bijections

(g ◦ f )−1 = f −1 ◦ g −1 .

Preuve . 1. et 2., découlent directement des Théorèmes 2.2 et 2.3.


3. Si f est bijective alors, elle admet un inverse à gauche g et un inverse à
droite c’est à dire

g ◦ f = idE et f ◦ g = idF .

Calculons de deux façons g ◦ f ◦ h

g ◦ f ◦ h = (g ◦ f ) h = idE ◦ h = h

g ◦ f ◦ h = g ◦ (f ◦ h) = g ◦ idF = g
d’où g = h.
L’inverse à droite et l’inverse à gauche sont égaux. On note cette application
f −1 . Réciproquement, s’il existe une application g telle que g ◦ f = idE et
f ◦ g = idF alors f est évidemment bijective.
4. Comme

(f −1 ◦ g −1 ) ◦ (g ◦ f ) = f −1 ◦ g −1 ◦ g ◦ f = f −1 ◦ f = idE

et que
(g ◦ f ) ◦ (f −1 ◦ g −1 ) = g ◦ f ◦ g −1 = g ◦ g −1 = idF .
On en déduit que
(g ◦ f )−1 = f −1 ◦ g −1 .


Exercice 2.4 Soit

f : R \ {2} −→ F
x+5
x 7−→
x−2

avec F un sous-ensemble de R. Déterminer l’ensemble F pour que f soit bi-


jective et donner f −1 .
30 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

Solution Montrer que f est bijective revient à examiner l’existence de solution


de l’équation y = f (x). On a
x+5
y= ⇔ y(x − 2) = x + 5
x−2
⇔ x(y − 1) = 5 + 2y
5 + 2y
⇔ x= , y ̸= 1.
y−1
Ce qui montre que
5 + 2y
∀ y ∈ R \ {1}, ∃ x = tel que f (x) = y.
y−1
5 + 2y
Il reste à voir que ∈ R \ {2}.
y−1
5 + 2y
Pour cela, on suppose que = 2 ⇔ 5 + 2y = 2y − 2. Ceci est impossible.
y−1
Ainsi F = R \ {1} et

f −1 : R \ {1} −→ R \ {2}
5 + 2y
y 7−→
y−1

Remarque 2.8 Si f est bijective alors f −1 l’est aussi et on a

(f −1 )−1 = f.

2.3 Image directe ou réciproque d’une partie


Définition 2.7 Soient f une application de E dans F, A ⊂ E et B ⊂ F .
1. On appelle image de A par f l’ensemble des images des éléments de A
noté f (A). Ainsi,

f (A) = {f (x) : x ∈ A} ⊂ F.

2. On appelle image réciroque de B par f l’ensemble des antécédents des


éléments de B noté f −1 (B). Ainsi,

f −1 (B) = {x ∈ E : f (x) ∈ B} ⊂ E.
2.3. IMAGE DIRECTE OU RÉCIPROQUE D’UNE PARTIE 31

En pratique ! !

∀ y ∈ F, y ∈ f (A) ⇔ ∃ x ∈ A : y = f (x)

∀ x ∈ E, x ∈ f −1 (B) ⇔ f (x) ∈ B.

Exemple 2.15 1. Soit f l’application définie par

f : R −→ R
x 7−→ 2

f (R) = {2}, f −1 ([3, 4]) = ∅ , f −1 ([1, 3]) = R.


2. Soit f l’application définie par

f : R −→ R
x 7−→ sin x

On a
f (R) = [−1, 1], f −1 ({0}) = πZ.
3. Soit f l’application définie par

f : R −→ R
x 7−→ |x|

On a
f −1 ([0, 2]) = [−2, 2], f ([−1, 2]) = [0, 2].
4. Soit A ⊂ E

χA (E) = {0, 1}, χA (A) = {1}, χA (∅) = ∅.

χ−1
A ({0}) = A, χ−1
A ({1}) = E.

Remarque 2.9 1. f −1 (x) n’existe que si, et seulement si f est bijective,


c’est l’application réciproque.
2. f −1 ({x}) existe toujours, c’est l’image réciproque.
3. La surjection d’une application f de E → F peut s’écrire.

f surjective ⇔ f (E) = F.
32 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

Exercice 2.5 Soit f : E → F une application et soient A et B deux parties


de E. Montrer que
1. A ⊂ B ⇒ f (A) ⊂ f (B).
2. f (A ∩ B) ⊂ f (A) ∩ f (B).
3. A ⊂ f −1 (f (A)).
4. Si f est injective alors f −1 (f (A)) = A.

Solution
1. Soit y ∈ f (A), il existe x ∈ A tel que y = f (x). Or A ⊂ B donc il existe
x ∈ B tel que y = f (x), par suite y ∈ f (B).
2. Comme A ∩ B ⊂ A et A ∩ B ⊂ B alors, f (A ∩ B) ⊂ f (A) ∩ f (B).
3. Soit x ∈ A alors, f (x) ∈ f (A) et par suite x ∈ f −1 [f (A)].
4. Soit x ∈ f −1 (f (A)) alors f (x) ∈ f (A). Ainsi, il existe y ∈ A tel que
f (x) = f (y). Comme f est injective on en déduit que, x = y ∈ A.

Exercice 2.6 Soient f : E → F une application et A′ , B ′ deux parties de F .


Montrer que
1. A′ ⊂ B ′ ⇒ f −1 (A′ ) ⊂ f −1 (B ′ ).
2. f −1 (A′ ∩ B ′ ) = f −1 (A′ ) ∩ f −1 (B ′ ).
3. f −1 (A′ ) = f −1 (A′ ).
4. f (f −1 (A′ )) ⊂ A′ .
5. Si f est surjective alors f (f −1 (A′ )) = A′ .

Solution
1. Soit x ∈ f −1 (A′ ) ⇒ f (x) ∈ A′ ⊂ B ′ ⇒ f (x) ∈ B ′ ⇒ x ∈ f −1 (B ′ ).
2. Soit x ∈ f −1 (A′ ∩ B ′ ) ⇔ f (x) ∈ A′ ∩ B ′ ⇔ f (x) ∈ A′ et f (x) ∈ B ′ ⇔ x ∈
f −1 (A′ ) ∩ f −1 (B ′ ).
/ f −1 (A′ ) ⇒ f (x) ∈
3. Soit x ∈ f −1 (A′ ) ⇒ x ∈ / A′ ⇒ f (x) ∈ A′ ⇒ x ∈
f −1 (A′ ).
4. Soit y ∈ f (f −1 (A′ )) ⇒ ∃ x ∈ f −1 (A′ ) tel que y = f (x) ∈ A′ et par suite
f (f −1 (A′ )) ⊂ A′ .
5. Soit y ∈ A′ comme f est surjective, alors il existe x ∈ E tel que f (x) = y.
Or

f (x) = y ⇒ x ∈ f −1 (A′ )
⇒ f (x) ∈ f (f −1 (A′ )).
2.4. RELATION BINAIRES 33

Exercice 2.7 On considère

φ : N −→ N
{
2n n pair,
n 7−→
3n + 1 n impair.

1. Déterminer φ−1 ({4}).


2. On appelle I l’ensemble des entiers impairs. Déterminer φ−1 (I).

Solution
1. φ−1 ({4}) = {n ∈ N : φ(n) = 4} = {1, 2}.
2. Soit n ∈ N. n ∈ φ−1 (I) ⇔ φ(n) ∈ I ⇔ φ(n) est impair.
Ceci est impossible. Ainsi φ−1 (I) = ∅.

Remarque 2.10 Les ensembles CF f (A) et f (CE A) ne sont pas toujours com-
parables.
En effet, soient E = {a, b, c, d}, F = {1, 2, 3} et soit f : E → F telle que

f (a) = f (b) = 1 et f (c) = f (d) = 2.

Soit A = {a, c}. On a, f (A) = {1, 2} et CF f (A) = {3}. Cependant, CE A =


{b, d} et f (CE A) = {1, 2}.

2.4 Relation binaires


Définition 2.8 On appelle relation binaire définie sur un ensemble E, toute
propriété concernant les couples (x, y) d’éléments de E.

Exemple 2.16 1. On pose E = { droites du plan } et D, D′ ∈ E, D ⊥ D′


est une relation dans E.
1
2. Si E = R∗ et x, y ∈ R∗ , y = est une relation dans R∗ .
x

2.4.1 Relation d’équivalence


Définition 2.9 Une relation binaire R, définie sur E est une relation
d’équivalence, si elle est
1. Reflexive : ∀ x ∈ E, xRx.
2. Symétrique : ∀ (x, y) ∈ E 2 , xRy ⇒ y R x.
3. Transitive : ∀ (x, y, z) ∈ E, (xRy et yRz) ⇒ xRz.
34 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

Exemple 2.17 On désigne par E = { droites du plan }.


1. Soit R la relation définie sur E par

∀ D, D′ ∈ E, D R D′ ⇔ D//D′

R est une relation d’équivalence.


2. Soit R la relation définie sur E par

∀ D, D′ ∈ E, D R D′ ⇔ D ⊥ D′ .

R n’est ni reflexive, ni transitive.

2.4.2 Classes d’équivalence


Soit E un ensemble muni d’une relation d’équivalence R. On appelle classe
d’équivalence d’un élément x de E et on note x̄ ou cl(x), l’ensemble des
éléments de E qui sont en relation avec x

x̄ = {y ∈ E : yRx}.
Tout élément de x̄ est dit représentant de cette classe.

Remarque 2.11 La propostion x R y peut s’écrire plus simplement sous la


forme d’une égalité des classes d’équivalence de x et de y

∀ (x, y) ∈ E 2 , x R y ⇔ x = y.

Les classes d’équivalence sont


· non vides : ∀ x ∈ E x ∈ x̄.
· Disjointes deux à deux : ∀ (x, y) ∈ E × E, x̄ ̸= ȳ ⇒ x̄ ∩ ȳ = ∅.
· Elles recouvrent E : ∪x∈E x̄ = E.
On dit qu’elles forment une partition de E.

Exemple 2.18 Soit E = R. On définit la relation R par

xRy ⇔ x2 = y 2 .

R est une relation d’équivalence et on a


{
{x, −x} si x ̸= 0,
x̄ =
0 si x = 0.
2.4. RELATION BINAIRES 35

Définition 2.10 Soit R la relation d’équivalence définie sur E. L’ensemble


des classes d’équivalence de R est un sous-ensemble de P(E) appelé ensemble
quotient de E noté E/R. Ainsi,

E/R = {x̄ : x ∈ E}.

Exemple 2.19 Soit n ∈ N∗ . On définit sur Z, la relation R par

∀ x, y ∈ Z xRy ⇔ x ≡ y(n).

1. Montrons
√ que ≪ R ≫ est une relation d’équivalence.
√ ∀ x ∈ Z, x ≡ x(n) et donc R est réflexive.
Soit x, y ∈ Z tel que xRy

x ≡ y(n) ⇔ x − y = nk, k ∈ Z,
⇔ y − x = nk ′ , k ′ = −k ∈ Z,
⇔ yRx.

√ donc R est symétrique.


Soit x, y, z ∈ Z tel que xRy et yRz. On a alors x−y = kn et y−z = nk ′
avec k, k ′ ∈ Z. Donc x − z = n(k + k ′ ), Comme k + k ′ ∈ Z, alors xRz.
Ainsi R est transitive.
2. Soit x ∈ Z cherchons x̄.
D’après la division euclidienne de x par n, il existe q ∈ Z et 0 ≤ r < n
tels que x = qn + r. Soit y ∈ Z tel que yRx.
On a

y = x + kn, k ∈ Z
= nq + r + kn, q, k ∈ Z
= n(q + k) + r, q, k ∈ Z.

Ainsi si yRx ⇒ yRx. D’où x̄ = r̄.


Les différentes classes déquivalence par R sont alors 0̄, 1̄, ..., n − 1. On
note Z/nZ l’ensemble des classes déquivalence par la relation d’équivalence
R = congruence modulo n dans Z. On a alors

Z/nZ = {0̄, 1̄, ..., n − 1}.

Exercice 2.8 Soit R la relation définie sur R par

∀ x, y ∈ R, xRy ⇔ (x3 + 2)(y 2 + 1) = (y 3 + 2)(x2 + 1).


36 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

1. Vérifier que R est une relation d’équivalence.


2. Pour tout x ∈ R, préciser le nombre d’éléments de x̄.

Solution
1. xRy ⇔ f (x) = f (y) où f : R → R
3
x +2
x 7→ .
x2 + 1
On a R ainsi définie est une relation d’équivalence .
2. en étudiant les variations de f, on peut déduire que le nombre d’éléments
de x est

1 élément, lorsque, x ∈] − ∞, − 12 [∪]2, +∞[,

2 éléments, lorsque, x ∈ {− 12 , 0, 1, 2}.

3 éléments, si x ∈] − 12 , 0[∪]0, 1[∪]1, 2[.

2.4.3 Relation d’ordre


Définition 2.11 Soit E un ensemble et R une relation sur E.
R est dite une relation d’ordre, si elle est
1. R est réflexive,
2. R est antisymetrique ∀ x, y ∈ E, si xRy et yRx ⇒ x = y,
3. R est transitive.

Notation et vocabulaire
1. Une relation d’ordre est notée en général ≪ ≤ ≫ . Cet ordre est dit ordre
Lexigraphique. Il faut prendre garde à ne pas céder aux automatismes que
pourrait suggérer cette notation : beaucoup de relations d’ordre ont des
propriétés très différentes de celles de l’ordre total dans R.
2. Un ensemble muni d’une relation d’ordre est dit ensemble ordonné.
3. Un ordre est dit total ou E est dit totalement ordonné si deux éléments
quelconques de E sont comparables c’est à dire

∀ x, y ∈ E, x ≤ y ou y ≤ x.

4. Un ordre qui n’est pas total est dit un ordre partiel et on dit que E est
partiellement ordonné.
2.5. EXERCICES 37

Exemple 2.20 1. (R, ≤) est totalement ordonné, (P(E), ⊂) est partielle-


ment ordonné, (N∗ , |) est partiellement ordonné.
2. On considère dans R2 la relation ≪ ≺ ≫ définie par

(x, y) ≺ (x′ , y ′ ) ⇔ x ≤ x′ et y ≤ y ′ .

(R2 , ≺) est partiellement ordonnée ((1, 0) et (0, 1) ne sont pas comparables).


On peut généraliser cette définition à l’ensemble E n . C’est le principe de l’ordre
alphabétique appliqué aux suites de lettres de l’alphabet.

2.5 Exercices
Exercice 1. Soit E un ensemble et soient A, B et C des parties de E.
1. Montrer que si A ∩ B = A ∪ B alors A = B.
2. Montrer que si A ∩ B = A ∩ C et A ∪ B = A ∪ C alors B = C. Une seule
des deux conditions suffit-elle ?
Exercice 2. Soit E un ensemble et A, B, et C des parties de E. On rappelle
que la différence symétrique de A et B est définie par
( ) ( )
A∆B = A ∩ B ∪ A ∩ B

où A (resp.B) désigne le complémentaire de A (resp.de B) dans E.


Montrer que
A∆B = B ⇔ A = ∅.
Exercice 3. Soit E un ensemble. Pour toute partie A de E, on définit la
fonction caractéristique de A par

χA : E −→ {0, 1}
{
1 si x ∈ A,
x 7−→
0 si x ∈
/ A.

(2.5.1)

1. Montrer que pour toutes parties A et B de E, on a


a) χA ≤ χB ⇔ A ⊂ B.
b) χA = χB ⇔ A = B.
c) χA∩B = χA χB .
d) χA∪B = χA + χB − χA∩B .
e) χA = 1 − χA .
38 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

f ) χA\B= χA (1 − χB ).
2. Déduire que pour toutes parties A, B, C, D de E on a
a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .
b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) .
c) A \ B = A \ C ⇔ A ∩ B = A ∩ C.
Exercice 4. Soit
{ }
D = (x, y) ∈ R2 , x2 + y 2 ≤ 1
Montrer que D ne peut pas s’écrire comme le produit cartésien de deux parties
de R.
Exercice 5. Soit f : E → F. Montrer que f est bijective si et seulement si
pour tout A partie de E on a f (A) = f (A).
Exercice 6.
1. Soit f : R → R la fonction définie par f (x) = x2 et soit A = [−1, 4] .
Déterminer
a) l’image directe de A par f.
b) l’image réciproque de A par f .
2. On considère la fonction : R → R définie par f (x) = sin x. Déterminer
[ π ] f −1
f (R) , f [0, 2π] , f 0, 2 , f [3, 4] et f −1 [1, 2] .
Exercice 7.
1. Soit f : N → N la fonction définie par f (n) = 2n + 1.
a) Déterminer f (N), f −1 ({0}) et f −1 ({1}) .
b) Soit A = {3, 4, 11} . Calculer f (f −1 (A)) et f −1 (f (A)).
c) f est elle injective ? surjective ? Peut-on parler de f −1 (m), m ∈ N?
Exercice 8. Soit

f : Z × N∗ −→ Q
1
(p, q) 7−→ p +
q

f est elle injective ? surjective ?


Exercice 9. Soient E et F deux ensembles et f une application de E dans F.
1. Montrer que
∀A ⊂ E, A ⊂ f −1 (f (A)),
et
∀B ⊂ F, f ((f −1 (B)) ⊂ B.
2.5. EXERCICES 39

2. En déduire que
∀A ⊂ E, f (A) = f (f −1 (f (A))),
et
∀B ⊂ F, f −1 (B) = f −1 (f (f −1 (B))).
Exercice 10. Soient E et F deux ensembles et f : E → F une application.
1. Montrer que pour toute famille (Ai )i∈I de parties de E, on a
a) f (∪i∈I Ai ) = ∪i∈I f (Ai ).
b) f (∩i∈I Ai ) ⊂ ∩i∈I f (Ai ).
2. Montrer que pour toute famille (Bi )i∈I de parties de F , on a
a) f −1 (∪i∈I Bi ) = ∪i∈I f −1 (Bi ).
b) f −1 (∩i∈I Bi ) = ∩i∈I f −1 (Bi ).
3. Soit B une partie de F. Montrer que f −1 (B) = f −1 (B).
Exercice 11. Soient E un ensemble, P(E) l’ensemble des parties de E et A
et B deux parties de E. On définit
f : P(E) −→ P(A) × P(B)
X 7−→ (X ∩ A, X ∩ B)
1. Montrer que f est injective si et seulement si A ∪ B = E.
(indication : pour la condition nécessaire vous pouvez raisonner par contra-
posée).
2. Montrer que f est surjective si et seulement si A ∩ B = ∅.
3. Donner une condition nécessaire et suffisante sur A et B pour que f soit
bijective.
Exercice 12. Dire si les relations suivantes sont réflexives, symétriques, an-
tisymétriques, transitives ?
1. E = Z et xRy ⇔ x = −y.
2. E = R et xRy ⇔ cos2 x + sin2 y = 1.
3. E = N et xRy ⇔ ∃ p, q ≥ 1, y = pxq (p et q sont des entiers).
Exercice 13. On définit sur Z la relation
xRy ⇔ x + y est paire
Montrer qu’on définit une relation d’equivalence. Quelles sont les classes d’équivalence
de cette relation.
Exercice 14. Soient deux ensembles E et F et f une application de E dans
F. Sur E on considère la relation R définie par
xRy ⇔ f (x) = f (y).
40 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS

1. Montrer que R estune relation d’équivalence.


On note E/R l’ensemble quotient de E par la relation R.
2. Soit fe l’application de E/R dans f (E) définie par

fe(cl(x)) = f (x), x ∈ E.

Montrer que fe est bien définie et qu’elle est bijective.


Exercice 15. On définit sur R la relation

xRy ⇔ x2 − y 2 = x − y.

1. Montrer que R est une relation d’équivalence.


2. Déterminer les classes d’équivalences des réels 0, 1, 21 .
Exercice 16. Dans N∗ , on définit la relation R par

mRn ⇔ ∃k ∈ N∗ , n = mk

1. Montrer que R est une relation d’ordre partiel sur N∗ .


2. Montrer que la partie {3, 4} n’est pas majorée.
Exercice 17. On muni R2 de la relation ”≺ ”définie par

(x, y) ≺ (x′ , y ′ ) ⇔ x ≤ x′ et y ≤ y ′ .

1. Montrer que la relation ”≺ ” définie une relation d’ordre sur R2 . L’ordre


est-il total ?
2. Le disque fermé de centre 0 et de rayon 1 a-t-il des majorants ? un plus
grand élément ?
Exercice 18. Soit E = R × ]−1, 1[ . On définit la relation R sur E par

(x, y) R (z, t) ⇐⇒ ∃n ∈ Z tel que z = x + n et t = (−1)n y.

1. Montrer que R est une relation d’équivalence sur E.


Soit x ∈ R, on désigne par E(x), la partie entière de x.
2. a) Montrer que ∀(x, y) ∈ E,

(x, y)R(x − E(x), (−1)E(x) y).

b) En déduire que ∀(x, y) ∈ E, ∃!(a, b) ∈ [0, 1[ × ]−1, 1[ tel que

cl((x, y)) = cl((a, b)).


2.5. EXERCICES 41

c) Montrer que la fonction φ : E/R → [0, 1[ × ]−1, 1[ ,

φ(cl((x, y))) = (x − E(x), (−1)E(x) y),

est bien définie et bijective.


3. Soit n ∈ Z et fn la fonction définie de E dans E par

fn (x, y) = (x + n, (−1)n y).

a) Que vaut f0 ?
b) Calculer fn ◦ fm , pour n, m ∈ Z.
c) En déduire que fn est bijective et expliciter (fn )−1 .
4. Montrer que ∀p ∈ Z, fp ((cl(x, y))) = cl((x, y)), pour tout (x, y) ∈ E.
42 CHAPITRE 2. ENSEMBLES - APPLICATIONS ET RELATIONS
Chapitre 3

Entiers Naturels - Ensemble


finis Analyse Combinatoire

3.1 Entiers naturels


3.1.1 Propriétés fondamentales de N
Définition 3.1 (Axiome de Pearo) Nous admettrons l’existence d’un en-
semble N, non vide, totalement ordonné vérifiant les axiomes suivants
1. Toute partie non vide de N a un plus petit élément,
2. Toute partie non vide majorée de N a un plus grand élément,
3. N n’a pas de plus grand élément.

3.1.1.1 Le principe de récurrence


Théorème 3.1 Soit P (n) une proposition dépendant d’un entier naturel n.
S’il existe un entier n0 ∈ N tel que
1. P (n0 ) est vraie,
2. Pour tout n ∈ N, n ≥ n0 on a P (n) ⇒ P (n + 1), alors P (n) est vraie
pour tout n ≥ n0 .

Preuve . Soit F l’ensemble des entiers n ≥ n0 tels que P (n) soit faux. Il faut
montrer que cet ensemble est vide.
Supposons que F ̸= ∅. Alors F admet un plus petit élément n1 donc n1 ≥ n0
et P (n1 ) est faux. D’après 1. n1 ̸= n0 donc n1 > n0 et n1 − 1 ≥ n0 . Comme
n1 = min F, n1 − 1 ∈ / F donc P (n1 − 1) est vraie, ce qui contredit l’implication
P (n1 − 1) ⇒ P (n1 ).
En définitive F = ∅ et donc ∀ n ≥ n0 , P (n) est vraie. 

43
44CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE

Exemple 3.1 1. Soit p ∈ N. Montrer que



p
p(p + 1) 2
k3 = ( )
k=0
2

2. En déduire le calcul de

Sn = ij, n ∈ N∗ .
1≤i≤j≤n

Solution
1. Pour p = 0 on a bien le résultat. Supposons que
∑ p ( )2
3 p(p + 1)
k =
k=0
2
et montrons que

p+1 [ ]2
(p + 1)(p + 2)
3
k = .
k=0
2
On a

p+1

p
3
k = k 3 + (p + 1)3
k=0 k=0
p(p + 1) 2
= ( ) + (p + 1)3
2
[ (p + 1)(p + 2) ]2
= .
2

Remarque 3.1 Comment calculer une somme double ? Une somme double
est une somme sur deux indices. On rencontre les deux situations sui-
vantes

Première situation : les indices sont indépendants. Dans ce cas l’in-
version se fait sans problèmes

n ∑
n ∑
n ∑
n
aij = aij .
i=1 j=1 j=1 i=1

Deuxième situation : les indices sont dépendants. Dans ce cas
∑ ∑
n ∑
n ∑
n ∑
j
aij = aij = aij .
1≤i≤j≤n i=1 j=i j=1 i=1
3.1. ENTIERS NATURELS 45

2.

∑ ∑
n ∑
j
Sn = ij = ij
1≤i≤j≤n j=1 i=1


n ∑ j
= j( i)
j=1 j=1
∑n
j(j + 1)
= j
j=1
2
1∑ 3
n
= (j + j 2 )
2 j=1
1 n(n + 1) 2 1 n(n + 1)(2n + 1)
= ( ) +
2 2 2 6
2
n(n + 1)(3n + 7n + 2)
= .
24

Remarque 3.2 Dans certains cas, il peut être nécessaire de regrouper dans
l’hypothèse de récurrence plusieurs niveaux successifs de la proposition P par
exemple P (n) et P (n + 1). Il faut alors démontrer que
1. P (n0 ) et P (n0 + 1) sont vraies.
2. Pour tout n ≥ n0 , (P (n) et P (n + 1)) ⇒ P (n + 2). Pour conclure que,
∀ n ≥ n0 , P (n) est vraie.

Exemple 3.2 Montrons que tout entier n ∈ N∗ , peut s’écrire sous la forme

n = 2p (2q + 1) où (p, q) ∈ N.

I 1 = 20 (2 × 0 + 1), la proposition est vérifiée pour n = 1.


I Soit n ∈ N∗ tel que tout entier de 1 à n puisse s’écrire de la façon indiquée.
a) Si (n + 1) est impair, alors il existe q ∈ N tel que n + 1 = 20 (2q + 1).
b) Si (n + 1) est pair alors n+12
est un entier compris entre 1 et n, il vérifie
l’hypothèse de récurrence. Ainsi

n+1
∃ (p, q) ∈ N2 : = 2p (2q + 1),
2
d’où n + 1 = 2p+1 (2q + 1).
La proposition est donc vraie pour (n + 1).
46CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE

3.1.1.2 Sous ensembles de N


Notation Soit n ∈ N∗ , on note

Nn = {1, 2, 3, ..., n} = [[1, n]]

N0 = ∅ par convention.

Proposition 3.1 Soit n ∈ N et a ∈ [[1, n]]. Il existe une bijection entre


[[1, n − 1]] et [[1, n]] \ {a}.

Preuve .
◃ Si n = 1 [[1, n]] \ {a} = ∅ = [[1, n − 1]]
◃ Si n > 1. On considère
f : [[1, n]] \ {a} −→ [[1,
{ n − 1]]
x si x < a,
x 7−→
x − 1 si x > a.

f est bien une bijection.




Il en résulte le théorème suivant

Théorème 3.2 Soit (p, n) ∈ (N∗ )2 .


1. Il existe une injection de [[1, p]] dans [[1, n]] ⇔ p ≤ n.
2. Il existe une surjection de [[1, p]] dans [[1, n]] ⇔ p ≥ n.
3. Il existe une bijection de [[1, p]] dans [[1, n]] ⇔ p = n.

3.2 Ensembles finis


Définition 3.2 Un ensemble A est dit fini s’il existe un entier n pour lequel,
il existe une bijection entre A et Nn .
Un tel entier n est alors unique et il est appelé le cardinal de A. On le note
card(A).

Remarque 3.3 Soit f : E → F une bijection. Si E (resp F ) est fini alors F


(resp E) est fini et card(E) = card(F ).
3.2. ENSEMBLES FINIS 47

Le théorème 3.2 s’étend aux ensembles finis comme suit


Théorème 3.3 Soit f une application d’un ensemble fini E vers un ensemble
fini F . Alors
1. f est injective ⇔ card(E) ≤ card(F ).
2. f est surjective ⇔ card(E) ≥ card(F ).
3. f est bijective ⇔ card(E) = card(F ).
Par conséquent
◃ Si Card(E) = card(F ), toute injection de E dans F est bijective.
◃ Si card(E) = card(F ), toute surjection de E dans F est bijective.

Corollaire 3.1 Soit E un ensemble fini et soit F ⊂ E. Alors F est fini et


card(F ) ≤ card(E).

Preuve . L’application

idE : E −→ E
x 7−→ x

est injective (c’est l’injection canonique). 

Corollaire 3.2 Soit E un ensemble fini et F ⊂ E tel que card(E) = card(F )


alors E = F .

Proposition 3.2 1. card(∅) = 0 (par convention).


2. Soient E et F deux ensembles finis disjoints (E ∩ F = ∅). Alors E ∪ F
est fini et on a

card(E ∪ F ) = card(E) + card(F ).

En particulier si A ∈ P(E) alors

card(CE A) = card(E) − card(A).

3. Soient E1 , E2 , ..., En des ensembles finis disjoints deux à deux. Alors,


∑n
Ei est fini et on a
i=1


n ∑
n
card( Ei ) = card(Ei ).
i=1 i=1
48CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE

4. Soient E et F deux ensembles finis, alors E ∪ F est fini et

card(E ∪ F ) = card(E) + card(F ) − card(E ∩ F ).

5. Soient E et F deux ensembles finis, alors E × F est fini et

card(E × F ) = card(E).card(F )


n
6. Soient E1 , E2 , ..., En des ensembles finis. Alors Ei est fini et on a
i=1


n ∏
n
card( Ei ) = card(Ei )
i=1 i=1

Preuve .
2. Soient n = card(E), p = card(F ), E = {x1 , x2 ..., xn } et F = {y1 , y2 , ..., yp }.
Comme E ∩ F = ∅, alors xi ̸= yj pour tout 1 ≤ i ≤ n, 1 ≤ j ≤ p.
Considérons l’application f : Nn+p → E ∪ F définie par

1 2 3 ... n n + 1 ... n + p
↓ ↓ ↓ ↓ ↓
x1 x2 xn y1 yp

f ainsi définie est bijective. D’où le résultat.


D’autre part comme A ∪ CE A = E et A ∩ CE A = ∅, on en déduit que

card(A) + card(CE A) = card(E).

Ainsi, card(A) = card(E) ⇒ card(CE A) = 0 ⇒ CE A = ∅ ⇒ A = E.


En pratique ! ! Il est fréquent d’établir l’égalité de deux ensembles finis par
une inclusion et une égalité de cardinaux.
4. On a E ∪ F = E ∪ (F \ E). Ainsi

card(E ∪ F ) = card(E) + card(F \ E) (∗)

Or on a
F = (F \ E) ∪ (F ∩ E)
d’où
card(F \ E) = card(F ) − card(F ∩ E).
En remplaçant cette expression dans (∗) on en déduit le résultat.
3.2. ENSEMBLES FINIS 49

5. Supposons que E = {x1 , x2 , ..., xn }. Alors,

E × F = ({x1 } × F ) ∪ ({x2 } × F )... ∪ ({xn } × F ).

Par suite

n
Card(E × F ) = card({xi } × F ).
i=1

Soit l’application f définie par

f : {xi } × F −→ F
(xi , y) 7−→ y

Comme f est bijective, on en déduit que

Card({xi } × F ) = card(F )

et par suite,

card(E × F ) = n × card(F ) = card(E).card(F ).

Corollaire 3.3 Soit E un ensemble fini et f : E → E. Les assertions sui-


vantes sont équivalentes
1. f est injective
2. f est surjective
3. f est bjective.

Attention ! ! Les résultats ci-dessus ne sont vrais que pour les ensembles finis.

Proposition 3.3 Soient E et F deux ensembles finis. L’ensemble F(E, F )


des applications de E dans F est fini et on a

card(F(E, F )) = card(F )card(E) .

Preuve . Soit E = {x1 , x2 , ..., xp } et soit


p f ois
z }| {
h : F(E, F ) −→ F × F... × F
f 7−→ (f (x1 ), f (x2 )...f (xp ))
50CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE

h est une application bijective.


En effet
h(f ) = h(g) ⇒ (f (x1 ), ..., f (xp )) = (g(x1 ), ..., g(xp ))
⇒ f (xi ) = g(xi ), ∀ 1 ≤ i ≤ p
⇒ f = g.
Ainsi h est injective.
D’autre part, ∀ (y1 , ..., yp ) ∈ F p , il existe f ∈ F (E, F ) tel que h(f ) = (y1 , y2 , ..., yp ).
h(f ) = (y1 , y1 ...yp ) ⇔ (f (x1 ), f (x2 )...f (xp )) = (y1 , y2 , ...yp )
⇔ f (xi ) = yi , ∀ 1 ≤ i ≤ p.
Ainsi f est bien définie et par suite h est bijective
card(F(E, F )) = card(F )p = card(F )cardE .


Proposition 3.4 Soient E un ensemble fini et n = card E. L’ensemble des


parties de E est fini et on a card(P(E)) = 2n .
Preuve . Soient A ∈ P(E) et
χA : E −→ {0, 1}
{
1 x∈A
x 7−→
0 x∈/A
et soit
φ : P(E) −→ F(E, {0, 1})
A 7−→ χA
Montrons que φ est bijective.
Soit A, B ∈ P(E) tel que φ(A) = φ(B). Comme
φ(A) = φ(B) ⇒ χA = χB ⇒ A = B.
Ainsi φ est injective.
De plus, soit f ∈ F (E, {0, 1}). Posons A = f −1 ({1}) et montrons que f = χA .
Soit x ∈ E = A ∪ A.
◃ Si x ∈ A alors f (x) = 1 et dans ce cas χA (x) = 1.
◃ Si x ∈ CE A alors f (x) = 0 et dans ce cas χA (x) = 0.
D’où φ est une bijection de P(E) sur F(E, {0, 1}). Par suite P(E) est fini et
card(P(E)) = card(F(E, {0, 1})) = 2n .

3.3. ANALYSE COMBINATOIRE 51

3.3 Analyse combinatoire


Théorème 3.4 Soient E et F deux ensembles finis de cardinaux respectifs p
et n avec 0 ≤ p ≤ n. Le nombre des applications injectives de E dans F est
n!
Apn = n(n − 1)...(n − p + 1) = .
(n − p)!
Preuve . Raisonnons par récurrence sur p
◃ Pour p = 0, il existe une injection de ∅ dans F : A0n = 1 = (n−0)!
n!
.
◃ Soit p ∈ [[1, n − 1]] tel que le nombre d’injections d’un ensemble de cardinal
p dans F soit Apn . Soit E un ensemble de cardinal p + 1, et soit a ∈ E. Une
injection f de E dans F est caractérisée par
◃ La restriction injective de f à E \ {a} : Apn possibilités,
◃ Le choix de l’élément f (a) qui ne doit pas appartenir à f (E) : n − p
possibilités.
Le nombre d’injections de E dans F est donc
n! n!
Apn (n − p) = (n − p) = = Ap+1
(n − p)! (n − p − 1)! n

Par récurrence, le nombre d’injections de E dans F est donc bien Apn pour
tout p ∈ [[1, n]]. 

Remarque 3.4 Une injection de [[1, p]] dans F est dite un arrangement de p
élément de F dans un certain ordre. On utilise les arrangements dans tous les
problèmes de choix successifs de p éléments parmi n, sans répétition.

Corollaire 3.4 Le nombre de bijections d’un ensemble E à n éléments sur


lui même (ou permutation de E) est égal à n!.

Preuve . Comme E est fini, il est équivalent de dire qu’une application de


E dans E est injective ou bijective. Le nombre de bijections de E dans E est
donc Ann = n!.
Une bijection de E dans E est appelée permutation des éléments de E. On
utilise les permutations dans tous les problèmes de choix d’un ordre de tous les
éléments d’un ensemble fini. 

Théorème 3.5 Soit E un ensemble fini de cardinal n et soit p ≤ n. Le nombre


de parties de E de cardinal p est l’entier
n! n(n − 1)...(n − p + 1)
Cnp = =
p!(n − p)! p!
52CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE
( )
n
que l’on note encore, Cnp = .
p

Preuve . A une injection f de [[1, p]] dans E correspond une image f ([[1, p]]) ,
qui est une partie de E de cardinal p.
Réciproquement, toute partie de E de cardinal p est l’image de [[1, p]] par p!
injections distinctes (correspond aux permutations de [[1, p]]). Le nombre de
Ap n!
parties de cardinal p est donc n = . 
p! p! (n − p)!

Remarque 3.5 Une partie de cardinal p de E est appelée une combinaison


de p éléments de E. On utilise les combinaisons dans tous les problèmes de
choix simultanés de p éléments distints parmi n, sans considération d’ordre et
sans répitition.

3.3.1 Coefficients binominaux


Proposition 3.5 Soient p ∈ [[1, n]] et E un ensemble fini tel que card E = n.
1. Cn0 = 1 (une seule partie vide).
2. Cnn = 1 (une seule partie de même cardinal que l’ensemble).
3. Cn1 = n ( n singletons).
4. Symétrie : Cnp = Cnn−p (le complémentaire d’une partie de cardinal p est
une partie de cardinal (n − p)).
∑n
5. Somme : Cnp = 2n (le nombre total de parties)
p=0
p
6. Relation de Pascal : Cnp = Cn−1 p−1
+ Cn−1 (n ≥ 1 et 1 ≤ p ≤ n − 1).
Preuve .
6. Soit E un ensemble de cardinal n et a un élément finie de E . Les parties
de
√ E de cardinal p sont
√ Les parties de E \ {a} de cardinal p au nombre de Cn−1 .
p

Les parties de E \{a} de cardinal p−1 auxquelles on ajoute a, au nombre


p−1
de Cn−1 .


3.3. ANALYSE COMBINATOIRE 53

3.3.2 Triangle de Pascal


La relation de Pascal permet de calculer les coefficients binominaux Cnp de
proche en proche. En effet on range les Cnp dans un tableau où n désigne le
numéro de la ligne et p celui de la colonne

p 0 1 2 3 4 5 6 7
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 = C64 6 1
7 1 7 21 35 35 21 7 1

3.3.3 Formule du binôme de Newton


Soient a et b deux réels (ou complexes), alors pour tout n ∈ N


n
n
(a + b) = Cnp an−p bp .
p=0

Preuve . Raisonnons par récurrence.


Pour n = 0 (a + b)0 = 1.

n
n
Supposons que (a + b) = Cnp an−p bp et montrons que
p=0


n+1
p
n+1
(a + b) = Cn+1 an+1−p bp .
p=0

On a

(a + b)n+1 = (a + b)(a + b)n


∑n
= (a + b) Cnp an−p bp
p=0

n ∑
n
= Cnp an+1−p bp + Cnp an−p bp+1
p=0 p=0
54CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE

Par conséquent


n ∑
n−1
n+1
(a + b) = Cnp an+1−p bp +a n+1
+ Cnp an−p bp+1 + bn+1
p=1 p=0

n
= an+1 + bn+1 + (C p + C p−1 ) an+1−p bp
| n {z n }
p=1
∑n
p
= an+1 + bn+1 + Cn+1 an+1−p bp
p=1


n+1
p
= Cn+1 an+1−p bp .
p=0

Remarque 3.6 A l’aide de la formule du binôme on obtient


n
Cnk (−1)k = (1 − 1)n = 0.
k=0

et

n
Cnk = 2n .
k=1

3.4 Exercices
Exercice 1. Déterminer le cardinal de

X = {n : 1 ≤ n ≤ 250, 3 | n, 2 - n, 5 - n, 7 - n} .

Exercice 2. Soit n ∈ N∗ .
( )n
1. Montrer que 1 + n1 ≥ 2.
2. Soit k ∈ {0, .., n} , montrer que 1
C k ≤ k!1 .
nk n
3. Déduire que pour 1 ≤ k ≤ n, 1
C k ≤ 2k−1
nk n
1
.
( )n
4. Montrer que 1 + n1 < 3.
Exercice 3. Les deux questions suivantes sont indépendantes
3.4. EXERCICES 55

1. Montrer que pour 0 ≤ p ≤ min(n, m),


p
p
Cnk Cm
p−k
= Cn+m .
k=0


n
En déduire (Cnk )2 .
k=0
2. Soient n et p deux entiers naturels tels que 1 ≤ p ≤ n.
Déterminer le nombre de surjections S(n, p) de {1, ..., n} sur {1, ..., p} ,
pour p ∈ {1, 2, 3, 4} .
Exercice 4. Soit n ∈ N∗ , en utilisant la fonction réelle f définie par f (x) =
(1 + x)n , exprimer en fonction de n chacune des sommes


n ∑
n
k−1

n
1
A= kCnk , B= (−1) kCnk , C= Ck.
k=1 k=1 k=1
k+1 n

Exercice 5. Soient m, n, p ∈ N telles que 0 ≤ p ≤ min (m, n) .


1. Montrer l’égalité

p
p
k p−k
Cm Cn = Cn+m .
k=0

(On pourra utiliser le produit (1 + x)m (1 + x)n ).


∑n ∑
n
( k )2
k n−k
2. En déduire la valeur de chacune des sommes Cm Cn et Cn .
k=0 k=0

n ∑
n ∑
n
Exercice 6. Soit n ∈ N∗ . On pose S1,n = k, S2,n = k 2 , S3,n = k3.
k=1 k=1 k=1
1. Etablir de deux manières différentes les égalités
( )2
n (n + 1) n (n + 1) (2n + 1) n (n + 1)
S1,n = , S2,n = , S3,n = (*)
2 6 2

a) En raisonnant par récurrence.


b) En utilisant la formule de binôme.
2. A partir
∑ des égalités (*), calculer
2
a) (i + j) ,

1≤i,j≤n

b) ij,
1≤i<j≤n
56CHAPITRE 3. ENTIERS NATURELS - ENSEMBLE FINIS ANALYSE COMBINATOIRE

c) min (i, j) .
1≤i,j≤n

Exercice 7. Soit n ∈ N∗
1. Exprimer en fonction de n chacune des sommes
∑ ∑
Cnk , Cnk
0≤k≤n,k pair 0≤k≤n,k impair

(On pourra utiliser les développements de (1 + 1)n ± (1 − 1)n ).


[ ]
2. On note n2 la partie entière de n2 . Exprimer en fonction de n chacune
des sommes
n−1
[ n2 ]
∑ [∑2 ]
k 2k
(−1) Cn , (−1)k Cn2k+1
k=0 k=0
n
(On pourra calculer (1 + i) de deux manières).
Chapitre 4

Arithmétique dans Z

4.1 Multiples et diviseurs d’un entier


Définition 4.1 Soient a ∈ Z∗ et b ∈ Z. On dit que a divise b et on écrit
≪ a|b ≫ , s’il existe k ∈ Z tel que b = ka. On dit aussi que b est un multiple de

a.

Exemple 4.1 3|12, 7|168, 3 - 5 et 2 - 5.

Remarque 4.1 1. Si a ∈ Z∗ , alors 1, −1, a et −a sont des diviseurs de a.


2. La relation ≪ | ≫ est une relation d’ordre non total dans N.

4.1.1 Propriétés
Soit a ∈ Z∗ b, c ∈ Z.
1. Si a divise b et b divise a alors, a = ±b.
2. Si a divise b et a divise c alors a divise b + c.
3. Si a divise b et α divise β alors aα divise bβ.
4. Si a divise b et si n ∈ N∗ , alors an divise bn .
Notation
On note par D(a), l’ensemble des diviseurs de a et par aZ, l’ensemble des
multiples de a. Ainsi,
aZ = {ka : k ∈ Z}.

57
58 CHAPITRE 4. ARITHMÉTIQUE DANS Z

4.2 Division euclidienne dans Z


Théorème 4.1 Si (a, b) ∈ Z × Z∗ , alors il existe un couple unique (q, r) ∈ Z2
tel que
a = bq + r et 0 ≤ r < |b|,
q est appelé quotient et r reste de la division de a par b.

Preuve .
Existence L’ensemble E des multiples de b inférieurs ou égaux à a est une
partie non vide de Z majorée par a. E possède donc un plus grand élément,
que nous noterons bq. Posons r = a − bq, bq ≤ a, donc r ≥ 0. De plus
bq + |b| est un multiple de b supérieur à bq, donc bq + |b| > a, d’où r < |b|.
Unicité Supposons que a = bq + r = bq ′ + r′ , avec 0 ≤ r < |b| et 0 ≤ r′ < |b|.
On a b(q − q ′ ) = r′ − r, r′ − r est donc un multiple de b. Comme il est
strictement compris entre −|b| et |b|, il ne peut être que nul. Donc r′ = r
et par suite q ′ = q. Le couple (q, r) est donc unique.


Remarque 4.2 Il est immédiat que b divise a si, et seulement si, r = 0.

Exemple 4.2 1. Soient a = −5 et b = 2, on a,

−5 = (−3)(2) + 1, q = −3 et r = 1.

2. Soient a = −127 et b = −11, on a,

−127 = −11(12) + 5, q = 12 et r = 5.

4.3 Diviseurs communs de deux entiers


4.3.1 Algorithme d’Euclide
Soit (a, b) ∈ Z2 . Déterminons l’ensemble D(a) ∩ D(b) des diviseurs communs
de a et b.

Théorème 4.2 L’ensemble des diviseurs communs de deux entiers a et b est


l’ensemble des diviseurs d’un unique entier positif, appelé P.G.C.D de a et b,
noté a ∧ b. Ainsi
D(a) ∩ D(b) = D(a ∧ b).
4.3. DIVISEURS COMMUNS DE DEUX ENTIERS 59

Preuve . Comme les éléments de D(a) ∩ D(b) ne dépendent pas du signe de


a et b, on peut supposer, sans nuire à la généralité, que a et b sont positifs. De
même on peut supposer, quitte à les échanger que a ≥ b. On a donc 0 ≤ b ≤ a.
I Si b = 0, les diviseurs communs de a et b sont ceux de a. Ainsi,

D(a) ∩ D(0) = D(a).

I Si b > 0, éffectuons la division euclidienne de a par b : a = bq + r avec


0 ≤ r < b.
Tout diviseur de a et b divise r. Tout diviseur de b et r divise a. On a donc
l’égalité
D(a) ∩ D(b) = D(b) ∩ D(r).
I Si r = 0, on a donc

D(a) ∩ D(b) = D(b) ∩ D(0) = D(b).

I Si r > 0, on divise b par r : b = rq1 + r1 avec 0 ≤ r1 < r et on a

D(a) ∩ D(b) = D(b) ∩ D(r) = D(r) ∩ D(r1 ).

On peut poursuivre ce raisonnement tant que le reste obtenu est non nul

D(a) ∩ D(b) = D(b) ∩ D(r) = D(r) ∩ D(r1 ) = D(r1 ) ∩ D(r2 )


= ... = D(rk−1 ) ∩ D(rk ).

La suite (b, r, r1 , ..., rk ) est une suite d’entiers naturels strictement décroissante,
elle est nécessairement finie. On aboutit donc en un nombre fini d’étapes à
un reste nul. Supposons que rk ̸= 0 et rk+1 = 0, on a alors

D(a) ∩ D(b) = ... = D(rk−1 ) ∩ D(rk ) = D(rk ) ∩ D(0) = D(rk ),

rk est un diviseur commun de a et b et tout diviseur commun de a et b est


un diviseur de rk . C’est le plus grand commun diviseur de a et b. On peut
rassembler toutes ses opérations sur un tableau

q q1 q2 ......qk−1 qk
a b r r1 ......rk−1 rk
r r1 r2 ......rk 0

Ainsi le P.G.C.D de deux entiers non nuls est le dernier reste non nul de
l’Algorithme d’Euclide.

60 CHAPITRE 4. ARITHMÉTIQUE DANS Z

Exemple 4.3 Calulons 9100 ∧ 1848

4 1 12 5
9100 1848 1708 140 28
1708 140 28 0

Ainsi 9100 ∧ 11848 = 28.

4.4 Somme de multiples de deux entiers


Soit (a, b) ∈ Z2 . On note aZ + bZ l’ensemble des entiers qui peuvent se
décomposer en somme d’un multiple de a et d’un multiple de b.

aZ + bZ = { au + bv : u, v ∈ Z}.

Théorème 4.3 Soit (a, b) ∈ Z2 , un entier est la somme d’un multiple de a et


d’un multiple de b si et seulement si, c’est un multiple de leur P.G.C.D a ∧ b

aZ + bZ = (a ∧ b)Z.

Preuve . On pose d = a ∧ b.
I Soit x la somme d’un multiple de a et d’un multiple de b, alors x = au + bv,
avec (u, v) ∈ Z2 . Comme d divise a et b, il divise x. Ainsi x est un multiple
de d.
I Dans l’algorithme d’Euclide, d = rk = rk−2 −rk−1 qk , donc d ∈ rk−2 Z+rk−1 Z.
De proche en proche, on arrive à d ∈ aZ + bZ. A fortiori, tout multiple de
d appartient à aZ + bZ.


Exemple 4.4 A partir de l’exemple précédent, on peut écrire

28 = 1708 − (140 × 12)


= 1708 − (1848 − 1708) × 12
= −11.1708 − 1848.12
= −11.(9100 − 4.1848) − 12.1848
= (−11)(9100) + 32.18482

Ainsi 28 est bien la somme d’un multiple de 9100 et d’un multiple de 18482.
4.5. ENTIERS PREMIERS ENTRE EUX 61

4.5 Entiers premiers entre eux


Définition 4.2 Deux entiers a et b sont dits premiers entre eux, si leur
P.G.C.D est 1. On a alors a ∧ b = 1. (Leur seul diviseur commun positif
est 1).

Caractérisons simplement deux entiers premiers entre eux.


Théorème 4.4 (Théorème de Bezout) Deux entiers a et b sont premiers
entre eux si, et seulement si, il existe deux entiers u et v tels que au + bv = 1.
Preuve .
I Si a ∧ b = 1, on a 1 ∈ aZ + bZ, par suite il existe (u, v) ∈ Z2 tel que
1 = au + bv.
I Si au + bv = 1, 1 est un multiple de a ∧ b, qui ne peut donc être que 1.


Corollaire 4.1 (Théorème de Gauss) Si un entier divise un produit et


qu’il est premier avec l’un des facteurs, il divise l’autre :
(a|bc et a ∧ b = 1) ⇒ a|c.

Preuve . Comme a ∧ b = 1, alors il existe (u, v) ∈ Z2 tel que


au + bv = 1 et donc acu + bcv = c.
Comme a divise bc alors, il exsite k ∈ Z tel que bc = ka et par suite
a(cu + kv) = c. Ainsi, a divise c. 

Corollaire 4.2 Si un entier est divisible par deux entiers premiers entre eux,
il est divisible par leur produit
(a|c, b|c et a ∧ b = 1) ⇒ (ab|c).
Preuve . Comme a divise c et b divise c, il existe k, k ′ ∈ Z tel que c = ka =
k ′ b. Ainsi b divise ka et a et b premiers entre eux implique, que b divise k,
c’est à dire, il existe k ′ ∈ Z tel que k = k ′ b. Ainsi c = ka = k ′ ba et par suite
ab divise c. 

Corollaire 4.3 Si un entier est premier avec deux autres, il est premier avec
leur produit. Ainsi,
(a ∧ c = 1 et b ∧ c = 1) ⇒ ab ∧ c = 1.
62 CHAPITRE 4. ARITHMÉTIQUE DANS Z

Preuve . Comme a et c sont premiers entre eux, alors il existe (u, v) ∈ Z2


tel que au + cv = 1. De même, Comme b et c sont premiers entre eux alors, il
existe (u′ , v ′ ) ∈ Z2 tel que bu′ + cv ′ = 1. Ainsi abuu′ + acuv ′ + bcu′ v + c2 vv ′ = 1.
D’où, ab(uu′ ) + c(auv ′ + bu′ v + cvv ′ ) = 1. D’après le théorème de Bezout, on
en déduit que ab et c sont premiers entre eux. 

Conséquence
Soient (a, b) ∈ Z2 et n, m ∈ N∗ . Si a ∧ b = 1, alors an ∧ bm = 1.

4.6 Carctérisation du P.G.C.D


Théorème 4.5 Soit (a, b) ∈ Z2 . Un entier positif d est le P.G.C.D de a et b
si, et seulement si,
{
′ ′ a = a′ d
il existe (a , b ) ∈ Z tel que
2
et a′ ∧ b′ = 1.
b = b′ d

Preuve .
I d = a ∧ b est un diviseur de a et b, il existe donc a′ et b′ tels que a = a′ d
et b = b′ d. Par ailleurs, il existe (u, v) ∈ Z2 tel que au + bc = d, d’ou par
simplification par d . On aura a′ u+b′ v = 1 et ceci nous donne d’après Bezout
que a′ ∧ b′ = 1.
I Si a = a′ d et b = b′ d, d est un diviseur de a et b, donc de a ∧ b. Par ailleurs,
si a′ ∧ b′ = 1, il existe (u, v) ∈ Z2 tel que a′ u + b′ v = 1, d’où au + bv = d, ce
qui signifie que d est un multiple de a ∧ b.
Comme d|a ∧ b et a ∧ b|d, et qu’ils sont tous les deux positifs, on en déduit
d = a ∧ b.


4.7 Multiples communs de deux entiers


Théorème 4.6 L’ensemble des multiples communs de deux entiers a et b est
l’ensemble des multiples d’un seul entier appelé P.P.C.M de a et b, noté a ∨ b.

aZ ∩ bZ = (a ∨ b)Z

Preuve . (On peut supposer que a et b soient positifs)


Posons d = a ∧ b et a = a′ d, b = b′ d avec a′ ∧ b′ = 1. Soit m = da′ b′ . m est un
multiple commun de a de et de b. A fortiori, tout multiple de m est un multiple
4.8. NOMBRES PREMIERS 63

commun de a et b.
Réciproquement, soit M un multiple commun de a et de b, il existe (p, q) ∈ Z2
tel que M = ap = bq. On a a′ dp = b′ dq, d’où a′ p = b′ q comme a′ divise b′ q et
qu’il est premier avec b′ , il divise q. Donc il existe r ∈ Z tel que q = ra′ . Ainsi
M = ra′ b = rm.
Ainsi tout multiple commun de a et b est un multiple m. 

Remarque 4.3 On remarque que m.d = a′ b′ d2 = ab. Ainsi

(a ∨ b).(a ∧ b) = |ab|.

4.8 Nombres premiers


Définition 4.3 Un entier naturel p ≥ 2 est dit premier s’il possède exacte-
ment deux diviseurs positifs 1 et lui même.

Remarque 4.4 Le nombre 1 n’est pas premier.

Exemple 4.5 2, 3, 5, 7, 11, 13, 17, 23, 29, 31, 31, 41, 43, 47...sont des nombres pre-
miers.

Théorème 4.7 (Théorème d’Euclide) Il existe une infinité de nombre


premiers.

Preuve . Dans le cas contraire, il n’y aurait qu’un nombre fini p1 , p2 , ..., pn
de nombres premiers. Soit m = p1 p2 ...pn + 1, m possède un diviseur premier q
et donc q est l’un des pi . Ce qui est absurde car q|m et q - (m − 1). 

Proposition 4.1 √Si n n’est pas premier, alors il existe un nombre premier p,
tel que p|n et p ≤ n.

√ n = ab avec 2 ≤ a ≤ b < n. Ainsi,


Preuve . Si n n’est pas premier alors
n = ab ≥ a , ceci implique que
2
√ a ≤ n et que si p est un nombre premier tel
que p divise a alors, p ≤ a ≤ n. 

Exemple 4.6√n = 271 est-il premier ?


Comme 16 < 271 < 17, il suffit de s’interesser aux nombres premies inférieurs
ou égaux à 16 qui sont 2, 3, 5, 7, 11, 13 et aucun d’entre eux ne divise 271. Ainsi
271 est un nombre premier.
64 CHAPITRE 4. ARITHMÉTIQUE DANS Z

Proposition 4.2 1. Si p est un nombre premier et p ne divise pas n alors


p ∧ n = 1.
2. Si p est un nombre premier et si p divise a1 a2 ...an alors p divise un des
ai .

Preuve . Raisonnons par récurrence.


◃ Pour n = 1, c’est clair.
◃ Pour n = 2, p|a1 a2 et p - a1 ⇒ p|a2 (d’après le théorème de Gauss).
◃ Supposons le résultat vrai à l’ordre n et soit a1 , a2 , ..., an+1 tel que

p|a1 a2 ...an+1 avec p - a1 ⇒ p|a2 a3 ...an an+1

et d’après l’hypothèse de récurrence p divisera l’un d’eux.




4.9 Théorème fondamental


Théorème 4.8 Tout entier supérieur ou égal à 2 s’écrit d’une manière unique
sous la forme d’un produit de facteurs premiers (à l’ordre près) c’est à dire,
∀ n ≥ 2, ∃!p1 , p2 ..., pm des nombres premiers distincts et α1 , α2 ...αm ∈ N∗ , tels
que
n = pα1 1 ...pαmm .
C’est la décomposition de l’entier n en produit de facteurs premiers.

Preuve . Soit n > 1 tel que tout entier inférieur ou égal à n soit un produit de
facteurs premiers. On a, n+1 possède un diviseur premier p. Posons n+1 = pq.
I Si q = 1, n + 1 = p, c’est donc le produit d’un seul facteur premier.
I Si q > 1, alors q ≤ n, d’après l’hypothèse de récurrence, q est un produit de
k facteurs premiers. Donc (n + 1) est le produit de (k + 1) facteurs premiers.
Unicité : En regroupant les facteurs premiers égaux on peut écrire

n = pα1 1 pα2 2 ...pαk k

les pi étant des nombres premiers distincts deux à deux. Supposons qu’un cer-
tain nombre premier p apparaisse avec l’exposant α ≥ 1 dans une décomposition
de n, et l’exposant β ≥ 1 dans une autre (on envisage β = 0 pour le cas où p
ne figurant pas dans la deuxième décomposition). On a pα a = pβ b.
a et b sont des produits de nombres premiers distincts de p, ils sont donc pre-
miers avec p.
4.10. VALUATION D’UN ENTIER N EN UN ENTIER PREMIER P 65

I Si α > β, pα−β a = b, ce qui contredit p ∧ a = 1.


I Si α < β, a = pβ−α b, ce qui contredit p ∧ a = 1, donc α = β.
Tous les facteurs premiers ont le même exposant dans deux décompositions
de n, qui ne permet donc différer que par l’ordre des facteurs.


Exemple 4.7 1. 43200 = 26 × 33 × 52 .


2. 407 = 11 × 37.
3. 300 = 22 × 3 × 52 .

4.10 Valuation d’un entier n en un entier pre-


mier p
Définition 4.4 Soit n ∈ N, n ≥ 2 et p nombre premier. On appelle valuation
de n en p et on note vp (n), l’exposant de p dans la décomposition de n en
facteurs premiers.

Exemple 4.8 On a 600 = 23 × 3 × 52

v2 (600) = 3, v3 (600) = 1, v5 (600) = 2 et v7 (600) = 0.

Proposition 4.3 Soit p un nombre premiers et a, b ∈ N∗ , on a

vp (ab) = vp (a) + vp (b).



Exemple√ 4.9 1. Montrons que 6 ∈ / Q.
Si 6 ∈ Q alors 6b = a avec a, b ∈ N∗ on a , v2 (6b2 ) = v2 (a2 ), ceci
2 2

implique, v2 (6) + 2v2 (b) = 2v2 (a), ou encore 1 + 2v2 (b) = 2v2 (a). Ce qui
est absurde.

2. 3 100 ∈/ Q. Sinon, il existe (a, b) ∈ N∗ × N∗ tel que 100b3 = a3 . Ce qui
donne, v2 (100) + 3v2 (b) = 3v2 (a), c’est à dire v2 (100) = 3(v2 (a) − v2 (b)).
Comme 100 = 22 .52 , on en déduit que v2 (100) = 2 = 3(v2 (a) − v2 (b)) et
ceci est impossible.

4.11 Exercices
Exercice 1.
1. Montrer que pour tout n ∈ N, l’entier 4n − 1 − 3n est divisible par 9
66 CHAPITRE 4. ARITHMÉTIQUE DANS Z

2. Trouver les entiers n ∈ Z tel que 7 divise n2 + (n + 1)2 + (n + 2)2 .


Exercice 2.
1. Déterminer le pgcd et les coefficients de l’égalité de Bezout des entiers a
et b suivants

a) a = 37 et b = 27, b) a = 270 et b = 105.

2. Résoudre dans N2
{
x + y = 56
a) x ∨ y + x ∧ y = x + y, b)
x ∨ y = 105.

Exercice 3. Soit (p, p + 2) une paire de nombres premiers avec p ≥ 5.


a) Montrer que 6 divise (p + 1).
b) En déduire qu’il n’existe pas de triplets de nombres premiers de la forme
(p, p + 2, p + 4) avec p ≥ 5.
Exercice 4. Montrer qu’un nombre est divisible par 3 si et seulement si la
somme de ses chiffres est divisible par 3.
Enoncer des critères de divisibilité par 9 et par 11.
Exercice 5. Notre but est de montrer qu’il existe une infinité de nombres
premiers de la forme 4n + 3.
Supposons qu’il y a un nombre fini p1 , p2 , ..., pk de nombre premiers de la forme
4n + 3. On pose m = 4p1 p2 ...pk − 1.
1. Montrer que m n’est pas premier et qu’il admet au moins un diviseur de
la forme 4n + 3.
2. Conclure.
Plus généralement, un théorème de Dirichlet (appelé théorème de la pro-
gression arithmétique) dit que si a et b sont premiers entre eux , il existe
une infinité de nombres premiers de la forme an + b.
Exercice 6. Soient n un entier supérieur à 2 et p un nombre premier. On ap-
pelle valuation de n en p et on note vp (n) l’exposant de p dans la décomposition
de n facteurs premiers.
1. Vérifier que si p est premier et a, b deux entiers supérieurs à 2 alors

vp (ab) = vp (a) + vp (b) .

2. Caculer v2 (10!) et v2 (100!) (on pourra écrire 100! = 250 × 50! × k où k
est le produit de nombres impairs).

3. En déduire que 100! ∈ / Q.
4.11. EXERCICES 67

Exercice 7. (Petit théorème de Fermat) Soit p un nombre premier.


1. Montrer que pour tout entier k tel que 1 ≤ k ≤ p − 1, p divise Cpk (on
k−1
pourra utiliser l’égalité kCpk = pCp−1 ).
2. Montrer que pour tout a ∈ N∗ , ap ≡ a (p)
(on pourra raisonner par récurrence sur a).
Exercice 8. Soient a et n deux entiers supérieurs à 2.
1. Montrer que si l’entier an − 1 est premier alors a = 2 et l’exposant n est
premier.
2. Montrer que si l’entier an +1 est premier alors l’exposant n est nécessairement
une puissance de 2 (on pourra raisonner par l’absurde).
68 CHAPITRE 4. ARITHMÉTIQUE DANS Z
Chapitre 5

Structures algébriques

5.1 Groupes
5.1.1 Loi de composition interne
Définition 5.1 Soit E un ensemble non vide. On appelle loi de composition
interne dans E (en abrégé l.c.i), une opération de E × E dans E, notée

∗ : E × E −→ E
(x, y) 7−→ x ∗ y

Exemple 5.1 1. L’addition, la multiplication sont des l.c.i dans N.


2. Pour tout ensemble X, la réunion et l’intersection sont des l.c.i dans
P(X).

Définition 5.2 Une partie A de E est dite stable par la loi ∗, si

∀ x, y ∈ A, x ∗ y ∈ A.

On appelle l.c.i induite par ∗ dans A la restriction de ∗ à A × A.

Exemple 5.2 1. La partie R− =] − ∞, 0] de R est stable par la loi (+).


2. La partie R+ = [0, +∞[ de R est stable par la loi (×).
3. La partie ] − ∞, 0] n’est pas stable par la loi (×).

5.1.1.1 Propriétés d’une l.c.i


Définition 5.3 1. Une l.c.i ∗ dans un ensemble E est dite
i) commutative, si pour tout x, y ∈ E, x ∗ y = y ∗ x.

69
70 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

ii) associative, si pour tout x, y, z ∈ E, x ∗ (y ∗ z) = (x ∗ y) ∗ z = x ∗ y ∗ z.


2. Un élément e ∈ E est dit
i) élément neutre à droite, si pour tout x ∈ E, x ∗ e = x.
ii) élément neutre à gauche, si pour tout x ∈ E, e ∗ x = x.
iii) élément neutre, s’il est neutre à droite et à gauche. Autrement dit,

∀ x ∈ E, x ∗ e = e ∗ x = x.

Exemple 5.3 1. L’addition et la multiplication dans C sont associatives.


2. La l.c.i ∗, définie par

∗ : Q2 −→ Q
x+y
(x, y) 7−→ x ∗ y =
2
n’est pas associative. En effet, (−1 ∗ 0) ∗ 1 ̸= −1 ∗ (0 ∗ 1).
3. Soit E un ensemble. La loi ∗, définie par

∗ : P(E) × P(E) −→ P(E)


(A, B) 7−→ A ∗ B = A ∪ B

est une loi commutative, associative, l’ensemble vide est l’élément neutre.

Proposition 5.1 Soit ∗ une l.c.i dans E possédant un élément neutre e. Alors
e est unique.

Preuve . Supposons qu’il existe e′ élément neutre de E tel que e′ ̸= e. On a

∀ x ∈ E, x∗e=e∗x=x (1)

et
∀ x ∈ E, x ∗ e′ = e′ ∗ x = x (2)
En prenant x = e′ dans (1) et x = e dans (2), on en déduit que e = e′ . 

5.1.1.2 Monoı̈de
Définition 5.4 On appelle monoı̈de un ensemble E muni d’une l.c.i associa-
tive et possédant un élément neutre.

Exemple 5.4 (N, +), (N, ×), (P(E), ∩) et (P(E), ∪) sont des monoı̈des.
5.1. GROUPES 71

Définition 5.5 Un élément x d’un monoı̈de (E, ∗) est dit


1. symétrisable à droite, s’il existe x′ ∈ E tel que x ∗ x′ = e.
2. symétrisable à gauche, s’il existe x′ ∈ E tel que x′ ∗ x = e.
3. symétrisable s’il est symétrisable à droite et à gauche.
Proposition 5.2 Soient (E, ∗) un monoı̈de et x ∈ E. Si x est symétrisable
alors x admet un et un seul élément symétrique.
Preuve . Raisonnons par l’absurde. Supposons que yet z soient les symétriques
de x par ∗. On a
x∗y =y∗x=e
et
x ∗ z = z ∗ x = e.
En utilisant le fait que (E, ∗) est un monoı̈de, on a
y = y∗e
= y ∗ (x ∗ z)
= (y ∗ x) ∗ z
= e∗z
= z.


Remarque 5.1 Le plus souvent, la l.c.i d’un monoı̈de est notée de façon ad-
ditive x + y ou multiplicative xy. Quand c’est une notation additive, on note
par (−x) le symétrique de x et quand c’est une notation multiplicative, on note
x−1 le symétrique de x ou encore l’inverse de x.
Proposition 5.3 Soient (E, ∗) un monoı̈de, x, y ∈ E. Si x et y sont symétrisables
alors x ∗ y est symétrisable et on a
(x ∗ y)−1 = y −1 ∗ x−1 .
Preuve . En utilisant le fait que (E, ∗) est un monoı̈de, on a
(y −1 ∗ x−1 ) ∗ (x ∗ y) = y −1 ∗ e ∗ y = e
et
(x ∗ y) ∗ (y −1 ∗ x−1 ) = x ∗ e ∗ x−1 = e.
On en déduit que (x ∗ y) est symétrisable et que
(x ∗ y)−1 = y −1 ∗ x−1 .

72 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

5.1.1.3 Eléments réguliers


Définition 5.6 Soit (E, ∗) un monoı̈de. Un élément a ∈ E est dit
1. régulier à droite, si

∀ (x, y) ∈ E 2 , x ∗ a = y ∗ a ⇒ x = y.

E −→ E
c’est à dire si l’application est injective.
x 7−→ x ∗ a
2. régulier à gauche, si

∀ (x, y) ∈ E 2 , a ∗ x = a ∗ y ⇒ x = y.

E −→ E
c’est à dire si l’application est injective.
x 7−→ a ∗ x
3. régulier, s’il est régulier à droite et à gauche.

Remarque 5.2 Tout élément symétrisable à droite (respectivement à gauche)


est régulier à droite (respectivement à gauche). En effet, en posant a′ le symétrique
à droite de a, on aura

x ∗ a = y ∗ a ⇒ x ∗ a ∗ a′ = y ∗ a ∗ a′ ⇒ x = y.

Attention ! ! La réciproque est fausse puisque dans (N, +), 2 est régulier,
mais il n’a pas d’opposé dans N.

5.1.2 Structure de groupes


Définition 5.7 On appelle groupe un monoı̈de dont tous les éléments sont
symétrisables. Si de plus, la l.c.i est commutative, le groupe est dit commutatif
ou abélien.

Exemple 5.5 1. (Z, +), (Q, +), (R, +), (C, +), (Q∗ , ×), (R∗ , ×) et (C∗ , ×)
sont des groupes abeliens.
2. (Bij (E), ◦), où Bij (E) est l’ensemble des applications bijectives de E sur
E est un groupe non abélien.

Remarque 5.3 La l.c.i d’un groupe quelconque est souvent notée multiplica-
tivement (ou additivement). S’il n’y a pas d’ambiguı̈té, on notera le groupe G
sans préciser la l.c.i.

Les propriétés d’un groupe découlent de celles d’un monoı̈de.


5.1. GROUPES 73

Proposition 5.4 1. Un groupe est non vide, il contient au moins son élément
neutre.
2. L’élément neutre d’un groupe est unique.
3. Le symétrique d’un élément dans un groupe est unique.
4. Dans un groupe, tout élément est régulier.
5. Soit G un groupe. Pour tout (a, b) ∈ G2 , l’équation ax = b a une solution
unique, x = a−1 b. De même l’équation xa = b, a une solution unique,
x = ba−1 .

Définition 5.8 Soit (G, .) un groupe. Si G est de Cardinal fini, on dit que G
est fini ou d’ordre fini.

Exemple 5.6 1. Groupe à deux éléments : Soit (G, ∗) un groupe à


deux éléments alors, G = {e, a} avec a ∗ a = e c’est à dire a−1 = a.
On a
∗ e e
e e a
a a e
Donc il existe une seule structure de groupe à 2 éléments, ce groupe est
abélien. Le modèle est ({1, −1}, ×) ou (Z/2Z, +).
2. Le groupe Z/nZ : On munit Z/nZ de la loi naturelle suivante

∀ x, y ∈ Z/nZ, x + y = x + y.

(Z/nZ, +) est un groupe abélien d’ordre n.

5.1.3 Groupe produit


Définition 5.9 Soient (G1 , ∗), (G2 , .) deux groupes. On munit G1 × G2 de la
loi naturelle suivante

(x1 , x2 ) × (y1 , y2 ) = (x1 ∗ y1 , x2 .y2 )

(G1 × G2 , ×) est un groupe, dit groupe produit de G1 par G2 .

Exemple 5.7 1. R × {0}, R∗ × R, R × Z , Z2 , Rn , ... sont des groupes


abéliens.
2. Z/nZ × Z/mZ est un groupe abélien d’ordre (n × m).
74 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

5.1.4 sous-groupe
Définition 5.10 On appelle sous-groupe d’un groupe G toute partie H de G,
stable par la l.c.i du groupe et qui muni de la l.c.i induite, est encore un groupe.

Exemple 5.8 Z est un sous-groupe de (R, +).

Théorème 5.1 Une partie H d’un groupe G est un sous-groupe, si et seule-


ment si
1. H est non vide.
2. H est stable par la l.c.i de G.
3. H contient les symétriques de tous ses éléments.
En notation additive :

 1) H ̸= ∅,
H sous-groupe de G ⇔ 2) ∀ x, y ∈ H, x + y ∈ H,

3) ∀ x ∈ H, −x ∈ H.

En notation multiplicative :

 1) H ̸= ∅,
H sous-groupe de G ⇔ 2) ∀ x, y ∈ H, xy ∈ H,

3) ∀ x ∈ H, x−1 ∈ H.

Preuve . Adoptons la notion multiplicative et notons e l’élément neutre de


G.
I Si H est un sous-groupe de G, il est non vide et stable par ×. Soit e′
l’élément neutre de H. e′ e′ = e′ e, comme e′ est régulier, e′ = e.
Soit x ∈ H, x a un inverse x−1 au sens de G et un inverse x′ au sens de H.
x′ x = e = x′−1 x, d’où x′ = x−1 , donc x−1 ∈ H. H contient ainsi les inverses
de tous ses éléments.
I Soit H une partie de G vérifiant les points (1), (2) et (3).
H est stable. Vérifions que, muni de sa loi induite, c’est un groupe. La loi
induite est evidemment associative. Comme H ̸= ∅, il existe x ∈ H, alors
x−1 ∈ H, d’où xx−1 ∈ H, c’est à dire e ∈ H. H possède donc un élément
neutre. De plus tout élément de H a un inverse dans G, qui d’après (3), est
dans H. H est un groupe, donc un sous-groupe de G.


Exemple 5.9 On montre facilement, à l’aide du théorème de caractérisation


d’un sous-groupe, que
5.1. GROUPES 75

1. {e} et G sont des sous-groupes de G.


2. L’intersection de deux sous-groupes de G est un sous-groupe de G.
3. U = {z ∈ C, |z| = 1} est un sous-groupe de (C∗ , ×).
4. Un = {z ∈ C, z n = 1} est un sous-groupe de (U, ×).
5. L’ensemble des suites convergentes est un sous-groupe de (RN , +).
6. L’ensemble des fonctions continues est un sous-groupe de (F(R, R), +).
En pratique ! !
Pour démontrer qu’un ensemble muni d’une l.c.i est un groupe, il est souvent
recommandé de montrer que c’est un sous-groupe d’un groupe connue. Ce qui
abrége la démonstration.
Remarque 5.4 La réunion de deux sous-groupes de G n’est pas en général
un sous-groupe de G. En effet
2Z = {2k : k ∈ Z}, est un sous-groupe de Z,
3Z = {3k : k ∈ Z}, est un sous-groupe de Z,
alors que 2Z ∪ 3Z n’est pas un sous-groupe de Z. (3 ∈ 2Z ∪ 3Z, 2 ∈ 2Z ∪
3Z et 2 + 3 = 5 ∈
/ 2Z ∪ 3Z).

5.1.4.1 sous-groupes de (Z, +).


Théorème 5.2 Pour tout n ∈ Z, l’ensemble nZ des multiples de n est un
sous-groupe de Z. Tout sous-groupe de Z est de cette forme.
Preuve .
I Pour tout n ∈ Z, nZ est non vide, stable par addition et il contient les
opposés de tous ses éléments. C’est donc un sous-groupe de Z.
I Réciproquement, soit H un sous-groupe de Z.
Si H = {0}, H = 0Z.
Si H ̸= {0}, pour tout élément n non nul de H, |n| ∈ H et |n| > 0.
L’ensemble des éléments strictement positifs de H est une partie non vide
de N, qui possède donc un plus petit élément n0 . Comme H est un sous-
groupe de Z, n0 Z ⊂ H. Montrons que H ⊂ n0 Z.
Soit p ∈ H. Effectuons la division euclidienne de p par n0
p = n0 q + r avec 0 ≤ r < n0
p et n0 q appartiennent à H, donc r appartient à H.
Comme ]0, n0 [∩H = ∅, r = 0. D’où p = n0 q ∈ n0 Z. On a bien montré que
H ⊂ n0 Z. D’où, en définitive H = n0 Z.

76 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

5.1.5 Groupe engendré


Définition 5.11 Soit G un groupe et a ∈ G. Le sous-groupe de G engendré
par a noté < a > est défini par

< a >= {an : n ∈ Z}, quand G est multiplicatif,

ou encore
< a >= {na : n ∈ Z}, quand G est additif.

Exemple 5.10 1. 2Z est un sous-groupe de Z engendré par 2.


2. Soit (C∗ , ×) un groupe et i ∈ C∗

< i >= {in : n ∈ Z} = {1, −1, i, −i}

3. Soit Un = {z ∈ C∗ : z n = 1}, alors Un = < e


2iπ
n >.

Définition 5.12 1. Un groupe est dit monogène s’il est engendré par un
de ses éléments c’est à dire, s’il existe a ∈ G tel que G =< a >.
2. Un groupe est dit cyclique s’il est monogène et fini. a est appelé générateur
de G.

Exemple 5.11 1. Si a ∈ R, alors aZ est un groupe monogène.


2. Un = {z ∈ C : z n = 1} est cyclique.
3. R n’est pas monogène.

Remarque 5.5 Un groupe monogène est un groupe commutatif.

Proposition 5.5 Tout sous-groupe d’un groupe monogène est monogène.

Preuve . Soient G =< a > et H un sous-groupe de G.


Si H = {e}. On a bien H est un sous-groupe monogène de G.
Si H ̸= {e} alors l’ensemble des éléments tels que an ∈ H est une partie de
N, qui possède donc un plus petit élément ap , p ≥ 1 et donc H = < ap >.

5.1. GROUPES 77

5.1.6 Morphismes de groupes


Considérons (G, .) et (G′ , ∗) deux groupes et notons e et e′ les éléments neutres
respectifs.

Définition 5.13 1. Une application f de G dans G′ est un homomor-


phisme de groupes (ou tout simplement morphisme de groupes) si

∀ x, y ∈ G, f (x.y) = f (x) ∗ f (y).

2. Un morphisme de G dans lui-même est appelé un endomorphisme de G.


3. Un morphisme bijectif de G sur G′ est appelé un isomorphisme de G sur
G′ .
4. Un endomorphisme bijectif de G est appelé un automorphisme de G.

G→G
Exemple 5.12 1. L’application , est un morphisme de groupes.
x 7→ e′
(R∗+ , ×) → (R, +)
2. L’application , est un isomorphisme de groupes.
x 7→ Logx
fa : G → G
3. Soit a ∈ (G, .). On définit , fa est un automorphisme
x 7→ axa−1
(dit automorphisme intérieur).

Remarque 5.6 1. La composée de deux morphismes est un morphisme.


2. La bijection réciproque d’un isomorphisme est un isomorphisme.

Définition 5.14 Deux ensembles sont dits isomorphes s’il existe un isomor-
phisme de l’un dans l’autre.

5.1.6.1 Propriétés des morphismes de groupes


Proposition 5.6 Soit G et G′ deux groupes multiplicatifs, d’éléments neutres
respectifs e et e′ , et f un morphisme de G dans G′ . Alors
1. f (e) = e′
2. f (x−1 ) = [f (x)]−1 , ∀ x ∈ G.
3. Si H est un sous-groupe de G alors f (H) est un sous-groupe de G′ .
4. Si H ′ est un sous-groupe de G′ alors f −1 (H ′ ) est un sous-groupe de G.

Preuve .
78 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

1. On a f (e) = f (ee) = f (e)f (e) et f (e) = f (e)e′ , d’où, f (e)f (e) = f (e)e′ ,
et, comme f (e) est régulier, f (e) = e′ .
2. Comme f est un morphisme de groupes on a
f (xx−1 ) = f (x)f (x−1 ) et f (xx−1 ) = f (e) = e′ , d’où, f (x)f (x−1 ) = e′ ,
c’est à dire f (x−1 ) = [f (x)]−1 .
3. Comme e′ = f (e), ceci preuve que e′ ∈ f (H) et par suite f (H) ̸= ∅.
Soit x, y ∈ f (H), montrons que xy −1 ∈ f (H). Comme x, y ∈ f (H),
alors il existe a, b ∈ H tels que x = f (a) et y = f (b), on en déduit que,
x.y −1 = f (a).[f (b)]−1 = f (a.b−1 ).
Ainsi en utilisant le fait que H est un sous-groupe de G, on a bien x.y −1
appartient à f (H).
4. Comme e′ = f (e), ceci prouve que e ∈ f −1 (H ′ ).
D’autre part, soit x, y dans f −1 (H ′ ) montrons que x.y est dans f −1 (H ′ ),
c’est à dire que f (x.y) est dans H ′ .
On a f (x.y) = f (x)f (y) et comme f (x), f (y) sont dans H ′ et H ′ est un
sous-groupe de G′ on en déduit que f (x.y) est dans H ′ et donc x.y est
dans f −1 (H ′ ).


5.1.6.2 Noyau d’un morphisme de groupes


Définition 5.15 Soient G et G′ deux groupes multiplicatifs, d’éléments neutres
respectifs e et e′ et soit f un morphisme de G dans G′ .
On appelle noyau de f l’ensemble des éléments de G qui ont pour image
l’élément neutre de G′ on le note
kerf = {x ∈ G : f (x) = e′ } = f −1 ({e′ }).
Théorème 5.3 Pour tout morphisme f du groupe G dans le groupe G′ .
1. ker f est un sous-groupe de G.
2. ker f = {e} si, et seulement si, f est injectif.
Preuve . Adoptons la notation multiplicative.
Comme {e′ } est un sous-groupe de G′ , on en déduit que f −1 ({e′ }) est un sous-
groupe de G. D’autre part, si f est injectif, alors pour tout x ∈ ker f , f (x) =
e′ = f (e) donc x = e. ker f = {e}.
Réciproquement, si ker f = {e}, soit (x, y) ∈ G2 tel que f (x) = f (y). Alors
f (x)[f (y)]−1 = e′ d’où f (xy −1 ) = e′ c’est à dire xy −1 ∈ ker f = {e} et donc
x = y. 
5.1. GROUPES 79

(R, +) −→ (C∗ , ×)
Exemple 5.13 L’application , est un morphisme de groupes,
x 7−→ eix
dont le noyau est ker f = {x ∈ R : eix = 1} = 2πZ sous-groupe de (R, +).

5.1.6.3 Image d’un morphisme de groupes


Définition 5.16 Soient G et G′ deux groupes et f un morphisme de G dans
G′ . On appelle image de f l’ensemble des éléments de G′ qui ont un antécédent
dans G. On le note

Imf = {y ∈ G′ , ∃ x ∈ G, y = f (x)} = f (G).

Ainsi Imf est un sous-groupe de G′ .

Théorème 5.4 Pour tout morphisme f du groupe G dans le groupe G′

Imf = G′ ⇔ f est surjectif.

Preuve . f (G) = G′ est la définition même de la surjectivité de f . 

(R, +) −→ (C∗ , ×)
Exemple 5.14 L’image du morphisme , est
x 7−→ eix

Imf = U = {z ∈ C : |z| = 1},

qui est sous-groupe de (C∗ , ×).

5.1.7 Ordre d’un élément dans un groupe


Soit G un groupe, noté multiplicativement et a un élément de G. L’application
f
Z −→ G
n 7−→ an

est un morphisme de (Z, +) dans (G, .).


L’image de f est le sous-groupe engendré par a

Imf =< a >= {an : n ∈ Z}.

Le noyau de f est un sous-groupe de Z, il existe donc n0 ∈ N tel que ker f =


n0 Z.
80 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

• Si n0 = 0, f est injectif et l’application

Z −→ < a >
n 7−→ an

est un isomorphisme de Z dans < a >. Dans ce cas le groupe < a > est infini.
• Si n0 ̸= 0, n0 est le plus petit entier strictement positif tel que an0 = e. On
l’applle l’ordre de a. Dans ce cas, le groupe engendré par a est fini, de cardinal
n0 et
< a >= {e, a, a2 , ..., an0 −1 }.

Remarque 5.7 1. L’ordre de a est l’ordre du groupe engendré par a.


2. L’ordre de l’élément neutre e de G est égal à 1.
3. Si a est d’ordre n0 et s’il existe k ∈ Z tel que ak = e, alors n0 divise k.

Exemple 5.15 1. Dans (C∗ , ×) l’ordre de (−1) est 2, l’ordre de (i) est 4,
l’ordre de (j) est 3, l’ordre de (e2iπ/n ) est n.
2. Dans (Z/4Z, +) l’ordre de (1̄) est 4, l’ordre de (2̄) est 2, l’ordre de (3̄) est
4 et l’ordre de(0̄) est 1.

Théorème 5.5 Deux groupes cycliques d’ordre n sont isomorphes.

Preuve . Soient G et G′ deux groupes cycliques d’ordre n, de générateurs


respectifs a et b. Ainsi,on peut écrire
{ }
G = ak : k ∈ [[0, n − 1]] et G′ = {bk : k ∈ [[0, n − 1]]}.

Soit

f : G −→ G′
ak 7−→ f (ak ) = bk , k ∈ [[0, n − 1]].

Montrons que f est un morphisme bijectif. On a


′ ′ ′ ′
f (ak+k ) = bk+k = bk bk = f (ak )f (ak ).

De plus, pour tout x ∈ ker f, il existe k ∈ [[0, n − 1]] tel que f (x) = f (ak ) = e′
et donc k est un multiple de n. Par suite ak = e. Ainsi, ker f = {e} et donc f
est injective.
Comme Card(G) = Card(G′ ), on en déduit que f est bijectif . 
5.1. GROUPES 81

Théorème 5.6 Soit G = < a > un groupe cyclique d’ordre n. Les générateurs
de G sont les ak , 1 ≤ k ≤ n − 1 avec k et n premiers entre eux.

Preuve . Si k ∈ {1, 2, ..., n−1} est premier avec n, le théorème de Bezout nous
dit qu’il existe deux entiers relatifs u et v tels que uk + nv = 1, ce qui entraine
que a = (ak )u ∈< ak > et G =< ak > . Réciproquement, si k ∈ {1, 2, ..., n − 1}
est tel que G =< ak >, il existe u ∈ Z tel que a = (ak )u . Donc a1−ku = e et par
suite 1 − ku ∈ nZ. Ainsi il existe v ∈ Z tel que ku + nv = 1 et donc k ∧ n = 1.


Remarque 5.8 Dans le cas où G est additif cyclique d’ordre n, les générateurs
de G sont les ka, 1 ≤ k ≤ n − 1 avec k et n premiers entre eux.

Exemple 5.16 Z/5Z = < 1̄ > = < 2̄ > = < 3̄ > = < 4̄ >.

5.1.8 Groupe symétrique


5.1.8.1 Permutation d’un ensemble fini
Définition 5.17 Soit E un ensemble fini de cardinal n. On rappelle qu’une
permutation est une bijection de E dans lui même.
On représente une permutation par la liste des éléments de [[1, n]] en dessous
de laquelle on indique l’image de chaque élément.

Exemple 5.17 ( )
1 2 3 4 5 6
σ=
3 1 2 5 6 4
signifie que σ(1) = 3, σ(2) = 1, σ(3) = 2, σ(4) = 5, σ(6) = 4.

5.1.8.2 Produit de permutations


La composée de deux permutations σ et τ de [[1, n]] est une permutation de
[[1, n]] qu’on note σ ◦ τ ou στ.
( ) ( )
1 2 3 1 2 3
Exemple 5.18 Soit σ = et τ = . Ainsi,
2 1 3 1 3 2
( ) ( )
1 2 3 1 2 3
σ◦τ = et τ ◦ σ = .
2 3 1 3 1 2

On remarque qu’en général deux permutations ne commutent pas.


82 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

5.1.8.3 Groupe symétrique


L’ensemble des permutations de [[1, n]] est noté Sn . La composition des permu-
tations est une opération interne dans Sn , associative, elle possède un élément
neutre, c’est l’identité de [[1, n]] que nous noterons ici e.

Remarque 5.9 Toute permutation possède un inverse et l’ordre de Sn est n!.

{( )} {( ) ( )}
1 1 2 1 2
Exemple 5.19 S1 = , S2 = , .
1 1 2 2 1

Remarque 5.10 On a (S1 , ◦) et (S2 , ◦) sont des groupes abéliens. Mais pour
n ≥ 3, (Sn , ◦) n’est pas commutatif.

5.1.8.4 Ordre d’une permutation


Soit σ une permutation appartenant au groupe Sn . Rappelons que l’application
Z → Sn
est un morphisme de groupes. Son noyau est donc un sous-groupe
k 7→ σ k
de Z, qui est par conséquent de la forme mZ où m ∈ N. Comme Sn est fini,
ce mophisme n’est certainement pas injectif, donc m = 0.
Ainsi, l’ensemble des entiers k ∈ Z tels que σ k = e est l’ensemble des multiples
d’un entier strictement positif m, que l’on appelle ordre de σ. L’ordre de σ est
donc le plus petit entier k strictement positif tel que σ k = e.
( )
1 2 3
Exemple 5.20 σ = , σ 2 = e, l’ordre de σ est 2.
1 3 2

5.1.8.5 Transposition
Définition 5.18 On appelle transposition une permutation qui échange deux
éléments distincts en laissant tous les autres invariants. Nous notons τij la
permutation qui échange i et j avec i ̸= j.
( )
1 2 3
Exemple 5.21 = τ23
1 3 2

Remarque 5.11 τij ◦ τij = e, donc il est clair que toute transposition est
d’ordre 2, elle est sa propre inverse : c’est une involution.
5.1. GROUPES 83

Définition 5.19 On dit qu’une pertmutation s est un p cycle s’il existe {x1 , x2 , ..., xp }
tel que 
 s(xk ) = xk+1 1 ≤ k ≤ p − 1,
s(xp ) = x1 ,

s(xj ) = xj p + 1 ≤ j ≤ n.
Le cycle sera noté C = (x1 , x2 , ..., xp ). L’entier p est appelé longueur du cycle.
L’ensemble {x1 , x2 , ..., xp } est appelé support du cycle.

Exemple 5.22 1. Une transposition est un 2 cycle.


( )
1 2 3 4
2. = (1 3 4 2).
3 1 4 2
( )
1 2 3 4 5
3. = (1 2 3) est un 3 cycle de S5 .
2 3 1 4 5
( )
1 2 3 4 5 6
4. Le cycle (1 5 4 3) de S6 est .
5 2 1 3 4 6

Proposition 5.7 Tout élément de Sn est produit d’au plus (n − 1) transposi-


tions, n ≥ 2.

Remarque 5.12 1. Si C est un p cycle alors l’ordre de C est p


2. Si s = s1 ◦ s2 ... ◦ sm avec supp si ∩ supp sj = ∅

ord(s1 ◦ s2 ... ◦ sm ) = P.P.C.M (ord(s1 ), ord(s2 ), ..., ord(sp )).

Preuve . Raisonnons par récurrence. Pour n = 2, on a S2 = {e, τ12 }. Suppo-


sons que le résultat est vraie jusqu’a l’ordre n et montrons le à l’ordre (n + 1).
Soit σ ∈ Sn+1 et soit i ∈ {1, 2, ..., n, n + 1}.
1er Cas : Si σ(n + 1) = n + 1. σ peut-être considéré comme un élément de
Sn et on applique l’hypothèse de récurrence.
2ème Cas : Si σ(n + 1) ̸= n + 1 = j ∈ {1, 2, ..., n}. On pose τ = τn+1,j ◦ σ.
On a τ (n + 1) = τn+1,j ◦ σ(n + 1) = n + 1 et donc τ peut être vu comme
un élément de Sn et on applique l’hypothèse et donc σ = τj,n+1 ◦ τ.


( )
1 2 3 4 5 6 7 8 9 10
Exemple 5.23 1. Soit σ = .
3 5 7 6 4 2 1 10 9 8
On a σ = (1 3 7)(2 5 4 6)(8 1 0) = τ17 ◦ τ13 ◦ τ26 ◦ τ24 ◦ τ25 ◦ τ810 .
84 CHAPITRE 5. STRUCTURES ALGÉBRIQUES
( )
1 2 3 4 5
2. Soit σ = .
5 3 4 1 2
On a σ = (1 5 2 3 4) = τ14 ◦ τ13 ◦ τ12 ◦ τ15 = τ15 ◦ τ52 ◦ τ23 ◦ τ34 .

Remarque 5.13 Cette décomposition n’est pas unique et même le nombre de


transposition n’est pas fixé. Nous verrons dans la suite que la parité du nombre
de transpositions est une caractéristique de la permutation.

5.1.8.6 Inversion
Définition 5.20 Soit σ ∈ Sn . On appelle inversion de σ toute paire {i, j}
d’élément de [[1, n]] telle que si i < j alors σ(i) > σ(j).
( )
1 2 3 4 5
Exemple 5.24 Soit σ = .
5 3 4 1 2
Les inversions de σ sont {1, 2}, {1, 3}, {1, 4}, {1, 5}, {2, 4}, {2, 5}, {3, 4}, {3, 5}.

5.1.8.7 Signature d’une permutation


Définition 5.21 On note I(σ) = le nombre d’inversions de σ.
On appelle signature de σ et on note ε(σ) le nombre définie par

ε(σ) = (−1)I(σ) .

Une permutation est paire si ε(σ) = 1, impaire si ε(σ) = −1.


( )
1 2 3 4
Exemple 5.25 Dans S4 , on pose σ = .
2 4 3 1
Les inversions de σ sont {2, 3}, {3, 4}, {1, 4}, {2, 4}. Par suite ε(σ) = 1.

Théorème 5.7 La signature d’un produit de permutations est le produit des


signatures. Autrement dit, l’application ε est un morphisme de groupes de
(Sn , ◦) dans ({−1, 1}, ×).

Preuve . Soient σ et σ ′ deux permutations de Sn , possédant respectivement


P et Q inversions. Les inversions de σ ′ ◦ σ sont :
I Les paires {i, j} inversions de σ telles que {σ(i), σ(j)} ne soit pas une in-
version de σ ′ .
I Les paires {i, j} qui ne sont pas des inversion de σ, telles que {σ(i), σ(j)}
soit une inversion de σ ′ .
Si l’on ajoute les nombres d’inversions de σ et de σ ′ , on compte deux fois le
nombre R d’inversions {i, j} de σ telles que {σ(i), σ(j)} soit une inversion
5.1. GROUPES 85

de σ ′ . Le nombre total d’inversions de σ ′ o σ est donc N = P + Q − 2R. La


signature de σ ′ o σ est

ε (σ ′ o σ) = (−1)I(σ)+I(σ ) = (−1)P (−1)Q = ε (σ ′ )ε(σ) .

Corollaire 5.1
ε(σ −1 ) = [ε(σ)]−1 = ε(σ).
Une permutation et son inverse ont même parité.

Corollaire 5.2 Si τij est une transposition, alors ε(τij ) = −1.

Preuve . Dans Sn considérons pour i < j, La transposition


( )
1 2 3 i − 1 i i + 1 i + 2 j − 1 j... n
τij = .
1 2 3 i − 1 j i + 1 i + 2 j − 1 i... n

les inversions de τij sont {i, i + 1}, {i, i + 2}, ...., {i, j − 1}, {i, j}, {i + 1, j},
{i + 2, j}, ...., {j − 1, j}. Elles sont en nombre impair 

Conséquence Si τ1 , τ2 , ..., τp sont p transpositions, alors

ε(τ1 ◦ τ2 ... ◦ τp ) = (−1)p .

En particulier si s est un k cycle, alors

ε(σ) = (−1)k−1

( )
1 2 3 4 5 6 7 8
Exemple 5.26 Soit σ = .
3 5 4 1 7 8 6 2
On a σ = (1 3 4)(2 5 7 6 8) = τ14 ◦ τ13 ◦ τ28 ◦ τ26 ◦ τ27 ◦ τ25 .
Ainsi, ε(σ) = (−1)6 = 1.

Remarque 5.14 1. Une permutation paire ne peut être que le produit d’un
nombre pair de transpositions et une permutation impaire ne peut être
que le produit d’un nombre impair de transpositions.
2. La décomposition en produit de transpositions peut être utilisé pour déterminer
la signature d’une permutation.
3. Un cycle de longueur pair est une permutation impair.
86 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

Proposition 5.8 Soit C1 , C2 deux cycles de Sn . On a

ord(C1 o C2 ) = P.P.C.M (ord(C1 ), ord(C2 )).

Preuve . Soient α = ord(C1 ◦ C2 ), p = ord(C1 ), q = ord(C2 ) et m = p ∨ q.



Montrons que m = α. Comme (C1 ◦ C2 )m = C1 ◦ C2 = (C1 )k ◦ (C2 )k = e, alors
α|m.
Soient F1 = supp(C1 ) et F2 = supp(C2 ). On a (C1 ◦ C2 )α|F1 = e par suite p|α.
D’autre part, (C1 ◦ C2 )α|F2 = C2α = e, et par suite q|α. Ainsi, m|α et donc
m = α. 

( )
1 2 3 4 5 6 7 8
Exemple 5.27 Soit σ = = σ = (1 3 4) (2 5 7 6 8).
3 5 4 1 7 8 6 2 | {z } | {z }
C1 C2
ordre (C1 ) = 3, ordre (C2 ) = 5 et par suite ordre(σ) = 15. Ainsi, par exemple,
σ 2012 = (σ 15 )134 σ 2 = (1 3 4)2 (2 5 7 6 8)2 .

5.2 Structure d’Anneau


Définition 5.22 On appelle anneau un ensemble A muni de deux lois de
composition internes notées respectivement + et ×, telles que
1. (A, +) est un groupe abélien. Le neutre est noté 0A (élément nul).
2. (A, ×) est un monoı̈de. Le neutre est noté 1A .
3. × est distributive par rapport à +, c’est à dire

∀ (a, b, c) ∈ A3 , a(b + c) = ab + ac et (b + c)a = ba + ca.

Si de plus × est commutative, l’anneau est dit commutatif.

Exemple 5.28 (Z, +, ×), (Q, +, ×), (R, +, ×), (C, +, ×), sont des anneaux
commutatifs.

5.2.1 Calcul dans un anneau


On peut définir dans un anneau A une l.c.i. notée (−), par

∀ (a, b) ∈ A2 , a − b = a + (−b).
5.2. STRUCTURE D’ANNEAU 87

Remarque 5.15 1. Pour tout (a, b) ∈ A2 , n ∈ Z, 0A .x = x.0A = 0A .


En effet, (0A + 0A ).x = 0A .x + 0A .x = 0A .x ⇒ 0A .x = 0A .
2. Pour tout (a, b, c) ∈ A3 , a(b − c) = ab − ac.
En effet, a(b − c) + ac = a[(b − c) + c] = a(b − c + c) = ab.
3. Pour tout (a, b, c) ∈ A3 , (a-b)c=ac-bc.
4. On peut appliquer la formule du binôme à deux éléments d’un anneau,
s’ils commutent

n
Si ab = ba ⇒ ∀ n ∈ N, (a + b) = n
Cnk ak bn−k .
k=0

5. De même pour la factorisation de an − bn



n−1

Si ab = ba ⇒ ∀ n ∈ N , a − b = (a − b)
n n
an−1−k bk .
k=0

En particulier, on a

n−1

∀ n ∈ N , 1 − x = (1 − x)
n
xk .
k=0

Si (1 − x) est inversible, on retrouve la formule donnant la somme des


termes d’une suite géométrique

1 + x + x2 + ... + xn−1 = (1 − xn )(1 − x)−1 .

5.2.2 Sous-anneau
Définition 5.23 On appelle sous-anneau B de A toute partie B de A vérifiant
1. 1A ∈ B,
2. Pour tout (x, y) ∈ B 2 , x − y ∈ B,
3. Pour tout (x, y) ∈ B 2 , xy ∈ B.

Exemple 5.29 1. Z est un sous-anneau de Q qui est un sous-anneau de


R.
√ √
2. Z[ 2] = {m + n 2 : m, n ∈ Z} est un sous-anneau de R.
3. Z[i] = {a + ib : a, b ∈ Z} est un sous-anneau de C.

Remarque 5.16 Soit (Hi )i∈I une famille de sous-anneaux de A, alors i∈I Hi
est un sous-anneau de A.
88 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

5.2.3 Morphisme d’anneaux


Définition 5.24 1. On appelle morphisme d’anneaux une application f
d’un anneau A dans un anneau A′ qui est un morphisme pour les lois
+ et × et qui fait correspondre les éléments unités. Autrement dit, f est
un morphisme d’anneaux si

 ∀ (x, y) ∈ A2 , f (x + y) = f (x) + f (y),
∀ (x, y) ∈ A2 , f (xy) = f (x)f (y),

f (1A ) = 1A .

2. Un morphisme d’anneaux bijectif est dit isomorphisme d’anneaux.


3. Un morphisme d’anneaux de A dans lui même est dit un endomorphisme
d’anneaux.

Exemple 5.30 1. Soient A un anneau et a élément de A inversible. L’ap-


plication

fa : A −→ A
a 7−→ axa−1

est un automorphisme d’anneaux.


2. L’application
√ √
f : Z[ 2] −→ Z[ 2]
√ √
a + b 2 7−→ a − b 2

est un automorphisme d’anneaux.

Remarque 5.17 Soit f un morphisme d’un anneau A dans un anneau A′ ,


alors
1. f (0A ) = 0A′ ,
2. f (−x) = −f (x),
3. Si B est un sous-anneau de A alors f (B) est un sous-anneau de A′ ,
4. Si C est un sous-anneau de A′ alors f −1 (C) est un sous-anneau de A.

5.2.4 Anneau intègre


Définition 5.25 On appelle diviseurs de zéro des éléments non nuls dont le
produit est 0A .
5.2. STRUCTURE D’ANNEAU 89

Exemple 5.31 1. Dans Z/6Z, 2̄ et 3̄ sont des diviseurs de zéro.


f : R −→
{ R g : R −→
{ R
2. On considère 0 si x < 0, et x si x < 0, .
x 7−→ x 7−→
x si x ≥ 0 0 si x ≥ 0
On a ∀ x ∈ R, f (x)g(x) = 0.

Définition 5.26 On appelle anneau intègre un anneau commutatif non réduit


à {0} sans diviseur de zéro.

∀ (x, y) ∈ A2 , xy = 0A ⇒ x = 0A ou y = 0A .

Exemple 5.32 1. Z, Q, R et C sont des anneaux intègres pour les l.c.i.


habituelles.
2. Z/6Z est un anneau non intègre.

Proposition 5.9 Soit A un anneau intègre

∀, a, b, c ∈ A, ab = ac et a ̸= 0A ⇒ b = c.

Preuve . On a ab = ac ⇒ a(b − c) = 0A . Comme A est un anneau intègre et


a ̸= 0A , on en déduit que b − c = 0A et par suite b = c. 

Remarque 5.18 Dans un anneau intègre, l’équation

x2 = 1 ⇒ (x − 1)(x + 1) = 0
⇒ x = 1 ou x = −1

alors que dans un anneau non intègre, soit par exemple Z/8Z, l’équation x̄2 = 1
a pour solution 1̄, 3̄, 5̄, 7̄.

Théorème 5.8 Z/nZ muni des deux l.c.i. (+) et (×) habituelles est un an-
neau commutatif, de plus Z/nZ est un anneau intègre si, et seulement si n est
premier.

Preuve .
Il est facile de voir que (Z/nZ, +, ×) est un anneau commutatif.
Montrons que si Z/nZ est un anneau intègre alors nécessairement p est pre-
mier. Pour cela, supposons que n n’est pas premier et n ≥ 2 alors il existe a, b
tels que
n = ab avec 1 < a, b < n.
90 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

̸ 0̄ et b̄ ̸= 0̄ mais ceci contredit le fait que āb̄ = 0̄.


ceci nous implique que ā =
Ainsi n est premier.
Réciproquement, sachant que n est premier on suppose que

āb̄ = 0̄ ⇒ n|ab ⇒ n|a ou n|b


⇒ ā = 0̄ ou b̄ = 0̄.

5.2.5 Eléments inversibles d’un anneau


Définition 5.27 Un élément x d’un anneau A est dit inversible, s’il possède
un symétrique x−1 pour la loi l.c.i. ×.

x−1 ∈ A, xx−1 = x−1 x = 1A .

Théorème 5.9 L’ensemble des éléments inversibles d’un anneau est un groupe
multiplicatif.

Preuve .
Soient A un anneau et G l’ensemble des éléments inversibles.
1. G est stable par ×, en effet

∀ (x, y) ∈ G2 , (xy)(y −1 x−1 ) = (y −1 x−1 )(xy) = 1A .

D’où xy est inversible et (xy)−1 = y −1 x−1 .


2. La l.c.i. × dans G est associative.
3. 1A ∈ G, 1A est l’élément neutre dans G.
4. Tout élément x de G a par définition, un inverse x−1 dans A et x−1 est
lui-même inversible, donc x−1 ∈ G.
Ainsi, (G, ×) est un groupe.


Exemple 5.33 1. Le groupe des éléments inversibles de Z est ({−1, 1}, ×).
2. Le groupe des éléments inversibles de C est (C∗ , ×).
5.3. STRUCTURE DE CORPS 91

5.3 Structure de corps


Définition 5.28 On appelle corps un anneau (généralement supposé commu-
tatif ) non réduit à {0}, dont tout élément non nul est inversible .
Si K est un corps, le groupe de ses éléments inversibles est K \ {0}.
Exemple 5.34 (Q, +, ×), (R, +, ×), (C, +, ×).
Définition 5.29 Une partie L d’un corps K est un sous coprs de K si
1. L \ {0} ̸= ∅.
2. ∀ (x, y) ∈ L2 , x − y ∈ L.
3. ∀ (x, y) ∈ L × L∗ , xy −1 ∈ L.
Remarque 5.19 Tout coprs commutatif est un anneau intègre.
Attention ! ! Si A est un anneau intègre ceci n’implique pas que A est un
corps. (Z est un anneau intègre mais n’est pas un corps).
Proposition 5.10 Soit A un anneau intègre de cardinal fini alors A est un
corps.
Preuve .
Soit A un anneau intègre et a ∈ A, a ̸= 0A . Montrons que a est inversible.
On considère l’application
fa : A −→ A
x 7−→ ax
fa est injective et comme A est un ensemble fini alors fa est bijective par suite,
comme 1A ∈ A, ∃! x ∈ A tel que fa (x) = 1A . Ceci implique que ax = 1A et
comme A est commutatif on a bien ax = xa = 1A , c’est à dire que a est
inversible. 

5.4 Exercices
Exercice 1. On définit sur R la loi (⋆) par
a ⋆ b = a2 + b2 .
Etudier l’associativité, la commutativité, l’existence d’un élément neutre pour
(⋆).
Exercice 2. Soit E = R \ {1} muni de la loi (⋆) définie par
x ⋆ y = x + y − xy.
92 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

1. Montrer que (E, ⋆) est un groupe abélien.


2. On pose pour tout entier n non nul,

x∗n = x ∗ x ∗ x... ∗ x, n fois.

Déterminer x∗n .
Exercice 3. Soit G un groupe. Soient H et K deux sous-groupes de G. On
pose
HK = {x ∈ G, ∃ (h, k) ∈ H × K; x = hk} .
Montrer que HK est un groupe si et seulement si HK = KH.
Exercice 4. Soient G un groupe et A une partie finie de G telle que

A est stable ⇔ ∀x ∈ A, ∀y ∈ A on a xy ∈ A.
Montrer que A est un sous-groupe de G. Donner un contre exemple lorsque A
est infini.
Exercice 5. Soit G un groupe multiplicatif. On note

Z(G) = {a ∈ G, ∀b ∈ G on a ab = ba} .

Z(G) est dit le centre de G. Montrer que Z(G) est un sous-groupe de G.


Exercice 6. Soit G = R∗ ×R et (∗) la loi de compositon interne dans G défine
par
b
(a, b) ∗ (a′ , b′ ) = (aa′ , ab′ + ′ )
a
1. Montrer que (G, ∗) est un groupe.
2. Déterminer Z(G) et en déduire que G est un groupe non commutatif.
3. Montrer que {1} × R est un sous-groupe de G.
4. Soit
(R∗ , ×) → (G, ∗)
f:
x 7→ (x, 0)
a) Vérifier que f est un morphisme de groupes.
b) Déterminer l’image de f et en déduire que R∗ ×{0} est un sous-groupe
de G.
c) Déterminer le noyau de f et en déduire que f est injectif.
Exercice 7. A tout élément a d’un groupe G on associe l’applicaton fa de G
dans G définie par
fa (x) = axa−1 .
5.4. EXERCICES 93

1. Montrer que fa est un isomorphisme du groupe G sur lui même ; on dit


que fa est un automorphisme intérieur de G.
2. Montrer que l’ensemble E des automophismes intérieurs de G est muni
par la loi ◦ d’une structure de groupe isomorphe au groupe quotient de G
par son centre.

Exercice 8. Soit j le nombre complexe j = − 12 + 2
3
i = exp( 2iπ
3
). On pose

Z [j] = {z = p + jq; p, q ∈ Z} .

1. Montrer que (Z [j] , +) est un groupe.


2. Montrer que les applications r(z) = jz et s(z) = z sont des automo-
phismes du groupe (Z [j] , +).
3. Montrer que r3 = r ◦ r ◦ r = id = s2 , r ◦ s ◦ r = s et s ◦ r = r2 ◦ s.
4. Expliciter l’ensemble G={rn ◦ sm , 0 ≤ n ≤ 2; 0 ≤ m ≤ 1} et montrer que
(G,◦) est un groupe non commutatif.
5. Déterminer l’ordre de chaque élément de G.
Exercice 9. Soit (G, .) un groupe et H un sous-groupe de G.
On définit la relation R sur G par x R y ⇔ yx−1 ∈ H.
1. a) Montrer que R est une relation d’équivalence sur G.
b) Déterminer la classe d’un élément x de G et montrer qu’elle est en
bijection avec H.
2. On suppose que G est d’ordre fini.
a) Montrer que l’ordre de H divise l’ordre de G.
b) Montrer que l’ordre d’un élément de G divise l’ordre de G.
c) Montrer que si G est d’ordre premier, alors il est cyclique et les seuls
sous-groupes de G sont {e} et G.
d) Déterminer les sous-groupes de Z/6Z.
Exercice 10. Soit G un groupe cyclique d’ordre n, noté multiplicativement, a
un générateur de G et e = an son élément neutre.
1. Montrer que tout sous-groupe de G est cyclique.
2. Soit m ∈ N∗ . Montrer que

am = e ⇔ n/m.

Exercice 11.
1. Montrer que U = {z ∈ C∗ : ∃n ∈ N∗ , z n = 1} est un groupe multiplicatif.
Soit n ≥ 1 et Un ={z ∈ C∗ : z n = 1} .
94 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

2. a) Montrer que Un est un groupe cyclique d’ordre n.


b) Donner un générateur de Un .
c) Montrer que exp( 2iπk
n
) engendre Un si et seulement si k ∧ n = 1.
3. Montrer que tout groupe cyclique d’ordre n est isomophe à Un .
4. Montrer que le groupe Z/nZ est isomorphe à Un .
5. Le groupe de Klein Z/2Z × Z/2Z est il cyclique ? est-il isomophe à Z/4Z.
Exercice 12. Soit G un groupe noncyclique d’ordre 2p où p est un nombre
premier. On note e l’élément neutre de G.
1. Montrer que ∀x ∈ G \ {e} ord(x) = 2 ou ord (x) = p.
2. On suppose que ord (x) = 2. Montrer que G est abélien et que ∀α, β ∈ G
\ {e} , α ̸= β l’ensemble {e, α, β, αβ} est un groupe d’ordre 4 de G. En
déduire que p = 2.
Exercice 13. Soit
( ) ( )
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 9
σ= , τ=
2 5 8 4 6 7 1 3 3 7 8 9 4 5 2 1 6

1. Décomposer σ et τ en produits de cycles à supports disjoints et donner


leurs ordres.
2. Calculer σ 507 et τ 3005 .
3. Déterminer la signature de σ et τ.
( )
1 2 3 4 5 6 7 8 9
Exercice 14. Soit σ =
5 8 7 3 9 1 4 2 6
1. Décomposer σ en produit de cycles disjoints.
2. Chercher l’ordre et la signature de σ.
3. Montrer que 10n ≡ 4 [12] , pour tout entier n ≥ 2.
4. Calculer σ 10 , pour n ∈ N∗ .
n

Exercice 15. Soit n ∈ N∗ , déterminer la signature des permutations suivantes


( )
1 2 ··· n − 1 n
1. σ =
n n − 1 ··· 2 1
( )
1 2 3 ··· n n + 1 n + 2 ··· 2n
2. σ =
2 4 6 · · · 2n 1 3 · · · 2n − 1
Exercice 16. Soit n ∈ N tel que n ≥ 3.
1. Vérifier que pour tout couple (i, j) ∈ {2, ..., n}2 tel que i < j : τi,j =
τ1,i ◦ τ1,j ◦ τ1,i .
5.4. EXERCICES 95

2. En déduire que tout élément de Sn peut s’écrire comme produit de τ1,i


avec 2 ≤ i ≤ n.
3. Vérifier que pour tout couple (i, j) ∈ {2, ..., n}2 tel que i ̸= j on a
(1, i, j) = τ1,i ◦ τ1,j .
4. En déduire que toute permutation paire peut s’écrire comme produit de
(1, i, j) avec 2 ≤ i ≤ n.
Exercice 17. Soit n ∈ N∗ et τ une transposition de Sn .
1. Montrer que l’application σ → τ ◦ σ est une bijection de Sn vers Sn .
2. En déduire le cardinal de l’ensemble An formé des permutations paires de
Sn .
Exercice 18. Soient n, d ∈ N∗ et G un groupe abelien d’ordre n, noté mul-
tiplicativement et d’élément neutre e. On considère l’application f : G → G
définie par f (x) = xd .
1. Vérifier que f est un endomorphisme de G.
2. On suppose que les entiers n et d sont premiers entre eux.
a) Montrer que si x ∈ ker f alors x est d’ordre 1.
b) En déduire que f est un automorphisme de G.
3. On suppose que n est impair.
a) Vérifier que ∀y ∈ G il existe x ∈ G tel que x2 = y.
b) Trouver l’ensemble des x qui vérifient x2 = e.
c) Soit U = {e− 2015 , k = 0, ..., 2014}. Vérifier que tout élément de U est
2iπk

le carré d’un élément de U et que U ne contient aucun élément d’ordre


2.
4. a) On suppose que n est pair. Montrer qu’il existe dans G un élément
d’ordre 2. On peut écrire G = AU B où A = {x ∈ G/ x ̸= x−1 } et
B = {x ∈ G/ x = x−1 }.
b) Expliciter les éléments de S3 , l’ensemble des permutations de {1, 2, 3}.
Trouver les éléments d’ordre 2 et les éléments qui sont des carrés d’éléments
de S3 .
{ }
Exercice 19. On note D = 10nk : n ∈ Z, k ∈ N l’ensemble des nombres
décimaux.
1. Montrer que D est un sous-anneau de (Q, +, ×) .
2. Déterminer l’ensemble des éléments inversibles de D.
Exercice 20. Soit Z [i] = {z = n + im : m, n ∈ Z} .
1. Montrer que Z [i] est un sous-anneau de C.
2. Montrer que z est inversible dans Z [i] si et seulement si |z| = 1.
96 CHAPITRE 5. STRUCTURES ALGÉBRIQUES

3. Déterminer le groupe U des éléments inversibles de l’anneau Z [i] et mon-


trer qu’il est cyclique.
[√ ] { √ }
Exercice 21. Soit Z 3 = z = n + m 3 : m, n ∈ Z .
( [√ ] )
1. Montrer que Z 3 , +, × est un anneau commutatif intègre.
[√ ] [√ ] ( √ )
2. Montrer que l’application φ : Z 3 → Z 3 définie par φ n + m 3 =

n − m 3 est un automorphisme d’anneaux.
[√ ]
3. Soit N une application définie sur Z 3 par N (x) = xφ (x) .
[√ ]
a) Vérifier que pour tout x ∈ Z 3 , N (x) ∈ Z.
[√ ]
b) Montrer que pour tout x, y ∈ Z 3 , N (xy) = N (x)N (y).
[√ ]
c) En déduire que x est inversible dans Z 3 si et seulement si |N (x)| =
1.
Exercice 22.
1. Déterminer les endomorphismes de chacun des anneaux Z, Q.
2. a) Montrer que tout endomorphisme de l’anneau R est croissant.
b) Déterminer les endomorphismes de l’anneau R.
3. Soit f un endomorphismes de l’anneau C tel que ∀x ∈ R, f (x) = x.
Calculer f (i) et en déduire la forme de f.
Exercice 23. Les questions suivantes sont indépendantes.
1. a) Trouver les diviseurs de zéro dans Z/6Z.
· · ·
b) Résoudre dans Z/6Z l’équation x2 − 4x + 3 = 0.
2. a) Trouver le groupe multiplicatif U des éléments inversibles dans Z/9Z.
b) Montrer que U est cyclique et trouver un groupe qui lui soit isomorphe.
3. Montrer que si K est un sous corps de Q alors K = Q.
Exercice 24. Soit (A, +, ·) un anneau et soit f : Z → A définies par f (m) =
m1A .
1. Vérifier que f est un morphisme de groupes.
2. Justifier l’existence d’un entier n tel que ker f = nZ.
Dans la suite, on suppose que n ̸= 0. A est dit de caractéristique n.
3. Montrer que pour tout x ∈ A, nx = 0.
4. Montrer que si A est intègre alors n est premier.
5. En déduire que si A est commutatif et intègre alors l’application g(x) = xn
est un morphisme d’anneaux sur A.
5.4. EXERCICES 97
√ [√ ] { √ }
Exercice 25. Soit d ∈ N tel que d ∈/ Q. Montrer que Q d = a + b d : a, b ∈ Q
est un corps commutatif.
Exercice 26. Soit (A, +, ·) un anneau intègre et fini. On veut montrer que A
est un corps.
1. Soit a ∈ A \ {0} , montrer que les applications fa et ga définies sur A par

fa (x) = ax et ga (x) = xa

sont bijectives.
2. En déduire que A est un corps.
3. Soit n un entier tel que n ≥ 2, montrer qu’il y a équivalence entre
a) Z/nZ est corps.
b) Z/nZ est intègre.
c) n est premier.
·
( On pourra montrer que si a ∈ Z alors a est inversible dans Z/nZ si
et seulement si a ∧ n = 1.)
Exercice 27. Soit d ∈ N. On pose Ad = {(n, m) ∈ Z2 : n − m ∈ dZ} .
1. Montrer que Ad est un sous-anneau de (Z2 , +, .) .
Soit A un sous-anneau de (Z2 , +, .) .
2. Vérifier que pour tout n ∈ Z, (n, n) ∈ A.
3. Montrer que (n, m) ∈ A si et seulement si (n − m, 0) ∈ A.
4. On pose H = {n ∈ Z : (n, 0) ∈ A} .
a) Montrer que H est un sous groupe de Z.
b) En déduire qu’il existe d ∈ N tel que A = Ad .
98 CHAPITRE 5. STRUCTURES ALGÉBRIQUES
Chapitre 6

Polynômes

Dans ce chapitre K désignera R ou C.

6.1 Polynômes à coefficients dans K


Définition 6.1 On appelle polynôme à une indéterminée à coefficients dans
K, toute suite (ap )p≥0 d’éléments de K, nulle à partir d’un certain rang (i.e,
il existe n dans N tel que ap = 0, pour tout p > n). Un tel polynôme est noté
P = (a0 , a1 , ..., an , 0, ...). Les éléments ap ∈ K, s’appellent les coefficients de P
et l’ensemble des polynômes à coefficients dans K est noté K[X].

Définition 6.2 Soient P = (a0 , a1 , ..., an , 0, ...) et Q = (b0 , b1 , ..., bm , 0, ...)


deux polynômes à coefficients dans K. L’égalité P = Q est équivalente à n = m
et ap = bp pour tout p. En particulier un polynôme P est le polynôme nul si,
et seulement si, ses coefficients sont nuls.

6.2 Opérations sur les polynômes


Soient P = (a0 , a1 , ..., an , 0, ...) et Q = (b0 , b1 , ..., bm , 0, ...) deux polynômes à
coefficients dans K et soit λ ∈ K. On définit dans K [X]

6.2.1 Une addition


On définit la somme de P et Q par

P + Q = (a0 + b0 , ..., aq + bq , ...) où q = max(n, m).

99
100 CHAPITRE 6. POLYNÔMES

L’addition est donc une l.c.i dans K [X] . Elle est évidemment commutative, as-
sociative, le polynôme nul est l’élément neutre et tout polynôme P = (a0 , a1 , ..., an , 0, ...),
a un opposé −P = (−a0 , −a1 , ..., −an , 0, ...). Ainsi

(K [X] , +) est un groupe abélien.

6.2.2 Une multiplication interne


On définit le produit de P et Q par

p

P Q = (c0 , c1 , ..., cn+m , 0, ...), avec cp = ak bp−k = ai bj .
k=0 i+j=p

La multiplication est donc une l.c.i dans K [X] . Elle est commutative, asso-
ciative et est distributive par rapport à l’addition. De plus, la multiplication
admet pour élément neutre le polynôme 1K[X] = (1, 0, ...). Ainsi

(K[X], +, .) est un anneau commutatif.

6.2.3 Une multiplication externe par les réels


On définit le polynôme λP par

λP = (λa0 , λa1 , ..., λan , 0, ...).

Notation : On note par X le polynôme (0, 1, 0, ...) et on vérifie par récurrence


que
X n = X...X
| {z } = (0, ..., 1, 0, ...)
| {z }
n fois (n+1)ième rang.

On confond 1 ∈ K avec la suite (1, 0, ...). Ainsi, tout polynôme P = (a0 , a1 , ..., an , 0, ...)
avec ai ∈ K, s’écrit

n
n
P = P (X) = a0 + a1 X + ... + an X = ak X k , avec la convention X 0 = 1.
k=0


n ∑
m
p
Par conséquent si P = ap X et Q = bp X p , alors
p=0 p=0


max(n,m)

n+m ∑p
p
P+ Q = (ap + bp )X et PQ = ( ak bp−k )X p .
p=0 p=0 k=0
6.3. FONCTIONS ASSOCIÉES À UN POLYNÔME DE K[X] 101

6.3 Fonctions associées à un polynôme de K[X]


Soit P = a0 + a1 X + ... + an X n ∈ K[X].

Définition 6.3 On appelle fonction polynôme associée à P , la fonction

P : K −→ K
x 7−→ P (x) = a0 + a1 x + ... + an xn .

Plus généralement si E est un ensemble sur lequel on définit une addition,


une multiplication et un produit par les coefficients a0 , ..., an de P , on appelle
fonction associée à P , définie sur E, la fonction

P : E −→ E
α 7−→ P (α) = a0 + a1 α + ... + an αn .

Exemple 6.1 1. Soit P = X + X 2 . La fonction polynômiale associée à P


est

P : K −→ K
x 7−→ P (x) = x + x2 .

En particulier P (0) = P (−1) = 0 et P (2) = 6.


2. Soit E = F(R, R). On associe à P = X + X 2 , les fonctions P1 et P2
définies sur E par

P1 : E −→ E P2 : E −→ E
et
f 7−→ f + f 2 f 7−→ f + f ◦ f

On a donc

∀ t ∈ R, P1 (f )(t) = f (t) + (f (t))2 et P2 (f )(t) = f (t) + f (f (t)).

3. Soient P = X + X 2 et E = Z/2Z, alors on associe à P , la fonction P0


définie sur E par

P0 : E −→ E
k̄ 7−→ k̄ + k̄ 2 = 0̄

Donc la fonction P0 est identiquement nulle bien que le polynôme P ne


le soit pas.
102 CHAPITRE 6. POLYNÔMES

6.4 Degré et valuation d’un polynôme


Définition 6.4 Soit P ∈ K[X] non nul. On appelle degré de P et on note
d˚P , le plus grand entier n tel que le coefficient de X n dans P soit non nul.
Si P est nul, on convient que d˚P = −∞.

Définition 6.5 On appelle valuation de P et on note val(P ), le plus petit


entier n tel que le coefficient de X n dans P soit non nul.
Si P est nul, on convient val(P ) = +∞.

Exemple 6.2 Soient P = X 5 − X 2 + X + 1 et Q = X 4 − X 3 + X 2 .


Alors d˚P = 5, val(P ) = 0, d˚Q = 4 et val(Q) = 2.

Propriétés
Soient P, Q ∈ K[X]. Alors on a
1. d˚(P + Q) ≤ max(d˚P, d˚Q),
2. d˚(P Q) = d˚P + d˚Q,
3. val(P + Q) ≥ min(val(P ), val(Q)),
4. val(P Q) = val(P ) + val(Q),
5. d˚(λP ) = d˚P et val(λP ) = val(P ), pour tout λ ∈ K \ {0}.

Exemple 6.3 Soient P = X 3 −X 2 +X−1, Q = X 2 +X et R = −X 3 +2X 2 +1.


On a P + Q = X 3 + 2X − 1, P Q = X 5 − X, P + R = X 2 + X et
P R = −X 6 + 3X 5 − 3X 4 + 4X 3 − 3X 2 + X − 1.
Ainsi,
d˚(P + Q) = 3, d˚(P + R) = 2 < max(d˚P, d˚R) = 3

et
val(P + Q) = 0, val(P + R) = 1 > min(val(P ), val(R)).

Remarque 6.1 Les éléments inversibles de K[X] sont les polynômes de degré
nul. En effet, si P est inversible dans K[X] alors il existe Q ∈ K[X] tel que
P Q = 1K[X] . Ainsi, d˚(P Q) = d˚(P ) + d˚(Q) = 0 et donc d˚(P ) = d˚(Q) = 0.
L’ensemble des polynômes constants noté K0 [X] est un corps commutatif.
6.5. AUTRES OPÉRATIONS SUR LES POLYNÔMES 103

6.5 Autres opérations sur les polynômes


6.5.1 Composition des polynômes

n ∑
m
Soient P = ai X i et Q = bℓ X ℓ deux éléments de K[X]. Le polynôme
i=0 ℓ=0
composé de P et de Q est défini par

n
P ◦ Q(X) = P (Q(X)) = ai (Q(X))i
i=0
= a0 + a1 Q(X) + ... + an (Q(X))n
= a0 + a1 (b0 + b1 X + ... + bm X m ) + ... + an (b0 + b1 X + ... + bm X m )n

Exemple 6.4 Soient P (X) = 1 + X + X 2 et Q(X) = X − X 2 . On a,

P ◦ Q(X) = 1 + Q(X) + (Q(X))2 = 1 + X − X 2 + X 2 + X 4 − 2X 3


= 1 + X − 2X 3 + X 4
Q ◦ P (X) = P (X) − (P (X))2 = 1 + X + X 2 − (1 + X + X 2 )2
= 1 + X + X 2 − 1 − X 2 − X 4 − 2X − 2X 2 − 2X 3
̸= P ◦ Q(X)

Remarque 6.2 1. X ◦ P = P (X), 1 ◦ P = 1.


2. Si d˚P ≥ 1 et d˚Q ≥ 1 alors d˚(P ◦ Q) = d˚P.d˚Q.
3. Si val(P ) ≥ 1 alors val(P ◦ Q) = val(P )val(Q).

6.5.2 Dérivation
Soit P = an X n + an−1 X n−1 + ... + a1 X + a0 , avec ai ∈ K.
Le polynôme dérivé de P est défini par

P ′ = nan X n−1 + (n − 1)an−1 X n−2 + ... + 2a2 X + a1 .

Il s’ensuit que
P ′ = 0 ⇔ P = cte.
De plus on a les propriétés suivantes
Propriétés
Soient P, Q ∈ K[X]. Alors on a
104 CHAPITRE 6. POLYNÔMES

1. Pour tout λ ∈ K, (P + λQ)′ = P ′ + λQ′ .


2. (P Q)′ = P ′ Q + P Q′ . En particulier (P n )′ = nP ′ P n−1 , n ∈ N∗ .
3. (P ◦ Q)′ = P ′ (Q).Q′ . En particulier, (P ◦ (X + a))′ = P ′ (X + a), a ∈ K.
Exemple 6.5 Soit P = (5X 2 + 3X + 1)(X 3 + 2). On a

P ′ = (10X +3)(X 3 +2)+(5X 2 +3X +1)(3X 2 ) = 25X 4 +12X 3 +3X 2 +20X +6.

6.5.3 Dérivées successives


Définition 6.6 Soit k ∈ N, on appelle dérivée d’ordre k d’un polynôme P ,
le polynôme P (k) défini par
{ (k)
P = (P (k−1) )′ = (P ′ )(k−1) (k ≥ 1),
P (0) = P.
Propriétés
1. Soit P ∈ K[X] avec d˚P ≥ 1, alors d˚P ′ = d˚P − 1.
2. Soit P ∈ K[X] avec d˚P = n et P = an X n + ... + a0 . On a
∑n
p!ap
a) Si 0 ≤ k ≤ n, P (X) =
(k)
X p−k,
p=k
(p − k)!
b) P (n) = n!an et P (k) = 0 si k ≥ n + 1,

c) P (k) (0) = k!ap .


Exemple 6.6 Soit P (X) = (X − a)n , alors

 n!
(X − a)n−k si 0 ≤ k ≤ n,
(k)
P (X) = (n − k)!
 0 si k > n.

6.6 Divisions dans K[X]


6.6.1 Division suivant les puissances croissantes
Théorème 6.1 Soient A et B ∈ K[X] tels que B(0) ̸= 0. Alors pour tout
n ∈ N, il existe un couple unique (Q, R) d’éléments de K[X] vérifiant
A = BQ + X n+1 R avec d˚Q ≤ n.
C’est la division de A par B suivant les puissances croissantes à l’ordre n.
6.6. DIVISIONS DANS K[X] 105

Exemple 6.7 1. Soient A = 2X + 3X 2 − X 3 et B = 1 + 2X − X 3 . Alors la


division suivant les puissances croissantes à l’ordre 4 de A par B s’écrit

A = B(2X − X 2 + X 3 ) + X 5 (X − 1).

2. Soient A = 1 et B = 1 + X. Alors la division suivant les puissances


croissantes à l’ordre n de A par B s’écrit

1 = (1 + X)(1 − X + X 2 + ... + (−1)n X n ) + (−1)n+1 X n+1 .

Preuve . Existence : Montrons que la propriété (Pm ) suivante est vraie


pour tout m ∈ N ∪ {+∞}.
(Pm ) : Pour tout Am ∈ K[X] tel que val(Am ) = m, il existe un couple (Qm , Rm )
d’éléments de de K[X] vérifiant

Am = BQm + X n+1 Rm avec d˚Qm ≤ n.

En effet si val(Am ) = m ≥ n + 1, alors on a

Am = X n+1 Cm et (Qm , Rm ) = (0, Cm ).

Donc (Pm ) est vraie si m ≥ n + 1.


Maintenant soit p ≤ n et supposons que pour tout m ≥ p +1, (Pm ) est vérifiée.
Notons b0 = B(0) et soit Ap = ap X p +...+aq X q (avec ap ̸= 0), ordonné suivant
les puissances croissantes. Alors le polynôme
ap p
Am = Ap − X B
b0
est de valuation supérieur ou égale à p+1 et donc par hypothèse de récurrence,
il existe (Qm , Rm ) tel que

Am = BQm + X n+1 Rm , d˚Qm ≤ n.

Ceci donne
ap p
Ap = B(Qm + X ) + X n+1 Rm .
b0
ap
On prend alors Rp = Rm et Qp = Qm + X p et on a d˚Qp ≤ n.
b0
Unicité : Soient (Q1 , R1 ) et (Q2 , R2 ) tels que

A = BQ1 + X n+1 R1 = BQ2 + X n+1 R2


106 CHAPITRE 6. POLYNÔMES

avec d˚Qi ≤ n pour i ∈ {1, 2}. Alors on a


B(Q1 − Q2 ) = X n+1 (R2 − R1 )
et donc
val(B(Q1 − Q2 )) = val(B) + val(Q1 − Q2 )
= n + 1 + val(R2 − R1 ).
Or B(0) ̸= 0, donc val(B) = 0 et donc val(Q1 − Q2 ) ≥ n + 1.
Mais comme d˚(Q1 − Q2 ) ≤ n, on en déduit que Q1 = Q2 et par suite R1 = R2 .


6.6.2 Division euclidienne


Théorème 6.2 Soient A, B ∈ K[X] avec B non nul. Alors il existe un couple
unique (Q, R) d’éléments de K[X] vérifiant
A = BQ + R, avec d˚R < d˚B.
Q et R sont dits respectivement le quotient et le reste de la division euclidienne
de A par B.
Remarque 6.3 Remarquons que si d˚A < d˚B, alors Q = 0 et R = A.
Exemple 6.8 Soient A = X 4 + X 3 − X 2 + X − 1 et B = X 2 + X + 1. On a
A = (X 2 − 2)B + 3X + 1.
Preuve . Existence : Posons B = bm X m +...+b0 avec bm ̸= 0 (i.e d˚B = m)
et montrons que pour tout p ∈ N et tout polynôme Ap ∈ K[X] tel que d˚Ap = p,
il existe Qp et Rp dans K[X] vérifiant Ap = BQp + Rp avec d˚Rp < d˚B.
 Cette propriété est évidemment vraie pour tout p < m (il suffit de prendre
(Qp , Rp ) = (0, Ap )).
 Soit n ≥ m et supposons que la propriété est vraie pour p ≤ n − 1. Soit
An = an X n + ... + a0 avec an ̸= 0. Alors le polynôme
an n−m
Ap = An − X B
bm
est de degré inférieur ou égal à n − 1. Ce qui donne d’après l’hypothèse de
récurrence, l’existence d’un couple (Qp , Rp ) d’éléments de K[X] tel que
A0 = BQp + Rp , avec d˚Rp < d˚B.
On déduit alors que
an n−m
An = BQn + Rn avec Qn = (Qp + X ), Rn = Rp et d˚Rn < d˚B.
bm
6.6. DIVISIONS DANS K[X] 107

Unicité : Soient (Q1 , R1 ) et (A2 , R2 ) deux couples d’élémetns de K[X] tels


que : A = BQ1 + R1 = BQ2 + R2 et d˚Ri < d˚B pour 1 ≤ i ≤ 2. Alors on a
B(Q1 − Q2 ) = R2 − R1 et d˚B(Q1 − Q2 ) = d˚B + d˚(Q1 − Q2 ). Or

d˚(R2 − R1 ) ≤ max(d˚(R2 ), d˚R1 ) < d˚B.

Ainsi, d˚(Q1 − Q2 ) = −∞ c’est à dire Q1 = Q2 et par suite R1 = R2 . 

Propriétés
Soient A, B, C et Q dans K[X]. On a
1. A = CQ + B ⇔ A ≡ B mod (C).
2. A ≡ A mod(C).
3. A ≡ B mod(C) ⇔ B ≡ A mod(C).
4. Si A ≡ B mod(C) et B ≡ D mod(C) ⇒ A ≡ D mod(C).
C’est à dire la relation ” ≡ ” est une relation d’équivalence.
5. Si A1 ≡ B1 mod(C) et A2 ≡ B2 mod(C), alors

A1 + A2 ≡ B1 + B2 mod(C) et A1 A2 ≡ B1 B2 mod(C)

Exemple 6.9 1. On a X 99 ≡ 1 mod (X 99 − 1), donc

X 2012 = (X 99 )20 X 32 ≡ X 32 mod(X 99 − 1),

c’est à dire
X 2012 = (X 99 − 1)Q + X 32 , Q ∈ R[X].
2. Soit A = X 12 + 8X 11 + 7X 9 + 5X 6 − 3X 4 + X 2 − 5.
Alors on a
( )
A ≡ 1 + 8X 2 + 7 + 5 − 3X + X 2 − 5 mod X 3 − 1 ,

c’est à dire A = (X 3 − 1)Q + 9X 2 − 3X + 8.


3. Soient n, p ∈ N∗ et a ∈ R. On a

n = pq + r avec 0 ≤ r ≤ p − 1.

Donc X n = (X p )q X r et comme X p ≡ ap mod(X p − ap ), alors on a

X n − an ≡ apq (X r − ar ) mod(X p − ap )

Ainsi le reste de la division euclidienne de X n − an par X p − ap est


apq (X r − ar ).
108 CHAPITRE 6. POLYNÔMES

6.7 Applications du procédé de Hörner


Le procédé de Hörner est une méthode rapide pour effectuer la division de P
par X − α, α ∈ K ou par (X − α)(X − β), α, β ∈ K et pour calculer P (α).

6.7.1 La division euclidienne par X − α (α ∈ K).


Soient P = an X n + an−1 X n−1 + an−2 X n−2 + ... + a2 X 2 + a1 X + a0 dans K[X]
et α ∈ K. Alors la division euclidienne de P par (X − α) s’écrit

P = (bn−1 X n−1 + bn−2 X n−2 + ... + b1 X + b0 )(X − α) + P (α)


= bn−1 X n + (bn−2 − αbn−1 )X n−1 + ... + (b0 − αb1 )X + P (α) − αb0

Ce qui donne par identification



 bn−1 = an ,
bn−i = αbn−i+1 + an−i+1 pour 2 ≤ i ≤ n,

P (α) = αb0 + a0 .

Ainsi le procédé de Hörner permet d’obtenir le quotient et le reste de la division


euclidienne de P par (X − α).

P an an−1 ..... ak ... a1 a0 Reste


α 0 bn−1 .... bk b1 b0 P (α) = ab0 + a0

Exemple 6.10 1. Soit P (X) = X 4 − 5X 3 + 8X 2 − 3 et α = 2. Alors on a

P 1 −5 8 0 −3 Reste
2 0 1 −3 2 4 5
Et par suite

P (X) = (X − 2)(X 3 − 3X 2 + 2X + 4) + 5.

2. Soit P (X) = X 5 − X 4 + X 3 − X 2 + X − 1 et α = 1. Alors on a

P 1 −1 1 −1 1 −1 Reste
1 0 1 0 1 0 1 0

Et par suite
P (X) = (X − 1)(X 4 + X 2 + 1).
Ainsi, 1 est une racine de P.
6.7. APPLICATIONS DU PROCÉDÉ DE HÖRNER 109

6.7.2 La division euclidienne par (X −α)(X −β) (α, β ∈ K)


Soient α, β ∈ K et P ∈ K[X]. La division de P par (X − α)(X − β) s’écrit

P = (X − α)(X − β)Q + aX + b avec a, b ∈ K.

D’autre part on a P = (X − α)Q1 + P (α) et Q1 = (X − β)Q2 + Q1 (β). D’où

P = (X − α)(X − β)Q2 + (X − α)Q1 (β) + P (α).

Il s’ensuit que Q = Q2 et aX + b = Q1 (β)(X − α) + P (α).


Le polynôme Q et les valeurs de P (α) et Q1 (β) sont donnés par le tableau de
Hörner.

Exemple 6.11 Soit P (X) = X 7 + X 6 − X 5 + X 4 − X 2 + X + 1, α = 1 et


β = 2. Alors on a

P 1 1 −1 1 0 −1 1 1 Reste
1 0 1 2 1 2 2 1 2 3 = P (1)
2 0 0 1 4 9 20 42 85 172 = Q1 (2)

D’où

P (X) = (X − 1)(X − 2)(X 5 + 4X 4 + 9X 3 + 20X 2 + 42X + 85) + 172(X − 1) + 3.

6.7.3 La formule de Taylor


Soit P ∈ K[X] et α ∈ K. La division euclidienne de P par (X − α) s’écrit
P (X) = (X − α)P1 + P (α). La division euclidienne de P1 par (X − α) s’écrit

P1 (X) = (X − α)P2 + P1 (α).

Ce qui donne P (X) = (X − α)2 P2 + (X − α)P1 (α) + P (α). Par itération, on


obtient pour P ∈ K[X] et d˚P = n,

P (X) = (X − α)n Pn (α) + (X − α)n−1 Pn−1 (α) + ... + (X − α)P1 (α) + P (α)

où Pk est le quotient de Pk−1 par (X − α).


Le procédé de Hörner permet de calculer les coefficients P (α) et Pk (α) pour
1 ≤ k ≤ n.
Ces coefficients peuvent être calculés par les dérivées successives. En effet po-
sons α0 = P (α) et αk = Pk (α) pour 1 ≤ k ≤ n.
110 CHAPITRE 6. POLYNÔMES

Alors on a P (X) = α0 + α1 (X − α) + ... + αn (X − α)n . Ce qui donne pour


0 ≤ k ≤ n,

n
j!
P (k) (X) = αj (X − α)j−k
j=k
(j − k)!
(k + 1)! n!
= k!αk + αk+1 (X − α) + ... + αn (X − α)n−k .
1! (n − k)!

On en déduit que P (k) (α) = k!αk et donc

P (k) (α)
αk = , ∀ 0 ≤ k ≤ n.
k!
On peut alors énoncer le théorème suivant

Théorème 6.3 (Formule de Taylor) Pour tout α ∈ K et pour tout P ∈


K[X] tel que d˚P = n, on a

n
P (k) (α)
P (X) = (X − α)k .
k=0
k!

Remarque 6.4 Le procédé de Hörner permet donc de calculer les coefficients


P (k) (α) pour P ∈ K[X], α ∈ K et 0 ≤ k ≤ d˚P .

Exemple 6.12 Soit P = 2X 3 − X 2 + 4X + 1 et α = −1. Alors on a le tableau

P 2 -1 4 1 Reste
-1 0 2 -3 7 -6
-1 0 0 2 -5 12
-1 0 0 0 2 -7
-1 0 0 0 0 2

suivant. D’où

P (X) = −6 + 12(X + 1) − 7(X + 1)2 + 2(X + 1)3 .

Par identification avec la formule de Taylor on a P (−1) = −6, P ′ (−1) = 12,


P ′′ (−1) = −14, P ′′′ (−1) = 12.

Remarque 6.5 Soit P (X) = an X n + an−1 X n−1 + ... + a1 X + a0 dans K[X],


P (k) (0)
alors ak = .
k!
6.7. APPLICATIONS DU PROCÉDÉ DE HÖRNER 111

Exemple 6.13 Soit P (X) = X 5 + 2X 4 − X 3 + X 2 − X + 1, alors on a

P (0) = 1, P ′ (0) = −1, P (2) (0) = 2, P (3) (0) = −6

P (4) (0) = 48 et P (5) (0) = 5! = 120.

Remarque 6.6 Connaissant la formule de Taylor de P en α, on peut, à l’aide


du procédé de Hörner, déterminer la formule de Taylor de P en β ∈ K (β ̸= α).
En effet la formule de Taylor de P en α, s’écrit


n ∑
n
P (k) (α)
P (X) = αk (X − α) k
= (X − α)k avec n = d˚P.
k=0 k=0
k!


n
Posons Q(X) = αk X k c’est à dire P (X) = Q(X − α) et donc P (k) (β) =
k=0
Q(k) (β − α) pour 0 ≤ k ≤ n. Ce qui donne


n
P (k) (β)
P (X) = (X − β)k
k=0
k!

n
Q(k) (β − α)
= (X − β)k .
k=0
k!

Q(k) (β − α)
Les coefficients sont données par le tableau de Hörner.
k!

Exemple 6.14 Soit P (X) = (X − 1)4 − 3(X − 1)3 + (X − 1)2 + 2(X − 1) − 1.


Ecrivons la formule de Taylor de P au point β = −2. On a α = 1 et donc
β − α = −3. Posons Q(X) = X 4 − 3X 3 + X 2 + 2X − 1. Alors on a le tableau
suivant
Q 1 -3 1 2 -1 Reste
-3 0 1 -6 19 -55 164
-3 0 0 1 -9 46 -193
-3 0 0 0 1 -12 82
-3 0 0 0 0 1 -15
-3 0 0 0 0 0 1

On en déduit que P (X) = (X +2)4 −15(X +2)3 +82(X +2)2 −193(X +2)+164.
112 CHAPITRE 6. POLYNÔMES

6.8 Propriétés arithmétiques de K[X]


6.8.1 Divisibilité dans K[X]
Soient A, B ∈ K[X] avec B non nul. On dit que B divise A ou que A est un
multiple de B si A ≡ 0 mod(B) c’est à dire il existe Q ∈ K tel que A = BQ.
On note l’ensemble des multiples de B par B.K[X] c’est à dire

B.K[X] = {P = BQ, Q ∈ K[X]}.

Remarque 6.7 1. Soient A, B ∈ K[X]. Alors on a

A.K[X] = B.K[X] ⇔ ∃ λ ∈ K∗ tel que B = λA.

2. On dit que deux polynômes A et B sont associés s’il existe λ ∈ K∗ tel que
B = λA.
3. Dans toutes les propriétés de divisibilité on peut remplacer un polynôme
par un polynôme associé.
1
Exemple 6.15 X − , 2X − 1, −2X + 1 sont associés.
2

6.8.2 P.G.C.D de deux polynômes


On peut étendre aux polynômes le théorème énnoncé sur les entiers
Théorème 6.4 Soient A et B ∈ K[X] non nuls. Alors il existe un polynôme
unique unitaire ∆ ∈ K[X] vérifiant
1. ∆ divise A et B.
2. Il existe U1 et V1 dans K[X] tels que

AU1 + BV1 = ∆.

3. Tout diviseur D de A et B, divise ∆.

Définition 6.7 1. Le polynôme ∆ s’appelle le P.G.C.D de A et B et est


noté ∆ = A ∧ B.
2. A et B sont dits premiers entre eux si A ∧ B = 1.

Propriétés On retrouve le théorème de Bezout et ses corollaires dont les


démonstrations sont exactement les mêmes que dans Z.
6.8. PROPRIÉTÉS ARITHMÉTIQUES DE K[X] 113

1. (Identité de Bezout) Soient A et B ∈ K[X] non nuls

A ∧ B = 1 ⇔ ∃ U, V ∈ K[X] : AU + BV = 1.

2. Soient A et B ∈ K[X] non nuls.

A ∧ B = ∆ ⇔ ∃ A1 , B1 ∈ K[X] : A = ∆A1 , B = ∆B1 et A1 ∧ B1 = 1.

3. Soit λ ∈ K∗ , λA ∧ B = A ∧ B.
4. Soit P un polynôme unitaire, alors (P A) ∧ (P B) = P (A ∧ B).
5. Si A∧B = 1 alors, pour tout n ≥ 1 et pour tout m ≥ 1, on a, An ∧B m = 1.
6. Soient A et B ∈ K[X] non nuls, Ap ∧ B p = (A ∧ B)p , ∀ p ≥ 1.

Exemple 6.16 1. Soient A = X − a et B = X − b avec a ̸= b. Alors


1 1
(X − a) ∧ (X − b) = 1 car (X − a) − (X − b) = 1.
b−a b−a
Ainsi, pour tout n, m ∈ N∗ , (X − a)n ∧ (X − b)m = 1.
2. (X − 1)(X + 1)2 ∧ (X + 1)(X − 1)2 (X − 2) = (X + 1)(X − 1) car

(X−1)(X+1)2 ∧(X+1)(X−1)2 (X−2) = (X+1)(X−1) ((X + 1) ∧ (X − 1)(X − 2))


| {z }
=1

Lemme 6.1 Soient A et B dans K[X] avec B non nul et d˚B ≤ d˚A. Soit R
le reste de la division euclidienne de A par B. Alors

A ∧ B = B ∧ R.

Preuve . On a
A = BQ + R, d˚R < d˚B.
Soient ∆ = A ∧ B et D = B ∧ R, alors ∆|R et donc ∆ divise D.
Réciproquement, si D divise B et R alors D divise A et B donc D divise ∆.
Par suite ∆ = D (car ils sont unitaires). 

6.8.3 Algorithme d’Euclide


Soient A et B ∈ K[X] tel que d˚B ≤ d˚A non nuls. Comme B ̸= 0, alors on a

A = BQ1 + R1 , d˚R1 < d˚B.

D’après le lemme précédent, A ∧ B = B ∧ R1 .


114 CHAPITRE 6. POLYNÔMES

 Si R1 = 0 alors A ∧ B = B (normalisé).
 Si R1 ̸= 0, on divise B par R1 , on obtient

B = R1 Q2 + R2 avec d˚R2 < d˚R1 et B1 ∧ R1 = R1 ∧ R2 .

Ainsi pour k ≥ 1, on désigne par Qk+1 et Rk+1 le quotient (resp le reste) de


la division euclidienne de Rk+1 par Rk (avec R0 = B), alors on a

Rk−1 = Rk Qk+1 + Rk+1 , d˚Rk+1 < d˚Rk .

La suite (Rk )k≥1 est finie car la suite (d˚Rk )k≥1 est strictement décroissante
à partir de d˚B.
Il en résulte qu’il existe m ∈ N tel que Rm ̸= 0 et Rm+1 = 0. De plus on a

A ∧ B = B ∧ R1 = R1 ∧ R3 = ... = Rm ∧ Rm+1 = Rm

Ainsi, on peut résumer ces opérations sur un tableau

Q1 Q2 Q3 ... Qk+1 ... Qm−1


A B R1 R2 ... Rk ... Rm−2
R1 R2 R3 R4 ... Rk+2 ... Rm Rm+1 =0

Remarque 6.8 On peut remplacer à chaque étape le reste trouvé par le po-
lynôme unitaire qui lui est associé.

Exemple 6.17 1. On pose A = X 4 −9X 2 +4X +2 et B = X 3 +4X 2 +X −6.


Calculons le P.G.C.D de A et B.
X −4 1
3
X+ 59 3X − 2
A B 3X + 7X − 6
2
X +3
6X 2 + 14X − 12 = R1 − 89 (X + 3) = R2 0

On trouve A ∧ B = X + 3.
2. Soient n, p ∈ N∗ tels que p ≤ n et a ∈ R∗ . On a n = pq + r avec
0 ≤ r ≤ p − 1. D’où

X n − an ≡ apq (X r − ar ) mod(X p − ap ).

Donc
(X n − an ) ∧ (X p − ap ) = (X p − ap ) ∧ (X r − ar ).
Il s’ensuit que (X n − an ) ∧ (X p − ap ) = X d − ad où d = n ∧ p.
6.8. PROPRIÉTÉS ARITHMÉTIQUES DE K[X] 115

Lemme 6.2 (Lemme de Gauss) Soient A, B, C ∈ K[X].

Si A divise BC et A ∧ B = 1, alors A divise C.

Preuve . Si A ∧ B = 1 alors il existe U, V ∈ K[X] tel que AU + BV = 1.


D’où C = AU C + BV C. Comme A divise BC et A divise AC alors A divise
C. 

Proposition 6.1 Soient A, B ∈ K[X] tels que A ∧ B = 1. Alors, il existe un


couple unique (U0 , V0 ) ∈ K[X] × K[X] vérifiant

AU0 + BV0 = 1 avec d˚U0 < d˚B et d˚V0 < d˚A.

De plus, les couples (U, V ) d’éléments de K[X] vérifiant AU + BV = 1, sont


de la forme {
U = U0 + P B
avec P ∈ K[X].
V = V0 − P A

Preuve . Comme A et B sont premiers entre eux alors il existe U, V ∈ K[X]


tel que AU + BV = 1. En divisant U par B et V par A, on obtient
{
U = BQ2 + U0
avec d˚U0 < d˚B et d˚V0 < d˚A.
V = AQ1 + V0

Ceci donne
AB(Q1 + Q2 ) = 1 − AU0 − BV0 .
D’où

d˚(AB) + d˚(Q1 + Q2 ) ≤ max(d˚(AU0 ), d˚(BV0 )) < d˚(AB).

Par suite d˚(Q1 + Q2 ) < 0 et donc Q1 + Q2 = 0. Ainsi,

AU0 + BV0 = 1.

L’unicité découle du lemme de Gauss. 

Remarque 6.9 Le couple (U0 , V0 ) est déterminé à partir de l’algorithme d’Eu-


clide comme dans Z.
116 CHAPITRE 6. POLYNÔMES

6.8.4 P.P.C.M de deux polynômes


Proposition 6.2 Soient A et B ∈ K[X]. Alors il existe un polynôme unique
unitaire M ∈ K[X] vérifiant
1. M est un multiple de A et B.
2. Tout multiple de A et B, est un multiple de M .

Définition 6.8 Le polynôme M est appelé P.P.C.M de A et B, noté M =


A ∨ B.

Proposition 6.3 Soient A, B ∈ K[X], non nuls. Posons ∆ = A ∧ B et M =


A ∨ B. Alors, il existe λ ∈ K∗ tel que

AB = λ (A ∧ B) (A ∨ B) .

La constante λ est le coefficient du monôme du plus haut degré dans AB.

Preuve . On a A = ∆A1 , B = ∆B1 avec A1 ∧ B1 = 1. Montrons que M et


∆A1 B1 sont associés. On a M = AQ1 = BQ2 et donc A1 Q1 = B1 Q2 . Ainsi, en
utilisant le lemme de Gauss, on en déduit que B1 |Q1 c’est à dire Q1 = B1 R1 .
D’où M = ∆A1 Q1 = (∆A1 B1 )R1 , c’est à dire ∆A1 B1 divise M .
Inversement, le polynôme ∆A1 B1 est un multiple commun de A et B, donc M
divise ∆A1 B1 . Ainsi les polynômes ∆A1 B1 et M sont associés c’est à dire il
existe λ ∈ K∗ tel que ∆A1 B = λM . Ce qui donne

AB = (∆A1 )(∆B1 ) = λM ∆.

Exemple 6.18 Soient A = (X − 1)2 (X + 1) et B = (X − 1)(2X 2 + 1). Alors


1
A ∧ B = X − 1 et A ∨ B = (X − 1)2 (X + 1)(2X 2 + 1).
2

6.8.5 Polynômes irréductibles


Définition 6.9 Un polynôme P de K[X] est dit irréductible dans K[X] si
d˚P ≥ 1 et si les seuls diviseurs de P sont aP et b où a, b ∈ K∗ .

Remarque 6.10

P irréductible et P = A.B ⇒ d˚A = 0 ou d˚B = 0.


6.8. PROPRIÉTÉS ARITHMÉTIQUES DE K[X] 117

Exemple 6.19 1. Soit P ∈ K[X] tel que d˚P = 1, alors P est irréductible.
En effet si P = AB alors d˚P = 1 = d˚A + d˚B, c’est à dire d˚A = 0 ou
d˚B = 0.
2. Le polynôme X 2 +1 est irréductible dans R[X], mais il est réductible dans
C[X].
3. Tout polynôme P ∈ R[X], irréductible dans C [X] est irréductible dans
R[X].

Remarque 6.11 1. Soient A, B ∈ K[X]. On suppose que A est irréductible,


alors ou bien A ∧ B = 1, ou bien A divise B.
En effet soit ∆ = A ∧ B. Si d˚∆ = 1 alors A ∧ B = 1. Sinon d˚∆ ≥ 1 et
∆|A implique ∆ = αA avec α ∈ K∗ . Donc A divise B.
2. Si A et B sont irréductibles et B ̸= λA, (∀ λ ∈ K∗ ) alors A ∧ B = 1.

Lemme 6.3 Tout polynôme non constant P ∈ K[X] admet un diviseur irréductible
dans K[X].

Preuve . Soit D = {diviseurs non constants de P }. Comme P ∈ D, alors


D ̸= ∅. Soit E = {d˚A : A ∈ D}. E est une partie non vide de E, elle admet
donc un plus petit élément m ≥ 1. Soit D ∈ D tel que d˚D = m, alors D est
irréductible dans K[X]. 

On note dans la suite


U = {P ∈ K[X] : P est irréductible et unitaire}.
On a le théorème suivant
Théorème 6.5 Tout polynôme non nul de K[X] se décompose d’une manière
unique en produit de polynômes irréductibles unitaires et d’une constante non
nulle. Autrement dit

n

∀ A ∈ K[X]\{0}, ∃! λ ∈ K , ∃!(P1 , ..., Pm ) ∈ U m
et ∃ (n1 , ..., nr ) ∈ N : A = λ
r
Pini .
i=1

Preuve . Par récurrence sur d˚A.


 Si d˚A = 0 ⇒ A = λ et ni = 0 (∀ i).
 Si d˚A ≥ 1, alors d’après le lemme précédent, A = DB avec D ∈ U. On a

r
d˚B ≤ n − 1 et B ̸= 0, donc par hypothèse de récurrence, B = λ Pini et
i=1

n
donc A = λ Pimi .
i=1
118 CHAPITRE 6. POLYNÔMES

Ce qui prouve la décomposition de A en produit de facteurs irréductibles.


∏n
Unicité : Supposons qu’on a A = α Pini Pimi et supposons qu’il existe j ∈
i=1
[[1, r]] tel que ni ≤ mj , alors on a
∏ ∏ m −n
α Pini = β Pkmi Pj j j .
i̸=j i̸=j

mj −nj

Comme Pj ∧ Pini = 1, alors mj = nj et α = β. 
i̸=j

Exemple 6.20 On a

X 4 + 1 = X 4 + 2X 2 + 1 − 2X 2
= (X 2 + 1)2 − 2X 2
√ √
= (X 2 + 2X + 1)(X 2 − 2X + 1) dans R[X].

Par contre dans C[X], on a

X 4 + 1 = (X − e−i 4 )(X − ei 4 )(X − e )(X − e−


π π 3iπ 3iπ
4 4 ).

6.9 Factorisation dans K[X]


Définition 6.10 Soient P ∈ K[X] et a ∈ K. On dit que a est une racine de
P si P (a) = 0.

Remarque 6.12 1. P (a) = 0 si, et seulement si, (X − a) divise P .


2. Le polynôme nul admet pour racine tout a ∈ K.
3. Si P ∈ K[X] tel que d˚P ≥ 2 et P (a) = 0, alors P est réductible dans
K[X]. La réciproque est fausse puisque X 4 + 1 est réductible dans R[X]
et n’admet pas de racines dans R.

Définition 6.11 On dit que le nombre a est une racine d’ordre de multiplicité
m (∈ N∗ ) de P si (X − a)m divise P et (X − a)m+1 ne divise pas P .

Exemple 6.21 1. Les racines de (X 2 + 1)(X − 1)2 dans C sont i, −i et 1


(i et −i sont simples (i.e d’ordre 1) et 1 est une racine double).
2. La racine de (X 2 + 1)(X − 1)2 dans R est 1 (double).
6.9. FACTORISATION DANS K[X] 119

Proposition 6.4 Soient P ∈ K[X], a ∈ K et m ∈ N∗ . Alors les assertions


suivantes sont équivalentes
1. Il existe Q ∈ K[X], tel que P = (X − a)m Q et Q(a) ̸= 0.
2. (X − a)m divise P et (X − a)m+1 ne divise pas P .
Preuve . Montrons la condition nécessaire. Par hypothèse (X − a)m divise
P. D’autre part, on a Q = (X − a)S + Q(a), donc
P = (X − a)m+1 S + Q(a)(X − a)m .
Comme Q(a)(X − a)m ̸= 0, on en déduit que (X − a)m+1 ne divise pas P.
Réciproquement, On a P = (X − a)m Q et (X − a)m+1 ne divise pas P . Ainsi,
(X − a) ne divise pas Q et donc Q(a) ̸= 0. 

Corollaire 6.1 Soit P ∈ K[X] et soient a1 , a2 , ..., ar , r racines distinctes de


P , d’ordre mi ∈ N respectivement. Alors il existe Q ∈ K[X] tel que
P = (X − a1 )m1 (X − a2 )m2 ...(X − ar )mr Q
avec Q(ai ) ̸= 0 pour tout i.
Preuve . Par récurrence sur r. Pour r = 1, c’est la proposition précédente.
Soit P = (X − a1 )m1 ...(X − ar−1 )mr−1 Q1 avec Q1 (ai ) ̸= 0 pour 1 ≤ i ≤ r − 1.
Soit ar une racine d’ordre mr avec ar ̸= ai . Alors on a pour 1 ≤ i ≤ r,

r−1
(X − ar )mr ∧ (X − ai )mi = 1
i=1

et donc (X − ar )mr divise Q1 et (X − ar )mr +1 ne divise pas Q1 . Ainsi


Q1 = (X − ar )mr Q avec Q(ar ) ̸= 0.

r
Il en résulte que P = (X − ai )mi Q avec Q1 (ai ) = (ai − ar )mr Q(ai ) ̸= 0,
i=1
1 ≤ i ≤ r − 1, et donc Q(ai ) ̸= 0, 1 ≤ i ≤ r. 


m
Remarque 6.13 Si P = (X − ai )αi Q ∈ K[X], alors on a pour αi ∈ N∗ ,
i=1

m
m≤ αi ≤ d˚P.
i=1

Donc P admet au plus (d˚P ) racines.


120 CHAPITRE 6. POLYNÔMES

Théorème 6.6 Soient P ∈ K[X], a ∈ K et m ∈ N∗ . Alors a est une racine de


P d’ordre m si et seulement si P (k) (a) = 0 pour 0 ≤ k ≤ m − 1 et P (m) (a) ̸= 0.
En particulier si a est une racine de P d’ordre m ≥ 2, alors a est une racine
de P ′ d’ordre (m − 1).

Preuve . On a nécessairement m ≤ d˚P = n. La formule de Taylor de P en


a s’écrit

m−1
P (k) (a) [ P (m) (a)
P = (X − a)k + (X − a)m
k=0
k! m!
P (m+1) (a) n−m P
(n)
(a) ]
+ (X − a) + ... + (X − a) .
(m + 1)! n!

Donc a est une racine de P d’ordre m si, et seulement si P (k) (a) = 0 pour
0 ≤ k ≤ m − 1 et P (m) (a) ̸= 0. 

Remarque 6.14 Encore une fois, le procédé de Hörner permet de déterminer


l’ordre de multiplicité d’une racine.

Exemple 6.22 1. Soit P = X 6 − 9X 4 + 16X 3 − 9X 2 + 1. Déterminons


l’ordre de multiplicité de la racine 1.

P 1 0 −9 16 −9 0 1 Reste
1 0 1 1 −8 8 −1 −1 0
1 0 0 1 2 −6 2 1 0
1 0 0 0 1 3 −3 −1 0
1 0 0 0 0 1 4 1 0
1 0 0 0 0 0 1 5 6

Ainsi 1 est une racine d’ordre 4 de P .


2. Déterminons P ∈ R[X] de degré 5, tel que 1 soit une racine d’ordre 3 de
P (X) + 1 et −1 soit une racine d’ordre 3 de P (X) − 1.
Les réels -1 et 1 sont des racines d’ordre 2 de P ′ . Donc

P ′ = λ(X + 1)2 (X − 1)2 ( car d˚P ′ = 4)


= λ(X 4 − 2X 2 + 1)

Ceci donne
λ 5 2 3
P (X) = X − X + λX + µ, λ, µ ∈ R.
5 3
6.10. FORMULE D’INTERPOLATION DE LAGRANGE 121

D’autre part, comme


{ λ
5
− 32 + λ + µ = P (1) = −1
− λ5 + 23 − λ + µ = P (−1) = 1

On en déduit que
λ 5 2 3 6 1
P (X) = X − X + λX − λ − , λ ∈ R.
5 3 5 3

6.10 Formule d’interpolation de Lagrange


Soient a1 , ..., an , n éléments distincts de K et b1 , ..., bn ∈ K. Alors il existe un
polynôme unique L ∈ K[X] vérifiant d˚L ≤ n − 1 et L(ai ) = bi pour 1 ≤ i ≤ n.
En effet L est donné par
∏ 
(X − aj )
∑n
 j̸=k 
L(X) = bk 
∏
.

k=1 (ak − aj )
j̸=k

Ce polynôme est appelé polynôme d’interpolation de Lagrange.


De plus si P vérifie les mêmes hypothèses, alors (P −L)(ai ) = 0 pour 1 ≤ i ≤ n.
C’est à dire P − L admet n racines, or d˚(P − L) ≤ n − 1. Donc P = L.

Remarque 6.15 Les polynômes P ∈ K[X] qui vérifient P (ai ) = bi (1 ≤ i ≤


n) avec a1 , ..., an distincts dans K, sont de la forme

n
P =L+ (X − ai )Q, Q ∈ K[X].
i=1

En effet, il est clair que chaque polynôme de cette forme vérifie

P (ai ) = bi , 1 ≤ i ≤ n.

Inversement si P (ai ) = bi alors (P − L)(ai ) = 0 poir tout 1 ≤ i ≤ n. Ainsi,


∏n
P −L= (X − ai )Q avec Q ∈ K[X].
i=1

Théorème 6.7 (Théorème de D’Alembert) Tout polynôme P de C[X],


tel que d˚P ≥ 1, admet au moins une racine complexe.
122 CHAPITRE 6. POLYNÔMES

On en déduit que les seuls polynômes irréductibles dans C[X] sont les po-
lynômes de degré 1. De plus on a le théorème suivant

Théorème 6.8 (Théorème de factorisation dans C[X]) Soit P ∈ C[X]


de degré n ≥ 1. Alors P s’écrit d’une manière unique sous la forme

P = an (X − z1 )m1 (X − z2 )m2 ...(X − zp )mp

avec an ∈ K∗ , z1 , ..., zp ∈ C, distincts et mi ∈ N vérifiant m1 +m2 +...+mp = n.

Remarque 6.16 Un polynôme de C[X] de degré n, admet exactement n ra-


cines (chacune comptée autant de fois que son ordre de multiplicité).

Exemple 6.23 1. X 3 − 8 = (X − 2)(X − 2j)(X − 2j 2 ).


2. X 4 − 2X 3 + 2X 2 − 2X + 1 = (X − 1)2 (X + i)(X − i).

Remarque 6.17 1. Si d˚P ≥ 4, les racines de P ne sont pas en général


connues explicitement.
∑n ∑
n
2. Soit P = ak X ∈ C[X]. On définit P̄ =
k
āk X k . Alors le nombre
k=0 k=0
a ∈ C, est racine d’ordre m de P si et seulement si ā est racine d’ordre
m de P̄ . En effet

a ∈ C est racine d’ordre m de P ⇔ P (X) = (X − a)m Q(X) avec Q(a) ̸= 0


⇔ P̄ (X) = (X − ā)m Q̄(X) avec Q̄(ā) =
̸ 0
⇔ ā est racine d’ordre m de P̄ .

Propriétés
1. Soit P ∈ R[X], alors P̄ = P et donc si a ∈ C, est racine de P d’ordre m,
ā l’est aussi. Il en résulte que tout polynôme de R[X] admet un nombre
pair de racines non réelles (chacune comptée autant de fois que son ordre
de multiplicité).
2. Tout polynôme de R[X] de degré impair, admet au moins une racine
réelle et plus précisement un nombre impair de racines réelles (chacune
comptée autant de fois que son ordre de multiplicité).
3. Les polynômes irréductibles de R[X] sont les polynômes de degré 1 et ceux
de degré 2 de la forme aX 2 + bX + c avec a ∈ R∗ , b, c ∈ R et b2 − 4ac < 0.
On déduit alors le théorème suivant
6.10. FORMULE D’INTERPOLATION DE LAGRANGE 123

Théorème 6.9 (Théorème de factorisation dans R[X])


Soit P ∈ R[X] non constant. Alors P s’écrit sous la forme

p

q
P = an (X − ai )ni (X 2 + βj X + γj )mj
i=1 j=1

où an ∈ R∗ , ai ∈ R (distincts) et βj , γj ∈ R telles que

βj2 − 4γj < 0, (X 2 + βi X + γi ) ∧ (X 2 + βj X + γj ) = 1, ni , mj ∈ N et i ̸= j.

Preuve . La factorisation de P dans C[X] s’écrit



P = an (X − zk )pk avec zk ∈ C (distincts) et pi ∈ N.
k=1

Ainsi

s ∏
q
P = an (X − zk ) pk
[(X − zj )(X − z̄j )]pj
k=1 j=1

s ∏ q
= (X − zk )pk [(X 2 − 2Re (zj ) + |zj |2 )]pj
k=1 j=1

où zk ∈ R, pout tout 1 ≤ k ≤ s. 

Exemple 6.24 (Factorisation dans R[X])


On a
2π 4π
X 5 − 1 = (X − 1)(X 2 − 2(cos )X + 1)(X 2 − 2X cos + 1)
5 5
= (X − 1)(X 4 + X 3 + X 2 + X + 1)
= (X − 1)(X 2 − 2aX + 1)(X 2 − 2bX + 1).

Par suite
{ {
coef(X) = 1 = −2a − 2b (2a)(2b) = −1

2
coef(X ) = 1 = 2 + 4ab (2a) + (2b) = −1

2 5−1
Ainsi, 2a et 2b sont racines de t + t + 1 = 0 et donc t1 =
√ √ 2 √
− 5−1 2π 5−1 4π − 5−1
et t2 = . On en conclut que cos = et cos = .
2 5 4 5 2
124 CHAPITRE 6. POLYNÔMES

6.11 Relations entre coefficients et racines d’un


polynôme

n
Soit P ∈ C [X] tel que P = ak X k , an ̸= 0 et soient x1 , x2 , ...xn les ra-
k=0
cines complexes ( chacune écrite autant de fois que son ordre de multipli-
∑n ∑ ∑
cité). Posons S1 = xk , S2 = xi xj , S3 = xi xj xk , ...
k=1 1≤i<j≤n 1≤i<j<k≤n
∑ ∏
n
Sp = xi1 xi2 ...xip , ... et Sn = xi .
1≤i1 <i2 <...<ip ≤n i=1
On a le théorème suivant
an−p
Théorème 6.10 Pour tout 1 ≤ p ≤ n, on a Sp = (−1)p .
an
En particulier

n
an−1 ∏ n
a0
S1 = xk = − et Sn = xi = (−1)n .
k=1
an i=1
an


n ∏
n
Preuve . On a P = ak X k = an (X − xi ). En identifiant le coefficient
k=0 i=1
de X n−p dans les deux membres on obtient le résultat. 

Exemple 6.25 1. Soient a, b, c les racines de X 3 + 2X + 5. Calculons


a + b + c, ab + ac + bc et déduisons A = a2 b + ab2 + a2 c + ac2 + b2 c + bc2 .
On a a + b + c = 0 et ab + ac + bc = 2. D’autre part,

A = (ab + ac + bc)(a + b + c) − 3abc = 15.

2. Résoudre en x, y, z ∈ C, le système


 x+y+z =2
 1 1 1 1
+ + =

 x y z 2
 (xy)2 + (yz)2 + (xz)2 = −7

Soit S1 = x + y + z, S2 = xy + xz + yz, S3 = xyz, alors x, y, z sont racines


de
X 3 − S1 X 2 + S2 X − S3 = 0
6.12. EXERCICES 125

S1 = 2, 2S2 = S3 et S22 − 2S3 S1 = −7.


Ainsi, S1 = 2, S2 = 1 et S3 = 2 ou S1 = 2, S2 = 7 et S3 = 14. Par suite
x, y, z sont solutions de

X 3 − 2X 2 + X − 2 = 0 = (X − 2)(X 2 + 1)

ou de
X 3 − 2X 2 + 7X − 14 = 0 = (X − 2)(X 2 + 7).
{ √ √ }
D’où x, y, z ∈ {2, 1, −1} ou x, y, z ∈ 2, i 7, −i 7 .

6.12 Exercices
Exercice 1. Résoudre les équations suivantes où l’inconnue est un polynôme
P ∈ R [X]
1. P (X 2 ) = (X 2 + 1)P (X).
2. P ◦ P (X) = P (X).

Exercice 2.
1. Effectuer les divisions euclidiennes de X 2 + 5X 3 + 12X 2 + 19X − 7 par
X 2 + 3X − 1 et de X 3 − iX 2 − X par X − 1 + i.
2. En utilisant le tableau de Hörner, donner la division euclidienne de P =
X 4 − 2X 3 + X 2 − 1 par (X − 2)4 et de P = 2X 3 + 4X + 1 par (X + 1)3 .
3. Trouver le reste des divisions euclidiennes de P = (X + 1)n − X n − 1 par
a) Q = (X − 3) (X − 2) .
b) Q = X 2 + X + 1.
– Trouver le reste de la division euclidienne de P = (cos θ + X sin θ)n par
X 2 + 1.

n
Exercice 3. Soient n et p deux entiers naturels non nuls et soit P = ak X k ∈
k=0
C [X] .
Pour chaque k ∈ {0, 1, ..., n} , on note rk le reste de la division euclidienne
de k par p.
Montrer que le reste de la division euclidienne de P par X p − 1
∑n
est le polynôme R = ak X rk .
k=0

Exercice 4. Soient A et B deux polynômes de R [X] vérifiant

1 − A2 (X) = (1 − X 2 )B 2 (X).
126 CHAPITRE 6. POLYNÔMES

1. Montrer que A et B sont premiers entre eux et que deg(A) = deg(B) + 1.


2. Montrer que B divise A′ et en déduire qu’il existe λ ∈ R∗ tel que A′ = λB.
3. Montrer que n2 A = XA′ + (X 2 − 1)A′′ , où n = degA.

p=n
a) On pose A(X) = ap X p . Etablir une relation de récurrence entre
p=0
ap et ap+2 .
b) Déterminer A pour n = 4.
Exercice 5. Calculer le p gcd des polynômes A et B définis ci-dessous et
trouver des polynômes U et V tels que AU + BV = D.
A = X 6 − 2X 5 + 2X 4 − 3X 3 + 3X 2 − 2X, B = X 4 − 2X 3 + X 2 − X + 1 et
A = (X − 1)4 , B = (X + 1)4 .
Exercice 6. En utilisant l’identité de Bezout, déterminer P ∈ K [X] , d◦ P =
7, tel que P −1 et P +1 soient respectivement divisible par (X −1)4 et (X +1)4 .
Exercice 7. Soit n ∈ N et Pn le polynôme de R [X] défini par

Pn = X n+2 − X n − 2X + 2.

1. Montrer que 1 est une racine de Pn .


2. On pose Pn = (X − 1)Rn . Vérifier que Rn = 2(X n − 1) + X n (X − 1).
3. On pose Pn = (X − 1)2 Qn . Déterminer Qn .
4. Calculer Pn+1 − Pn . En déduire Qn+1 − Qn .
Soit D = P GCD(Qn , Qn+1 ).
5. Montrer que si D ̸= 1, alors 0 est une racine de D ou (−1) est une racine
de D.
6. Calculer Pn (0) et Pn (−1). En déduire que D = 1.
7. Trouver alors le p gcd(Pn , Pn+1 ).
Exercice 8. Soient m ∈ R, P = X 5 − 3X 4 + X 3 − 2X 2 + 3X + m et Q =
(X − 1)(X − 2) deux polynômes de R [X] .
1. Calculer P (1) et P (2).
2. En déduire suivant m le P GCD et le P P CM de P et Q.
Exercice 9. Soient n et m deux entiers strictement positifs.
1. De la division euclidienne de n par m, déduire celle de (X n − 1) par
(X m − 1) .
2. Soit d = n ∧ m. Montrer que (X n − 1) ∧ (X m − 1) = X d − 1.
3. En déduire le P GCD de P = X 47 + X 46 + ... + X + 1 et Q = X 14 + X 13 +
... + X + 1.
6.12. EXERCICES 127

Exercice 10. Soit P un polynôme de C [X] non constant vérifiant


( )
P X 2 = P (X) P (X + 1)
et soit a une racine de P.
1. Montrer que a2 est aussi une racine de P. En déduire que |a| = 0 ou
|a| = 1.
2. Montrer que (a − 1)2 est aussi une racine de P. En déduire que a = 0 ou
a = 1.
3. Montrer qu’il existe k ∈ N∗ tel que P (X) = X k (X − 1)k .
Exercice 11.
1. Soit A un polynôme à coefficients réels vérifiant
A(X + 1) = A(X).
a) Montrer que si α est une racine complexe de A, alors pour tout n ∈ N,
α + n est racine de A.
b) En déduire que le polynôme A est constant.
2. Soit P un polynôme à coefficients réels vérifiant
XP (X + 1) = (X + 4)P (X).
a) Montrer qu’on a P (0) = P (−1) = P (2) = P (−3) = 0.
b) En déduire qu’il existe un polynôme Q ∈ R [X] tel que
P (X) = X(X + 1)(X + 2)(X + 3)Q(X).
c) Montrer que le polynôme Q vérifie Q(X + 1) = Q(X).
d) En déduire qu’il existe λ ∈ R tel que
P (X) = λX(X + 1)(X + 2)(X + 3).
Exercice 12. Soit P = X 7 + 5X 6 + 12X 5 + 18X 4 + 18X 3 + 12X 2 + 5X + 1.
1. Montrer que (−1) est racine de P et déterminer son ordre de multiplicité.
a) Calculer P (j) où j = exp( 2iπ
3
).
b) En déduire une factorisation de P dans R [X] .
2. Ecrire la formule de Taylor de P au point (−1) .
Exercice 13.
∑n
Xk
Soit P = k!
. Montrer que le polynôme P n’a pas de racines multiples.
k=0
Exercice 14. Soit (α, β) ∈ R2 et
P = X 5 + 5X 4 + αX + β ∈ R [X] .
128 CHAPITRE 6. POLYNÔMES

1. Déterminer les polynômes P ′ et P ′′ .


2. Déterminer une condition nécessaire et suffisante sur α et β pour que P
admette une racine d’ordre de multiplicité exactement 3 qu’on déterminera.
3. On suppose que (α, β) prenne les valeurs obtenues à la question précédente.
Décomposer P en produit de facteurs irréductibles dans R [X] .
Exercice 15. On se propose de déterminer les polnômes P ∈ R [X] tel que
( )
P (0) = 0 et P X 2 + 1 = (P (X))2 + 1. (∗)

Pour cela, on pose pour n ∈ N, la suite (un ), définie par u0 = 0 et


un+1 = u2n + 1.
1. Montrer que si P verifie (∗), alors P (un ) = un .
2. On pose Q(X) = P (X) − X. Montrer que Q est le polynôme nul.
3. Déduire les solutions de (∗).
Exercice 16. Soit P ∈ R [X] . Montrer que

∀ x ∈ R, P (x) ≥ 0 ⇔ ∃A, B ∈ (R [X])2 , P = A2 + B 2 .

Exercice 17. Déterminer les polynômes P ∈ R [X] vérifiant

P (0) = 0 et P (X 2 + 1) = (P (X))2 + 1.

Exercice 18. Déterminer les polynômes P de degré supérieur ou égal à 1 et


tel que P ′ divise P.
Exercice 19.
1. Décomposer en produit de polynômes irrédutibles dans R [X] et dans
C [X] les polynômes
X 4 + 1, X 8 − 1 et (X 2 − X + 1)2 + 1.
2. Pour |cos α| =
̸ 1. Décomposer le polynôme

P = X 2n − (2 cos α)X + 1,
en produit de facteurs irréductibles dans R [X] .
Exercice 20.
1. Décomposer en produit de polynômes irréductibles dans R [X] et dans
2
C [X] les polynômes X 4 + 1, X 8 − 1, (X 2 − X + 1) + 1.
a) Factoriser P (X) = (X + i)n − (X − i)n , n ≥ 1.
∏m

b) En déduire (z 2 + cot g 2 ), z ∈ C.
k=1
2m + 1
6.12. EXERCICES 129

Exercice 21.
1. Déterminer les triplets (x, y, z) dans C3 tels que

 x+y+z =1
1
+1+1 =1
 x y z
xyz = −4

2. x, y et z désignent trois nombres complexes vérifiant

x + y + z = 0.

Etablir que
( )( )
x5 + y 5 + z 5 x2 + y 2 + z 2 x3 + y 3 + z 3
= .
5 2 3

Exercice 22. Soient a, b, c les racines de z 3 + z + 1 = 0 (on ne demande pas


de les calculer).
1 1 1
1. Calculer a + b + c, abc, a2 + b2 + c2 , a3 + b3 + c3 et 3 + 3 + 3 .
a b c
2. Résoudre à l’aide des fonctions symétriques élémentaires le système

 x+y+z =2
1 1 1
+ + = 21
 x 2y z 2
(yz) + (xz) + (yx)2 = −7.

Exercice 23. On considère la suite des polnômes (Pn )n≥0 vérifiant la relation
de réccurence suivante
P0 = 1, P1 = X et Pn+2 = XPn+1 − Pn pour n ≥ 0.
1. Déterminer P2 ; P3 et P4 .
2. Montrer que P2 ∧ P3 = P3 ∧ P4 = 1.
3. Montrer que pour tout n ≥ 0,
a) deg(Pn ) = n,
b) Pn est unitaire,
c) Pn+1 ∧ Pn = 1,
d) Pn (−X) = (−1)n Pn (X).
4. a) Montrer que ∀ n ≥ 0, ∀ θ ∈ ]0, π[ Pn (2 cos θ) = sin(n+1)θ
sin θ
.
π
b) En déduire que ∀ n ≥ 0, Pn (0) = cos(n ) et Pn (2) = n + 1.
2
5. a) Soit n ∈ N∗ . Resoudre dans ]0, π[ l’équation sin(n + 1)θ = 0.
130 CHAPITRE 6. POLYNÔMES


n

b) En déduire que pour tout n ≥ 1 Pn = (X − 2 cos ).
k=1
n + 1
c) Montrer que les racines de Pn sont deux à deux opposées.
∑n


n

d) Donner les valeurs de cos n+1 et sin 2(n+1) .
k=1 k=1
Chapitre 7

Fractions rationnelles

Dans ce chapitre K désignera R ou C.

7.1 Définition d’une fraction rationelle


Dans l’ensemble K[X] × (K[X] \ {0}) = {(P, Q) : P, Q ∈ K[X] et Q ̸= 0}, on
définit la relation R en posant

(P, Q) R (R, S) ⇔ P S = QR.

On vérifie que la relation R est une relation d’équivalence dans K [X]×(K [X] \ {0}) .

Définition 7.1 On appelle fraction rationnelle à coefficients dans K toute


P
classe d’équivalence pour la relation R. La classe de (P, Q) est notée (P est
Q
le numérateur et Q est le dénominateur), on a donc

P
= {(R, S) ∈ K[X] × (K[X] \ {0}) : P S = QR}.
Q

P
On dit que (P, Q) est un représentant de la fraction . L’ensemble des frac-
Q
tions rationnelles est noté K(X) et la relation R est appelée égalité des frac-
tions rationnelles.

131
132 CHAPITRE 7. FRACTIONS RATIONNELLES

7.1.1 Opérations sur les fractions


7.1.1.1 L’addition
La loi (+) est définie dans K(X) par

P A P S + QA
+ =
Q S QS
0
La loi est associative, commutative, admet un élément neutre la fraction ,
Q
P
Q ̸= 0, appelé fraction nulle et toute fraction admet un opposé
Q
P −P P
− = = .
Q Q −Q

7.1.1.2 multiplication
La loi (×) est définie dans K(X) par

P A PA
× = .
Q S QS
La loi est associative, commutative, admet un élément neutre qui est la fraction
P P
, P ̸= 0, appelé fraction unité et toute fraction non nulle admet un inverse
P Q
P Q
et ( )−1 = . De plus, la loi est distributive sur l’addition.
Q P
Remarque 7.1 Notons que

(K(X), +, ×) est un corps commutatif.

P
Définition 7.2 On dit que la fraction est irréductible, si les polynômes P
Q
et Q sont premiers entre eux.

Remarque 7.2 Toute fraction rationnelle possède un représentant irréductible


unique. En effet, si P ∧ Q = D, alors P = P1 D et Q = Q1 D avec P1 ∧ Q1 = 1.
P P1
Ainsi = .
Q Q1

P
Dans toute la suite on désignera par une fraction irréductible.
Q
7.1. DÉFINITION D’UNE FRACTION RATIONELLE 133

P
Définition 7.3 On appelle degré de la fraction rationnelle et on note
Q
P
d˚( Q ), l’entier relatif définie par

P
d˚( ) = d˚P − d˚Q.
Q

P
Définition 7.4 1. On appelle zéros de la fraction rationnelle , les racines
Q
du numérateur P.
P
2. On appelle pôles de la fraction rationnelle , les racines du dénominateur
Q
Q.

7.1.2 Partie entière


P
Proposition 7.1 Etant donnée une fraction rationnelle ∈ K(X), il existe
Q
P
un polynôme unique E ∈ K[X] tel que d˚( − E) < 0. Le polynôme E est
Q
P
appelé partie entière de .
Q

Preuve . Effectuons la division euclidienne de P par Q, il existe un unique


polynôme E ∈ K[X] et un unique polynôme R ∈ K[X] tels que, P = EQ + R
P R R
avec d˚R < d˚Q. On a bien =E+ avec d˚( ) < 0. 
Q Q Q

P
Remarque 7.3 Si d˚P < d˚Q alors la partie entière de est le polynôme
Q
nul.

Exemple 7.1 On pose

X4 − X2 12X − 2
F (X) = 2 = X 2 + 3X + 6 + 2
X − 3X − 2 X − 3X + 2

La partie entière de F est E(X) = X 2 + 3X + 6. On a aussi 0 est une racine


double de F, (−1) est une racine simple de F et (2) est un pôle simple de F .
134 CHAPITRE 7. FRACTIONS RATIONNELLES

7.2 Décomposition en éléments simples


Une fraction rationnelle est succeptible d’être décomposée en une somme de
termes appelés éléments simples. Cette opération est trés utile, en particulier
pour les calculs de primitives et pour la détermination des dérivées nème de
certaines fonctions. La démonstration de cette décomposition est très longue
nous allons l’étudier par étapes.
P
Proposition 7.2 Soit F = une fraction rationnelle de degré strictement
Q
négatif. Supposons que Q = Q1 Q2 avec Q1 ∧ Q2 = 1. Il existe un couple unique
(R1 , R2 ) de polynômes tels que

R1 R2 R1 R2
F = + avec d˚( ) < 0 et d˚( ) < 0.
Q1 Q2 Q1 Q2

Preuve . D’après le théorème de Bezout, il existe un couple unique (U1 , U2 )


de polynômes tels que

Q1 U1 + Q2 U2 = 1 avec d˚U1 < d˚Q2 et d˚U2 < d˚Q1 .

En divisant les deux membres par Q1 Q2 on a


1 U1 U2
= + .
Q1 Q2 Q2 Q1
En multipliant par R, on a
R RU1 RU2
= + .
Q1 Q2 Q2 Q1
Exprimons la partie entière de chaque terme
R R1 R2
= E1 + + E2 +
Q1 Q2 Q2 Q1
avec
R1 R2
d˚( )<0 et d˚( ) < 0.
Q2 Q1
R1 R2 R
Comme d˚( + ) < 0, E1 + E2 est la partie entière de , c’est à dire
Q2 Q1 Q1 Q2
nulle. On obtient donc la décomposition voulue. L’unicité de la décomposition
est due à l’unicité des restes dans la division euclidienne. 
7.2. DÉCOMPOSITION EN ÉLÉMENTS SIMPLES 135


s
Corollaire 7.1 Soit Q = (X − ai )mi un polynôme Scindé. Toute fraction
i=1
rationnelle de dénominateur Q et de degré strictement négatif se décompose
P ∑s
Ri
de façon unique en = , 1 ≤ i ≤ s, d˚Ri < mi .
Q i=1
(X − a i )mi

Preuve . Comme les facteurs (X −ai )mi sont premiers entre eux deux à deux,
il suffit d’appliquer (s − 1) fois le théorème précédent. 

Notation
Ri
Le terme est appelée partie polaire relative au pôle ai .
(X − ai )mi

7.2.1 Décomposition d’une partie polaire


R
Proposition 7.3 Soit F = avec d˚R < m, une partie polaire de
(X − α)m
pôle α. Il existe des constantes (C1 , C2 , ..., Cm ) telles que

C1 C2 Cm
F = + + ... + .
X − α (X − α)2 (X − α)m

Ck
Les fractions de la forme sont appelées éléments simples de première
(X − α)k
espèce.

Preuve . Appliquons la formule de Taylor au polynôme R


m−1
R(k) (a)
R= (X − a)k .
k=0
k!

On en déduit

R ∑ R(k) (a)
m−1
= (X − a)k−m
(X − α)m k=0
k!
R(a) R′ (a) R(m−1) (a)
= + + ... + .
(X − a)m (X − a)m(−1 (m − 1)!(X − a)


136 CHAPITRE 7. FRACTIONS RATIONNELLES

Exemple 7.2 1. Décomposer en éléments simples

X2 + X + 1 R(X)
F = =
(X − 1)2 (X − 1)2

on a

2
R(k) (1)
X2 + X + 1 = (X − 1)k
k=0
k!

et donc
X2 + X + 1 3 3
= + + 1.
(X − 1)2 (X − 1)2 X − 1

2. Décomposer en éléments simples

X3 + 1
F =
(X − 2)4

Comme
X 3 + 1 = (X − 2)(X 2 + 2X + 4) + 9

et que
X 2 + 2X + 4 = (X − 2)(X + 4) + 12,

on en déduit que

1 6 12
F = + + .
X − 2 (X − 2) 2 (X − 2)3

7.2.2 Décomposition en éléments simples de première


espèce
En combinant l’ensemble des résultats précédents, on en déduit le résultat
suivant

Théorème 7.1 Toute fractions rationnelle dont le dénominateur est sindé


admet une décomposition unique de la forme

∑ ∑
p mi
Ci,k
F =E+ .
i=1 k=1
(X − αi )k
7.2. DÉCOMPOSITION EN ÉLÉMENTS SIMPLES 137

7.2.3 Pratique de la décomposition


Il est plus rapide d’écrire la décomposition cherchée avec des coefficients indéterminées
et de les calculer un par un à l’aide de divers techniques que nous allons décrire.

4X 3 4X 3
Exemple 7.3 1. Soit G = = .
(X 2 − 1)2 (X − 1)2 (X + 1)2
Il existe C1 , C2 , C3 et C4 telles que
C1 C2 C3 C4
G= + + + .
X − 1 (X − 1) 2 C + 1 (X + 1)2
Comme G est impaire et d’après l’unicité de la décomposition, on peut dé
duire que C1 = C3 et C2 = −C4 . D’autre part, pour calculer C2 , multiplions
G par (X − 1)2 et remplaçons après simplification X par (−1), on obtient

C2 = (X − 1)2 G(X) = −1.


X=−1

Cette méthode, permet de trouver le coefficient du terme de plus haut degré


de chaque partie polaire.
D’autre part, on peut multiplier G(X) par X et faire tendre X → +∞, on
obtient
lim XG(X) = C1 + C3 = 4.
X→+∞

On en déduit que, C1 = 2.
Par suite
2 1 2 1
G(X) = + + −
X − 1 (X − 1)2 X + 1 (X + 1)2

X2 + 1
2. Décomposons F = .
X(X − 2i)
On a
2iX + 1 A B
F =1+ =1+ + .
X(X − 2i) X X − 2i
Ainsi
1
A = XF (X) = i,
X=0 2
et
B = (X − 2i)F (X) = 3i
X=2i
Par suite
2iX + 1 i 3i
F =1+ =1+ + .
X(X − 2i) 2X X − 2i
138 CHAPITRE 7. FRACTIONS RATIONNELLES

7.2.4 Expression de la partie polaire relative à un pôle


simple
P
Proposition 7.4 Si α est un pôle simple de la fraction , le coefficient de
Q
P (α)
la partie polaire relative à α est .
Q′ (α)

Preuve . On suppose que Q(X) = (X − α)Q1 (X) avec Q1 (α) ̸= 0. Ainsi,

P P C1 R
= = + .
Q (X − α)Q1 X − α Q1

Or
P P
C1 = (X − α) =
Q X=α Q1
D’autre part, comme Q′ (X) = Q1 (X) + (X − α)Q′1 (X), on en déduit que
Q′ (α) = Q1 (α). 

1
Exemple 7.4 Décomposons en éléments simples dans C(X). Comme
Xn −1

1 1 2ikπ
= n−1 avec wk = e n , 0 ≤ k ≤ n − 1,
Xn −1 ∏
(X − wk )
k=0

alors,
1 ∑ n−1
Ck
= .
X − 1 k=0 X − wk
n

Or d’après la proposition précédente

1 wk
Ck = n−1
= .
n(wk ) n

Par suite
1 ∑ n−1
e n
2ikπ

= .
X n − 1 k=0 n(X − e2ikπ/n )
7.2. DÉCOMPOSITION EN ÉLÉMENTS SIMPLES 139

7.2.5 Expression de la partie polaire relative à un pôle


multiple
7.2.5.1 Cas du pôle zéro
A
Soit F = , A, T ∈ K[X] avec T (0) ̸= 0. D’après le théorème de la division
X nT
suivant les puissances croissantes à l’ordre (n − 1) on a
A = (C1 X n−1 + C2 X n−2 + ... + Cn )T + X n B.
Par suite
A C1 C2 Cn B
n
= + 2 + ... + n + .
X T X X X T
Cette méthode nous permet donc de calculer les (Ci )1≤i≤n .

7.2.5.2 Cas du pôle multiple autre que 0


Si α est un pôle multiple, on fait le changement de variable Y = X − α et on
revient au cas précédent.
Exemple 7.5 Décomposons dans C(X) la fraction
4X 2 + 16X − 11
F = .
(X − 1)3 (X + 2)2
On a
A B C D E
F = + + + + .
X − 1 (X − 1) 2 (X − 1)3 X + 2 (X + 2)2
Posons Y = X − 1, on obtient
4Y 2 + 24Y + 9
F = .
Y 3 (Y 2 + 6Y + 9)
En faisant la division suivant les puissances croissantes de 4Y 2 + 24Y + 9 par
Y 2 + 6Y + 9 à l’ordre 2, on obtient,
4Y 2 + 24Y + 9 = (1 + 2Y − Y 2 )(9 + 6Y + Y 2 ) + Y 3 (Y + 4).
Par suite
1 2 1 Y +4
F = 3
+ 2− +
Y Y Y (Y + 3)2
1 2 1 1 1
= 3
+ 2− + +
Y Y Y Y + 3 (Y + 3)2
1 2 1 1 1
= + + + +
(X − 1) 3 (X − 1) 2 X − 1 X + 2 (X + 2)3
140 CHAPITRE 7. FRACTIONS RATIONNELLES

7.2.6 Pratique de la décomposition dans R(X)


Toute fraction F de R(X) peut s’écrire
A(X)
F = , avec p2k − 4qk < 0.

N ∏
r
(X − ak )lk (X 2 + pk X + qk )αk
k=1 k=1

Décomposons F en élémets simples dans R(X).


N ∑
lk
bj,k ∑∑ r kα
Cj,k X + Dj,k
F =E+ +
k=1 j=1
(X − ak )j
k=1 j=1
(X 2 + pk X + qk )j

La première somme est en fait la somme des parties polaires de F relatives


aux pôles réels de F. Les techniques de calculs sont les mêmes dans le cas
complexe. Pour cela remarquons juste que si F est à coefficients réels alors
les parties polaires relatives aux pôles conjugués, sont conjuguées. La seconde
somme est la somme des éléments simples de seconde espèce.
1ère Méthode On commence par décomposer la fraction en éléments simples
dans C(X) puis en réunissant les éléments simples de pô les conjugués on
obtient des termes de la forme
C C̄ aX + b
+ = 2 , a, b ∈ R.
X − α X − ᾱ X − 2ReαX + |α|2
aX + b
L’élément de la forme avec α2 − 4β < 0 est dit élément
(X 2 − αX + β)k
simple de deuxième espèce.
X −1
Exemple 7.6 Décomposons F = , dans R(X).
X(X + 1)(X 2 + X + 1)
Comme F ∈ R(X), c’est à dire F (X) = F (X) on a

A B C C
F = + + + .
X X +1 X −j X −j
De plus,

A = XF (X) = −1, B = (X + 1)F (X) =2


X=0 X=−1

et
j−1 1 1
C= = 2 = − = −j
j(j + 1)(j − j) j (j + 1) j
7.2. DÉCOMPOSITION EN ÉLÉMENTS SIMPLES 141

et donc C̄ = −j. Par suite


1 2 j j
F = − + − −
X X +1 X −j X −j
1 2 1−X
= − + + 2 .
X X +1 X +X +1
2ème Méthode On décompose directement dans R(X) on a
A B CX + D
F = + + 2 .
X X +1 X +X +1
On calcule A et B de la même manière que la première méthode et pour
calculer C et D on considère F − X
A
− X+1
B
, c’est à dire
1 2 1−X CX + D
F+ − = 2 = 2 .
X X +1 X +X +1 X +X +1
Par unicité de la décomposition, on a C = −1 et D = 1.

7.2.7 Applications de la décomposition


7.2.7.1 Calcul de la dérivée n-ième d’une fraction
1
Exemple 7.7 Soit F (X) = 2 , calculons F (n) (X) .
X +1
Dans C [X] , on a
1 1 1
= − ,
X2 + 1 2i(X − i) 2i(X + i)
d’où [ ]
1 (−1)n n! (−1)n n!
F (n)
(X) = − .
2i (X − i)n+1 (X + i)n+1

7.2.7.2 Primitives d’une fraction rationnelle


Soit F ∈ R(X), on décompose F en éléments simples dans R(X), on est donc
ramené à calculer des primitives de trois types
I La partie entière : c’est un polynôme.
1
I Les éléments simples de première espèce : avec n ≥ 1. On sait les
(X − a)n
intégrer, car

∫ x  ln |x − a| si n = 1,
dt
= −1
(t − a)n  si n ≥ 2.
(n − 1)(x − a)n−1
142 CHAPITRE 7. FRACTIONS RATIONNELLES

aX + b
I Les éléments simples de seconde espèce : , pour ceux-là la
X2 + pX + q
méthode est la suivante. On fait apparaı̂tre la dérivée du trinôme X 2 +pX +q
au numérateur et on compense les X en multipliant par un facteur adéquat,
puis on compense les constantes en ajoutant ce qu’il faut, ce qui donne

aX + b a 2X + p ap 1
= + (b − ) 2 .
X2 + pX + q 2
2 X + pX + q 2 X + pX + q

u′
La première de ces deux fractions est facile à intégrer (du type ). Pour la
u
deuxième fraction, on met le trinôme X 2 + pX + q sous sa forme canonique
u′
afin de mettre la fraction sous la forme α où u est une fonction de x,
1 + u2
cette fonction s’intègre en arctan(u).
∫ x
dt
Exemple 7.8 Calculons F (x) = sur ]−1, +∞[ .
1 + t3
1
On décompose la fraction rationnelle 3 en éléments simples dans R (X),
X +1
ce qui donne

1 1 X −2
= −
X3 + 1 3(X + 1) 3(X 2 − X + 1)
1 1 2X − 1 3 1
= + − .
3(X + 1) 2 X 2 − X + 1 2 X 2 − X + 1

Ainsi

1 1 3 2x − 1
F (x) = ln(x + 1) − ln(x − x + 1) +
2
arctg( √ ).
3 6 3 3

7.3 Exercices
Exercice 1. Décomposer en éléments simples sur C (X) les fractions ration-
nelles suivantes :

X 2 + 2X + 5 2X 2 + 5 1 1 1
, , , n , n .
(X − 1) (X − 2) (X 2 − 1) (1 + X) (X 2 + X + 1) X − 1 X + X
2 3 n−1 + ... + X + 1

Exercice 2. Décomposer en éléments simples sur R (X) les fractions ration-


7.3. EXERCICES 143

nelles suivantes :
X X2 + 1 X6 − X5 + X4 + 1
, , ,
X 4 − 1 (X 2 − 1) (X 2 + X + 1) X 3 (X 2 + 1)
X3 8 2X + 1
2, 2, .
(X + X + 1) (X − 1) (X + 1) (X − 2) (X 2 + 1)2
2 2 2

Exercice 3.
1. Décomposer en facteurs irréductibles sur R [X] le polynôme
P = X 8 + X 4 + 1.
2. En utilisant la parité de P et la relation P (iX) = P (X), décomposer en
éléments simples sur R (X) la fraction rationnelle 1/P.
3
Exercice 4. Soit F = (X 3 −1)2
.
1. Vérifier que F (X) = F (jX) = F (j 2 X).
2. Décomposer en éléments simples sur C (X) la fraction rationnelle F.
Exercice 5. Pour n ∈ N∗ , on pose
n!
F = .
X(X + 1) (X + 2) ... (X + n)
1. Décomposer en éléments simples la fraction rationnelle F.

n
(−1)k Cn
k
2. En déduire k+1
.
k=0
3. Calculer la dérivée nième de F.
1
Exercice 6. Soit F = X 2 +1
.
1. Décomposer en éléments simples sur C (X) la fraction rationnelle F.
2. Montrer qu’il existe Pn ∈ Rn [X] tel que F (n) = Pn
(X 2 +1)n+1
.
3. Déterminer les racines de Pn .

n
Exercice 7. Soit n ∈ N∗ et P = (X − xi ) , où x1 , ..., xn ∈ C deux à deux
i=1
distincts.
1. Pour p ∈ {0, 1, ..., n − 1} , exprimer la décomposition en éléments simples
de XQ à l’aide des P ′ (xk ) .
p


n
xpk
2. En déduire, pour p ∈ {0, 1, ..., n − 1} , la valeur de ′
P (xk )
.
k=1
Exercice 8.
1
1. Décomposer en éléments simples la fraction rationnelle F = X(X 2 −4)
.
144 CHAPITRE 7. FRACTIONS RATIONNELLES


n 1
2. Simplifier l’expression de la suite Sn = puis calculer sa li-
k=3 k (k 2− 4)
mite.

n 3k + 5
3. Procéder de même pour calculer la limite de la suite Tn = .
k=0 k3 + 6k 2 + 11k + 6
Chapitre 8

Espaces vectoriels

8.1 Structure d’espace vectoriel


Définition 8.1 Soit K un coprs commutatif. On appelle espace vectoriel sur
K (ou encore K-espace vectoriel) un ensemble E muni de deux lois
I Une loi interne notée + telle que (E, +) soit un groupe abélien.
I Une loi de composition externe notée . définie de K × E à valeurs dans E
vérifiant pour tout α, β ∈ K et x, y ∈ E,
a) ∀ (α, β) ∈ K2 , ∀ x ∈ E, (α + β).x = α.x + βx
b) ∀ α ∈ K, ∀ (x, y) ∈ E 2 , α.(x + y) = (α.x) + (α.y)
c) ∀ (α, β) ∈ K2 , ∀ x ∈ E, α.(β.x) = (αβ).x
d) ∀ x ∈ E, 1.x = x (1 étant l’élément neutre de K).
Les éléments de K sont appelés les scalaires, ceux de E sont appelés des
vecteurs.

Exemple 8.1 1. (R, +, .) est un R-espace vectoriel, de même (R, +, .) est


un C-espace vectoriel.
2. Soient X un ensemble non vide et E un K-espace vectoriel. Soit E X l’en-
semble des applications de X dans E. On munit E X des lois

+ : EX × EX → EX . : K × EX → EX
(f, g) 7→ f + g (λ, f ) 7→ λ · f

(E X , +, .) est un K-espace vectoriel. En particulier, RR = F(R, R) est


un R-espace vectoriel et RN , l’ensemble des suites réelles est un R-espace
vectoriel.
3. (K[X], +, .) est un K-espace vectoriel.

145
146 CHAPITRE 8. ESPACES VECTORIELS

Proposition 8.1 1. ∀ α ∈ K, ∀ x ∈ E,
α · x = 0E ⇔ (α = 0K ou x = 0E ).
2. ∀ (α, β) ∈ K2 , ∀ x ∈ E, (α − β) · x = α · x − β · x.
3. ∀ α ∈ K, ∀ x, y ∈ E, α · (x − y) = α · x − α · y.
Preuve .
1. 0 · x = (0 + 0) · x = 0 · x + 0 · x. D’où 0 · x = 0E .
D’autre part, α · 0E = α · (0E + 0E ) = α · 0E + α · 0E et donc α · 0E = 0E .
1 1
Inversement, si α · x = 0E et α ̸= 0, alors · (α · x) = · 0E = 0E et donc
α α
x = 0E .
2. α · x = ((α − β) + β) · x = (α − β) · x + β · x, d’où α · x − β · x = (α − β) · x.
3. α · x = α · (x − y + y) = α · (x − y) + α · y. Par suite, α · x − α · y = α · (x − y).


Définition 8.2 Soient E un K-espace vectoriel et B = (x1 , x2 , ..., xn ) une


famille finie de vecteurs de E. Soit x ∈ E, on dit que x est combinaison
linéaire des éléments de B, s’il existe des scalaires α1 , α2 ..., αn ∈ K tels que
x = α1 · x1 + α2 · x2 + ... + αn · xn . Plus généralement, on appelle combinaison
linéaire d’une famille quelconque (pas nécessairement finie) de E toute combi-
naison d’une sous famille finie.

Exemple 8.2 1. Soit (x1 , x2 , ..., xn ) une famille de vecteurs de E. 0E est en


combinaison linéaire avec les (xi )1≤i≤n .
2. Soient E = R3 , u = (2, 1, −1) et v = (1, −1, 1). u est combinaison linéaire
de u et v en effet u = 1.u + 0.v.
w = (0, 3, −3) est combinaison linéaire de u et v puisque w = u − 2v.
Proposition 8.2 Soient (E, +, .) et (F, +, .) deux K-espaces vectoriels. On
munit E × F des lois suivantes
+ : (E × F ) × (E × F ) −→ E × F
((x, y), (x′ , y ′ )) 7−→ (x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ )
et
. : K × (E × F ) − 7 → E×F
(λ, (x, y)) −7 → λ.(x, y) = (λx, λy)
Alors (E × F, +, .) est un K-espace vectoriel.
8.2. SOUS-ESPACES VECTORIELS 147

8.2 Sous-espaces vectoriels


Définition 8.3 Soient E(+, .) un K-espace vectoriel et F une partie de E.
On dit que F est un sous-espace vectoriel de E si F est stable par + et par .,
c’est à dire F sous-espace vectoriel de E, si
• ∀ x, y ∈ F, x + y ∈ F,
• ∀ α ∈ K, ∀ x ∈ F, α.x ∈ F.

Caractérisation
Une partie F d’un K-espace vectoriel E est un sous-espace vectoriel de E si,
et seulement si
• F est non vide,
• F est stable par combinaison linéaire, c’est à dire

∀ α ∈ K, ∀ (x, y) ∈ F, αx + y ∈ F.

Remarque 8.1 Soit E un K-espace vectoriel.


1. {0E } et E sont des sous-espaces vectoriels de E.
2. Si F ⊂ E est un sous-espace vectoriel de E, alors 0E ∈ F .
3. Si F est un sous-espace vectoriel de E, alors (F, +, .) est un K-espace
vectoriel.

Exemple 8.3 1. L’ensemble C(R, R) des fonctions continues de R dans R


est un sous-espace vectoriel de F(R, R).
2. L’ensemble des suites réelles convergentes est un sous-espace vectoriel de
F(N, R).
3. Rn [X] = {P ∈ R[X] : d˚P ≤ n} est un sous-espace vectoriel de R[X].
4. R × {0} est un sous-espace vectoriel de R2 .
5. F = {(x, y) ∈ R2 : 2x + 3y = 0} est un sous-espace vectoriel de R2 .

Proposition 8.3 L’intersection d’une famille quelconque de sous-espaces vec-


toriels d’un K espace vectoriel est un sous-espace vectoriel.

Preuve . Soient (Fi )i∈I une famile de sous-espaces vectoriels de E et F


l’intersection de cette famille. On a pour tout i ∈ I , 0E ∈ Fi , et donc 0E ∈ F ,
d’où F est non vide. De plus, si x et y sont deux éléments quelconques de F
et α ∈ K, on a pour tout i ∈ I, x ∈ Fi et y ∈ Fi et donc pour tout i ∈ I,
αx + y ∈ Fi . Ainsi, αx + y ∈ F . 
148 CHAPITRE 8. ESPACES VECTORIELS

Remarque 8.2 La réunion de deux sous-espaces vectoriels n’est pas en général


un sous-espace vectoriel.

Exemple 8.4 Soient E = R2 , E1 = {(x, 0) : x ∈ R} et E2 = {(0, x) : x ∈ R}.


E1 et E2 sont deux sous-espaces vectoriels de R2 . On a (1, 0) ∈ E1 et donc
(1, 0) ∈ E1 ∪ E2 , de même (0, 1) ∈ E2 et donc (0, 1) ∈ E1 ∪ E2 alors que
(1, 0) + (0, 1) = (1, 1) ∈
/ E1 ∪ E2 .

Exercice 8.1 Soient E un K-espace vectoriel, E1 et E2 deux sous-espaces


vectoriels de E. Montrer que

E1 ∪ E2 sous-espace vectoriel de E ⇔ E1 ⊂ E2 ou E2 ⊂ E1 .

Définition 8.4 Soient (E, +, .) un K-espace vectoriel et A une partie non


vide de E. On appelle sous-espace vectoriel engendré par A, et on note Vect(A)
ou < A >, l’intersection de tous les sous-espaces vectoriels de E contenant A.

Proposition 8.4 Soient (E, +, .) un K-espace vectoriel et A une partie non


vide de E.
1. Vect(A) est le plus petit (au sens de l’inclusion) sous-espace vectoriel de
E contenant A.
2. Si A ̸= ∅, alors Vect(A) est l’ensemble des combinaisons linéaires d’éléments
de A.
3. Vect (∅) = {0E } .

Preuve .
1. Vect(A) est un sous-espace vectoriel de E, comme intersection de sous-
espaces vectoriels de E. D’autre part, par définition de Vect(A), on a
A ⊂ V ect(A). Soit F un sous-espace vectoriel de E contenant A. Par
définition de Vect(A), on a Vect(A) ⊂ F. Ainsi, Vect(A) est un sous-
espace vectoriel de E contenant A, et il est inclus dans tout sous-espace
vectoriel de E contenant A.
2. Le singleton {0E } est à l’évidence le plus petit sous-espace vectoriel de E
contenant le ∅. Supposons A ̸= ∅ et notons C l’ensemble des combinaisons
linéaires d’éléments de A
{ }

n
C= x ∈ E : ∃ n ∈ N∗ , ∃ (a1 , a2 , ..., an ) ∈ An , ∃ (λ1 , λ2 , ..., λn ) ∈ Kn , x = λi a i
i=1

Montrons que C est le plus petit sous-espace vectoriel de E contenant A.


8.2. SOUS-ESPACES VECTORIELS 149

a)  Il est clair que C ̸= ∅.


 Soit (x, y) ∈ C 2 . Il existe n ∈ N∗ , (a1 , a2 , ..., an ) ∈ An et (λ1 , λ2 , ..., λn ) ∈
∑n
Kn tels que x = λi ai et il exsite p ∈ N∗ , (b1 , b2 , ..., bp ) ∈ Ap et
i=1

p
(µ1 , µ2 , ..., µp ) ∈ Kp tels que y = µj bj .
j=1
En notant
{ {
ak si 1 ≤ k ≤ n λk si 1 ≤ k ≤ n
ck = et νk = ,
bk−n si n + 1 ≤ k ≤ n + p µk−n si n + 1 ≤ k ≤ n + p

on aura pour tout k ∈ {1, ..., n + p} , ck ∈ A et


n ∑
p

n+p
x+y = λi ai + µj bj = νk ck
i=1 j=1 k=1

et donc x + y ∈ C. On montre de même que ∀λ ∈ K, ∀ x ∈ C,


λx ∈ C.
Ainsi C est un sous-espace vectoriel de E.
b) Comme tout élément de A est combinaison linéaire d’éléments de A
(il suffit d’écrire a = 1a), C contient A.
c) Soient G un sous-espace vectoriel de E contenant A, et x ∈ C. Il existe

n
n ∈ N∗ , (a1 , a2 , ..., an ) ∈ An , (λ1 , λ2 , ..., λn ) ∈ Kn tels que x = λi ai .
i=1
Comme G contient A et que G est un sous-espace vectoriel, on déduit
x ∈ G, ce qui montre C ⊂ G.
Ceci établit que C est le plus petit sous-espace vectoriel de E contenant A,
et finalement C =Vect(A). 

Exemple 8.5 1. Soit F = {(x, y, z) ∈ R3 : x + y + z = 0}

(x, y, z) ∈ F ⇔ (x, y, z) = (x, y, −x − y)


= x(1, 0, −1) + y(0, 1, −1).

Ainsi, F = < (1, 0, −1), (0, 1, −1) > . F est donc un sous-espace vectoriel
de R3 .
2. Soient E = R[X] et F = {P ∈ R[X] : d˚P ≤ 4}

F =< 1, X, X 2 , X 3 , X 4 > .
150 CHAPITRE 8. ESPACES VECTORIELS

8.3 Somme de deux sous-espaces vectoriels


Définition 8.5 Soit E un K-espace vectoriel. On appelle somme de deux
sous-espaces vectoriels F et G de E et on note F + G, l’ensemble

F + G = {x ∈ E : ∃ (xF , xG ) ∈ F × G, x = xF + xG }.

Proposition 8.5 La somme de deux sous-espaces vectoriels de E est un sous-


espace vectoriel de E engendré par leur réunion. Autrement dit,

F + G = V ect(F ∪ G).

Preuve . F + G ̸= ∅ car 0 = 0 + 0 ∈ F + G.
Soit (x, y) ∈ (F + G)2 . Il existe (x1 , x2 ) ∈ F × G, (y1 , y2 ) ∈ F × G tels que
x = x1 + x2 et y = y1 + y2 . Soit λ ∈ K, on a λx + y = (λx1 + y1 ) + (λx2 + y2 ) ∈
F + G. De plus soit H un sous-espace vectoriel de E qui contient F et G. Soit
x1 + x2 ∈ F + G. Comme x1 ∈ F, x2 ∈ G, on a x1 ∈ H et x2 ∈ H et donc
x1 +x2 ∈ H, d’où F +G ⊂ H. Ainsi F +G est le plus petit sous-espace vectoriel
de E contenant F et G. 

8.4 Somme directe


Définition 8.6 La somme de deux sous-espaces vectoriels F et G d’un K-
espace vectoriel E est dite directe, si tout vecteur de F + G se décompose de
façon unique en somme d’un élément de F et d’un élément de G. Elle s’écrit
F ⊕ G.

Théorème 8.1 Soit E un K-espace vectoriel. La somme de deux sous-espaces


vectoriels de F et G de E est directe si, et seulement si, F ∩ G = {0E }.

Preuve . Supposons que la somme de F et G soit directe et soit x ∈ F ∩ G


on a x = x + 0E = 0E + x, du fait de l’unicité de la décomposition, on en dé
duit que x = 0E . D’autre part, supposons que F ∩ G = {0E } et soit x ∈ F + G.
Supposons qu’ils existent xF , x′F ∈ F, xG , x′G ∈ G tels que xF + xG = x′F + xG ,
or ceci donne que xF −x′F = xG −x′G et donc xF −x′F et xG −x′G appartiennent
à la fois à F et G et donc xF = x′F et xG = x′G . 
8.5. FAMILLES LIBRES - FAMILLES LIÉES 151

Définition 8.7 Deux sous-espace vectoriels F et G d’un K-espace vectoriel


E sont dits supplémentaires, si E est somme directe de F et G c’est à dire,
si tout élément de E se décompose de manière unique en somme d’un élément
de F et d’un élément de G, ou encore

E = F ⊕ G ⇔ E = F + G et F ∩ G = {0E }.

Exemple 8.6 1. Soient E = R2 , E1 = {(x, y) : x + y = 0} et


E2 = {(x, y) : x − y = 0}. On a, E = E1 ⊕ E2 .
2. E = F(R, R), E1 = {f ∈ E : f est paire } et E2 = {f ∈ E : f est impaire }.
On a, E = E1 ⊕ E2 .

Remarque 8.3 Un sous-espace vectoriel peut admettre plusieurs supplémentaires.

Exemple 8.7 Soient E = R2 , F1 = {(x, 0) : x ∈ R}, F2 = {(0, x) : x ∈ R} et


F3 = {(x, x) : x ∈ R}. On a :

E = F1 ⊕ F2 = F1 ⊕ F3 .

8.5 Familles libres - familles liées


Définition 8.8 Une famille {x1 , x2 , ..., xn } de vecteurs de E est libre si, et
seulement si

n
∀ (λ1 , λ2 , ..., λn ) ∈ K ,
n
λi xi = 0E ⇒ λ1 = λ2 = ... = λn = 0.
i=1

On dit que les n vecteurs sont linéairement indépendants.

Définition 8.9 Une famille qui n’est pas libre est dite liée. On dit que les n
vecteurs sont linéairement dépendants.

En pratique ! !
Pour voir si une famille {x1 , x2 , ..., xn } est libre ou liée, on considère une
combinaison linéaire nulle de ces vecteurs et on cherche les coefficients.
∑n
Soit donc (λ1 , λ2 , .., λn ) ∈ K , tel que
n
λi xi = 0E . Cela nous donne un
i=1
système dont les inconnues sont λ1 , λ2 , ..., λn .
 Si l’unique solution de ce système est λ1 = λ2 = ... = λn = 0, alors la famille
est libre.
 S’il existe une autre solution, alors la famille est liée.
152 CHAPITRE 8. ESPACES VECTORIELS

Exemple 8.8 1. Soit


x1 = (1, 3, −1), x2 = (6, 4, 0).
La famille {x1 , x2 } est une famille libre dans R3 .
2. Soit E = R2 [X]. On a {1, X, X 2 , X 2 + X} est une famille liée de E, alors
que {1, X, X 2 } est une famille libre de E.
Remarque 8.4 1. Si on permute l’ordre des vecteurs dans une famille finie
cela ne change pas son caractère libre ou liée.
2. Dans R[X] ou C[X], toute famille finie de polynômes non nuls de degrés
tous distincts est une famille libre.
3. Une famille est liée si on peut établir une relation de dépendance linéaire
entre ses vecteurs. Autrement dit il existe (λ1 , λ2 ..., λn ) ∈ Rn , non tous
∑n
nuls tels que λi ei = 0E .
i=1

Proposition 8.6 1. La famille {x1 } est liée si, et seulement si, x1 = 0E .


2. Toute famille contenant le vecteur nul est liée.
3. Toute sur famille d’une famille liée est liée.
4. Toute sous famille d’une famille libre est libre.
Preuve .
1. Supposons que pour λ1 ∈ K on a, λ1 x1 = 0E . Comme {x1 } est liée donc
λ1 ̸= 0 et donc x1 = 0E .
2. Soit {x1 , x2 , ..., xn } une famille contenant le vecteur nul. Supposons que
x1 = 0E , on a alors 1.x1 +0x2 +...+xn = 0E et donc on a une combinaison
nulle à coefficients non tous nuls. Par suite {x1 , x2 , ..., xn } est liée.
3. Soit {x1 , x2 , ..., xq } une famille liée et montrons que pour tout n ≥ q,
{x1 , x2 , ..., xn } est liée. Comme {x1 , x2 , ..., xq } est liée alors il existe des
coefficients non tous nuls λ1 , λ2 , ..., λq tels que λ1 x1 + λ2 x2 + ... + λq xq = 0E
et donc on a encore
λ1 x1 + ... + λq xq + 0xq+1 + ... + 0xn = 0E .
Ainsi, (x1 , x2 , ..., xn ) est une famille liée.
4. Soit F une famille libre et F ′ ⊂ F. Montrons que F ′ est libre. Pour cela
supposons que F ′ est liée et par suite F qui est sur famille de F ′ est liée.
Ceci contredit l’hypothèse.

8.6. FAMILLES GÉNÉRATRICES 153

8.6 Familles génératrices


Définition 8.10 La famille {x1 , x2 , ..., xn } est une famille génératrice de E
si, et seulement si
E =< x1 , x2 , ..., xn > .
Ceci, signifie que tout vecteur de E peut alors s’écrire comme combinaison
linéaire des vecteurs x1 , x2 , ..., xn . Ainsi

v ∈ E ⇔ ∃ (λ1 , λ2 ..., λn ) ∈ Kn : v = λ1 x1 + λ2 x2 + ... + λn xn .

Exemple 8.9 1. R3 =< (1, 0, 0), (0, 1, 0), (0, 0, 1) >=< (1, 1, −1), (1, −1, 1), (−1, 1, 1) >
.
2. Soient E = R3 [X] et α ∈ R. D’après la formule de Taylor, on peut écrire


3
P (k) (α)
P = (X − α)k
k=0
k!

et par suite E =< 1, (X − α), (X − α)2 , (X − α)3 > .

8.7 Bases de E
Définition 8.11 Une base de E est une famille libre et génératrice de E.

Exemple 8.10 1. Soit E = Rn . On a

B = {e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ...0), ..., en = (0, 0, 0, ..., 1)}

est la base canonique de Rn .


2. Soit E = Rn [X]. On a B = {1, X, X 2 , ..., X n } est une base de E. C’est la
base canonique de Rn [X].
3. B′ = {1, X − 1, (X − 1)2 , ..., (X − 1)n } est une base de Rn [X].

8.7.1 Coordonnées d’un vecteur de E.


Proposition 8.7 La famille {x1 , x2 , ..., xn } est une base de E si, et seulement
si tout vecteur de E s’écrit de manière unique comme combinaison linéaire de
x1 , x2 , ..., xn . C’est à dire

∀ v ∈ E, ∃! (α1 , α2 , ..., αn ) ∈ Kn : v = α1 x1 + ... + αn xn .

α1 , α2 , ..., αn sont les coordonnées de v dans la base {x1 , x2 , ..., xn }.


154 CHAPITRE 8. ESPACES VECTORIELS

Preuve . Supposons que la famille {x1 , x2 , ..., xn } est une base de E alors
pour tout v ∈ E, il existe (α1 , α2 ..., αn ) ∈ Kn tel que v = α1 x1 + ...αn xn .
Supposons qu’il existe (α1′ , α2′ ..., αn′ ) ∈ Kn tel que v = α1′ x1 + ... + αn′ xn . On a
donc (α1 −α1′ )x1 +(α2 −α2′ )x2 +...+(αn −αn′ )xn = 0E et comme {x1 , x2 ..., xn } est
une famille libre de E. On en déduit que αi = αi′ , pout tout 1 ≤ i ≤ n. D’autre
part, si tout vecteur de E s’écrit d’une manière unique comme combinaison
linéaire de x1 , ..., xn , alors la famille {x1 , ..., xn } est une famille génératrice de
E.
Vérifions qu’elle est libre. Soit (α1 , α2 ..., αn ) ∈ Kn tel que α1 x1 +...+αn xn = 0E .
Par unicité de la décomposition du vecteur nul, on a α1 = α2 = ... = αn = 0.
Ainsi, la famille {x1 , x2 ..., xn } est libre. C’est une base de E. 

Remarque 8.5 Si on change de base, les coordonnées du vecteur changent.

8.8 Dimension d’un espace vectoriel


8.8.1 Espaces vectoriels de dimension finie
Définition 8.12 Soit E un K-espace vectoriel. E est dit de dimension finie
s’il existe une famille génératrice finie de E.

Exemple 8.11 1. Rn est de dimension finie.


2. Rn [X] est de dimension finie.
3. R[X] n’est pas de dimension finie.

Théorème 8.2 Soit E un K-espace vectoriel tel que E ̸= {0E }. Si G =


{e1 , e2 , ..., ek } est une famille génératrice de E, alors on peut en extraire une
base.

Preuve . Considérons l’ensemble L des familles libres de E contenues dans


G. L est non vide (en effet, comme E ̸= {0E }, au moins l’un des vecteurs de
G est non nul et donc constitue une famille libre) et contient un nombre fini
de familles. Parmi ces familles, il en existe au moins une de cardinal maximal
c’est cette famille que nous noterons B.
Soit B = {e1 , e2 , ..., en } avec n ≤ k. Montrons que B est une base de E. Pour
cela, il suffit juste de montrer que B est génératrice.
Soit j ∈ {n + 1, ..., k}, alors la famille {e1 , e2 , ..., en , ej } est liée (car la famille
B est de cardinal maximal). Donc, il existe λ1 , ..., λn , λj non tous nuls tels que

λ1 e1 + ... + λn en + λj ej = 0E .
8.8. DIMENSION D’UN ESPACE VECTORIEL 155

De plus on a, λj ̸= 0.
En effet, si λj = 0 alors λ1 e1 + ... + λn en = 0E et donc λ1 = λ2 = ... = λn = 0
car la famille est libre. On peut donc écrire
λ1 λn
ej = e1 + ... + en .
λj λj
Ainsi, tout j ∈ {n + 1, ..., k}, ej est combinaison linéaire de {e1 , ..., en }. Tous
les vecteurs de G sont dans Vect(G) donc Vect(G) ⊂ Vect(B).
Autrement dit Vect(B) = E et donc B est une famille génératrice de E. Comme
elle est libre, c’est une base de E. 

Corollaire 8.1 Tout espace vectoriel de dimension finie, non réduit à {0E }
admet une base.

Remarque 8.6 L’espace vectoriel {0E } n’a pas de base.

Théorème 8.3 Dans un espace vectoriel de dimension finie, une famille libre
ne peut avoir plus d’éléments qu’une famille génératrice.

Preuve . Soient E un K-espace vectoriel de dimension finie et {g1 , g2 , ..., gm }


une famille génératrice de E. Supposons l’existence d’une famille libre {l1 , l2 , ..., lm+1 }
ayant m + 1 éléments. Comme {g1 , g2 , ..., gm } est génératrice, on a l1 = α1 g1 +
... + αm gm , l1 étant non nul, les αi ne sont pas tous nuls. Quitte à effectuer
une permutation d’indices on peut supposer que α1 ̸= 0 et donc
1 α2 αm
g1 = l1 − g2 ... − gm .
α1 α1 α1
Toute combinaison linéaire de {g1 , ..., gm } est donc combinaison linéaire de
{l1 , g2 , ..., gm } et donc {l1 , g2 , ..., gm } est génératrice.
Raisonnons par récurrence, supposons que l’on puisse remplacer gi par li jus-
qu’à l’indice k (k < m) et vérifions cette propriété pour l’indice (k + 1).
{l1 , l2 , ..., lk , gk+1 ..., gm } génératrice, on peut donc écrire

k ∑
m
lk+1 = αi li + αi gi .
i=1 i=k+1

La famille {l1 , ..., lk+1 } étant libre les coefficients αk+1 , ..., αm ne sont pas tous
nuls on peut donc supposer que αk+1 ̸= 0. On a donc
∑k
αi 1 ∑m
αi
gk+1 =− li + lk+1 − gi .
i=1
αk+1 αk+1 i=k+2
αk+1
156 CHAPITRE 8. ESPACES VECTORIELS

Toute combinaison de {l1 , ..., lk , gk+1 ..., gm } est donc combinaison de


{l1 , l2 ...lk , lk+1 , gk+1 , .., gm } qui est par conséquent génératrice.
Par récurrence, on en déduit que {l1 , l2 ..., lm } est génératrice et donc lm+1
est combinaison linéaire des li , 1 ≤ i ≤ m, ce qui contredit la liberté de
{l1 , l2 ..., lm+1 }. 

Théorème 8.4 Toute les bases d’un espace vecotoriel E de dimension finie
ont le même nombre d’éléments, appelé dimension de E et noté dim E.
Preuve . Supposons l’existence de deux bases B = {e1 , e2 , ..., en } et B ′ =
{e′1 , ..., e′p } comme B est libre et B ′ génératrice alors n ≤ p. De plus, comme
B ′ est libre et B génératrice alors p ≤ n et par suite n = p. 

Théorème 8.5 Soit E un K-espace vectoriel de dimension n.


1. Toute famille libre a au plus n éléments.
2. Une famille libre à n éléments est une base.
3. Toute famille génératrice a au moins n éléments.
4. Toute famille génératrice à n éléments est une base.
Preuve .
1. Soit B = {e1 , e2 , ..., en } une base de E. B étant génératrice, une famille libre
ne peut avoir plus de n éléments.
2. On a déjà montré dans théorème 8.2 qu’une famille libre maximale est une
base.
3. B étant libre, une famille génératrice a au moins n éléments
4. Supposons que n ≥ 2. Soit {f1 , ..., fn } une famille génératrice à n éléments.
Si elle était liée l’un des gi serait combinaison linéaire des autres qui forment
donc une famille génératrice à (n − 1) éléments, ce qui est impossible. Par
conséquant {g1 , ..., gn } est libre et donc base de E.
Remarque 8.7 Dans un espace de dimension n, pour savoir si une famille
de n vecteurs est une base il suffit de vérifier qu’elle est libre ou génératrice.
Théorème 8.6 (théorème de la base incomplète) Toute famille libre
peut être prolongée en une base.
Preuve . Une famille libre a au plus n éléments, si cette famille n’est pas
génératrice, il existe au moins un élément de E qui n’est pas combinaison
linéaire des éléments de cette famille. On peut l’adjoindre à la famille sans
nuire à la liberté. On peut ainsi compléter la famille jusqu’à ce qu’elle ait n
élémetns, on obtient alors une base. 
8.9. DIMENSION D’UN SOUS-ESPACE VECTORIEL 157

8.9 Dimension d’un sous-espace vectoriel


Théorème 8.7 Soit E un K-espace vectoriel de dimension finie.
Tout sous-espace vectoriel F de E est de dimension finie et on a
dim F ≤ dim E.

Preuve . Soit n = dim E. Les familles libres de F sont les familles libres de
E elles ont donc au plus n éléments.
L’ensemble des cardinaux des familles libres de F est une partie non vide de N
majorée par n admet donc un plus grand élément p. On en déduit comme dans
le théorème 8.2, l’existence d’une base de F à p éléments. Donc dim F = p et
dim F ≤ dim E.
Si dim F = dim E, une base de F est une famille libre de E à n éléments c’est
aussi une base de E et F = E. 

Proposition 8.8 E et F deux K-espaces vectoriels de dimension finie. On a


E × F est un espace vectoriel de dimension finie et

dim(E × F ) = dim E + dim F.

Preuve . Soient {e1 , e2 , ..., en } une base de E et {f1 , f2 , ..., fp } une base de F .
Montrons que B = {(e1 , 0), ..., (en , 0), (0, f1 ), ..., (0, fp )} est une base de E × F.
Montrons que B est libre : Soit λ1 , ..., λn , µ1 , ..., µp des éléments de K

n ∑
p
∑n ∑
p
λi (ei , 0) + µj (0, fj ) = (0E , 0F ) ⇔ ( λi e i , µj fj ) = (0E , 0F )
i=1 j=1 i=1 j=1
⇔ λi = 0 et µj = 0.

Par suite B est libre dans E. De plus, pour tout (x, y) ∈ E × F, il existe
λ1 , λ2 , ..., λn , µ1 , ..., µp des éléments de K tels que

n ∑
p

n ∑
p
(x, y) = ( λi e i , µ j fj ) = λi (ei , 0) + µj (0, fj )
i=1 j=1 i=1 j=1

et par suite, B est génératrice. En conclusion, B est une base de E × F et


card B = n + p = dim E + dim F. 

Proposition 8.9 Soient F et G deux sous-espaces vectoriels de E. On a

dim(F ⊕ G) = dim F + dim G.


158 CHAPITRE 8. ESPACES VECTORIELS

Preuve . Notons p = dim F et q = dim G. Soient donc B1 = {e1 , e2 , ..., ep }


une base de F et B2 = {f1 , f2 , ..., fq } une base de G. Posons B = B1 ∪ B2 et
vérifions que B est une base de E. Soit v ∈ E, comme E = F ⊕ G, alors v se
décompose de manière unique suivant F et G. Ainsi il exsite (v1 , v2 ) ∈ F × G
tel que v = v1 + v2 et donc v est une combinaison linéaire des vecteurs de B1
et B2 donc de B. Ce qui signifie que B engendre E. Il reste à montrer que B
est libre.
Soit (λ1 , ..., λp , µ1 , ..., µq ) ∈ Rp+q tel que λ1 e1 + ... + λp ep + µ1 f1 + ... + µq fq = 0.
On a alors λ1 e1 +...+λp ep = −µ1 f1 −...−µq fq , donc λ1 e1 +...+λp ep ∈ F ∩G =
{0}. Comme {e1 , e2 , ..., ep } est une base de F, elle est en particulier libre et par
suite λ1 = ... = λp = 0. De même −µ1 f1 − ... − µq fq ∈ F ∩ G = {0}. Comme
{f1 , f2 , ..., fq } est une base de G donc libre et par suite µ1 = ... = µq = 0. On
en déduit que B est libre. C’est donc une base de E. Comme card B = p + q,
donc dim E = dim F + dim G.


Proposition 8.10 Soit E un K espace vectoriel de dimension finie et soit


n = dim E . Soit F un sous-espace vectoriel de E tel que dim F = p, p ≤ n.
1. F admet au moins un supplémentaire dans E.
2. Tout supplémentaire de F dans E est de dimension (n − p)

Preuve . Soit {e1 , e2 , ..., ep } une base de F et donc {e1 , e2 , ..., ep } est une
famille libre de F. D’après le théorème de la base incomplète, on peut compléter
la famille {e1 , ..., ep } par {ep+1 , ..., en } de façon que {e1 , e2 ...ep , ep+1 ...en } soit
une base de E. On pose G = < ep+1 , ep+2 ...en >. On a bien G ⊕ F = E. 

Théorème 8.8 Soit E un K espace vectoriel de dimension finie et F, G deux


sous espaces vectoriels de E. On a

dim(F + G) = dim F + dim G − dim(F ∩ G).

Preuve . On a (F ∩G) est un sous-espace vectoriel de F. Soit F ′ le supplémentaire


de F ∩ G dans F . Montrons que F + G = F ′ ⊕ G.
On a F ′ ⊂ F d’où

F ′ ∩ G = (F ′ ∩ F ) ∩ G
= F ′ ∩ (F ∩ G)
= {0E }.
8.10. RANG D’UNE FAMILLE FINIE DE VECTEURS 159

D’autre part,

F + G = (F ′ + F ∩ G) + G
= F ′ + (F ∩ G + G)
= F ′ + G.

Ainsi,
dim(F + G) = dim(F ′ ⊕ G) = dim F ′ + dim G
et
dim F = dim(F ′ ⊕ F ∩ G) = dim F ′ + dim(F ∩ G).
On en déduit donc que

dim(F + G) = dim F + dim G − dim(F ∩ G).

En pratique ! !
Soit E un K espace vectoriel et E ′ , E ′′ deux sous espaces vectoriels de E.
Montrer que E ′ et E ′′ sont supplémentaire dans E revient à montrer que

E ′ + E ′′ = E et dim E ′ + dim E ′′ = dim E

ou bien
E ′ ∩ E ′′ = {0E } et dim E ′ + dim E ′′ = dim E.

8.10 Rang d’une famille finie de vecteurs


Définition 8.13 Soit S = {e1 , e2 , ..., ep } un système de vecteurs d’un K es-
pace vectoriel E. On appelle rang de S, la dimension du sous-espace engendré
par S
rang de S = dim(V ect(S)).
Ainsi le rang de S est le nombre maximal de vecteurs indépendants de S. On
note rg(S) = rg({e1 , e2 , ..., ep }).

Remarque 8.8 1. rg({e1 , e2 , ..., ep }) ≤ inf(p, dim E)


2. rg({e1 , e2 , ...ep }) = p ⇔ {e1 , e2 , ..., ep } est une famille libre de E .
3. le rang d’une famille ne change pas si on modifie l’ordre de ses éléments.
160 CHAPITRE 8. ESPACES VECTORIELS

8.10.1 Calcul pratique du rang d’une famille de p vec-


teurs
Théorème 8.9 On ne change pas le rang d’une famille de vecteurs en ajou-
tant à l’un d’eux une combinaison linéaires des autres.

Preuve . Soient {e1 , e2 ...ep } une famille de p vecteurs de E et e′1 = e1 +


α2 e2 + ... + αp ep . On pose

F = < e1 , e2 , ...ep > et F ′ = < e′1 , e2 , ..., ep > .

Montrons que F = F ′ .
Soit v ∈ F. v est donc combinaison linéaire de e1 , ...ep , or e1 = e′1 − α2 e2 ... −
αp ep , par suite v est une combinaison de e′1 , e2 ...ep et donc v ∈ F ′ . D’où F ⊂ F ′
et on montre de même que F ′ ⊂ F . Ainsi, F = F ′ . 

Exemple 8.12 1. e1 = (1, 2, 1, 0), e2 = (−1, 1, 1, 1), e3 = (−1, −2, 0, 1) et


e4 = (1, 2, 1, 1).

rg(e1 , e2 , e3, e4 ) = rg(e1 , e1 + e2 , e1 + e3 , e4 − e1 ) = 4

Par suite, dim < e1 , e2 , e3, e4 > = 4.

8.11 Exercices
Exercice 1. Détérminer lesquels des ensembles sont des espaces vectoriels ?
E1 = {(x, y, z) ∈ R3 : x + y + z = 0, x + y − z = 0} ,
E2 = {(x, y, z) ∈ R3 : x2 − z 2 = 0},
E3 = {f ∈ F (R, R) : f (1) = 0} ,
E4 = {f ∈ F (R, R) : f (x) = f (1 − x), x ∈ R} ,
E5 = {P ∈ R[X] : (X − a)|P, a ∈ R} ,
E6 = {(x1 , x2 , .....xn ) : x1 x2 = 0} ,
{ }
E7 = (un ) ∈ RN : un+2 = un + 2, n ∈ N .
Exercice 2. Soit E un K espace vectoriel, F , G, H des sous espaces vectoriels
de E.
1. Montrer que

F ∪ G sous-espace vectoriel ⇔ F ⊂ G ou G ⊂ F.
8.11. EXERCICES 161

2. Montrer que
G ⊂ F ⇔ F ∩ (G + H) = G + (F ∩ H).
3. Montrer que si F ∩ G = F ∩ H, F + G = F + H et G ⊂ H alors G = H.
Exercice 3.
1. Montrer que a = (1, 2, 3), b = (2, −1, 1) engendrent le même sous-espace
de R3 que c = (1, 0, 1) et d = (0, 1, 1).
2. Soit u1 = (0, 1, −2, 1), u2 = (1, 0, 2, −1), u3 = (3, 2, 2, −1). Montrer que
a) < u1 , u2 , u3 > = < (1, 1, 0, 0), (−1, 1, −4, 2) > .
b) (1, 1, 0, 0) ∈ < u1 , u2 > ∩ < u1 , u2 , u3 > .
Exercice 4.
1. Les systèmes suivants forment-ils des familles libres, géneratrices, bases
de R3 ?
S1 = {(1, −1, 0), (2, −1, 2)};
S2 = {(1, −1, 0), (2, −1, 2), (1, 0, a)} avec a réel (on discutera suivant la
valeur de a).
2. Montrer que les vecteurs u1 = (0, 1, 1), u2 = (1, 0, 1) et u3 = (1, 1, 0)
forment une base de R3 . Trouver dans cette base les coordonnées du
vecteur u = (1, 1, 1).
Exercice 5.
1. Soit (P1 , P2 , ..., Pn ) une famille de polynômes de C [X] non nuls à degré
échelonnés c’est à dire d0 P1 < d0 P2 ... < d0 Pn .
Montrer que (P1 , P2 , ..., Pn ) est une famille libre.
2. Montrer que les polynômes P1 , P2 , P3 , P4 dans R3 [X] définie par :
P1 = 1 + X, P2 = X 2 + X + 1, P3 = X 3 + 1, P4 = 2,
forment une base de R3 [X]. Donner dans cette base les coordonnés du
polynôme Q(X) = 2X 3 − X 2 + X − 1.
3. Soit n dans N∗ et soit (a, b) dans
( R tel que
2
) a ̸= b.
a) Justifier que la famille B = (X − a) k
, est une base de R2n [X].
o≤k≤2n
b) Déterminer les coordonnées de (X − a)n (X − b)n dans la base B.
(Indication : remarquer que X − b = X − a + (a − b)).
Exercice 6. Soient F et G les sous-espaces vectoriels de R3 définis par
{ }
F = (x, y, z) ∈ R3 , x − 2y + z = 0
et { }
G = (x, y, z) ∈ R3 , 2x − y + 2z = 0 .
162 CHAPITRE 8. ESPACES VECTORIELS

1. Donner une base de F, une base de G. En déduire leurs dimensions respec-


tives.
2. Donner une base de F ∩ G et donner sa dimension.
3. Montrer que la famille constitué des vecteurs de la base de F trouvée
en (1)et des vecteurs de labase de G trouvée en (2) est
une famille génératrice de R3 . Est-elle libre ?
4. Les espaces F et G sont-ils supplementaires ?
Exercice 7. Soit E = {P ∈ R [X] : P (0) = P (1) = 0} .
1. Montrer que E est un R−espace vectoriel.
2. Donner une base de E et sa dimension.
3. Donner un suplémentaire de E dans R [X] .
Exercice 8. Soient F, G les sous-espaces vectoriels

F = {(x, y, z, t) ∈ R4 ; x + y + z = 0 et 2x + y + z − t = 0},

et
G = vect{(1, −2, 1, 1), (1, 2, −3, 1), (5, −3, −2, 5)} ⊂ R4 .
1. Calculer la dimension de F .
2. Montrer que G ⊂ F et conclure que G = F .
3. Déterminer un supplémentaire de F .
Exercice 9. Soit n un entier supérieur ou égal à 2 et soit E = Rn [X]. Soit
H l’ensemble
des polynômes P de E tels que P (1) = P ′ (1) = 0.
1. Montrer que H est un sous-espace vectoriel de E.
2. Montrer que P appartient à H si et seulement si (X − 1)2 divise P .
3. Donner une base de H et déterminer sa dimension.
Exercice 10. On considère dans R4
v1 = (1, 2, 0, 1), v2 = (1, 0, 2, 1), v3 = (2, 0, 4, 2), w1 = (1, 2, 1, 0),
w2 = (−1, 1, 1, 1), w3 = (2, −1, 0, 1) et w4 = (2, 2, 2, 2).
1. Montrer que (v1 , v2 ) est libre et que (v1 , v2 , v3 )est liée.
2. Montrer que (w1 , w2 , w3 ) est libre et que (w1 , w2 , w3 , w4 ) est liée.
3. Montrer que (v1 , v2 , w1 , w2 ) est libre.
4. Soit F le sous-espace vectoriel de R4 engendré par (v1 , v2 , v3 ).
a) Déterminer une base de F .
b) Donner un supplémentaire de F .
8.11. EXERCICES 163

5. Soit G le sous-espace vectoriel engendré par (w1 , w2 , w3 , w4 ).


Déterminer une base de G.
6. a) A l’aide des bases trouvées en (4) et (5), construire un système génèrateur
de F + G.
b) En déduire que F + G = R4 .
7. a) Montrer que v1 + v2 est dans F \ G.
b) Calculer la dimension de F \ G.
c) Donner une base de F \ G.
8. F et G sont-ils supplémentaires ?
Exercice 11. On considère la partie F de R4 définie par

F = {(x, y, z, t) ∈ R4 : x + y = 0 et x + z = 0}.
1. Donner une base de F .
2. Compléter la base trouvée en une base de R4 .
3. On pose u1 = (1, 1, 1, 1), u2 = (1, 2, 3, 4) et u3 = (−1, 0, −1, 0). La famille
(u1 , u2 , u3 ) est-elle libre ?
4. On pose G l’espace vectoriel engendré par les vecteurs u1 , u2 et u3 .
Quelle est la dimension de G?
5. Donner une base de F \ G.
6. En déduire que F + G = R4 .
7. Est-ce qu’un vecteur de R4 s’écrit de façon unique comme somme d’un vec-
teur de F et d’un vecteur de G?
Exercice 12. Déterminer le rang des vecteurs suivants
1. a = (3, 2, 1, 0), b = (2, 3, 4, 5), c = (0, 1, 2, 3), d = (1, 2, 1, 2),
e = (0, −1, 2, 1).
2. Dans R3 discuter suivant la valeur de m le rang de
a = (m − 2, 2, −1), b = (2, m, 2) et c = (2m, 2(1 + m), m + 1).
3. Dans R4 [X] , on considère le système : S = (P1 , P2 , P3 , P4 ) avec
P1 = X 3 + X + 1, P2 = X 3 − 2X − 1, P3 = X 3 + X et
P4 = −2X 4 + X 3 − 10X − 6. Déterminer le rang de S.
164 CHAPITRE 8. ESPACES VECTORIELS
Chapitre 9

Applications linéaires

Soit E et F deux espaces vectoriels sur le même corps K.

Définition 9.1 Une application f de E dans F est dite linéaire si elle possède
les deux propriétés suivantes
1. Pour tout u, v ∈ E, f (u + v) = f (u) + f (v).
2. Pour tout u ∈ E et λ ∈ R, f (λu) = λf (u).
L’ensemble des applications linéaires de E dans F est noté L(E, F ).

Remarque 9.1 1. Cette définition est équivalente à

f ∈ L(E, F ) ⇔ ∀ α ∈ K, ∀ u, v ∈ E, f (αu + v) = αf (u) + f (v).

2. Une application linéaire f de E dans F est en particulier un morphisme de


groupes de (E, +) dans (F, +), on a donc

f (0E ) = 0F et ∀ x ∈ E, f (−x) = −f (x).

Exemple 9.1 1. L’application f : R2 → R3 est linéaire


(x, y) 7→ (y, x-t, 3x+2y)
2. L’application g : R2 → R3 n’est pas linéaire puisque
(x, y) 7 → (y , x − y, 3x + 2y)
2

g(0, 2) ̸= 2g(0, 1).

Définition 9.2 On appelle


1. Endomorphisme de E, une application linéaire de E dans E. L’ensemble des
endomorphismes de E est noté L(E).
2. Isomorphisme, une application linéaire bijective.

165
166 CHAPITRE 9. APPLICATIONS LINÉAIRES

3. Automorphisme de E, une application linéaire bijective de E. L’ensemble


des automorphismes de E est noté GL(E).
4. forme linéaire sur E, une application linéaire de E dans K. L’ensemble des
formes linéaires de E est noté E ∗ appelé espace dual de E.

Théorème 9.1 Soient E un K-espace vectoriel de dimension n muni d’une


base {e1 , e2 , ..., en } et F un K-espace vectoriel quelconque.
Pour toute famille {y1 , y2 , ..., yn } de n éléments de F, il existe une application
f de E dans F et une seule telle que

∀ i ∈ {1, 2, ..., n}, f (ei ) = yi .

Preuve . Si f existe, elle associe nécessairement au vecteur x = α1 e1 +


... + αn en de E le vecteur f (x) = α1 f (e1 ) + ... + αn f (en ) = α1 y1 + ... + αn yn .
Réciproquement, on vérifie que l’application ainsi définie est linéaire. 

9.1 Image et noyau d’une application linéaire


Proposition 9.1 Soient f : E → F une application linéaire, A un sous-
espace vectoriel de E et B un sous-espace vectoriel de F. Alors f (A) est un
sous-espace vectoriel de F et f −1 (B) est un sous-espace vectoriel de E.

Preuve . Soit f ∈ L(E, F ). Pour tout x, y ∈ f (A), il existe a1 , a2 dans A


vérifiant x = f (a1 ) et y = f (a2 ). Ainsi comme A est un sous-espace vectoriel
de E, on a pour tout α ∈ K, x+αy = f (a1 +αa2 ) ∈ f (A). De même pour x, y ∈
f −1 (B) on a, f (x) et f (y) appartiennent à B et comme B est un sous-espace
vectoriel de F, on en déduit que pour tout α ∈ K, αf (x) + f (y) = f (αx + y)
est dans B et donc αx + y ∈ f −1 (B). 

Définition 9.3 Soit f ∈ L(E, F ).


1. On appelle noyau de f l’ensemble des éléments de E qui ont pour image
l’élément neutre de F. On le note

ker f = {x ∈ E : f (x) = 0F } = f −1 ({0E }).

2. On appelle image de f l’ensemble des éléments de F qui ont un antécédent


dans E. On le note

Imf = {y ∈ F : ∃ x ∈ E, y = f (x)} = f (E).


9.1. IMAGE ET NOYAU D’UNE APPLICATION LINÉAIRE 167

Proposition 9.2 Soit f ∈ L(E, F ). On a


1. ker f est un sous-espace vectoriel de E.
2. Imf est un sous-espace vectoriel de F.
3. f est une application injective ⇔ ker f = {0E }
4. f est une application surjective ⇔ Imf = F .

Exemple 9.2 1. Soit l’application f définie par


f: R3 → R
(x, y, z) 7 → 2x − y + z
On a, ker f = {(x, y, z) ∈ R3 , 2x − y + z = 0} =< (1, 2, 0), (0, 1, 1) > .
Comme {(1, 2, 0), (0, 1, 1)} est une famille libre et est génératrice on en dé
duit que dim ker f = 2.
Cherchons Imf ?
Imf est un sous-espace vectoriel de R et donc dim(Imf ) ∈ {0, 1}. Comme
2 = f (1, 1, 1) on a donc 2 ∈ Imf et par suite Imf ̸= {0E } et donc
dim(Imf ) = 1. C’est à dire Imf = R. D’où f est surjective.
2. Soit f l’application définie par
f: R3 → R4
(x, y, z) 7→ (x + y + z, x − y, y − z, z)
On a, ker f = {0R3 } et Imf = R3 . Par suite f est injective mais non
surjective.

Proposition 9.3 Soient f ∈ L(E, F ) et {e1 , e2 , ..., en } une famille de E


1. Si f est injective et si {e1 , e2 , ..., en } est une famille libre de E alors {f (e1 ), f (e2 ), ..., f (en )}
est une famille libre de F .
2. Si f est surjective et si {e1 , e2 , ..., en } est une famille génératrice de E alors
{f (e1 ), f (e2 )..., f (en )} est génératrice de F .
3. Si f est bijective et si {e1 , e2 , ..., en } est une base de E alors {f (e1 ), f (e2 )..., f (en )}
est une base de F .

Preuve .
1. Supposons que f est injective et considérons une combinaison linéaire des
f (ei ) qui s’annule . On a


n ∑
n
αi f (ei ) = 0F ⇒ f ( αi ei ) = 0F .
i=1 i=1
168 CHAPITRE 9. APPLICATIONS LINÉAIRES


n
Ceci implique que αi ei ∈ ker f . Comme f est injective, on en déduit
i=1

n
que αi ei = 0E . La famille {e1 , e2 , ..., en } étant libre, on en déduit que
i=1
α1 = α2 = ... = αn = 0.
2. Soit x ∈ E. Comme {e1 , e2 , ..., en } est une famille génératrice de E, on a
∑n ∑
n
x= αi ei . Ainsi f (x) = αi f (ei ) et par suite f (x) ∈ Imf = F d’où
i=1 i=1
F = < f (e1 ), f (e2 )...f (en ) >.


Remarque 9.2 Si {e1 , e2 , ..., en } est une base de E, alors


dim(Imf ) = rg(f (e1 ), f (e2 )..., f (en )).
Exercice 9.1 Soit f l’application définie par
f : R3 [X] −→ R3 [X]
P 7−→ (2X + 1)P (X) − (X 2 − 1)P ′ (X)
1. Déterminer une base de Imf.
2. f est-elle bijective ?
Définition 9.4 Soient E, F deux K-espaces vectoriels et f ∈ L(E, F ). Si
dim(Imf ) est finie. On appelle rang de f la dimension de l’image de f et on
note rg(f ) cette dimension.
Théorème 9.2 (Théorème du rang) Soient E un K-espace vectoriel de
dimension finie, F un K-espace vectoriel de dimension finie et f ∈ L(E, F ).
On a
dim ker f + dim Imf = dim E.
Preuve . Comme ker f est un sous-espace vectoriel de E qui est de dimen-
sion finie on en déduit que dim ker f < ∞. Soit donc {u1 , u2 ..., uk } une base
de ker f . D’autre part Imf est un sous-espace vectoriel de F . Soit {v1 , v2 ..., vr }
une base de Imf et w1 , w2 , ..., wr les antécédents par f . Montrons que {u1 , u2 , ..., uk , w1 , w2 ...wr }
est une base de E.
Soit (αi ) , 1 ≤ i ≤ k, (βi ) , 1 ≤ i ≤ r, des scalaires tels que

k ∑
r
αi ui + βi w i = 0 E . (∗)
i=1 i=1
9.2. ESPACE L(E, F ) 169

Appliquons f à cette égalité nous obtenons


k ∑
r
αi f (ui ) + βi f (wi ) = 0F ,
i=1 i=1


r ∑
r
ceci implique que βi f (wi ) = 0F c’est à dire βi vi = 0F et comme (v1 , ..., vr )
i=1 i=1
est une famille libre de F , on en déduit que βi = 0, pour tout 1 ≤ i ≤ r. En
remplaçant dans l’égalité (∗) et en utilisant le fait que (u1 , ..., uk ) est une fa-
mille libre de E, on en déduit que αi = 0, pour tout 1 ≤ i ≤ k.
D’autre part soit x ∈ E, on a f (x) ∈ Imf et donc il existe βi , 1 ≤ i ≤ r tels
que
∑r ∑
r
f (x) = β i vi = βi f (wi ).
i=1 i=1

Par suite

r
f (x − βi wi ) = 0F ,
i=1


r ∑
r
et donc x − βi wi ∈ ker f . Il existe donc αi , 1 ≤ i ≤ k tel que x − βi w i =
i=1 i=1

k
αi ui et par suite
i=1

k ∑
k
x= βi w i + αi ui .
i=1 i=1

Corollaire 9.1 Soient E, F deux espaces vectoriels et f ∈ L(E, F ). On sup-


pose que dim E = dim F < ∞. On a

f injective ⇔ f surjective ⇔ f bijective.

9.2 Espace L(E, F )


Proposition 9.4 L’ensemble des applications linéaires de E dans F est un
sous-espace vectoriel vectoriel de F E . De plus, si dim E = n (resp dim F = p),
alors la dimension de L(E, F ) est n.p.
170 CHAPITRE 9. APPLICATIONS LINÉAIRES

Preuve . On pose

g : L(E, F ) −→ F
| × F {z
× ... × F}
nf ois
f 7−→ (f (e1 ), f (e2 )...f (en ))

où {e1 , e2 , ..., en } est une base de E.


g ainsi définie est une application bijective par suite

| × F {z
dim(L(E, F )) = dim(F × ... × F}) = np
nf ois

9.3 Projections et symétries


9.3.1 Projections
Soit E un K-espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires
de E. On sait que tout élément de E peut s’écrire d’une manière unique sous
cette forme x = x1 + x2 avec x1 ∈ F et x2 ∈ G.
Définition 9.5 On appelle projection sur F parallélement à G l’application
p de E dans E, qui à x associe x1 . On dit que p est un projecteur.

Remarque 9.3 1. On montre facilement que p est un endomorphisme de E


et que
Imp = F et ker p = G.
2. Notons également que pour tout x ∈ F, p(x) = x.

Proposition 9.5 Un endomorphisme p d’un K-espace vectoriel E est un pro-


jecteur si et seulement si, p ◦ p = p.

Preuve . Si p est un projecteur sur F parallèlement à G alors pour tout


x = x1 + x2 , x1 ∈ F et x2 ∈ G, on a p(x) = x1 . Ainsi

p ◦ p(x) = p(x1 ) = x1 = p(x) d’où p ◦ p = p.

D’autre part, soit p un endomorphisme de E tel que p ◦ p = p. Montrons


que Imp et ker p sont supplémentaires et que p est la projection sur Imp pa-
rallèlement à ker p.
9.3. PROJECTIONS ET SYMÉTRIES 171

Soit x ∈ E, comme
x = p(x) + (x − p(x)),
et que p(x) ∈ Imp et x − p(x) ∈ ker p, on a

E = Imp + ker p.

D’autre part, soit x ∈ Imp ∩ ker p.

x ∈ Imp ⇔ ∃ t ∈ E tel que x = p(t)

et
x ∈ ker p ⇔ p(x) = 0E .
Comme p est un projecteur, on a

p(x) = 0E = p ◦ p(t) = p(t) = x.

D’où x = 0E et donc Imp∩ker p = {0E }. Ainsi Imp et ker p sont supplémentaires.




9.3.2 Symétries
Définition 9.6 Soient F et G deux sous-espaces vectoriels supplémentaires
d’un K-espace vectoriel E. On appelle symétrie par rapport à F parallèlement
à G, l’application de E dans E qui, à x = x1 + x2 (x1 ∈ F, x2 ∈ G) associe
x1 − x2 .
Proposition 9.6 Un endomorphisme d’un K espace vectoriel E est une symétrie
si, et seulement s’il est involutif c’est à dire s ◦ s = idE .
Preuve . Si s est la symétrie par rapport à F parallèlement à G, pour tout
x = x1 + x2 avec x1 ∈ F, x2 ∈ G, s(x) = x1 − x2 et s ◦ s(x) = x1 + x1 = x d’où
s ◦ s = idE .
D’autre part, soit s un endomorphisme de E tel que s ◦ s = idE . On pose
1 1
p1 = (idE + s) et p2 = (idE − s).
2 2
p1 et p2 sont des projecteurs et on a p1 + p2 = idE donc si p1 est la projection
sur F parallèlement à G, p2 est la projection sur G parallèlement à F , on a
s = p1 − p2 .
s est donc la symétrie par rapport à F parallèlement à G. 
172 CHAPITRE 9. APPLICATIONS LINÉAIRES

9.4 Noyau d’une forme linéaire


Soient E un K-espace vectoriel de dimension n ≥ 1 et f une forme linéaire.
Comme Imf = K donc rgf ≤ 1. Or rgf = 0 ⇒ f = 0. Donc toute forme
linéaire non nulle est de rang 1. D’après le théorème du rang, son noyau est
un sous-espace vectoriel de E de dimension n − 1, qu’on appelle hyperplan de
E.

Théorème 9.3 Tout hyperplan H d’un K-espace vectoriel de dimension finie


est le noyau d’une forme linéaire non nulle h unique à un facteur scalaire non
nul près.

Preuve . Soit H un hyperplan de E et {e1 , e2 , ..., en−1 } une base de H que


l’on peut compléter en une base {e1 , e2 , ..., en−1 , en } de E. La forme linéaire h
déinie par pour tout i ∈ {1, 2, ..., n − 1} par h(ei ) = 0 et h(en ) = 1, a pour
noyau H, et toute forme linéaire de noyau H est colinéaire à h. 

9.5 Exercices
Exercice 1. Soit E l’espace vectoriel réel des applications dérivables de R
vers R. On considère les applications

E → E E → E ∫x
φ: et ψ :
f 7→ f ′ f 7→ ψ (f ) , ψ (f ) (x) = 0 f (t)dt.

1. Montrer que φ et ψ sont linéaires.


2. Exprimer ψ ◦ φ et φ ◦ ψ.
3. Etudier l’injectivité, la surjectivité et la bijectivité de φ et ψ.
4. Que peut-on dire concernant la dimension de E?
Exercice 2. Soit f l’endomorphisme de R4 définie par

f (x, y, z, t) = (2z + 3t, z − t, 0, 0).

1. Déterminer f ◦ f.
2. Montrer que Imf ⊂ ker f.
3. Trouver dim Imf, en déduire que Imf = ker f.
Exercice 3. Soient v1 = (1, 0, 0, 0) , v2 = (1, 1, 0, 0), v3 = (1, 1, 1, 0) et v4 =
(1, 1, 1, 1) des vecteurs de R4 .
9.5. EXERCICES 173

1. Justifier qu’il existe une application f linéaire de R4 dans R3 telle que

f (v1 ) = (2, 1, 1), f (v2 ) = (3, 2, 1) , f (v3 ) = (4, 2, 2) et f (v4 ) = (4, 3, 1).

2. Donner l’expression analytique de f.


3. Déterminer Imf et ker f.
Exercice 4. On note E l’ensemble des applications de R vers R qui s’écrivent
sous la forme α + βch + γsh avec α, β et γ réels.
1. Montrer que E est un espace vectoriel et calculer sa dimension.
2. On considère l’application D définie sur E par D (f ) = f ′ .
a) Montrer que D est un endomorphisme de E.
b) Déterminer ImD et ker D et montrer qu’ils sont supplémentaires dans
E.
Exercice 5. Soit f l’application définie sur Rn [X] par f (P ) = P − P ′ .
1. Montrer de deux façons différentes que l’application f est un automorphisme
dans Rn [X] .
2. Pour Q dans Rn [X] , trouver P tel que Q = P − P ′
(Indication : on pourra s’intéresser à Q(n+1) ).
Exercice 6. Soient m ∈ R et fm : R2 [X] → R2 [X] qui à P associe
( )
fm (P ) = P (0) + XP (1) + X 2 + 1 P (m) .

1. Vérifier que f est un endomorphisme sur R2 [X].


2. Déterminer suivant m, Imf et ker f.
3. Pour quelles valeurs de m, l’application fm est-elle injective, surjective, bi-
jective ?
Exercice 7. Soient E un espace vectoriel et F et G deux sous espaces vecto-
riels supplémentaires dans E. On appelle la projection sur F parallèlement à
G l’application p de E dans E qui à x = x1 + x2 (x1 ∈ F, x2 ∈ G) associe x1 .
On dit aussi que p est un projecteur.
1. Montrer que p est un endomorphisme de E vérifiant p◦p = p, puis déterminer
ker p et Imp.
2. Soit p un endomorphisme de E vérifiant p ◦ p = p. Montrer que ker p et Imp
sont supplémentaires dans E et que p est la projection sur Imp parallèlement
à ker p.
174 CHAPITRE 9. APPLICATIONS LINÉAIRES

3. Application : On considère les applications p1 et p2 définies sur R3 par

p1 (x, y, z) = (2y, y, y) et p2 (x, y, z) = (x, x, z)

Montrer que p1 et p2 sont des projecteurs et déterminer leurs éléments ca-


ractéristiques.
Exercice 8. Soient E un espace vectoriel et p un endomorphisme de E.
1. Montrer que p est un projecteur si et seulement si idE − p est un projecteur.
2. Comparer les images et les noyaux de p et idE − p.
Exercice 9. Soient E un espace vectoriel et p un projecteur de E. On appelle
symétrie par rapport Imp parallèlement à ker p, l’application s définie sur E
par s(x) = 2p(x) − x.
1. Montrer que s est un endomorphisme involutif de E, c’est-à-dire s ◦ s = idE .
2. Soit s est un endomorphisme involutif de E.
a) Montrer que p = 12 (s + idE ) est un projecteur et que s est la symétrie
par rapport Imp parallèlement à ker p.
b) Montrer que ker (s + idE ) ⊕ ker (s − idE ) = E.
Exercice 10. Soient E un espace vectoriel et f ∈ L(E) tel que f 2 −3f +2Id =
0.
1. Montrer que f est inversible et exprimer son inverse en fonction de f .
2. Etablir que ker(f − Id) ⊕ ker(f − 2Id) = E.
Exercice 11. Soient E un espace vectoriel de dimension finie n et f un
endomorphisme de E.
Montrer l’équivalence : ker f = Imf ⇔ f 2 = 0 et n = 2rg(f ).

Exercice 12. Soient E un espace vectoriel de dimension finie et f ∈ L(E)


tel que rg(f 2 ) = rg(f ).
1. Etablir Imf 2 = Imf et ker f 2 = ker f .
2. Montrer que Imf et ker f sont supplémentaires dans E.
Exercice 13. Soient E un espace vectoriel et f ∈ L(E) tel que il existe p ≥ 2
vérifiant f p ≡ 0 et f p−1 ̸= 0, on dit que f est nilpotente d’indice p. Soit x ∈ E
tel que f p−1 (x) ̸= 0.
1. Montrer que la famille (x, f (x), ..., f p−1 (x)) est libre dans E.
2. Vérifier que {0} ker f ker f 2 ... ker f p = E.
3. Montrer que si E est de dimension n alors p ≤ n.
Chapitre 10

Matrices

10.1 Définitions
10.1.1 Définitions et Notations
Définition 10.1 Soient n et p deux entiers non nuls. On appelle matrice
à coefficients réels (resp. complexes) la donnée de n × p nombres réels (resp.
complexes) notés (aij )1≤i≤n . On représente la matrice sous forme d’un tableau
1≤j≤p
A à n lignes et p colonnes
 
a11 a12 ... a1p
 a21 a22 ... a2p 
 
A =  .. .. .. ..  = (aij )1≤i≤n .
 . . . .  1≤j≤p
an1 an2 ... anp

On dit que aij est le terme général de la matrice A. Le premier indice (ici i)
désigne toujours l’indice de ligne et le second indice (ici j) l’indice de colonne.
On écrit aussi sous forme condensée A = (aij )n,p ou encore A = (aij ) s’il n’y
a aucune ambiguı̈té. Le couple (n, p) s’appelle le format de la matrice et on dit
que A est de type (n, p).

Définition 10.2 Deux matrices A = (aij )n,p et B = (bij )m,q sont éagles si,
et seulement si,
I A et B ont même format : n = m et p = q
et
I ∀ k ∈ {1, ..., n}, ∀ j ∈ {1, ...p} aij = bij .
Notation Soit K un corps commutatif. On désigne par Mn,p (K) l’ensemble
des matrices à coefficients dans K ayant n lignes et p colonnes.

175
176 CHAPITRE 10. MATRICES

Définition 10.3 1. On appelle matrice nulle de Mn,p (K) et on note O, la


matrice à n lignes et p colonnes dont tous les coefficients valent 0.
2. On appelle matrice élémentaire dans Mn,p (K) et on note Ei,j (i et j fixés
1 ≤ i ≤ n, 1 ≤ j ≤ p) la matrice dont tous les coefficients sont nuls, sauf
celui qui se trouve dans la ligne i et la colonne j et qui vaut 1.
3. On appelle matrice ligne une matrice de type (1, p).
4. On appelle matrice colonne une matrice de type (n, 1).
5. On appelle matrice carrée d’ordre n une matrice de type (n, n). L’ensemble
des matrices carrées d’ordre n est noté Mn (K).
 
0 0 0 0
Exemple 10.1 1. E2,3 =  0 0 1 0  dans M3,4 (R).
0 0 0 0
( )
2. A = 5 2 3 est une matrice de type (1, 3).
 
5
3. B =  2  est une matrice de type (3, 1).
3

10.2 Opérations sur les matrices


10.2.1 somme de deux matrices de Mn,p (K)
Définition 10.4 Soit A = (aij ) et B = (bij ) deux éléments de Mn,p (K). On
appelle somme de A et B, la matrice C = (cij ) de format (n, p) dont le terme
général est
cij = aij + bij ∀ i ∈ {1, ..., n}, ∀ j ∈ {1, ..., p}.
On note C = A + B.

Attention ! !
On ne peut additionner que des matrices de même types.

Proposition 10.1 1. + est commutative :

∀ A, B ∈ Mn,p (K), A + B = B + A.

2. + est associative :

∀ A, B, C ∈ Mn,p (K), (A + B) + C = A + (B + C).


10.2. OPÉRATIONS SUR LES MATRICES 177

3. + admet un élément neutre, qui est la matrice nulle :


∀ A ∈ Mn,p (K), A + O = O + A = A.
4. Toute matrice A a un unique symétrique pour l’addition noté (−A) et on a
∀ A ∈ Mn,p (K), A + (−A) = (−A) + (A) = O
avec −A = (−aij ) si A = (aij ).
Preuve . La démonstration de la proposition n’est pas difficile à faire. Mon-
trons par exemple 3. et 4.
3. Posons A = (aij ). Comme la matrice O a pour terme général 0, la matrice
A + O a pour terme général aij + 0 = aij .
Donc les matrices A et A + O, qui ont même format (n, p) et même terme
général sont égales.
4. Si A = (aij ), alors la somme A+(−A) a pour terme général (aij +(−aij )) =
0. Comme les matrices A+(−A) et O ont même format (n, p) et même terme
général, elles sont égales.
Réciproquement, si B = (bij ) est symétrique de A alors on voit que A + B =
O, c’est à dire aij + bij = 0, pour tout i ∈ {1, ..., n} et j ∈ {1, ..., p}. Donc on
a, bij = −aij pour tout i ∈ {1, ..., n} et tout j ∈ {1, ..., p}. Par conséquent,
toute matrice a un unique symétrique.


10.2.2 Mutliplication d’une matrice de Mn,p (K) par un


scalaire
Définition 10.5 Soit A = (aij ) une matrice de Mn,p (K), et soit λ un scalaire
(λ ∈ K). On appelle multiplication de la matrice A par le scalaire λ, la matrice
B = (bij ) de format (n, p) dont le terme général est
∀ i ∈ {1, ..., n}, ∀ j ∈ {1, ..., p} bij = λaij .
On note B = λA.

  
1 2 3 −2 −4 −6
Exemple 10.2 Soit A =  3 2 1  , −2A =  −6 −4 −2 
4 5 6 −8 −10 −12
Proposition 10.2 Pour tout A, B ∈ Mn,p (K), pour tout λ, µ ∈ K, on a
1. λ(A + B) = λA + λB.
2. (λ + µ)A = λA + µA.
3. λ(µA) = (λµ)A = µ(λA).
4. 1.A = A.
178 CHAPITRE 10. MATRICES

10.3 L’espace vectoriel Mn,p(K)


Théorème 10.1 L’ensemble Mn,p (K) est un espace vectoriel de dimension
np.

Preuve . Des propriétés de l’addition et de multiplication par un scalaire


dans l’ensemble des matrices, on en déduit facilement que (Mn,p (K), +, .) est
un espace vectoriel. Montrons que la famille des matrices élémentaires F =
{Ei,j : 1 ≤ i ≤ n et 1 ≤ j ≤ p} est une base de Mn,p (K).
• La famille F est libre : Soit (λij )1≤i≤n des scalaires tels que
1≤j≤p
∑ ∑
λi,j Ei,j = 0.
1≤i≤n 1≤j≤p

On a donc    
λ11 λ12 ... λ1p 0 0 ... 0
 λ21 λ22 ... λ2p   0 0 ... 0 
   
 .. .. .. .. = .... .. .. 
 . . . .   . . . . 
λn1 λn2 ... λnp 0 0 ... 0
et par suite ∀ (i, j) ∈ {1, 2, ..., n} × {1, 2, ..., p} , λij = 0. La famille (Ei,j ) est
donc libre.
• La famille F engendre Mn,p (K) : Soit A = (aij ) ∈ Mn,p (K). On remarque
que
∑n ∑ p
A= aij Ei,j .
i=1 j=1

La famille F engendre donc Mn,p (K).


Ainsi F est une base de Mn,p (K) appelée base canonique. On en déduit que
dim Mn,p (K) = card(F) = np. 

Exemple 10.3 La base canonique de M2 (R) est


{( ) ( ) ( ) ( )}
1 0 0 1 0 0 0 0
B= , , , .
0 0 0 0 1 0 0 1

10.4 Produit de deux matrices


Définition 10.6 : Soient A = (aij ) ∈ Mn,p (K) et B = (bij ) ∈ Mp,q (K). On
appelle produit de A et B et on note C la matrice de type (n, q) dont le terme
10.4. PRODUIT DE DEUX MATRICES 179

général est défini par


p
cij = aik bkj 1 ≤ i ≤ n et 1 ≤ j ≤ q.
k=1

Attention ! !
Le produit de deux matrices n’est pas toujours défini. Le produit AB n’a de
sens qui si le nombre de colonnes de A est égal au nombre de lignes de B.
 
( ) 2 1 0 1
0 2 3
Exemple 10.4 Soient A = et B =  0 1 0 3 . Calculer
0 1 2
1 0 1 1
si possible AB et BA.
Comme A est de type (2, 3) et que B est de type (3, 4), le produit AB est
possible et est de type (2,4) pas contre le produit BA n’existe pas. On peut
disposer de cette manière  
2 1 0 1
 0 1 0 3 
1 0 1 1
( ) ( )
1 2 3 5 3 3 10
=
0 1 2 2 1 2 5
Attention ! !
Le produit matriciel n’est pas commutatif. En effet le produit AB peut avoir un
sens alors que BA n’en a pas (voir l’exemple ci dessus), et même si les produit
AB et BA ont un sens les matrices AB et BA ne sont pas en général égales
comme le montre l’exemple suivant
( ) ( ) ( )
0 1 0 −1 1 0
Exemple 10.5 Si A = et B = alors AB =
( ) 0 0 1 0 0 0
0 0
et BA = .
0 1

Remarque 10.1 1. On peut avoir AB = O sans que A = O ou B = O. Soit


( ) ( )
10 −2 1 0
A= B= .
5 −1 5 0

On a AB = O mais A ̸= O et B ̸= O.
2. On n’a pas le droit de simplifier une égalité matricielle : Si AB = AC, ceci
n’implique pas forcément que B = C.
180 CHAPITRE 10. MATRICES

10.4.1 Propriétés du produit matriciel


Proposition 10.3 Avec les hypothèses que les produits existent on a
1. Le produit matriciel est associatif

A(BC) = (AB)C.

2. Il est distributif par rapport à l’addition

A(B + C) = AB + AC

et
(A + B)C = AC + BC.

3. ∀ λ ∈ K, A(λB) = (λA)B = λ(AB).

Preuve .
1. Si A = (aij )n,p , B = (bij )p,q et C = (cij )q,τ alors la matrice D = BC, a pour
terme général
∑q
D = (dij )p,τ où dij = bik ckj
k=1

et la matrice E = A(BC), a pour terme général


p

p

q
E = (eij )n,τ où eij = aiℓ dℓ,j = aiℓ bℓk ckj .
ℓ=1 l=1 k=1

D’autre part, la matrice F = AB, a pour terme général


p
F = (fik )n,q où fik = aiℓ bℓk
ℓ=1

et la matrice G = (AB)C = F C, a pour terme général


p

p

q
G = (gij )n,τ où gij = fik ck,j = aiℓ bℓk ckj .
k=1 l=1 k=1

Comme on peut permuter deux sommes finies, on en déduit que les matrices
E = A(BC) et G = (AB)C qui ont même format (n, τ ) et même terme
général sont égales.
10.5. TRANSPOSÉE D’UNE MATRICE 181

2. Si A = (aij )n,p , B = (bij )p,q et C = (cij )p,q alors la matrice (B + C) a pour


terme général (bij + cij )p,q . Le produit D = A(B + C), a alors pour format
(n, q) et pour terme général

p
dij = aik (bkj + ckj ).
k=1

D’autre part, les matrices AB et AC ont même format (n, q) et pour terme

p

p
général respectif aik bkj et aik ckj . Donc la matrice E = AB + AC a
k=1 k=1
pour format (n, q) et pour terme

p

p
eij = aik bkj + aik ckj = dij .
k=1 k=1

Comme les matrices D et E ont même format et même terme général on en


déduit l’égalité.
3. Si A = (aij )n,p , B = (bij )p,q et λ ∈ K alors la matrice λB a pour format
(p, q) et pour terme général λbij . Donc la matrice C = A(λB) a pour format
(n, q) et pour terme général

p
cij = aik (λbkj ).
k=1

D’autre
∑p part, la matrice AB a pour format (n, q) et comme terme général
k=1 aik bkj . Donc la matrice D = λ(AB) a pour format (n, q) et pour terme
général ( p )

dij = λ aik bkj = cij .
k=1
Comme C et E ont même format et même terme général, on en déduit
l’égalité.


10.5 Transposée d’une matrice


Définition 10.7 Soit A = (aij )n,p une matrice de Mn,p (K). On appelle trans-
posée de A et on note At la matrice At = (a′ij )p,n de format (p, n) dont le terme
général est
∀ i ∈ {1, ..., p}, ∀ j ∈ {1, ..., n} a′ij = aji .
182 CHAPITRE 10. MATRICES

Proposition 10.4 1. Pour tout A, B ∈ Mn,p (K) et pour tout λ ∈ R on a

(A + B)t = At + B t et (λA)t = λAt .

2. Pour tout A ∈ Mn,p (K), (At )t = A.


3. Pour tout A ∈ Mn,p (K), pour tout B ∈ Mp,q , on a (AB)t = B t At .

Preuve .
1. Si A = (aij )n,p et B = (bij )n,p alors la matrice A + B = (aij + bij )n,p et
donc (A + B)t a pour terme général (aji + bji ). D’autre part la matrice t A
est de terme général (aji ) et la matrice t B est de terme général (bji ), donc
la matrice t A + t B est de terme général (aji + bji ). D’où l’égalité.
2. Si la matrice A = (aij )n,p , la matrice At = (aji )p,n et donc (At )t = (aij )n,p =
A.
3. Soit A = (aij )n,p et B = (bij )p,q alors AB a pour format (n, q) et pour terme

p
∑ p
t
général aik bkj par conséquent C = (AB) = ajk bki . D’autre part les
k=1 k=1
matrices t A et t B ont respectivement pour format (p, n) et (q, p) et donc le
produit D = t B t A est de format (q, n) et pour terme général


p
dij = bki ajk = cij ,
k=1

elles sont donc égales.




10.6 Matrices carrées


Nous allons étudier les matrices de type (n, n) c’est à dire Mn (K).

Définition 10.8 1. Soit A = (aij )n une matrice d’ordre n, les termes aii
constituent la diagonale principale de A.
2. Une matrice A = (aij )n est dite diagonale, si tous ses termes sont nuls, sauf
peut être ceux de la diagonale principale

∀ (i, j) ∈ {1, 2, ..., n}2 , i ̸= j ⇒ aij = 0.


10.6. MATRICES CARRÉES 183

3. La matrice identité d’ordre n, notée In est la matrice diagonale dont tous


les termes diagonaux sont égaux à 1. Dans le cas où il n’y a pas de risque
d’ambiguı̈té sur l’ordre de la matrice, on note plus simplement I.
4. Une matrice A est triangulaire supérieure si c’est une matrice dont tous les
termes en dessous de la diagonale principale sont nuls

∀ (i, j) ∈ {1, 2, ..., n}2 i > j ⇒ aij = 0.

5. Une matrice A est triangulaire inférieure si c’est une matrice dans tous les
termes au-dessus de la diagonale principale sont nuls

∀ (i, j) ∈ {1, 2, ..., n}2 i < j ⇒ aij = 0.

6. Une matrice A est symétrique si elle est égale à sa transposée A = At .


7. Une matrice A est antisymétrique si elle est égale à l’opposée de sa trans-
posée c’est à dire A = −At .
 
1 0 0
Exemple 10.6 Si n = 3, on a I3 =  0 1 0 .
0 0 1

Proposition 10.5 Soit In la matrice identité, on a

∀ A ∈ Mn (K), AIn = In A = A.

On dit que In est l’élement neutre de la multiplication.

Preuve . Soit A = (aij )n et In = (bij )n alors le produit AI = (cij )n avec



n
cij = aik bkj . D’après la définition de In , on a
k=1

{
1 si i = j
∀ (i, j) ∈ {1, 2, ..., n} ,
2
bij =
0 sinon

Donc, cij = aij bjj = aij . Ainsi, AIn = A et on montre de même que In A = A.


Corollaire 10.1 (Mn (K), +, ×) est un anneau.


184 CHAPITRE 10. MATRICES

10.7 Matrices inversibles


Définition 10.9 Soit A une matrice de Mn (K). On dit que A est inversible
s’il existe une matrice B de Mn (K), telle que AB = BA = In .
Dans ce cas, la matrice B est unique et s’appelle l’inverse de A. On note
B = A−1 .

Remarque 10.2 Si B est l’inverse de A, alors B est inversible et a pour


inverse A c’est à dire
B = A−1 ⇔ B −1 = A.

Preuve de l’unicité
Supposons qu’il existe deux matrices B1 et B2 telles que

AB1 = B1 A = In = AB2 = B2 A.

Comme AB1 = In , on a, en multipliant cette égalité à gauche par B2 .

B2 (AB1 ) = B2 In ⇔ (B2 A)B1 = B2

et donc B1 = B2 .
Notation
On note par GLn (K) l’ensemble des matrices carrées inversibles de Mn (K).
Théorème 10.2 Une matrice A ∈ Mn (K) est inversible si, et seulement si,
elle est inversible à droite ou inversible à gauche.
Preuve
√ .
Il est clair que si A est inversible alors elle est inversible à gauche et à
√ droite.
Supposons que A soit inversible à gauche, alors il existe A′ ∈ Mn (K) telle
que A′ A = In . Soit fA l’application définie par

fA : Mn (K) −→ Mn (K)
X 7−→ AX.

fA est un endomorphisme de l’espace Mn (K). D’autre part,

X ∈ ker fA ⇔ AX = O ⇔ A′ AX = O ⇔ X = O.

Ainsi fA est injectif et comme c’est un endomorphisme d’espaces vectoriels


de dimension finie fA est bijective. La matrice In possède donc un antécédent
soit A′′ ∈ Mn (K) telle que AA′′ = In . A est donc inversible à droite (ce qui
implique, on le sait que ses inverses à droite et à gauche sont égaux A′ = A”).
10.8. TRACE D’UNE MATRICE CARÉE 185

Proposition 10.6 Soient A et B deux matrices inversibles de Mn (K) alors


le produit AB est inversible et on a

(AB)−1 = B −1 A−1 .

Preuve . Calculons (B −1 A−1 )(AB). On a

(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = In .

On montre de même que (AB)(B −1 A−1 ) = In . On en déduit donc que AB est


inversible et est d’inverse B −1 A−1 . 

Proposition 10.7 Si A est une matrice carrée inversible, alors At est inver-
sible et (At )−1 = (A−1 )t .

Preuve . En transposant l’égalité AA−1 = A−1 A = In , on obtient (A−1 )t (A)t =


A(A−1 )t = In . On en déduit ainsi, que At est inversible et que (A−1 )t est son
inverse. 

Remarque 10.3 Si A est inversible et si AB = AC (resp. BA = CA) alors


B = C.

10.8 Trace d’une matrice carée


Définition 10.10 Soit A = (aij ) ∈ Mn (K). On appelle trace de A la somme
de ses coefficients diagonaux.


n
tr(A) = aii .
i=1

Proposition 10.8 L’application (tr) est une forme linéaire de Mn (K) vérifiant

tr(AB) = tr(BA).
186 CHAPITRE 10. MATRICES

Preuve . Soient A = (aij ) et B = (bij ) deux matrices de Mn (K) et α ∈ R


n
tr(αA + B) = (αaii + bii )
i=1

n ∑
n
= α aii + bii
i=1 i=1
= αtr(A) + tr(B).

De plus


n ∑
n
tr(AB) = aij bji
i=1 j=1
∑n ∑ n
= bji aij
j=1 i=1
= tr(BA).

10.9 Matrice d’une application linéaire


Dans tout ce paragraphe, E et F sont deux espaces vectoriels sur K de di-
mensions respectives p et n , B = {e1 , e2 , .., ep } est une base de E et C =
{e′1 , e′2 , ..., e′n } est une base de F.

10.9.1 Représentation matricielle d’une famille de vec-


teurs
On peut représenter un vecteur x de E par la matrice colonne notée MB (x),
formée par ses coordonnées dans la base B. Ainsi
 
ξ1

p  ξ2 
 
Si x = ξi ei , alors MB (x) =  .. 
i=1
 . 
ξp
10.9. MATRICE D’UNE APPLICATION LINÉAIRE 187

Plus généralement, on peut représenter une famille de n vecteurs de E, (n ∈


N∗ ), par la matrice de type (p, n) dont la jème colonne représente les coor-
données du jème vecteur de la famille dans la base B.
 
ξ11 ξ12 ... ξ1n
∑p  ξ21 ξ22 ... ξ2n 
 
Si xj = ξij ei , alors MB (x1 , ..., xp ) =  .. .. .. .. 
i=1
 . . . . 
ξp1 ξp2 ... ξpn

10.9.2 Représentation matricielle d’une application linéaire


Définition 10.11 Soit f ∈ L(E, F ). Pour tout j ∈ {1, ..., p}, on note {a1j , a2j , ..., anj }
les coordonnées du vecteur f (ej ) dans la base C. Ainsi,


n
∀ j ∈ {1, ..., p}, f (ej ) = aij e′i .
i=1

On appelle matrice représentant f dans le système de bases (B, C) la matrice


 
a11 a12 ... a1p
 a21 a22 ... a2p 
 
MBC (f ) =  .. .. .. .. 
 . . . . 
an1 an2 ... anp

Remarque 10.4 1. Cette matrice à n lignes et p colonnes.


2. La jème colonne de la matrice est formée des composantes du vecteur f (ej )
dans la base C.
3. Si E = F et B = C, on note MBB (f ) = MB (f ).

Exemple 10.7 1. Soient O l’application nulle et On,p la matrice nulle. Alors


MBC (O) = On,p .
2. Soit idE l’application linéaire identité de E dans E et In la matrice identité
de Mn (K). Alors
MBB (idE ) = MB (idE ) = In .
Attention ! la matrice dépend des bases choisies dans E et F . En effet, Soit

f : R3 [X] −→ R2 [X]
P 7−→ P ′
188 CHAPITRE 10. MATRICES

et soit B la base canonique de R3 [X]. la matrice de f est


 
0 1 0 0
MB (f ) =  0 0 2 0 
0 0 0 3
Cependant si on munit R3 [X] de sa base canonique et R2 [X] de la base C =
{1, X − 1, (X − 1)2 }, alors la matrice de f est
 
0 1 2 3
MBC (f ) =  0 0 2 6  .
0 0 0 3
En conclusion, comme une application linéaire f est complètement déterminée,
si on connait l’image de chaque vecteur de la base de l’ensemble de départ, alors
L(E, F ) −
7 → Mn,p (K)
f − 7 → MBC (f )
est bijective. On peut exploiter dans les deux sens cette correspondance entre
matrices et application linéaires. Plus précisément tout problème portant sur
des applications linéaires en dimension finie peut avoir une traduction ma-
tricielle et réciproquement tout problème portant sur des matrices peut être
interprété en terme d’applications linéaires.

10.9.3 Expression matricielle de l’application linéaire


Comment utiliser la matrice d’une application linéaire pour calculer l’image
d’un vecteur donné ?
Soit f ∈ L(E, F ). Soit x un vecteur de E représenté par
 
ξ1
 ξ2 
 
X = MB (x) =  .. 
 . 
ξp

p
Cela signifie que x = ξj ej , et donc
j=1


p

p
∑n
f (x) = ξj f (ej ) = ξj ( aij e′i )
j=1 j=1 i=1
∑n ∑p
= ( aij ξj )e′i
i=1 j=1
10.9. MATRICE D’UNE APPLICATION LINÉAIRE 189

La matrice représentant le vecteur f (x) dans la base C est


 
y1
 y2  ∑p
 
Y = MC (f (x)) =  ..  où yi = aij ξj .
 .  j=1
yn

On reconnait la définition d’un produit de matrices

y = f (x) ⇔ Y = AX.

10.9.4 Liens avec le calcul matriciel


10.9.4.1 Addition de matrices et multiplication par un scalaire
Soient f et g deux éléments de L(E, F ) représentés respectivement par les
matrices A et B relativement aux bases B et C.
Proposition 10.9 1. MBC (f + g) = MBC (f ) + MBC (g)
2. MBC (λf ) = λMBC (f ).
Preuve .
1. On a, pour tout x ∈ E, (f + g)(x) = f (x) + g(x), soit matriciellement

Y = AX + BX = (A + B)X.

La matrice représentant f + g dans les bases B et C étant unique, c’est


nécessairement A + B.
2. On a, (λf )(x) = λf (x), soit matriciellement, Y = λA. La matrice représentant
λf dans les bases B et C étant unique c’est nécessairment λA.


Remarque 10.5 Ces deux relations expriment que l’application

L(E, F ) −→ Mn,p (K)


f 7−→ MBC (f )

est linéaire comme elle est bijective, c’est un isomorphisme d’espaces vectoriels.
On retrouve, en particulier l’égalité des dimensions

dim L(E, F ) = dim Mn,p (K) = np.


190 CHAPITRE 10. MATRICES

10.9.5 Matrice de la composée de deux applications linéaires


Soient E un K-espace vectoriel de dimension p ≥ 1, muni d’une base B,
F un K-espace vectoriel de dimension n ≥ 1, muni d’une base C,
G un K-espace vectoriel de dimension q ≥ 1, muni d’une base C ′ .
Soient f ∈ L(E, F ) et A = MBC (f ), g ∈ L(F, G) et B = MCC ′ (g).
Soit x ∈ E, tel que MB (x) = X. Alors
MC (f (x)) = Y = AX et MC ′ (g ◦ f )(x) = Z = BY = BAX.
La matrice représentative de g◦f dans le système de bases (B, C ′ ) étant unique,
c’est nécessairement BA.
MBC ′ (g ◦ f ) = MCC ′ (g) × MBC (f ).

Remarque 10.6 Soit f ∈ L(E), MB (f m ) = (MB (f ))m où f m = f ◦ f... ◦ f ,


m fois.

10.9.6 Matrice d’un isomorphisme


Soit f un isomorphiusme de E dans F (qui est possible quand dimE = dimF ).
On a f ◦ f −1 = idF et f −1 ◦ f = idE . Ainsi,
MBC (f ) × MCB (f −1 ) = In et MCB (f −1 )MBC (f ) = In .
Par suite
(MBC (f ))−1 = MCB (f −1 ).

Remarque 10.7 Dans le cas particulier ou E = F et B = C, on obtient pour


toute application linéaire bijective
(MB (f ))−1 = MB (f −1 ).

10.10 Rang d’une matrice


Soient A ∈ Mn,p (K) et {C1 , C2 , ..., Cp } les colonnes de la matrice A.
Définition 10.12 On appelle rang de A et on note rg(A), le rang de la fa-
mille de vecteurs {C1 , C2 , ..., Cp }. Ainsi
rg(A) = rg{C1 , C2 , ..., Cp }.
C’est donc le rang de l’application linéaire associée à A.
10.10. RANG D’UNE MATRICE 191

Remarque 10.8 Comme A est une matrice de type (n, p), on en déduit que
rg(A) ≤ inf(n, p).

Théorème 10.3 Une matrice A ∈ Mn (K) est inversible si, et seulement si


le rang de A est égal à n.

Preuve . Soit f ∈ L(E), (dim E = n), l’unique application linéaire dont la


matrice soit égale à A. On a

A inversible ⇔ f est bijective ⇔ dim Imf = n ⇔ rg(A) = n.

Exercice 10.1 Soit

f : R −→ R3
P 7−→ (P (0), P (1), P (2))

1. Déterminer la matrice A de f .
2. Montrer que A est inversible et calculer A−1 .

Solution
Comme f (1) = (1, 1, 1), f (X) = (0, 1, 2) et que f (X 2 ) = (0, 1, 4), on en déduit
que la matrice A de f relativement au système de bases canoniques est
 
1 0 0
A= 1 1 1 
1 2 4

Calculons le rang de A
 
1 0 0
rg(A) = rg  1 1 0  = 3
1 2 2

Ainsi, A est inversible et on peut calculer A−1 . Soit P = x + yX + zX 2 .


   
x a
f (P ) = (a, b, c) ⇔ A  y  =  b  .
z c
192 CHAPITRE 10. MATRICES

Ceci nous permet d’écrire le système suivant


 
 x=a  x=a
x+y+z =b ⇔ y+z =b−a
 
x + 2y + 4z = c 2y + 4z = c − a

Ou encore 
 x=a
y = − 32 a + 2b − 21 c

z = 12 a − b + 12 c
On en déduit que    
x a
 y  = A−1  b  .
z c
Ainsi,  
1 0 0
A−1 =  − 32 2 − 12 
1
2
−1 1
2

10.11 Changement de bases


10.11.1 Changement de base sur un vecteur
Soit E un espace vectoriel de dimension n ≥ 1, muni de deux bases B =
{e1 , e2 , ..., en } et B ′ = {e′1 , e′2 , ..., e′n }. Soit x un vecteur de E. On peut représenter
x dans chacune des bases par une matrice colonne. Si

n ∑
n
x= ξi ei = ξi′ e′i ,
i=1 i=1

alors    
ξ1 ξ1′
 ξ2   ξ2′ 
   
MB (x) = X =  ..  et MB′ (x) =  ..  = X′
 .   . 
ξn ξn′

Définition 10.13 On appelle matrice de passage de B à B′ la matrice PBB′


dont les colonnes sont les vecteurs de la base B ′ exprimées dans la base B.

Remarque 10.9 On a clairement PBB = In .


10.11. CHANGEMENT DE BASES 193

Exemple 10.8 On pose e′1 = 2e1 +5e2 , e′2 = e1 +7e2 . Soit B la base canonique
de R2 et B′ = {e′1 , e′2 }. On a
( )
2 1
PBB′ = .
5 7

Proposition 10.10 Si B et B ′ sont deux bases de E, alors

PBB′ = MB′ B (idE )

Preuve . C’est la définition même de la matrice de passage et de MB ′ B (idE ).




Proposition 10.11 Si B et B ′ sont deux bases de E, alors la matrice de


passage de B à B′ est inversible et son inverse est la matrice de passage de B′
à B. On a donc
(PBB′ )−1 = PB′ B .

Preuve . D’après la proposition précèdente, PBB′ est la matrice représentant


l’application idE dans le système de bases (B ′ , B).
Comme cette application linéaire est bijective, on en déduit que PBB′ est in-
versible et que son inverse est la matrice de (idE )−1 = idE dans le système de
bases (B, B′ ) c’est à dire PB′ B . Ainsi,

(PBB′ )−1 = (MB′ B (idE ))−1 = MBB′ (idE ) = PB′ B .

Théorème 10.4 Soit x un élément de E, XB et XB′ ′ les matrices colonnes de


x respectivement dans les bases B et B ′ . Alors

XB = PBB′ XB′ ′ .

Exemple 10.9 Attention à l’ordre ! !


Soit dans l’espace vectoriel R2 [X] la base B = {1, X, X 2 } et B ′ = {1, X −
1, (X − 1)2 }.
Soit P = 1 − X + X 2 . Cherchons les coordonnées de P dans la base B′ .
La matrice de passage de B à B′ est
   
1 −1 1 1 1 1
PBB′ =  0 1 −2  et PB′ B =  0 1 2 
0 0 1 0 0 1
194 CHAPITRE 10. MATRICES

Ainsi en notant (a, b, c) les coordonnées de P dans la base B′ , on aura


      
a 1 1 1 1 1
 b  =  0 1 2   −1  =  1 
c 0 0 1 1 1
et donc P = 1 + (X − 1) + (X − 1)2 .

10.11.2 Changement de bases sur une application linéaire


Soient E un espace vectoriel de dimension n, et B, B′ deux bases de E et P la
matrice de passage de B à B ′ .
Soient F un espace vectoriel de dimension p, C, C ′ deux bases de F et Q la
matrice de passage de C à C ′ .
Théorème 10.5 Si f est une application linéaire de E dans F représentée
par la matrice A dans le système de bases (B, C) et par A′ dans le système de
bases (B′ , C ′ ), on a la relation
A′ = Q−1 AP.
Preuve . Il suffit d’écrire que
AP = MBC (f )PBB′ = MBC (f )MB′ B (idE )
= MB′ C (f ◦ idE ) = MB′ C (f )
De plus Q−1 = PC ′ C = MCC ′ (idE ). Par suite
Q−1 AP = MCC ′ (idE )MB′ C (f ) = MB′ C ′ (f ) = A′ .


Définition 10.14 Deux matrices sont équivalentes si, et seulement si, elles
représentent une même application linéaire dans des bases différentes.
Remarque 10.10 On vérifie que l’équivalence des matrices est une relation
d’équivalence dans Mp,n (K).
Proposition 10.12 Deux matrices équivalentes ont même rang.
Preuve . Soit A et B deux matrices de Mp,n (K), f et g les applications
linéaires qui leurs sont canoniquement associés. Si A et B sont équivalentes,
elles reprèsentent par ailleurs une même application linéaire u dans un autre
système de bases on a

rg f = rgu = rgA et rg g = rgu = rgB


et donc rg(A) = rg(B). 
10.11. CHANGEMENT DE BASES 195

10.11.3 Changement de bases sur un endomorphisme


Soient E un K-espace vectoriel muni de deux bases B et B ′ et P la matrice de
passage de B à B′ . Soit f un endomorphisme de E (en choisissant à chaque
fois la même base pour E en tant qu’espace de départ et en tant qu’espace
d’arrivée)
A = MB (f ) et A′ = MB′ (f ).
On peut reprendre le même calcul que pour une application linéaire quelconque,
en remarquant que Q = P . D’où

A′ = MB′ (f ) = PB′ B MB (f )PBB′

Soit alors
A′ = P −1 AP.

Définition 10.15 Deux matrices A et A′ de Mn (K), telles qu’il existe P ∈


GLn (K) (P inversible) vérifiant A′ = P −1 AP , sont dites semblables.
On vient de voir que, si f est un endomorphisme de E et si B et B′ sont deux
bases de E alors MB (f ) et MB′ (f ) sont des matrices semblables.
Attention ! !
Il ne faut pas confondre les notions de matrices équivalentes et matrices sem-
blables. Tout d’abord la notion de matrices semblables ne concerne que les
matrices carrées. En plus il est clair que deux matrices carrés semblables
sont équivalentes la réciproque est fausse : deux matrices carrées équivalentes
représentent un même endomorphisme d’un espace vectoriel E dans des systèmes
de bases où l’on ne choisit pas nécessairement la même base pour décrire l’es-
pace de départ et d’arrivée.
Remarque 10.11 1. Si A′ = P −1 AP. alors A′n = P −1 An P , n ∈ N.
2. Deux matrices carrées semblables ont la même trace en effet si A et B sont
semblables, il existe P ∈ GLn (K) tel que B = P −1 AP . On a alors

tr(B) = tr(P −1 AP ) = tr(AP P −1 ) = tr(A).


( ) ( )
1 0 0 1
Exemple 10.10 Soit A = et B = .
0 0 0 0
A et B sont équivalentes (elles représentent une même application linéaire
dans des bases différentes) et elles ne sont pas semblables. En effet, supposons
qu’elles soient semblables, alors A = P −1 BP et donc A2 = P −1 B 2 P . Or un
calcul direct donne A2 = A et B 2 = O.
196 CHAPITRE 10. MATRICES

Exercice 10.2 Soit C3 muni de sa base canonique B = {e1 , e2 , e3 } et soit


B = (e′1 , e′2 , e′3 ) tels que e′1 = (1, 1, 1), e′2 = (1, j, j 2 ) et e′3 = (1, j 2 , j).
1. Montrer que B′ est une base de C3 .
Soit f : C3 → C3 l’endomorphisme défini pour a, b, c ∈ R par :
f (e1 ) = ae1 + ce2 + be3 ,
f (e2 ) = be1 + ae2 + ce3
f (e3 ) = ce1 + be2 + ae3
2. Ecrire la matrice M de f dans la base B.
3. Déterminer la matrice M ′ de f dans la base B ′ . En déduire M n pour n ≥ 0.

Solution
1. Comme dim R3 = card(e′1 , e′2 , e′3 ) = 3. Montrer que B ′ est une base de R3
revient à montrer que B′ est une famille libre de R3 . Pour cela cherchons le
rang de (e′1 , e′2 , e′3 ).
 
1 0 0
rg(e′1 , e′2 , e′3 ) = rg  1 j − 1 j 2 − 1 
1 j2 − 1 j − 1
 
1 0 0
= rg  1 j − 1 0 
1 j − 1 −3(j − j )
2 2

= 3.
Il s’ensuit que B ′ = {e′1 , e′2 , e′3 } est une base de R3 .
 
a b c
2. La matrice M de f dans la base B est M =  c a b  .
b a a
Déterminons la matrice M ′ de f dans la base B ′ .
1ère Méthode    
1 1
On a f (e′1 ) = M  1  = (a + b + c)e′1 , f (e′2 ) = M  j  = (a + bj + cj 2 )e′2
 1 j2
1

et f (e3 ) = M  j 2  = (a + bj 2 + cj)e′3 .
j
On a donc
 
a+b+c 0 0
M (f, B ′ ) = M ′ =  0 a + bj + cj 2 0 
2
0 0 a + bj + cj
10.12. EXERCICES 197

2ème Méthode
On a
M (f, B ′ ) = PB′ B M(f,B) PBB′
 
1 0 0
avec PBB′ = P =  1 j j 2  . Cherchons P −1 ?
1 j2 j

P X = Y ⇔ X = P −1 Y
   
x a
Soit X =  y  et Y =  b  . On a
z c

 x+y+z =a
PX = Y ⇔ 2
x + jy + j z = b

x + j 2 y + jz = c

et donc  a+b+c

 x=


3

y= a
+ b
+ c(− 3j1 − 13 )


3 3j



z= a
3
− 1
3j
(1 + j)b + 1
3j
c
et par suite
 1 1 1 
3 3 3
 
 
−1
= − 3j1 − .
1 1 1
P  3 3j 3 
 
1
3
− 13 − 1
3j
1
3j

et en faisant le calcul de P −1 M P on retrouve la matrice M ′ .

10.12 Exercices
Exercice 1. Calculer lorsqu’ils sont définis les produits AB et BA dans cha-
cun des cas suivants
 
0 2 1 ( )
2 0 1
1. A =  1 1 0 , B = .
−1 1 2
−1 −2 −1
198 CHAPITRE 10. MATRICES
 
1 2 ( )
−1 1 0 1
2. A =  1 1  , B = .
2 1 0 0
0 3
Exercice 2.
1. Pour n ≥ 2, déterminer le reste de la division euclidienne de X n par X 2 −
3X + 2.
 
0 1 −1
2. Soit A =  −1 2 −1  . Déduire de la question précédente la valeur
1 −1 2
de An , n ≥ 2.
 
0 1 1
Exercice 3. Soit A =  1 0 1 
1 1 0
1. Montrer que A3 − 3A − 2I = O.
2. En déduire que A est inversible et calculer A−1 .
3. Calculer A6 − 3A − 6A − 4I.
4. Calculer An , n ∈ N.
Exercice 4. Soit (an ) , (bn ) et (cn ) trois suites réelles telles que a0 = 1, b0 = 2
et c0 = 7 et vérifient la relation de réccurence

 an+1 = 3an + bn
bn+1 = 3bn + cn

Cn+1 = 3cn

On souhaite expliciter an , bn et cn uniquement en fonction de n.


 
an
1. On considère le vecteur colonne Xn =  bn  .
cn
Trouver une matrice A telle que Xn+1 = AXn . En déduire que Xn = An X0 .
 
0 1 0
2. Soit N =  0 0 1  .
0 0 0
a) Calculer N 2 , N 3 puis N p pour p ≥ 3.
b) Montrer que

n(n − 1) 2
An = 3n I + 3n−1 nN + 3n−2 N .
2
En déduire an , bn et cn en fonction de n.
10.12. EXERCICES 199

Exercice 5. Soit E le sous-ensemble de M3 (R) défini par


   
 a 0 c 
E = M (a, b, c) =  0 b 0  , a, b, c ∈ R
 
c 0 a
Montrer que E est un sous-espace vectoriel de M3 (R) . Calculer dim E.
Exercice 6. Déterminer la matrice relative aux bases canoniques des applica-
tions lineaires suivantes
1. f : R3 → R2 , (x, y, z) 7→ (x + y, y − 2x + z).
2. f : R3 → R3 , (x, y, z) 7→ (y + z, x − z, y + z).
3. f : R3 [X] → R3 [X] , P 7→ P (X + 1).
4. f : R3 [X] → R4 , P 7→ (P (1), P (2), P (3), P (4)).
Exercice 7.
Soit u l’endomorphisme de R3 dont la matrice dans la base canonique (i, j, k)
de R3 est  
2 1 0
M =  −3 −1 1 
1 0 −1
1.Déterminer u(2i − 3j + 5k).
2.Déterminer ker u et Imu.
3.Calculer M 2 et M 3 .
4.Déterminer ker u2 et Imu2 .
5.Calculer (I − M )(I + M + M 2 ) et en déduire que I − M est inversible.
Préciser (I − M )−1 .
Exercice 8. E l’espace vectoriel des fonctions réelles de variables réelles en-
gendré par l’ensemble
S = {1, x, exp x, x exp x} .
1. Montrer que S est une base de E.
Soit f l’application définie sur E par f (g) = g ′ .
2. Montrer que f est un endomorphisme de E.
3. Donner la matrice de f par rapport à S.
4. Monter que  
0 0 0 0
 0 0 0 0 
Mn =  
 0 0 1 n  , pour n ≥ 2.
0 0 0 1
200 CHAPITRE 10. MATRICES

Exercice 9. Soit f : R3 [X] → R3 [X] , l’application qui à tout polynôme P


associe le reste de la division de P par X 2 − 1.
1. Montrer que f est lineaire et donner la matrice de f dans la base
{ }
B = 1, X − 1, X 2 − 1, (X 2 − 1)(X + 1) .

2. Déterminer l’image et le noyau de f et montrer que Kerf ⊕ Imf = E.


( ) ( )
a 1 1 α
Exercice 10. On pose A = et B = , a, α ∈ R
0 1 1 1
1. Montrer que l’application u : M2 (R) → M2 (R) , X 7→ AXB est lineaire.
2. Donner la matrice de l’application linéaire u dans la base canonique de
M2 (R) .
3. Determiner suivant a et α le noyau et le rang de u.
Exercice 11. Soit A la matrice définie par
 
1 0 1
A =  0 −1 1 
1 0 1

associée a un endomorphisme f de R3 par rapport à la base canonique B.


1. Déterminer ker(f − αidR3 ).
2. Déduire l’existence de trois vecteurs w1 , w2 , w3 de R3 tels que f (w1 ) = 0,
f (w2 ) = −w2 et f (w3 ) = 2w3 .
3. Montrer que B ′ = {w1 , w2 , w3 } est une base de R3 .
4. Donner la matrice C de f dans la base B ′ .
5. Calculer C n , n ∈ N.
Exercice 12. Soit f un endomorphisme de R3 dont la matrice par rapport à
la base canonique est  
2 1 1
A= 1 2 1 
1 1 2
1. Déterminer les sous espaces suivants
{ }
E1 = u ∈ R3 , f (u) = u
et { }
E2 = u ∈ R3 , f (u) = 4u .
10.12. EXERCICES 201

2. Montrer que R3 = E1 ⊕ E2 .
3. Soit v1 = (1, 0, −1), v2 = (0, 1, −1) et v3 = (1, 1, 1).
a) Montrer que B ′ = (v1 , v2 , v3 ) est une base de R3 .
b) Soit P la matrice de passage de B à B ′ . Montrer qu’il existe une matrice
D diagonale telle que AP = P D.
c) Calculer An , pour n ∈ N.
Exercice 13. On munit R3 de sa base canonique et soit f ∈ L (R3 ) définie
par f (e1 ) = −e2 − 2e3 , f (e2 ) = −e1 + e2 − e3 et f (e3 ) = 2e1 + e2 + 4e3 .
1. Ecrire la matrice A de f relativement à la base B = (e1 , e2 , e3 )
2. Déterminer une base de chacun des sous espaces ker(f − id) et ker(f − 2id).
3. Soient e′1 = (1, 1, 1), e′2 = (1, 0, 1) et e′3 = (0, 1, 1).
a) Montrer que B ′ = (e′1 , e′2 , e′3 ) est une base de R3 .
b) Donner la matrice de passage de la base B à la base B ′ .
c) Ecrire la matrice T de f relativement à la base B ′ .
4. Calculer T n , pour n ∈ Z et en déduire An pour n ∈ Z.
Exercice 14. Un endomophisme f ∈ L(E) est dit nilpotent s’il existe p ∈ N
tel que f p = 0, dans ce cas l’indice de f est le plus petit p tel que f p = 0.
On suppose que f est un endomorphisme nilpotent d’indice p.
1. Soit u ∈ E er u ∈
/ ker f p−1 . Montrer que (u, f (u), f 2 (u), f 3 (u), ..., f p−1 (u))
est libre.
2. Montrer que si dim E = n alors f n = 0.
On suppose dans la suite que si f est un endomorphisme nilpotent alors
idE + f est un endomorphisme inversible. Déterminer dans ce cas l’inverse
de idE + f.
3. Soit f un endomorphisme de R3 nilpotent d’indice 2. Montrer qu’il existe
une base de R3 dans laquelle
 
0 0 0
la matrice de f s’écrit  1 0 0 
0 0 0
202 CHAPITRE 10. MATRICES
Chapitre 11

Déterminants et systèmes
linéaires

11.1 Déterminants
11.1.1 Applications multilinéaires
Définition 11.1 Soient E et F deux K-espaces vectoriels et m un entier
naturel. Soit
f : E m −→ F
(x1 , x2 , ..., xm ) 7−→ f (x1 , x2 , ..., xm )
une application. f est dite m-linéaire si elle linéaire par rapport à chacune des
variables c’est à dire, ∀ i ∈ {1, 2, ..., m}, l’application xi → f (x1 , x2 , ..., xi , ...xm )
est linéaire.
Exemple 11.1 1. Pour m = 1, la notion d’application 1-linéaire coincide avec
celle de l’application linéaire.
2. L’application nulle est m-linéaire.
3. Le produit scalaire canonique sur R2 ,
R2 × R2 −→ R
((x1 , x2 ) , (y1 , y2 )) 7−→ x1 y1 + x2 y2
est une forme 2-linéaire (on dit plutôt bilinéaire).
4. Rappelons que si u = (x1 , x2 , x3 ), v = (y1 , y2 , y3 ) alors le produit vectoriel de
u et v noté u ∧ v est défini par
u ∧ v = (x2 y3 − x3 y2 , x3 y1− x1 y3 , x1 y2 − x2 y1 ).
Le produit vectoriel sur R3 est une application bilinéaire

203
204 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

5. Soit f l’application définie par

f : Mp,q (K) × Mq,r (K) −


7 → Mp,r (K)
(A, B) − 7 → AB

f est bilinéaire.

Remarque 11.1 Soit f : E m → F une application m-linéaire alors

f (α1 x1 , α2 x2 , ..., αm xm ) = α1 α2 ...αm f (x1 , x2 , ..., xm )

Définition 11.2 Une application m-linéaire f : E m → F est dite alternée


si, et seulement si, pour tout couple (i, j) de {1, 2, ..., m}2 tel que i ̸= j et pour
tout (x1 , x2 , ..., xm ) de E m , on a

xi = xj ⇒ f (x1 , x2 , ..., xm ) = 0.

Exemple 11.2 1. L’application

f : R3 × R3 −→ R3
(u, v) 7−→ u ∧ v

est alternée car f (u, u) = 0.


2. Le produit scalaire canonique sur Rm est une forme bilinéaire non alternée.

Proposition 11.1 Soit f : E m → F une application m-linéaire alternée.


Alors
1. Si on échange deux des m vecteurs x1 , x2 , ..., xm alors f (x1 , x2 , ..., xm ) change
de signe.
2. Si σ ∈ Sm (l’ensemble de permutations de {1, ..., m}) alors,

f (xσ(1) , xσ(2) , ..., xσ(m) ) = ε(σ)f (x1 , x2 , ..., xm ).

3. Si {x1 , x2 , ..., xm } est une famille liée dans E alors f (x1 , x2 , ..., xm ) = 0.

Preuve .
1. Soit i < j comme f est alternée, on a

f (x1 , x2 , ..., xi + xj , xi+1 , ..., xj + xi , xj+1 , ..., xm ) = 0

Par suite
11.1. DÉTERMINANTS 205

f (x1 , x2 , .., xi , xi+1 , .., xi , .., xm ) + f (x1 , .., xj , xi+1, .., xi , ..., xm )

+f (x1, x2 , .., xj , xi+1 , .., xi, .., xm ) + f (x1, x2 .., xj , xi+1 , .., xj , .., xm ) = 0.

D’où
f (x1 , ..., xj , ..., xi , ..., xm ) = −f (x1 ..., xi , ..., xj , ..., xm )

2. I Cas d’une transposition Soit (i, j) ∈ {1, 2, ..., m}2 tel que i < j,
notons τij la transposition qui échange i et j et laisse les autres éléments
de {1, 2, ..., m} fixés. Comme

f (x1 , ..., xj , ..., xi , ..., xm ) = −f (x1 ..., xi , ..., xj , ..., xm )

on en déduit que

f (xτij (1) , xτij (2) , ..., xτij (m) ) = ε(τij ) f (x1 , x2 , ..., xm ).

I Cas général Soit σ ∈ Sm , on sait que σ est décomposable en un produit


de transpositions. Il existe donc N ∈ N∗ et des transpositions τ1 , τ2 , ..., τN
telles que σ = τ1 ◦ τ2 ◦ ... ◦ τN .
De plus, ε (σ) = (−1)N . En appliquant de façon itérée le résultat, on
obtient

f (xσ(1) , xσ(2) , ...xσ(m) ) = −f (xτ2 ◦...◦τN (1) , xτ2 ◦...◦τN (2) , ...xτ2 ◦...◦τN (m) )
.
= ..
= (−1)N f (x1 , x2 , ..., xm ) = ε(σ)f (x1 , x2 , ..., xm ).

3. Si {x1 , x2 , ..., xm } est une famille liée alors l’un au moins des x1 , x2 , ..., xm
s’exprime donc comme combinaison linéaire des autres.
∑m
Supposons par exemple que x1 = ai xi
i=2
Ainsi

m
f (x1 , x2 , ..., xm ) = ai f (xi , x2 , ..., xm ) = 0.
i=2


206 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

11.1.2 Déterminant d’une application m-linéaire


Soient f : E m → K une application m-linéaire alternée et {e1 , e2 , .., em } une
base de E.
Cas où m = 2 Dans ce cas E est un K-espace vectoriel de dimension 2, muni
d’une base {e1 , e2 } et f est une forme bilinéaire alternée sur E. Soient x et
y deux vecteurs de E. Posons x = x1 e1 + x2 e2 et y = y1 e1 + y2 e2 , on aura
f (x, y) = f (x1 e1 + x2 e2 , y1 e1 + y2 e2 )
= x1 y1 f (e1 , e1 ) + x1 y2 f (e1 , e2 ) + x2 y1 f (e2 , e1 ) + x2 y2 f (e2 , e2 )
= (x1 y2 − x2 y1 )f (e1 , e2 )
f est donc déterminée par la valeur qu’elle prend sur la base {e1 , e2 }. En
particulier si f (e1 , e2 ) = 1, f (x, y) = x1 y2 − x2 y1 . Ainsi

f (x, y) = ε(σ)xσ(1) yσ(2) .
σ∈S2

Cette expression des coordonnées de x et y est appelée déterminant de la


famille {x, y} dans la base {e1 , e2 }.
Cas où m = 3. Soit {e1 , e2 , e3 } une base de E, et x, y et z des vecteurs de E.
Posons x = x1 e1 +x2 e2 +x3 e3 , y = y1 e1 +y2 e2 +y3 e3 et z = z1 e1 +z2 e2 +z3 e3 .
On a
f (x, y, z) = x1 y2 z3 f (e1 , e2 , e3 ) + x1 y3 z2 f (e1 , e3 , e2 )
+ x2 y1 z3 f (e2 , e1 , e3 ) + x2 y3 z1 f (e2 , e3 , e1 )
+ x3 y1 z2 f (e3 , e1 , e2 ) + x3 y2 z1 f (e3 , e2 , e1 ).
Ainsi,
f (x, y, z) = (x1 y2 z3 − x1 y3 z2 − x2 y1 z3 + x2 y3 z1
+ x3 y1 z2 − x3 y2 z1 )f (e1 , e2 , e3 )

= ( ε(σ)xσ(1) yσ(2) zσ(3) )f (e1 , e2 , e3 ).
σ∈S3

De la même manière si on prend f (e1 , e2 , e3 ) = 1,



f (x, y, z) = ε(σ)xσ(1) yσ(2) zσ(3) .
σ∈S3


p
Plus généralement, si xi = aij ej alors
j=1

f (x1 , x2 , ..., xm ) = ( ε(σ)a1σ(1) ...amσ(m) )f (e1 , e2 ..., em )
σ∈Sm
11.1. DÉTERMINANTS 207

Ceci nous permet d’énoncer le résultat suivant

Théorème 11.1 L’ensemble ∧m (E) des formes m-linéaires alternées sur un


K-espace vectoriel de dimension m (m ≥ 1) est un K-espace vectoriel de di-
mension 1.

Définition 11.3 Pour toute base B = {e1 , e2 , ..., em } de E, on note detB :


E m → K l’application définie par, pour tout (x1 , x2 , ..., xm ) de E m ,

det(x1 , x2 , ..., xm ) = ε(σ)a1σ(1) a2σ(2) ...amσ(m)
B
σ∈Sm

où, pour chaque j ∈ {1, ..., m}, (aij )1≤i,j≤m sont les composantes de xi dans la
∑m
base B .(xi = aij ej ).
j=1
L’élément detB (x1 , x2 , ...xm ) est appelé le déterminant de (x1 , x2 , ..., xm ) dans
la base B.
Pour toute base B de E, (detB ) est une base de ∧m (E).

Remarque 11.2 1. Si B = {e1 , e2 , ..., em } est une base de E alors

det B = 1.
B

2. Si (x1 , x2 , ..., xm ) ∈ E m et f ∈ ∧m (E). On a donc

f (x1 , x2 , ..., xm ) = det(x1 , x2 ..., xm )f (e1 , e2 , ..., em )


B

Proposition 11.2 1. Pour tout f ∈ ∧m (E), S ∈ E m on a

f (S) = f (B) det(S),


B

où B une base de E.


2. Soit B, B ′ deux bases de E. Alors pour tout S ∈ Em

det

(S) = det

(B) det(S).
B B B

3. Soit S ∈ E m
S liée ⇔ det(S) = 0
B

Preuve .
208 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

1. Soient B une base de E et f ∈ ∧m (E). Comme detB engendre Λm (E), il


existe α ∈ K tel que f = α detB . En particulier f (B) = α detB (B) = α. C’est
à dire
∀ S ∈ E m , f (S) = f (B) det(S).
B

2. Il suffit d’appliquer (1) à f = detB′


Remarquons que detB (B) = detB (B ′ ) detB′ (B) et donc detB (B′ ) ̸= 0, de même
pour detB′ (B).
3. Soit S une famille liée. Comme detB est une forme m-linéaire alternée alors
detB (S) = 0. D’autre part, supposons que S est une famille libre. Comme S
à m éléments, S est donc une base de E et donc detB (S) ̸= 0.


11.1.3 Déterminant d’une matrice carrée


 
a11 a12 ... a1n
 a21 a22 ... a2n 
 
Soit A =  .. .. .. ..  ∈ Mn (K), n ∈ N∗ .
 . . . . 
an1 an2 ... ann
La matrice A représente
a) Une famille de n vecteurs de Kn dans une base B.
b) Un endomorphisme de Kn relativement à une base B.

Définition 11.4 On appelle déterminant de A le déterminant de cette famille


dans la base B ou, ce qui revient au même, le déterminant de cet endomor-
phisme. Ainsi, ∑
det A = ε(σ)σ1σ(1) ...anσ(n) .
σ∈Sn

On note
a11 a12 ... a1n
a21 a22 ... a2n
det A = .. .. .. .. .
. . . .
an1 an2 ... ann

Remarque 11.3 1. Soit E un K espace vectoriel de dimension n ≥ 1, u ∈


L(E) et soit B une base de E. On définit

det u = det(u(e1 ), u(e2 )...u(en )).


B
11.1. DÉTERMINANTS 209

2. Posons

φ : E n −→ K
(x1 , x2 , ...xn ) 7−→ φ(x1 , x2 ...xn ) = det(u(x1 ), ...u(xn ))
B

φ est une forme n linéaire sur E. On a d’après ce qui précède

φ(x1 , x2 , ..., xn ) = φ(e1 , e2 , ..., en ) det(x1 , x2 , ...xn )


B

c’est à dire

det(u(x1 ), u(x2 ), ...u(xn )) = det(u(e1 ), u(e2 )...u(en )) det(x1 , x2 , ..., xn )


B B B

Ainsi,
det(u(x1 ), u(x2 ), ..., u(xn )) = det u det(x1 , x2 , ...xn ).
B B

Exemple 11.3 1. Cas où n = 2

a11 a12
= a11 a22 − a12 a21
a21 a22

2. Cas où n = 3
a11 a12 a13
a21 a22 a23 = a11 (a22 a33 −a32 a23 )−a12 (a21 a33 −a31 a23 )+a13 (a21 a32 −a22 a31 )
a31 a32 a33

Remarque 11.4 On remarque qu’il ya trois termes affectés d’un signe (+) et
trois termes affectés d’un signe (−) correspondant aux permutations impaires.
Un moyen de calculer le déterminant d’ordre trois d’une manière très ra-
pide c’est d’utiliser la règle de Sarrus à savoir : On recopie à droite les deux
premières colonnes du déterminants les trois termes affectés de (+) sont les
produits des coefficients d’une parallèle à la diagonale principale et les trois
termes affectés du signe (−) sont les produits des coefficients d’une parallèle à
la diagonale secondaire

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32


210 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

Attention ! La régle de Sarrus est valable seulement pour n = 3.


1 −2 3
Exemple 11.4 1. Soit A =  0 −1 −1 
2 1 −1

1 −2 3 1 −2
det A = 0 −1 −1 0 −1 = 1 + 4 − (−6) − (−1) = 12
2 1 −1 2 1

2. Si O est la matrice nulle de Mn (R) alors det(O) = 0.


3. Si In est la matrice identité de Mn (R) alors det(In ) = 1.
4. Calculons le déterminant d’une matrice triangulaire supérieure . Soit
 
a11 a12 ... a1n
 0 a22 ... a2n 
 
A =  .. .. .. .. .
 . . . . 
0 0 ... ann

On a, ∑
det A = ε(σ)a1σ(1) a2σ(2) ...anσ(n)
σ∈Sn

Pour toute permutation σ autre que l’identité, il existe i ∈ {1, 2, ..., n} tel
que σ(i) < i. On a alors, aiσ(i) = 0 et donc a1σ(i) a2σ(2) ...anσ(n) = 0. Ainsi,
on en conclut que
det A = a11 a22 ...ann .
De plus, si A est diagonale c’est à dire
 
a11 0 ... 0
 0 a22 ... 0 
 
A =  .. .. .. .. 
 . . . . 
0 0 ... ann

alors det A = a11 a22 ...ann .

Proposition 11.3 Soit A ∈ Mn (K) . On a

det(A) = det(t A).


11.1. DÉTERMINANTS 211

Preuve .
Soit A = (aij ) ∈ Mn (K) tel que t A = (a′ij ) ∈ Mn (K) et a′ij = aji

det(t A)) = ε(σ)a′1σ(1) ...a′nσ(n)
σ∈Sn

= ε(σ)aσ(1)1 ...aσ(n)n
σ∈Sn

On réordonnons les indices on a


aσ(1)1 ...aσ(n)n = a1σ−1 (1) a2σ−1 (2) ...anσ−1 (n) .
Soit σ ′ = σ −1 , on sait que ε(σ ′ ) = ε(σ −1 ). Ainsi

det(t A) = ε(σ ′ )a1σ′ (1) ...anσ′ (n) = det(A)
σ ′ ∈Sn

11.1.4 Conséquences et propriétés


1. Toute opération faite sur les lignes d’un déterminant d’une matrice est aussi
valable sur les colonnes. Une ligne ou une colonne d’un déterminant est dite
rangée.
2. Comme le déterminant est une forme multilinéaire alternée alors
• Si on échange deux rangées parallèles d’une matrice alors det(A) change
de signe
• Si deux rangées parallèles sont identiques alors det A = 0.
• Si une rangée d’une matrice carrée est une combinaison linéaire des autres
rangées parallèles alors det A = 0.
• Le déterminant ne change pas si on ajoute à une rangée une combinaison
linéaire des autres rangées.
• det(λA) = λn det(A) avec λ ∈ K.

Remarque 11.5 1. En général, pour calculer le déterminant d’une matrice,


on fait une seccession de telles opérations dont le but d’aboutir à un déterminant
triangulaire qui est le produit des éléments diagonaux.
2. La manipulation C1 ← C1 − C2 ne modifie pas le déterminant correspond
à l’ajout à une colonne d’une combinaison linéaire des autres. En revanche
la manipulation C1 ← C2 − C1 change le déterminant en son opposé car
correspond à la précédente manipulation suivie de C1 ← −C1 .
212 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

Exemple 11.5 1. Calculons

1 2 3 4
4 2 3 1
D=
3 4 1 2
2 3 4 1

En remplaçant la première colonne C1 par C1 + C2 + C3 + C4 , on obtient

10 2 3 4 1 2 3 4
10 2 3 1 1 2 3 1
D= = 10 .
10 4 1 2 1 4 1 2
10 3 4 1 1 3 4 1

Maintenant, par les opérations C2 ← C2 − 2C1 , C3 ← C3 − 3C1 et C4


← C4 − 4C1 , on a encore

1 0 0 0
1 0 0 −3
D = 10 .
1 2 −2 −2
1 1 1 −3
En permutant la deuxième et la quatrième colonne et par l’opération C4 ←
C4 + C3 , on obtient,

‘1 0 0 0 1 0 0 0
1 −3 0 0 1 −3 0 0
D = −10 = −10 = −120.
1 −2 −2 2 1 −2 −2 0
1 −3 1 1 1 −3 1 2

1 a+b ab
1. Calculons 1 b + c bc
1 b+a ca
Par les opérations L2 ← L2 − L1 et L3 ← L3 − L1 , on obtient

1 a + b ab 1 a + b ab
1 b + c bc = 0 c − a b(c − a) .
1 c + a ca 0 c − b a(c − b)

En factorisant sur les deux dérnières lignes, on obtient

1 a + b ab 1 a + b ab
0 c − a b(c − a) = (c − a)(c − b) 0 1 b
0 c − a a(c − b) 0 1 a
11.1. DÉTERMINANTS 213

Par opération L3 ← L3 − L2 , on a
1 a + b ab 1 a + b ab
0 1 b = 0 1 b = a − b.
0 1 a 0 0 a−b

Théorème 11.2 Soit A, B ∈ Mn (K). Alors


det(AB) = det A det B.
En particulier det(Ap ) = (det A)p .
Preuve . Soit E un K-espace vectoriel de dimension n et soit B = (e1 , e2 , ..., en )
une base de E. Soit φ, ψ ∈ L(E) tel que
A = MB (φ) et B = MB (ψ).
On sait que AB = MB (φ ◦ ψ). Il est clair que
det(AB) = det(φ o ψ(e1 ), φ o ψ(e2 ), ..., φ o ψ(en ))
B
= det φ det(ψ(e1 ), ψ(e2 ), ..., ψ(en ))
B
= det φ det ψ det(B)
B
= det φ det ψ = det A det B.


Théorème 11.3 Soit A ∈ Mn (K).


A est inversible ⇔ det A ̸= 0
et on a dans ce cas,
1
det A−1 = .
det A
Preuve .
Soit B = (e1 , e2 , ..., en ) une base de E et u ∈ L(E) de matrice A. On a
A inversible ⇔ u bijective ⇔ u(B) base de E ⇔ det(u(e1 ), u(e2 )...u(en )) ̸= 0.
B

D’autre part,
det(A.A−1 ) = det A det A−1 = det(In ) = 1.
Par suite comme det A ̸= 0, on en déduit que det A−1 = 1
det A
. 
214 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

Théorème 11.4 Soit A, B ∈ Mn (K) deux matrices semblables. On a,


det A = det B.
Preuve .
Si A et B sont semblables alors il existe une matrice P ∈ GLn (K), telle que
B = P −1 AP . Ainsi,
det B = det(P −1 ) det A det P = det A det(P −1 P )
= det A det(In ) = det A.


11.1.5 Développement du déterminant selon une rangée


Lemme 11.1 On a
a11 a12 ... a1n 0
a11 a12 ... a1n
a21 a22 ... a2n 0
.. .. .. .. a21 a22 ... a2n
. . . . 0 = .. .. .. ..
. . . .
an1 an2 ... ann 0
an1 an2 ... ann
an+11 an+22 an+1n 1
Preuve .
Posons A = (aij ) ∈ Mn+1 (K) avec aij = 0 pour 1 ≤ i ≤ n , j = n + 1 et
an+1,n+1 = 1 . Par définition du déterminant

det A = ε(σ)aσ(1)1 aσ(2)2 ...aσ(n+1)n+1
σ∈Sn+1

Soit σ ∈ Sn+1 .

n+1
I Si σ(n + 1) ̸= n + 1, alors aσ(i)i = 0, car le dernier facteur de ce produit
i=1
est nul.
ISi σ(n + 1) = n + 1, alors

n+1 ∏
n
aσ(i)i = aσ(i)i
i=1 i=1

car le dernier vaut 1. Par suite


∑ ∏
n
det A = ε(σ) aσ(i)i
σ∈Sn+1 ,σ(n+1)=n+1 i=1
11.1. DÉTERMINANTS 215

or l’application qui prolonge une permutation σ ∈ Sn en posant σ(n+1) = n+1


est une bijection de Sn vers {σ ∈ Sn+1 , σ(n + 1) = n + 1} et cette bijection
conserve la signature car elle conserve le nombre d’inversions. On en déduit
que
∑∏ n
det A = aσ(i)i .
σ∈Sn i=1

11.1.6 Calcul du déterminant


Comme le déterminant d’une matrice A est le déterminant de la famille de ses
colonnes. On pose

A = (aij ) ∈ Mn (K) de colonnes C1 , C2 , ...Cn .

det A = det(C1 , C2 , ..., Cn ). Notons par B = (E1 , ..., En ) la base canonique de


Mn,1 (K) et pour 1 ≤ j ≤ n, fixé


n
Cj = aij Ei .
i=1

Par linéarité, on en déduit que


n
det A = aij det(C1 , ..., Cj−1 , Ei , Cj+1 , ...Cn ).
i=1


n
Ou encore det A = aij Aij avec
i=1

a11 ... a1,j−1 0 a1,j+1 ... a1n


a21 ... a2j−1 0 a2j+1 ... a2n
.. .. .. .. .. .. ..
. . . . . . .
Aij = ai1 ... aij−1 1 aij+1 ... ain où le 1 est située en position (i, j).
aj+11 ... aj+1j−1 0 aj+1j+1 .. aj+1n
.. .. .. .. .. .. ..
. . . . . . .
an1 ... an,j−1 0 an,j+1 ... ann
216 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

Calculons Aij . En faisant passer la j ème colonne en dernier, on obtient

a11 ... a1,j−1 a1,j+1 ... a1n 0


a21 ... a2,j−1 a2j+1 ... a2n 0
.. .. .. .. .. .. ..
. . . . . . .
Aij = (−1)n−j ai1 ... ai,j−1 ai,j+1 ... ain 1 .
aj+11 ... aj+1,j−1 aj+1,j+1 .. aj+1n 0
.. .. .. ... .. .. ..
. . . . . .
an1 ... an,j−1 an,j+1 ... ann 0

De même faisons maintenant passer la ième ligne en dernier, on obtient

a11 ... a1,j−1 a1,j+1 ... a1n 0


.. .. .. .. ..
. ... . . ... . .
.. .
ai1 . ai−1,j−1 ai−1,j+1 .. ai−1,n 0
Aij = (−1)n−j (−1)n−i ai+11 ... ai+1,j−1 ai+1,j+1 ... ai+1n 1 .
.. .. .. .. .. .. ..
. . . . . . .
.. ..
an1 . anj−1 anj+1 . ann 0
ai1 ... ai,j−1 ai,j+1 ... ain 1

En appliquant le résultat du lemme précédent à la matrice Aij on obtient


n
det A = (−1)i+j aij det(Aij ).
c=1

Définition 11.5 Cette relation est appelée le développement de det A selon


la jème colonne.

Remarque 11.6 1. Cette formule transforme le calcul d’un déterminant d’ordre


n à un déterminant d’ordre (n − 1).
 
+ − + − ...
 − + − + ... 
 
2. Le signe (−1) i+j
est donné par le tableau 
 + − + − ... 

 ... ... ... ... ... 
... ... ... ... ...
11.1. DÉTERMINANTS 217

1 2 3
Exemple 11.6 1. Calculons ∆ = 4 5 6
7 8 9
En développant suivant la première colonne on a

5 6 2 3 2 3
∆= −4 +7 =0
8 9 8 9 5 6

m 1 1 1
1 m 1 1
2. Calculons ∆ =
1 1 m 1
1 1 1 m
En efféctuant les opérations C1 ← C1 − mC4 , C2 ← C2 − C4 et C3 ← C3 − C4 ,
on obtient

0 0 0 1 0 0 0 1
1−m m−1 0 1 1 1 0 1
∆= = (1−m)(m−1)2 = −(m−1)3 D1
1−m 0 m−1 1 1 0 1 1
1 − m2 1−m 1−m m 1+m −1 −1 m

Si on développe suivant la 1ère ligne D1 , on aura

1 1 0 1 0 0
D1 = 1 0 1 =− 1 −1 1 (C2 ← C2 − C1 )
1 + m −1 −1 1 + m −2 − m −1
= −(1 + 2 + m) = −(3 + m)

Ainsi D = (m − 1)3 (m + 3).

Définition 11.6 Soit A ∈ Mn (K) et Aij la matrice déduite de A en suppri-


mant la ième ligne et la jème colonne. On appelle comatrice de A et on note
com A la matrice (bij ) où bij = (−1)i+j det Aij . Les coefficients bij sont appelés
les cofacteurs de la place (i, j) dans A.
 
1 0 −1
Exemple 11.7 Soit A =  0 −1 1 .
1 2 0
On a par exemple

−1 1 0 1 0 −1
b11 = = −2 b12 = − = −1 b12 =
2 0 −1 0 −1 2
218 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

Proposition 11.4 1. Pour tout A ∈ Mn (K), on a


t
com(A).A = A.t com(A) = det A.In
2. Si A est inversible alors
1 t
A−1 = (comA).
det A
Preuve .
∑n
1. Soit B = (t comA).A = (bij ) avec bij = k=1 (−1)
i+k
aik ∆jk où ∆jk =
det Ajk .
• Si i = j, on a
∑n
bii = (−1)i+k aik ∆ik = det A
k=1
• Si i ̸= j, tout se passe comme si on développait suivant la j-ième ligne
un déterminant obtenu à partir de det A en remplaçant cette j-ème ligne
par la i-ème. Ce déteminant a deux lignes égales il est donc nul. Ainsi,
i ̸= j ⇒ bij = 0.
2. Comme A inversible ⇔ det A ̸= 0.
1 t
On en déduit que, A−1 = ( comA).
det A

En pratique ! !
1. Il est souvent utile de développer un déterminant par rapport à une rangée
lorsque cette rangée comporte peu de termes non nuls (plusieurs termes
nuls).
2. Avant de calculer un déterminant, il est conseillé d’effectuer des opérations
élémentaires sur les lignes ou les colonnes, en tenant compte de leur effet
sur le déterminant pour obtenir une forme triangulaire

11.2 Systèmes linéaires


Définition 11.7 On appelle système de p équation linéaires à n inconnues,
à coefficients dans K, un système donné par


 a11 x1 + a12 x2 + ... + a1n xn = y1



 .a21 x1 + a22 x2 + ... + a2n xn = y2
(S) ..

 ..




.
ap1 x1 + ap2 x2 + ... + apn xn = yp
11.2. SYSTÈMES LINÉAIRES 219

où aij ∈ K, yi ∈ K sont données et les xi ∈ K sont les inconnus. Le système


(S) s’écrit sous la forme
   
x1 y1
 x2   y2 
   
Y = AX où X =  ..  , Y =  ..  et A = (aij ) ∈ Mp,n (K)
 .   . 
xn yp

11.2.1 Interprétation en termes d’applications linéaires


Soit f ∈ L(Kn , Kp ) de matrice A dans les bases canoniques, le système
(S) ⇔ f (X) = Y.
1er Cas Si Y ∈
/ Imf, alors (S) ne possède pas de solutions.
2ème Cas Si Y ∈ Imf, alors, il existe X0 ∈ Kn tel que f (X0 ) = Y . Ainsi
X solution de (S) ⇔ f (X) = f (X0 )
⇔ X − X0 ∈ ker f
Donc l’ensemble des solutions est X0 + ker f .
En particulier, si f est bijective (n = p) alors A est inversible et le système
(S) possède une unique solution donnée par X = A−1 Y . Dans ce cas le
système (S) est dit de Cramer.

11.2.2 Résolution d’un système de Cramer


On pose X = (x1 , x2 , ..., xn ) et Y = (y1 , y2 , ..., yn )
Définition 11.8 Un système (S) : AX = Y est dit de Cramer si A est une
matrice carrée inversible.
Ainsi
(S) est de Cramer ⇔ det(A) ̸= 0.
De plus (S) possède une solution unique
1 t
X = A−1 Y = (comA).Y
det A
et les inconnues sont déterminés par les formules de Cramer
1 ∑
n
xi = (−1)i+j det Aji .yj
det A j=1
det Ai
=
det A
220 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

où
a11 ... a1,i−1 y1 a1,i+1 ... a1n
a21 ... a2,j−1 y2 a2,i+1 a2,n
Ai =
an1 ... ani−1 yn ani+1 ... ann

Exemple 11.8 Résoudre le système (S) suivant



 2x − 3y − 2y = −1
(S) 4x − y − 5z = 0

x+y−z = −2

Le déterminant de la matrice A associée à (S) est

2 −3 −2
det A = 4 −1 −5 = 5 ̸= 0
1 1 −1

Par suite, (S) est de Cramer et on a

−1 −3 −2 2 −1 −2 2 −3 −1
1 32 1 3 1
x= 0 −1 −5 =− , y= 4 0 −5 =− et z= 4 −1 0 = −5
5 5 5 5 5
−2 1 −1 1 2 −1 1 1 −2

Remarque 11.7 Dés que n ≥ 3, les formules de Cramer sont quasiment


impraticables dans les exemples numériques. On préfère souvent la méthode du
pivot Gauss qu’on va définir ci dessous.

11.2.3 Résolution par la méthode du pivot de Gauss


Soit 

 a11 x1 + a12 + ... + a1n xn = y1 (E1 )

 a21 x1 + a22 x2 + ... + a2n xn = y2 (E2 )
(S) : .. ..

 . .

 a x + ap x + ... + a x = y (E )
p1 1 2 2 pn n p p

Si a11 ̸= 0, on élimine x1 dans les équations E2 , ...Ep , en effectuant les opérations


élémentaires suivantes où a11 est dit dans ce cas pivot

E2 −→ a11 E2 − a21 E1
..
.
Ep 7−→ a11 Ep − ap1 E1
11.2. SYSTÈMES LINÉAIRES 221

Ainsi (S) se ramène à un système de la forme




 a11 x1 + a12 x2 + ... + a1n xn = y1

 a′22 x2 + ... + a′2n xn = y2′
(S) ⇔ .. ..

 . .

 ′ ′
ap2 x2 + ... + apn xn = yp′

Ensuite, on élimine x2 des équations (E3 ), ..., (Ep ) et on itère ce procédé.


Autrement dit, si on parvient à mettre le système à résoudre sous forme échelonnée,
on pourra en remontant de la solution de la dérnière équation à résoudre suc-
cessivement toutes les equations. C’est le principe de la méthode du pivot de
Gauss. Lorsqu’on échelonne le système à résoudre deux cas peuvent se produire
1er Cas Il se présente une équation du type 0x1 + ... + 0xn = b avec b ̸= 0.
Dans ce cas le système ne possède pas de solutions.

Exemple 11.9 Résoudre



 2x + y − 2z + 3w = 1 (L1 )
3x + 2y − z + 2w = 4 (L2 )

3x + 3y + 3z − 3w = 5 (L3 )

On effectue les opérations élementaires suivantes pour faire disparaitre les x


des lignes (2) et (3).

L1  2x + y − 2z + 3w = 1
L2 −→ 2L2 − 3L1 → y + 4z − 5w =5

L3 7−→ 2L3 − 3L1 3y + 12z − 15w = 7
On effectue les opérations élementaires suivantes pour faire disparaitre les y
de la ligne (3).

L1  2x + y − 2z + 3w = 1
L2 → y + 4z − 5w =5

L3 7−→ L3 − 3L2 0 = −8
La dernière équation permet d’affirmer que le système n’a pas de solutions.
2ème Cas S’il se présente une equation du type ox1 +...+oxn = 0, on élimine
cette équation triviale.
222 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

Exemple 11.10

 x + 2y − 2z = 2 (L1 )
(S) 2x + 4y − 3z = 5 (L2 )

5x + 10y − 8z = 12 (L3 )
On effectue les opérations élémentaires suivantes pour faire disparaitre les x
des lignes (2) et (3).

L1  x + 2y − 2z =2
L2 −→ L2 − 2L1 → z =1

L3 7−→ L3 − 5L1 2z =2
et donc {
x + 2y = 4
(S) ⇔
z =1

Ainsi (S) admet une infinité de solutions données par x = 4 − 2y, y ∈ R et


z = 1.
D’une manière générale, on aboutit à


 a11 x1 + a12 + ... + a1n xn = b1

 .. ..

 . .
(S) ⇔ air xr + ... + ain xn = bi



 ... ..


.
aps xs + ... + apn xn = bn
où les coefficients a11 , ..., air , ..., aps sont tous non nuls. Les inconnues qui
correspondent aux coefficients sont appelées les inconnues principales du
système et les autres s’il y en a sont les inconnues secondaires.
Deux cas sont possibles
I Ou bien, il n’y a pas d’inconnues secondaires et dans ce cas le système
possède une unique solution obtenue en résolvant la dernière équation et
en remontant jusqu’à la première.
I Ou bien il y a des inconnues secondaires. Dans ce cas on les fait passer
au second membre pour obtenir un système du type


 a11 x1 + a12 + ... + a1s xs = b1 − a1s+1 xs+1 ... − a1n xn

 . ..

 .. .
air xr + ... + ais xs = bi − ai xs+1 − ... − ain xn

 . .

 .. ..


aps xs = bp − ap,s+1 xs+1 − ... − apn xn
11.3. EXERCICES 223

Pour chaque choix des inconnues secondaires, le système possède un unique


choix de solutions pour les inconnues principales que l’on détermine comme
précédemment et le système possède une infinité de solutions.

11.3 Exercices
Exercice 1.
1. Calculer les déterminants suivants :

2 0 2 4 1 3 3 2
0 3 1 0 3 1 2 3
D1 = , D2 =
0 −1 5 0 3 2 1 3
4 0 −1 3 2 3 3 1
2. Soit a, b, c, d ∈ R, calculer les déterminants suivants :

a a a a
0 a b 1 1 1
a b b b
D1 = a 0 c , D2 = cos a cos b cos c , D3 = .
a b c c
b c 0 sin a sin b sin c
a b c d

3. Montrer sans développer que

1+a a a
b 1+b b = 1 + a + b + c.
c c 1+c

Exercice 2.
1. Soit A ∈ Mn (C) telle que t A = A. Montrer que det A ∈ R.
2. Soit A un matrice antisymétrique d’ordre 2n + 1. Montrer que det A = 0.
Ce résultat est-il vrai lorsque A est d’ordre pair.
Exercice 3. Soient x ∈ R et n ∈ N∗ . On considère le déterminant d’ordre n
donné par
1 + x2 x 0 ··· 0
. .. ..
x 1 + x2 x .
.
∆n = 0 x 1 + x2 . . 0
.. ... ... ...
. x
0 ··· 0 x 1 + x2
1. Montrer que ∆n − ∆n−1 = x2 (∆n−1 − ∆n−2 ) .
224 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

2. En déduire ∆n .
Exercice 4. Soit Dn = det (aij ) le dé terminant d’ordre n définit par
{
aii = i + 1, 1≤i≤n
aij = 1, 1 ≤ i ̸= j ≤ n

1. Montrer que Dn = (n − 1)! + nDn−1 .



n
1
2. Exprimer Dn en fonction de la suite Hn = .
k=1
k
Exercice 5. Déterminant de Vandermonde : Soit a1 , a2 , ..., an ∈ R, on pose

1 a1 a21 · · · an−1
1
1 a2 a22 · · · an−1
2
Vn = .. .. .. ..
. . . .
1 an a2n · · · an−1
n


n−1
1. Soit P (x) = (x − ai ) , montrer que
i=1

1 a1 a21 · · · P (a1 )
1 a2 a22 · · · P (a2 )
Vn = .. .. .. ..
. . . .
1 an a2n · · · P (an )


n−1
2. En déduire que Vn = (an − ai ) Vn−1 .
i=1

3. Montrer alors que Vn = (aj − ai ) .
1≤i<j≤n

Exercice 6. Déterminant de Cauchy : Soient (a1 , a2 , ..., an ) ∈ Rn et (b1 , b2 , ..., bn ) ∈


Rn tels que ai + bj ̸= 0, pour tout 1 ≤ i, j ≤ n. On pose
( )
1
Cn = det
ai + bj 1≤i,j≤n

On définit la fraction R par


(x − a1 ) · · · (x − an−1 )
R(x) =
(x + b1 ) · · · (x + bn )
11.3. EXERCICES 225


n
λk
1. En écrivant R(x) = , vérifier que
k=1
x + bk
1
a1 +b1
··· 1
a1 +bn−1
R(a1 )
1 .. .. ..
Cn = . . .
λn 1
an +b1
··· 1
an +bn−1
R(an )

1
2. En déduire que Cn = R(an )Cn−1 .
λn
3. Montrer que ∏
(aj − ai ) (bj − bi )
1≤i<j≤n
Cn = ∏
(ai + bj )
1≤i,j≤n

Exercice 7.
1. Résoudre les systèmes suivants

  x+y−z+t=0
 x+y+z =1 

x − y + 3t = 2
2x − y = −1 ,
 
 x + 2y + z = 1
−x + 2y + z = 2 
y − 3z + 2t = −1.

2. Résoudre en fonction du paramètre m, les sytèmes suivants


 
 mx + y + z = 1  (m + 1) x + y + z = m2 + 3m
x + my + z = m , x + (m + 1) y + z = m3 + 3m2
 
x + y + mz = m2 x + y + (m + 1) z = m4 + 3m3 .

3. Résoudre le système d’équation suivant




 x1 + x2 + x3 + . . . + xn = 1



 1 + 2x2 + 2x3 + . . . + 2xn = 1
x
x1 + 2x2 + 3x3 + . . . + 3xn = 1

 ..

 .

 x + 2x + 3x + . . . + nx = 1.
1 2 3 n

Exercice 8. Soit f l’endomorphisme de R3 dont la matrice dans la base ca-


nonique est  
a b 2
A =  a 2b − 1 3 
a b b+3
226 CHAPITRE 11. DÉTERMINANTS ET SYSTÈMES LINÉAIRES

1. Pour quelles valeurs de a et b, f est-il un isomorphisme de R3 ?


2. Déterminer un base du noyau de f , quand f n’est pas injectif.
3. Résoudre et discuter le système linéaire suivant :

 ax + by + 2z = 1
ax + (2b − 1) y + 3z = 1

ax + by + (b + 3) z = 2b − 1.

Exercice 9. On considère le système




 x + (m + 1) y + 2mt = a

mx + z + t = b
(S)

 (2m + 1) x + y + (m + 1) z + t = 2a

(m + 1) z + (m + 1) t = b.

1. Déterminer les valeurs de m pour lesquelles la matrice associée à (S) n’est


pas inversible.
2. Pour chacun des valeurs donner une condition necessaire est suffisante sur
les paramétres a et b pour que (S) admette des solutions dans R.

Vous aimerez peut-être aussi