Cours et Exercices de Probabilités
Cours et Exercices de Probabilités
Département de Mathématiques
Cours de Probabilités
&
Exercices Corrigés
Blouhi Tayeb
Table des matières
2 Probabilités 10
2.1 Espace des possibles, événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Vocabulaire probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Indépendance et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Indépendance en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Variables aléatoires 24
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Densité de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 Moments d’une variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3.1 Loi d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.2 Les moments d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . 32
3.3.3 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Fonction génératrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Lois usuelles 40
4.1 Lois absolument continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.1 Loi uniforme continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.4 La loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Lois usuelles discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.3 Loi géométrique (ou loi de Pascal) . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.5 Loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.6 Loi binomiale négative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.7 Approximation de la loi binomiale par la loi de Poisson . . . . . . . . . . . . . . . 45
4.2.8 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.9 Coordonnées d’une v.a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.10 Loi du couple discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.11 Loi du couple continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.12 L’image de (X, Y ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.13 Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5 Corrections 59
5.1 Les solution chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 les solution chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3 Les solutions chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2
Chapitre 1
L’analyse combinatoire est une branche des mathématiques qui étudie la cardinalité d’un ensemble
ou de combinaison d’ensembles finis. Elle fournit des méthodes de dénombrement particulièrement utiles
en théorie des probabilités. Les probabilités dites combinatoires utilisent constamment les formules de
l’analyse combinatoire développées dans ce chapitre.
1.1 Généralités
(a) Disposition sans répétition : c’est une disposition où un élément peut apparaître 0 ou 1 fois.
Exemple 1.1.1. On considère un ensemble à deux éléments {a, b}. Avec deux tirages sans répé-
tition, on peut obtenir {a, a} ou {b, a}.
(b) Disposition avec répétition : un élément peut figurer plus d’une fois.
Exemple 1.1.2. : On considère un ensemble à deux éléments {a, b}. En considérant deux tirages
avec répétition, on peut obtenir {a, a}, {a, b}, {b, a} ou {b, b}. Cela correspond à un tirage avec
remise.
(c) Disposition non ordonnée : l’ordre d’obtention d’un élément n’est pas important.
Exemple : Ayant une urne avec 5 boules blanches et 4 noires, le nombre de choix de 3 boules
blanches en trois tirages ne nécessite pas un ordre.
(d) Disposition ordonnée : l’ordre d’obtention d’un élément est important.
Exemple 1.1.3. Dans le même exemple pris précédemment, si les boules étaient numérotées,
l’ordre aurait eu une signification.
Autre exemple :
2)
10 arrangements avec répétitions parmi 6 : 610 .
n!
Apn =
(n − p)!
Réaliser un arrangement sans répétition des éléments de Ω, c’est déterminer un p−uple (x1 , . . . , xp )
d’éléments de deux à deux distincts. C’est aussi définir une application injective d’un ensemble E à p
4
éléments dans un ensemble à n éléments.
Question classique : Après les prolongations d’un match de football, l’entraîneur doit choisir les 5
tireurs de penaltys parmi les onze joueurs et l’ordre de passage. Combien de choix a-t-il ?
Réponse
11!
A11
5 = = 55 440
6!
n! = n(n − 1)!
n!
Pn = Ann = = n!
(n − n)!
Réaliser une permutation des éléments de Ω, c’est réaliser un tirage exhaustif sans remise des éléments
de Ω en tenant compte de l’ordre du tirage. C’est aussi définir une bijection de ensemble sur lui-
même.L’ensemble des permutations d’un ensemble à n éléments s’appelle le groupe symétrique d’ordre
n et se note Sn . On a ]Sn = n!.
n!
Cnp =
p!(n − p)!
Questions classiques :
5
1) Au jass, on reçoit 9 cartes d’un jeu de 36 cartes. Combien y a-t-il de mains différentes (de 9 cartes)
possibles ?
2) Un joueur choisit entre 1 et 20 numéros et marque une feuille de Keno, qui en contient 80 (de 1
à 80). Le casino tire alors 20 nombres au hasard. Combien de grilles différentes de Keno existe-t-il ?
Réponse :
1)
C936 = 94 143 280
2)
80
C20 = 3 535 316 142 212 174 320
Propriétés
1. Cn0 = Cnn = 1
2. Cnp = Cnn−p : formule du complémentaire
3. Cnp = Cn−1
p p−1
+ Cn−1 : dit triangle de Pascal (Il est à noter qu’il a été a développé par EL-Karadji
[Abou Bekr Mohammed Ibn El Hassan] au début du XIe siècle ; plusieurs siècle avant Pascal)
Apn
4. Cnp = p!
n
X
(a + b)n = Cnp ap bn−p .
p=0
6
Preuve 1.6.1.
n
X
= (a + b) Cnp ap bn−p
p=0
n
X n
X
= Cnp ap+1 bn−p + Cnp ap bn−p+1
p=0 p=0
n+1 n
X 0 0 0 X
= Cnp +1 ap bn+1−p + Cnp ap bn−p+1
p0 =1 p=0
n
X n
X
= Cnp+1 ap bn+1−p + Cnn an+1 b0 + Cn0 a0 bn+1 + Cnp ap bn+1−p
p=1 p=1
n
X
n+1
=a + (Cnp−1 + Cnp )ap bn+1−p + bn+1
p=1
alors
n+1
X
n+1 p
(a + b) = Cn+1 .ap .bn+1−p .
p=0
Avec Cn+1
p p−1
= Cn+1 + Cnp
p
Knp = Cn+p−1
Exemple (jeu de domino)Les pièces sont constituées en disposant côte à côte deux éléments de l’en-
semble {blanc, 1, 2, 3, 4, 5, 6} Si nous retournons un domino, nous changeons l’ordre des deux éléments,
mais le domino reste identique (C’est donc une disposition non-ordonnée).Nous avons une combinaison
avec répétition de 2 éléments pris parmi les 7, et au total il y a K72 = 28 dominos dans un jeu.
7
Toute p− combinaison avec répétition peut s’écrire :
x1 : k1 fois, . . . , xn : kn fois
n
X
avec 0 ≤ kn ≤ p et ki = p.
i=1
On peut ainsi mettre en bijection l’ensemble des p−combinaisons avec répétition des n éléments de E
avec les applications On peut ainsi mettre en bijection l’ensemble des p−combinaisons avec répétition
des n éléments de E f : E −→ N telles que avec les applications
x1 7−→ f (x1 ) = k1
n
X
... vérifiant f (xi ) = p
i=1
xn 7−→ f (xn ) = kn
8
1.9 Exercices
Exercice 1.9.1. On jette quatre dés discernables et on appelle résultat, une suite ordonnée des quatre
points amenés.
Exercice 1.9.2. On achète six pièces mécaniques. De combien de manières peut-on les répartir si :
1. elles doivent être placées chacune dans un atelier différent ?
2. elles sont placées deux à deux dans trois ateliers différents ?
3. il y a quatre ateliers, deux recevant deux pièces chacun et deux autres une pièce chacun ?
Exercice 1.9.3. Les n tômes d’une encyclopédie, numérotés de 1 à n, sont placés au hasard sur une
étagère.
1. Combien y a-t-il de manière de les placer ?
2. Parmi ces classements, combien y en a-t-il où :
(a) les tômes 1 et 2 se trouvent côte à côte dans cet ordre ?
(b) les tômes 1 à p se trouvent côte à côte dans cet ordre ?
9
Chapitre 2
Probabilités
La théorie des probabilités fournit des modèles mathématiques permettant l’étude d’expériences dont
le résultat ne peut être prévu avec une totale certitude.
Si ces trois axiomes sont vérifiés, alors le couple (Ω, F) est appelé espace mesurable ou espace
probabilisable.
Exemple 2.1.1. La tribu engendrée par {∅, Ω} est appelée tribu grossière (la vérification que c’est une
tribu est simple).
La tribu engendrée par l’ensemble de toutes les parties de Ω est la tribu la plus riche.
Il est intéressant de construire la structure de treillis de toutes les tribus sur Ω : Ce treillis a la
particularité d’avoir un minimum (la tribu grossière) et maximum (la tribu la plus riche).
Avec ce mode de représentation, les opérations logiques sur les évènements que sont « ou », « et »,
« négation » se traduisent par des opérations ensemblistes : réunion ∪, intersection ∩, complémentaire
{.}c . Voici le tableau des correspondances entre ces deux langages :
11
Notations Vocabulaire ensembliste Vocabulaire probabiliste
∅ ensemble vide évènement impossible
Ω ensemble plein évènement certain
w élément de Ω évènement élémentaire
w∈Ω w appartient à A le résultat w est une des réalisations possibles de A
A⊂B A inclus dans B A implique B
A∪B A ou B A ou B
A∩B A et B A et B
Ac complémentaire de A dans Ω évènement contraire de A
A∩B =∅ A et B sont disjoints A et B sont incompatibles
Pour un Tout évènement décrit par des "ou", des "et" (répétés au plus de manière dénombrable) ou des
"non" est seulement un élément de F ; la tribu associée.
Exemple 2.2.1. On lance un dé à six face. Le résultat a priori est aléatoire et les résultats possibles
sont 1, 2, 3, 4, 5, 6. L’espace Ω = {1, 2, 3, 4, 5, 6} décrit bien l’ensemble des résultats. La partie A = {1, 4}
est un évènement composé : il s’agit de ( le résultat est un 1 ou un 4 ). Par contre {3} est un évènement
élémentaire, ( observer un 3 ) ne peut pas être décrit par des événements plus simples.
Les opérations sur les ensembles (ou sur les évènements) peuvent faire intervenir plus de deux évè-
nements. Ainsi si A1 , . . . , An sont des évènements,
∪ni=1 Ai=1 = A1 ∪ . . . ∪ An
∩ni=1 Ai=1 = A1 ∩ . . . ∩ An
est l’ensemble des w qui sont dans tous les Ai . On étend encore ces définitions aux réunions et intersec-
tions dénombrables (ie. en nombre infini mais qu’on peut énumérer) :
Définition 2.2.1. (Tribu borélienne) Lorsque Ω est un espace topologique (c’est à dire muni d’une
famille d’ouverts), la plus petite tribu contenant tous les ouverts est appelée la tribu borélienne. Elle est
notée B(Ω).
12
Définition 2.2.2. Tribu engendrée
– Soit M une famille de parties de Ω. La tribu engendrée par M, notée σ(M), est la plus petite
tribu de Ω contenant M : σ(M) = ∩A⊃M A.
Définition 2.3.1. On appelle probabilité sur l’espace probabilisable (Ω, F), l’application P de F dans
[0, 1] vérifiant :
1. Pour tout événement A ∈ F,0 ≤ P(A) ≤ 1
2. P(Ω) = 1
3. pour tout ensemble dénombrable d’événements incompatibles A1 , A2 ; . . . , An , on a
∞
X
P(∪i∈N Ai ) = P(Ai ) σ − additivité de P
i=1
Expériences composées : Parfois, une expérience aléatoire peut être décomposée en deux ou plus
expériences partielles.
Exemple 2.3.1. Si on lance un dé rouge et un dé noir, il est naturel de considérer l’issue du lancer
comme étant un couple (i, j), ordonné, où i représente le résultat du dé rouge et j celui du dé noir.
L’univers associé à cette expérience est
13
"L’événement" le dé rouge donne un nombre pair et le noir un nombre inférieur à "3" est
A = {(2, 1), (2, 2), (4, 1), (4, 2), (6, 1), (6, 2)}
Définition 2.3.2. On appelle espace probabilisé le triplet (Ω, F, P), F est une tribu de parties de Ω et
P : F −→ [0, 1] est une mesure de probabilité.
Exemple 2.3.2. Quelle est la probabilité d’obtenir un nombre pair en jetant un dé ? On suppose que le
dé est parfaitement équilibré, donc que les issues sont équiprobables.
Comme il y a 6 issues,Ω = {1, 2, 3, 4, 5, 6}, on leur attribue à chacune la probabilité 1/6. Soit l’événement
A : "obtenir un nombre pair". Alors A = {2, 4, 6} et P(A) = 63 .
Exemple 2.3.3. Quelle est la probabilité d’obtenir deux côtés distincts en jetant deux pièces de mon-
naie ? On suppose que la pièce est parfaitement équilibrée, donc que chaque côté a une chance sur deux
d’apparaître lors d’un lancer.
Posons F = "Face" et P = "Pile" P(F ) = P(P ) = 12 . Il y a deux manières de décrire l’univers des
possibles :
On tient compte de l’ordre d’arrivée des pièces (jets successifs), l’univers des possibles est formé de
couples :
Ω1 = {(P, P ), (P, F ), (F, P ), (F, F )}
On n’en tient pas compte (jets simultanés), l’univers des possibles est formé de paires :
Du point de vue "physique", le résultat doit être le même, la parfaite simultanéité n’existant pas. On ne
peut donc avoir affaire dans les deux descriptions à des univers équiprobables.
Chaque chemin représente une issue. Les hypothèses faites sur la pièce nous conduisent à donner une
même probabilité aux 4 chemins de l’univers Ω1 , par contre on ne peut rien dire à priori des probabilités
des chemins de l’univers Ω2 . Ainsi
1
P(P, P ) = P(P, F ) = P(F, P ) = P(F, F ) =
4
1
P{(P, F ), (F, P )} =
2
14
Dans l’univers Ω2 , les probabilités des issues sont donc :
1 2 1
P(P, P ) = , P(P, F ) = , P(F, F ) =
4 4 4
Très souvent, on ne peut pas faire l’hypothèse d’équiprobabilité, on détermine alors la probabilité d’un
événement en répétant un grand nombre de fois l’expérience aléatoire.
Propriétés 2.3.1. Les propriétés usuelles d’une probabilité définie sur F sont :
1. P(∅) = 0.
2. ∀A ∈ F, P(Ac ) = 1 − P(A).
3. ∀A, B, ∈ F, P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
4. ∀A, B, ∈ F, A ⊂ B ⇒ P(A) ≤ P(B).
∞
X
5. ∀(Ai )i∈N ⊂ F, P(∪i Ai ) ≤ P(Ai ).
i=1
Démonstration :
1) Soit A un événement quelconque. Comme
d’après le 3ème axiome, P(A ∪ ∅) = P(E) + P(∅). Des deux égalités, on obtient P(∅) = 0
2) on sait que
A ∪ Ac = Ω
et
A ∩ Ac = ∅
P(Ω) = P(A) + P(Ac )
1 = P(A) + P(Ac )
D’où
P(Ac ) = 1 − P(A)
(A ∪ B) = (A ∩ B) ∪ (B ∩ A) ∪ (A ∩ B).
15
P(A ∪ B) = P(A ∩ B) + P(B ∩ A) + P(A ∩ B) (2.1)
de plus
et
d’ou
et
∞
X
P(∪i Ai ) ≤ P(Ai )
i=1
car
∩∞
i=1 Ai = ∅ Ai des événements sont deux à deux incompatibles.
16
Ainsi : 1-A et C sont incompatibles
17
P(A ∪ C) = = P(A) + P(C)
36
P(B ∩ A)
P(B|A) =
P(A)
Démonstration :Comme
Ω=A∪A
On sait que
B = B ∩ (A ∪ A)
17
alors
P(B) = P(B ∩ (A ∪ A) = P((B ∩ A) ∪ (B ∩ A))
car
(B ∩ A) ∩ (B ∩ A) = ∅
Donc
P(B) = P(B ∩ A) + P(B ∩ A)
Exemple 2.4.1. En lançant deux dés est la probabilité d’avoir une somme égale à 8 si les deux dés
indiquent des résultats différents Ω contient 36 cas possibles équiprobables.
Soit A L’événement " la somme dés est 8"
Alors A = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)}
Alors 4
P(A ∩ B) 36 2
P(A|B) = = 30 =
P(B) 36
15
Exemple 2.4.2. Pour connaître les intentions de vote de la population, on a interrogé 100 personnes
et on leur a demandé pour lequel des partis A, B, C elles voteraient. On regroupe les résultats dans le
tableau 5.
Si on choisit une personne au hasard dans ce groupe, trouver la probabilité
a) qu’elle vote pour le parti A
b) qu’elle vote pour le parti A, si on sait que c’est une femme
c) qu’elle vote pour le parti B ou C, si on sait que c’est un homme
d) que ce soit une femme, si on sait qu’elle vote pour le parti C.
Notons les événements ainsi :
A : "La personne vote pour le parti A"
B : "La personne vote pour le parti B"
C : "La personne vote pour le parti C"
H : "La personne est un homme"
F : "La personne est une femme".
18
Description A B C Totaux
hommes 13 21 19 53
femmes 20 8 19 47
Totaux 33 29 38 100
33 29 38 53
P(A) = , P(B) = , P(C) = , P(H) =
100 100 100 100
et
47 20
P(F ) = , P(A ∩ F ) =
100 100
a)
33
P(A) =
100
b)
20
P(A ∩ F ) 100 20
P(A|F ) = = 47 =
P(F ) 100
47
c)
Alors 21 19
P(B ∩ H) P(C ∩ H) 100 100 40
P(B ∪ C|H)) = + = 53 + 53 =
P(H) P(H) 100 100
53
d)
19
P(F ∩ C) 100 1
P(F |C)) = = 38 =
P(C) 100
2
D’un point de vue pratique, il y a deux manières de calculer une probabilité conditionnelle
Définition 2.4.2. Soit (Ai )i∈I une famille d’événements. On l’appelle partition de Ω si elle vérifie les
deux conditions :
– i)∪i∈I Ai = Ω
– ii) les Ai sont deux à deux incompatibles :pour tous i 6= j, Ai ∩ Aj = ∅.
P(B | A)P(A)
P(A | B) =
P(B | A)P(A) + P(B | A)P(A)
19
2.5 Indépendance en probabilité
Définition 2.5.1. Deux événements A et B sont dits indépendants si
P(A ∩ B) = P(A)P(B)
Exemple 2.5.1. Une urne contient 6 boules blanches et 4 rouges. On tire successivement deux boules
en remettant dans l’urne la boule tirée (tirage avec remise). On considère les événements :
A : "il sort une boule rouge au premier tirage"
B : "il sort une boule rouge au deuxième tirage"
et on se propose de déterminer si ces événements sont indépendants ou non.
Dans cet exemple, l’univers est l’ensemble de couples ordonnés :
où (b, r) est l’issue "une blanche au 1er et une rouge au 2ème tirage". En admettant que toutes les boules
sont indistinguables, on a :
6 6 36 6 4 24
P(b, b) = × = , P(b, r) = × =
10 10 100 10 10 100
et
4 4 16 4 6 24
P(r, r) = × = , P(r, b) = × =
10 10 100 10 10 100
On a :
A = {(r, b), (r, r)}, A = {(b, r), (r, r)}, A ∩ B = {(r, r)} =
6 ∅
De plus :
24 16 40
P(A) = + = = P(B)
100 100 100
et
16
P(A ∩ B) =
100
Ainsi, on a bien :
P(A ∩ B) = P(A)P(B)
Les événements A et B sont donc bien indépendants, comme le confirmait notre intuition.
Toutefois, la notion d’indépendance n’est pas aussi intuitive qu’on peut le penser.
Exemple 2.5.2. Dans l’exemple précédent, on considère les événements :
20
C : "on tire au maximum une boule blanche"
D : "on tire deux mêmes boules" alors
64 52
P(C) = , P(D) =
100 100
et
16
P(C ∩ D) =
100
mais
P(C ∩ D) 6= P(C)P(D)
Remarque 2.5.2. Deux événements incompatibles A et B, avec P(A) > 0 et P(B) > 0, ne sont jamais
indépendants. En effet, A ∩ B = ∅ ; entraîne P(A ∩ B) = 0 6= P (A)P (B).
Les événements sont deux à deux indépendants si pour tous indices i, j(i 6= j)
2.6 Exercices
Exercice 2.6.1. A et B sont deux évènements d’un espace probabilisable vérifiant
Exercice 2.6.2. On considère quatre groupes A, B, CetD. Dans chaque groupe, les proportions de
personnes ayant fait des études supérieures sont respectivement de 5/100, 10/100, 25/100 et 40/100.
On choisit au hasard l’un des groupes et dans le groupe choisi une personne.
1. Quelle est la probabilité que la personne choisie au hasard ait fait des études supérieures ?
2. La personne choisie ayant fait des études supérieures, quelle est la probabilité qu’elle appartienne au
21
groupe D ?
Exercice 2.6.3. On considère deux sacs S1 et S2 contenant chacun trois boules rouges et sept boules
noires.
On prend une boule dans S1 et on la place dans S2 .
Quelle est alors la probabilité de tirer une boule rouge de S2 ?
Exercice 2.6.4. On dispose de deux urnes contenant respectivement cinq boules bleues et quatre rouges,
et six boules bleues et cinq rouges. On tire une boule de chaque urne. Quelle est la probabilité :
1-de tirer deux boules rouges ?
2- de tirer deux boules bleues ?
3- de tirer une boule bleue et une boule rouge ?
Exercice 2.6.5. On appelle "épreuve", un lot de trois sujets tirés au hasard parmi cent sujets possibles.
Un candidat doit traiter au choix l’un des trois sujets.
1. Combien d’épreuves peut-on proposer au candidat ?
2. Un candidat se présente en ne connaissant que la moitié des sujets. Quelle est la probabilité pour
qu’il sache traiter :
(a) les trois sujets ?
(b) seulement deux sujets ?
(c) un seul sujet
(d) aucun des trois sujets ?
Exercice 2.6.6. On dispose de dix urnes numérotées de 0 à 9. L’urne k contient k boules noires et
9 − k boules blanches. On choisit une urne au hasard et sans connaitre son numéro on tire deux boules
avec remise.
1- Quelle est la probabilité d’obtenir deux boules noires ?
2- Les deux boules obtenues sont noires. Quelle est la probabilité qu’elles proviennent de l’urne U5 ?
3-Le premier tirage a donné une boule noire. Quelle est la probabilité que le second tirage donnent aussi
une boule noire ?
Exercice 2.6.7. On considéré deux urnes : l’une peinte en blanc et l’autre peinte en noir. Chacune de
ces deux urnes contient des boules blanches et des boules noires.
L’urne blanche contient une proportion α de boules noires et l’urne noire contient une proportion β de
boules blanches.
On choisit une urne au hasard (probabilité p de tirer l’urne blanche et q = 1 − p de tirer l’urne noire)
22
et on tire ensuite une boule de cette urne. Si la boule tirée est de la même couleur que l’urne, on tire
a nouveau une boule de cette urne. Dans le cas contraire, on effectue le tirage dans l’autre urne. On
poursuit ce mode de tirage, supposes tous avec remise, la ème boule est tirée dans l’urne dont la couleur
est celle de la (n − 1)me boules tirée. Soit pn la probabilité que la mène boule tirée soit blanche, qn la
probabilité que la mène boule tirée soit noire et Vn le vecteur colonne de composantes pn et qn .
1- Établir une relation de récurrence entre Vn et Vn−1 .
2- En déduire que :
Vn = M n V0
– (a) α = β = 0
– (b) α = β = 1
– (c) α + β = 1
4-Calculer, dans chacun de ces cas, les limites de pn et qn quand n tend vers +∞.
23
Chapitre 3
Variables aléatoires
3.1 Introduction
La notion de variable aléatoire ne se limite pas à la notion d’application seulement. Elle introduit
également le lien entre les tribus utilisées dans chacun des ensembles mis en relation par l’application.
Définition 3.1.1. Soient (Ω, F) et (E, E) deux espaces probabilisables (ou mesurables) et soit X une
application de (Ω, F) vers (E, E). On dit que X est une variable aléatoire (ou application mesurable) si
elle vérifie
• X : Ω −→ E est une application,
• X −1 (E) ⊂ F (X −1 est la fonction réciproque ensembliste qui existe toujours). Cela veut dire
aussi que X −1 : E −→ F est une application.
Dans des situations où interviennent plusieurs variables aléatoires, le calcul de la probabilité d’un
événement dont la réalisation dépend des valeurs de ces variables doit faire intervenir ces variables
considérées dans leur ensemble et non chacune isolement. celle de variables aléatoire.
Cela montre que la mesure dans (Ω, F) suffit pour mesurer les événements de l’espace probabilisable
image.
Définition 3.2.2. Soit (Ω, F, P) un espace probabilisé. Nous appelons variable aléatoire réelle
(v.a.r.) toute application de Ω dans R telle que : pour tout intervalle I de R, l’ensemble
X −1 (I) = {w ∈ Ω|X(w) ∈ I} est un événement de F.
Notations
– Les variables aléatoires sont notées avec des lettres majuscules et les quantités déterministes avec
des lettres minuscules.
– Nous notons X(Ω) l’ensemble des valeurs prises par la variable aléatoire X définie sur l’espace
probabilisé (Ω, F, P).
– X −1 ({x}) = {w ∈ Ω|X(w) = x} se note {X = x}
– X −1 (] − ∞, a[) = {w ∈ Ω|X(w) ≤ a} se note {X ≤ a}
– X −1 (]a, b[) = {w ∈ Ω|a ≤ X(w) ≤ b} se note {a ≤ X ≤ b}
Remarque 3.2.1. Si F = P(Ω) (en particulier si Ω est fini), toute application de Ω dans R est une
variable aléatoire.
Quelques exemples :
1. Nombre de lancers avant d’obtenir ”6” avec un dé : X(w) de 0 à l’infini ;
2. Nombre d’appels arrivant à un standard téléphonique en une minute de 0 à 10.
3. Nombre de clients attendant au service après-vente :X(w) de 0 à 10.
Interprétation de variable aléatoire continue Une variable aléatoire est dite continue si elle peut
prendre toutes les valeurs d’un intervalle. En particulier, dans le cas où la variable aléatoire peut
prendre toute valeur réelle (son ensemble image contient un intervalle de R) ; on parle alors de variable
aléatoire réelle.
Dans ce cas, il ne s’agira plus de calculer une probabilité d’apparition d’une valeur donnée mais d’un
intervalle.
Quelques exemples :
1. moyenne des tailles de 20 étudiants pris au hasard :X(w) ∈ [α, β].
2. longueur de cheveux : X(w) ∈ [0; 4m]
0
3. temps d’attente pour avoir le bus :X(w) ∈ [0, 10 ]
25
3.2.1 Fonction de répartition
Définition 3.2.3. La fonction de répartition d’une v.a.r. X est l’application F de R dans [0, 1] définie
par
F (x) = PX (X < x) = P(X −1 (] − ∞, x[))
Définition 3.2.4. Pour une variable continue, on travaille la plupart du temps avec un ensemble de
définition sur les réels. La probabilité ponctuelle P(X = x) = f (x) est la fonction de densité. La fonction
de répartition F (x) = P(X ≤ x) est définie par :
Z x
F (x) = f (t)dt
−∞
La densité de probabilité d’une variable aléatoire continue est la dérivée première par rapport à x de la
fonction de répartition. Cette dérivée prend le nom de fonction de densité, notée f (x) = dF (x)
dx
.
Pour calculer la probabilité P(a ≤ X ≤ b) dans le cas d’une variable continue, le calcul est le suivant
Rb
a
f (x)dx. Développons cette expression :
= F (b) − F (a)
Propriétés 3.2.1. Soit X une variable aléatoire continue à valeurs dans un intervalle [a, b] muni d’une
fonction de densité f . Alors
1. Probabilité d’un point : Pour tout réel c ∈ [a, b] avec P (X = c) = 0
26
2. Les bornes n’ont pas d’importance Pour tous nombres réels c, d ∈ [a, b]
2) Soit x0 ∈ R., X −1 ([x0 − n1 , x0 [) décroît vers ∅ quand n tend vers l’infini, donc F (x0 ) − F (x0 . − n1 )
tend vers 0. Comme F est croissante, cela implique que F est continue à gauche.
3-) De même, X −1 ([x0 , x0 + n1 [) décroît vers X −1 (x0 ) donc la différence F (x0 + n1 ) − F (x0 ) tend
vers P (X −1 (x0 )) quand n tend vers l’infini.
27
4-) F étant croissante, F (−∞) = limn−→∞ F (−n). Or ] − ∞, −.n[ décroît vers, quand n tend
vers l’infini ; ainsi F (−n) = P (X −1 (] − ∞, −n[)) décroît vers 0. De même, ] − ∞, −n[ croît vers R
quand n tend vers l’infini et F (n) = P(X −1 (] − ∞, n[)) croît vers P(X ∈ R) = 1
Théorème 3.2.1. de transfert Soit X de densité f , soit ϕ une fonction définie sur R, continue sauf
en un nombre fini de points. Alors, sous réserve de convergence absolue de l’intégrale :
Z +∞
E(ϕ(X)) = ϕ(x)f (x)dx
−∞
= aE(X) + b
On notera bien que dans le cas général E(ϕ(X)) n’est pas égal à ϕ(E(X)), par exemple E(X 2 ) 6=
(E(X))2 .
Théorème 3.2.2. de Koenig-Huygens Soit X de densité f . X admet une espérance et une variance
ssi X admet un moment d’ordre 2, c’est-à-dire ssi l’intégrale
Z
2
µ2 (X) = E(X ) = x2 f (x)dx < ∞
R
Définition 3.2.6. On appelle moment simple d’ordre r de la v.a.r. X, où r est un entier positif, la
28
valeur (si elle existe)
µr = E(X r )
Ainsi µ1 est la moyenne de X que l’on note plus simplement µ (ou µX il y a plusieurs v.a.r. à
distinguer). En fait les caractéristiques de forme reposent plutôt sur les moments centrés, c’est-à-dire
sur les espérances mathématiques des puissances de X − E(X), ou X − µ, transformation de X appelée
centrage de X.
Définition 3.2.7. On appelle moment centré d’ordre r de la v.a.r. X, où r est un entier positif, la
valeur (si elle existe)
0
µr = E(X − µ)r
Variance
Soit X de densité f , admettant une espérance E(X). Par définition
Z +∞
V ar(X) = (x − E(X))f (x)dx = E(X − E(X))2
−∞
Propriétés 3.2.3. Soit X une variable aléatoire à densité dont le moment d’ordre 2 existe (E(X 2 ) <
+∞). La variance de X par rapport a l’origine est définie par
Preuve 3.2.3.
V ar(X) = E(X − E(X))
Z
= (x − E(X))2 f (x)dx
ZR
= (x2 − 2xE(X) + (E(X))2 )f (x)dx
ZR Z 2
2
= x f (x)dx − xf (x)dx
R R
2 2
= E(X ) − (E(X))
Avec Z
2
(E(X)) = (E(X))2 − 2xE(X))f (x)dx
R
Théorème 3.2.3. (Inégalité de Markov)Si X est une v.a.r. positive ayant une espérance alors
E(X)
∀t > 0, P(X ≥ t) ≤
t
29
Preuve 3.2.4. Dans la série E(X), on regroupe les termes en deux paquets selon la position de xk par
rapport à t :
+∞
X
E(X) = xk P(X = xk )
k=1
X X
= xk P(X = xk ) + xk P(X = xk )
k|xk <t k|xk ≥t
X
=0+t P(X = xk ) car {X ≥ t} = ∪k|xk ≥t {X = xk }
k|xk ≥t
≥ tP(X ≥ t).
Théorème 3.2.4. (Inégalité de Tchebychev) Si V ar(X) existe, on a pour tout t > 0
V ar(X)
P(|X − E(X)| ≥ t) ≤
t2
Preuve 3.2.5. Il suffit dé appliquer théorème 3.2.3 la variable aléatoire Y = (X −E(X))2 en remarquant
que {|X − E(X)| ≥ t} = {(X − E(X))2 ≥ t2 } et que par définition
– On rappelle qu’un ensemble Eest dénombrable s’il peut être mis en bijection avec N : les éléments
de E peuvent donc être indexés par N .
Les ensembles N, Z, Q, N2 sont dénombrables. Toute partie infinie d’un ensemble dénombrable
est dénombrable. Toute réunion dénombrable d’ensembles dénombrables est dénombrable.
L’ensemble R des réels, l’ensemble P(N) des parties de N, ne sont pas dénombrables
30
– Tout ensemble E fini ou dénombrable peut s’écrire sous la forme E = {xi |i ∈ I} ou I est une
partie de N et l’application i 7−→ xi une bijection de I sur E (on peut prendre I = N si E est
dénombrable, I = 1, . . . , n si E est fini de cardinal n).
Dans la suite de ce chapitre, si X est une variable aléatoire discrète, nous noterons donc X(Ω) =
{xi , i ∈ I} ou I est une partie de N .
La plupart du temps on aura X(Ω) ⊆ N ou X(Ω) ⊆ Z.
Proposition 3.3.1. Soit (Ω, F, P ) un espace probabilisable et X une application de Ω dans R telle que
X(Ω) soit fini ou dénombrable. On note X(Ω) = {xi , i ∈ I}, ou I est une partie de N .
Alors X est une variable aléatoire réelle discrète si, et seulement si,
[X = xi ] = {w ∈ Ω, X(w) = xi } ∈ F
Preuve 3.3.1. Comme X(Ω) est au plus dénombrable, si X est une variable aléatoire, c’est une variable
aléatoire réelle discrète, que si X est une variable aléatoire alors, pour tout i ∈ I, [X = xi ] est un
événement.
Supposons réciproquement que cette condition est réalisée. Montrons alors que X est une variable aléa-
toire réelle, c’est-a-dire que, pour tout réel x, {w ∈ Ω, X(w) ≤ x} est un élément de la tribu F. Comme
X(Ω) = {xi , i ∈ I}, on a
{w ∈ Ω, X(w) ≤ x} = {w ∈ Ω, ∃i ∈ I, X(w) = xi et xi ≤ x}
= {w ∈ Ω, ∃i ∈ I, [X = xi ] et xi ≤ x}
= ∪i∈I,xi ≤x [X = xi ]
P :F −→[0, 1]
A 7−→P(A)
31
– Si X est une variable finie telle que X(Ω) = {x1 , x2 , . . . , xn }, on a
n
X
P([X = xk ]) = 1
k=1
∞
X
P([X = xk ]) = 1
k=1
Remarque 3.3.2. Ce n’est pas la moyenne des k r pondérés par la probabilités correspondes
Propriétés 3.3.2. L’espérance mathématique d’une v.a. X, Y vérifie les propriétés suivantes :
– a)Espérance d’une constante :
E(c) = c ∀c ∈ R
– b)Linéarité :
E(aX + bY ) = aE(X) + bE(Y ) ∀a, b ∈ R
Définition 3.3.4. Toute variable aléatoire réelle discrète admettant une espérance nulle est dite centrée.
Corollaire 3.3.1. Soit X est une variable aléatoire réelle discrète admettant une espérance E(X). Pour
tout couple (a, b) de réels, aX + b est une variable aléatoire réelle discrète admettant aE(X) + b comme
espérance
Propriétés 3.3.3. Pour toute variable aléatoire réelle discrète X admettant une espérance E(X), la
variable aléatoire X − E(X) est une variable aléatoire réelle discrète centrée appelée variable aléatoire
centrée associée à X.
Preuve 3.3.2. Notons que E(X) est un réel qu’on considère comme une variable aléatoire constante ;
celle-ci a pour espérance E(X). D’après le corollaire 3.3.1, la variable aléatoire X − E(X) est une
variable aléatoire réelle discrète admettant une espérance et
32
3.3.3 Variance et écart-type
Définition 3.3.5. Soit X une variable aléatoire discrète dont le moment d’ordre 2 existe (E(X 2 ) < +∞).
La variance de X est donnée par :
X
V ar(X) = E(X − E(X))2 = (k − E(X))2 P(X = k)
k∈N
Preuve 3.3.3. Si X possède un moment d’ordre 2, elle possède un moment d’ordre 1,c’est-à-dire une
espérance
(X − E(X))2 = X 2 − 2E(X)X + ((E(X))2 ,
on en déduit par linéarité que (X − E(X))2 possède une espérance. Ainsi V ar(X) existe et
puisque E(X) est une variable aléatoire constante dont l’espérance est E(X).
3.
V ar(a) = 0
33
Alors
V ar(aX) = a2 V ar(X)
Vocabulaire
∞
X
E[g(X)] = g(xk )P(X = xk )
k=1
Preuve 3.3.5. Notons Y = g(X), l’ensemble des valeurs prises par la v.a. Y est
{g(x1 ), . . . , g(xk ), . . .}
avec éventuellement des répétitions car g n’est pas nécessairement injective. En notant
{y1 , . . . , yk , . . .}
l’ensemble des valeurs de Y sans répétition (i.e. les yi sont deux à deux distincts), on a :
∞
X
E(Y ) = E(g(X)) = yi P(Y = yi ) (3.2)
i=1
{Y = yi } = ∪k|xk ∈B {X = xk } (3.3)
34
en effet {Y = yi } ⊂ ∪k|xk ∈B {X = xk } car si w ∈ {Y = yi } alors g(X(w)) = Y (w) = yi . Or il existe k
tel que X(w) = xk . Comme alors g(xk ) = yi , on a xk ∈ Bi . Autrement dit, il existe k vérifiant xk ∈ Bi
tel que X(w) = xk , c’est à dire
w ∈ ∪k|xk ∈B {X = xk }
La série précédente est absolument convergente car g est constante sur Bi . Comme les Bi forment une
partition de X(Ω), les propriétés des séries à termes positifs donnent
+∞
X +∞ X
X
|g(xk )|P(X = xk ) = |g(xk )|P(Y = yi ) < +∞
k=1 i=1 xk ∈Bi
par hypothèse (existence de E[Y ]). Ceci légitime le même calcul sans les valeurs absolues et prouve la
proposition .
Preuve 3.3.6. X ≥ 0 signifie que pour tout w ∈ Ω , on a X(w) ≥ 0. De même, X ≤ Y signifie que
pour tout w ∈ Ω , on a X(w) ≤ Y (w).
Il suffit de voir le premier point, le deuxième se voit en appliquant le premier à Z = Y − X et en
appliquant la linéarité de l’espérance.
Soit donc X ≥ 0, l’ensemble des valeurs xk prises par X est dans R+ . E(X) apparaît alors comme une
série avec que des termes positifs, elle est a fortiori positive
gX (u) = E(uX )
Par définition de l’espérance mathématique d’une fonction aléatoire, on a donc, s’agissant d’une variable
aléatoire à valeurs entières
+∞
X
gX (u) = uk P(X = k)
k=0
35
La définition de la fonction génératrice conduit à :
+∞
X
gX (u) = uk P(X = k)
k=0
donc la probabilité que X égale n est le coefficient de un dans le développement en série entière de gX (u)
au voisinage de 0.
Si on développe gX (u) en série de Taylor, sous la forme :
+∞ k
X g (0)X
gX (u) = uk
k=0
k!
+∞ k
X g (0) X
P(X = k) =
k=0
k!
Remarque 3.4.1. Si la fonction génératrice de X est un polynôme, les valeurs de X sont les puissances
de u et la probabilité d’une valeur n est le coefficient de un dans le polynôme.
n
mn = E(X(X − 1)(. . .)(X − (n − 1))) = gX (1)
Par extension de la définition, on appelle moment factoriel d’ordre 0 la valeur de la fonction géné-
ratrice pour u = 1 :
+∞
X
m0 = E(1) = gX (1) = 1 = P(X = k) (condition de normalisation).
k=0
Les moments factoriels interviennent dans le développement de la fonction génératrice en série entière
36
au voisinage de 1
+∞ k +∞
X g (1) X
X mk
gX (1 + v) = vk = vk
k=0
k! k=0
k!
Proposition 3.4.2. Soit une v.a. X dont la fonction génératrice est gX (u). Alors
0
E(X) = gX (1) = m1 (3.5)
00 0 0
V ar(X) = gX (1) + gX (1) − (gX (1))2 = m2 + m1 − m21 (3.6)
En particulier, si la densité de la v.a. X, f (x) = FX (x) existe, la fonction carapaté rustique représente
la transformée de Fourier de la densité f :
Z
ΦX (t) = E(e itX
)= eitx f (x)dx (3.8)
R
ΦkX (t)
E|X k eitX | = (3.9)
ik
6. pour tout α, β ∈ R
ΦαX+β (t) = eiβt ΦX (αt) (3.10)
Théorème 3.5.1. Soit X une variable aléatoire de fonction caractéristique Φ(αt). Si Φ(αt) est inté-
grable,alors X admet une densité de probabilité donnée par
Z
1
f (x) = e−itx ΦX (t)dt (3.11)
2π R
37
Théorème 3.5.2. Soit X1 , . . . , Xn des variables aléatoires de carré intégrable. Alors X1 + . . . + Xn est
de carré intégrable et si les Xi sont indépendantes,alors
n
X
V ar(X1 + . . . + Xn ) = V ar(Xi )
i=1
Preuve 3.5.1. Le fait que la somme X1 + . . . + Xn est de carré intégrable découle de l’inégalité
n
X 2
V ar(X1 + . . . + Xn ) = E Xi − E(Xi )
i
n
X
=E Xi − E(Xi ) Xj − E(Xj )
i,j
Si Y et Z sont deux variables de carré intégrable, comme |Y Z| ≤ (Y 2 + Z 2 )/2, leur produit Y Z est
intégrable. Donc chaque terme (Xi − E(Xi ))(Xj − E(Xj )) est intégrable et par linéarité de l’espérance,
n
X n X
X n
V ar(X1 + . . . + Xn ) = V ar(Xi ) + E((Xi − E(Xi ))(Xj − E(Xj )) =
i=1 i=1 i6=j=1
Parfois, il est plus facile de calculer directement l’espérance à l’aide de la fonction de répartition à
l’aide du résultat suivant :
Théorème 3.5.3. Si X est une variable aléatoire réelle positive de fonction de répartition FX , alors
Z +∞ Z +∞
E(X) = P(X > t)dt = (1 − FX (t))dt
0 0
X X
P(X > n) < +∞ ou 2n P(X > 2n ) < +∞
n≥0 n≥0
38
Z +∞ Z +∞
P(X > t)dt = E(1(X>t) )dt
0 0
Z +∞
=E 1(X>t) dt
0
Z X
=E dt
0
= E(X)
Pour la deuxième partie, on voit que pour t ∈ [n, n + 1], on a P(X > n + 1) ≤ P(X > t) ≤ P(X > n) et
donc
Z n+1
P(X > n + 1) ≤ P(X > t)dt ≤ P(X > n)
n
puis en sommant
X Z +∞ X
P(X > n + 1) ≤ P(X > n)dt ≤ P(X > n)
n≥0 0 n≥0
en décomposant [0, +∞[ en intervalles [n, n + 1[. De la même façon avec [0, +∞[= ∪+∞ n n+1
n=0 [2 , 2 [
X Z +∞ X
n n+1
2 P(X > 2 )≤ P(X > t)dt ≤ P(X > 2n )
n≥0 1 n≥0
R1
et comme 0 ≤ 0
P(X > t)dt ≤ 1 on a
X Z +∞ X
n n+1
2 P(X > 2 )≤ P(X > t)dt ≤ 1 + P(X > 2n )
n≥0 0 n≥0
39
Chapitre 4
Lois usuelles
Dans cette note est faite une liste des lois de probabilité usuelles sur R sur une de ses sous-parties
ainsi que quelques unes de leurs propriétés (moyenne, variance, fonction caractéristique). Qualifier ces
lois de probabilité d’usuelles signifie qu’elles doivent être connues de tous et non qu’elles seraient les
seules qu’on puisse rencontrer dans un problème, un exercice et surtout dans une situation concrète. De
nombreuses propriétés sont données sans démonstration. Elles peuvent être traitées en exercice.
Notation La loi uniforme sur [a, b]est notée U[a;b] . On peut aussi définir la fonction de répartition F
donnée par :
Z x 0,
si ; x < a
FX (x) = f (t)dt = x−a
b−a
, si a≤x≤b
−∞
si x > b
1,
GX (s) = E(sX )
Z b
= esx f (x)dx
a
1 1 sx b
= [ e ]a
b−a t
ebt − eat
=
(b − a)t
et
φX (s) = E(eitX )
Z b
= eitx f (x)dx
a
1 1 itx b
= [ e ]a
b−a t
eibt − eiat
=
(b − a)it
41
4.1.2 Loi exponentielle
Définition 4.1.2. Soit λ un paramètre réel strictement positif. On dit que la variable aléatoire réelle X
suit la loi exponentielle de paramètre λlorsque X admet pour densité de probabilité la fonction
(
0, si t ≤ 0,
λe −λt
, si t > 0
1 −1 (x−m)
2
f (x) = √ e 2 σ2
2πσ 2
Notons que l’on ne peut pas calculer formellement la probabilité d’un intervalle. En effet, la fonction de
répartition est Z x Z x
1 −1 (t−m)
2
FX (x) = f (t)dt = √ e 2 σ2 dt
−∞ 2πσ 2 −∞
42
Définition 4.2.1. On appelle v.a. indicatrice de l’événement A la v.a. définie sur par
(
1, si w ∈ A
1A (w)
0, si w ∈ Ā
1A 0 1
pi 1−p p
Si X est une variable aléatoire de loi la loi de Bernoulli de paramètre p ∈ [0, 1], alors elle admet des
moments a tout ordre et on a :
On sait que X(Ω) = {0, 1} alors
E(X) = 0 × (1 − p) + 1 × p = p
et
V ar(X) = E(X 2 ) − (E(X))2
= 0 × (1 − p) + 12 × p − p2
= p − p2
= p(1 − p)
et
GX (s) = 1 − p + ps
et la fonction caractéristique
φX (t) = E(eitX ) = ((1 − p) + peit )
Définition 4.2.2. La variable aléatoireX=«nombre total de succès» (au cours des n répétitions) est
appelée v.a. binomiale de paramètres (n, p). Pour abréger la loi d’une telle v.a. sera désignée par
B(n, p)
43
Preuve 4.2.1. L’événement [X = k] est l’ensemble des n-uplets composés de k lettres S et n − k lettres
E qui sont au nombre de Cnk . Tous ces n uplets ont la même probabilité pk (1 − p)n−k (par définition de
la probabilité produit). D’où le résultat
Si on considère les événements Ei =«échec au i-ème coup» et Si =«succès au i-ème coup», on peut écrire
l’événement [X = n] sous la forme
[X = n] = E1 ∩ E2 ∩ . . . ∩ En−1 ∩ Sn (4.2)
Définition 4.2.3. La loi de probabilité (4.3) de la v.a. «instant du premier succès» considérée en (4.1)
s’appelle loi géométrique (ou loi de Pascal).
λn
∀n ∈ N, P(X = n) = e−λ
n!
n
Remarque 4.2.1. On notera que les nombres pn = e−λ λn! constituent bien une loi de probabilité sur N
puisqu’ils sont positifs et de somme
∞ ∞
X
−λ
X λn
pn = e =1
n=0 n=0
n!
44
4.2.5 Loi uniforme discrète
Définition 4.2.5. Une variable aléatoire discrète X prenant un nombre fini de valeurs x1 , x2 , . . . , xn
suit une loi uniforme (équirépartie) sur l’ensemble{x1 , x2 , . . . , xn }, si :
1
P0 (X = xk ) = , ∀k = {1, 2, . . . , n}.
n
Reprenons l’exemple de tirages successifs au hasard, indépendants et avec remise dans une urne contenant
des boules bleues et rouges en proportion respectivement p et q = 1 − p. Soit Y le nombre de tirages
que l’on doit faire pour obtenir n boules bleues. Alors la v.a.r. X = Y − n représentant donc le nombre
de boules rouges obtenues avant d’avoir n boules bleues suit une loi binomiale négative. On retrouve
facilement que
n−1
P(X = k) = Cn+k−1 pn q k , où q = 1 − p.
puisque l’événement {X = k}signifie que sur les k + n tirages on a eu k boules rouges et n boules bleues,
dont l’une est la dernière tirée. La probabilité de chaque résultat élémentaire permettant à l’événement
{X = k} d’être vérifié est donc pn q k . Or l’événement {X = k} est la réunion deCn+k−1
n−1
résultats
élémentaires différents : une boule bleue étant tirée en dernier, il reste Cn+k−1
n−1
façons différentes de
placer les autres boules bleues. Remarquons que, bien sûr, pour n = 1 la loi de Y est une loi géométrique
G(p) :
Alors
λ
Cnk pkn (1 − pn )n−k −→ e−λ
k!
Autrement dit, si Xn est une suite de v.a. de loi binomiale B(n, pn ) et X une v.a. de loi P(λ) alors pour
tout k ∈ N :
lim P(Xn = k) = P(X = k)
n−→∞
45
Preuve 4.2.2. On remplace pn par son équivalent nλ . Pour k fixe,
Application pratique. Le théorème 4.2.1 sert de justification théorique à la réglé pratique suivante :
lorsque n est « grand » et np est « petit », on peut remplacer la loi binomiale B(n, p) par la loi de Poisson
P(λ) où λ = np.
En général, on considéré que lorsque n est de l’ordre de quelques centaines et np est de l’ordre de
quelques unité, l’approximation de B(nnp) par P(np) est assez bonne. Intérêt : si n est grand, le calcul
des coefficients binomiaux Cnk est fastidieux, voire impossible. En approchant par la loi de Poisson, le
calcul devient assez simple.
C = {A1 × A1 , Ai ∈ B}
On peut démontrer que B(R) × B(R) = B(R2 ) (tribu engendrée par les ouverts de R2
46
Preuve 4.2.3. a) Z est une v.a., on sait que si on la compose avec une autre application mesurable, on
obtient une application encore mesurable. L’application de R2 dans R telle que (x, y) −→ x est continue,
donc boréliennes (mesurable si on munit R et R2 de leurs tribus boréliennes B(R) et B(R2 ) donc X est
mesurable , c’est une v.a sur R
b)Xet Y sont 2 v.a de (Ω, F) sur R. soit un pavé de C : A1 ×A2 avec Z −1 (A1 ×A2 ) = {w ∈ Ω, /Z(w) ∈
A1 × A2 } donc
Théorème 4.2.3. soient la v.a Z = (X, y) et r une application borélienne de R2 dans R alors r(X, Y )
est une v.a réelle
P(X = xi ) = Pi. ∀i ∈ I
P(Y = xj ) = P.j ∀j ∈ J
Définition 4.2.7. La lois du couple (X, Y ) est définit par les nombres
P(X = xi , Y = xj ) = pij
où pij = 1 et pij ≥ 0,
P
∀(i, j) ∈ I × J
Lois marginales On peut s’intéresse seulement à la valeur de l’une des composantes. Ainsi :
et de même
X
P.j = Pij
i
Si les Pij sont données sous forme de tableau, on voit que les pi. et les p.j peuvent s’écrire (en marge
) du tableau (somme par ligne ou par colonne. ) C’est pourquoi pi. et p.j sont appelés (lois marginales).
X et Y sont les (variables marginales )
47
Il est peut être prudent de rappelr que le couple (X, Y ) et les 2 variables marginales X et Y sont 3
v.a distinctes.
Exemple 4.2.1. Soit le couple aléatoire (X, Y ) où X prend les valeur 0, 1, 2 et Y les valeurs 0, 1, la lo
du couple est donnée par le tableau ci-dessous
Y /X 0 1 2 Somme=Loi marginale de Y
0 1
10
2
10
1
10
4
10
1 1
10
3
10
2
10
6
10
Somme=Loi marginale de Y 2
10
5
10
3
10
1
∂ 2H ∂ 2H
h(x, y) = (x, y) = (x, y)
∂x∂y ∂y∂x
existent, alors h s’appelle densité de probabilité du vecteur V .
On dit alors que le vecteur aléatoire a une loi de probabilité absolument continue.
Propriétés 4.2.2. les propriétés de H sont da la même nature qu ’ a 1 dimension, et sont énoncées ci
dessous :
Rx Ry
1. 0 ≤ H ≤ 1 et −∞ −∞
h(u, v)dudv
0 0
2. H est croissante, c’est-à- dire que si x ≤ x et y ≤ y alors
0 0
H(x, y) ≤ H(x , y )
48
7. H(x, +∞) = P(X ≤ +∞, Y ≤ y) = P(Y ≤ y) = G(y)
8. H(+∞, +∞) = F (+∞) = G(+∞) = 1
9. P ({x ≤ X ≤ x + dx} ∩ {y ≤ Y ≤ y + dy}) = H(x, y)dxdy
10. Appelons f et g les densités marginales de X et de Y respectivement :
Z +∞
h(x, y)dy = f (x)
−∞
Z +∞
h(x, y)dx = g(y)
−∞
Rx R +∞
En effet, F (x) = H(x, +∞) = −∞
du −∞
h(u, y)dy D’ou
Z +∞
0
f (x) = F (x) = h(x, y)dy
−∞
P(Z ≤ z) = P(r(X, Y ) ≤ z)
Z étant une v.a discrète, il est plus commode de décrire sa loi de probabilité en donnant les proba-
bilités de tous les événements possibles {Z = z}
X
P{Z = z} = )P((X = xi ) ∩ (Y = yj ))
r(xj ,yj
49
Cas discret On donne le couple (X, Y ) dont la loi de probabilité est décrite par tableau ci-dessous.
Y /X X = −1 X=0 X = +1
Y = −3 0.1 0.05 0
Y = −1 0.15 0.1 0.1
Y =1 0 0.15 0.2
Y =2 0, 1 0 0.05
P(Z = −3) = 0 , P(Z = −2) = 0.1 , P(Z = −1) = 0.1 , P(Z = 0) = 0.3
et
P(Z = 2) = 0, 05 , P(Z = 3) = 0.1
Cas continu
Somme de deux variables aléatoires.
Soit (X, Y ) un couple aléatoire absolument continu et soit h(x, y) sa densité de probabilité. La variable
aléatoire
Z =X +Y
où ∆ est demi plan formé par les points M (x, y) tel que x + y < z
Effectuant le changement de variables
(x, y) = (x, z − x)
0 0
où ∆ est l’image de ∆ dans XOZ. (i.e ∆ est le demi plan )
Z Z
P(Z ≤ z) = f (x, z − x)dxdz
R R
50
Posons
Y1 = r1 (X1 , X2 ) , Y2 = r2 (X1 , X2 )
On note
X1 = s1 (Y1 , Y2 ) , X2 = s2 (Y1 , Y2 )
Propriétés 4.2.3. La loi de probabilité du vecteur aléatoire Y = (Y1 , Y2 ) définie par Y = r(X) où
X = (X1 , X2 ), admet une densité g donnée par la relation :
Preuve 4.2.4. On remarque d’abord que, r étant mesurable. Y est bien un vecteur aléatoire. Soit G la
f.d.r de Y .
G(t1 , t2 ) = P((Y1 ≤ t1 ) ∩ (Y2 ≤ t2 ))
et
P(r1 (X1 , X2 ) ≤ t1 ) ∩ (r2 (X1 , X2 ) ≤ t2 ))
r1 (X1 , X2 ) ≤ t1
et
r2 (X1 , X2 ) ≤ t2
Z Z
G(t1 , t2 ) = P((X1 , X2 ) ∈ D1 ∩ D2 ) = f (x1 , x2 )dx1 dx2
D1 ∩D2
1 x2 + x22
f (x1 , x2 ) = exp(− 1 )
2π 2
51
effectuons le changement de variables
(X1 , X2 ) = (Y1 , Y1 Y2 )
Définition 4.2.9. L’espérance du vecteur aléatoire (X, Y ) est le vecteur (E(X), E(Y ))),s’il existe, c’est
-à-dire si E(X) et E(Y ) existent
Alors Z Z Z Z Z Z
(x + y)h(x, y)dxdy = x h(x, y)dxdy + y h(x, y)dxdy
R R R R R R
or Z
h(x, y)dy = f (x) la densité de X
R
et Z
h(x, y)dx = g(y) la densité de Y
R
D’ou Z Z
E(X + Y ) = xf (x)dx + yg(x)dy = E(X) + E(Y )
R R
Lois conditionnelles.
Définition 4.2.10. Étant donnée la loi conjointe d’un couple aléatoire réel discret (X, Y ), la loi condi-
52
tionnelle de X pour Y fixé est définie par
P ((X = xi ) ∩ Y = yj )
P ((X = xi ) (Y = yj )) =
P (Y = yj )
La loi conditionnelle de X s’obtient, pour chaque valeur de Y , en divisant la probabilité conjointe dans
une case, par la somme de la colonne.
La loi conditionnelle de Y s’obtient, pour chaque valeur de X, en divisant la probabilité conjointe dans
une case, par la somme de la ligne :
Définition 4.2.11. Deux variables aléatoires sont dites indépendantes si tous les couples d’événements
X = xi , Y = yj sont indépendants. Autrement dit, xi ∈ X(Ω), yj ∈ Y (Ω),
Dans l’énoncé suivant, l’hypothèse d’indépendance est essentielle. Pour une fois, elle ne permet pas
une factorisation mais une sommation
Preuve 4.2.6. Le fait que la somme X1 + . . . + Xn est de carré intégrable découle de l’inégalité (X1 +
. . . + Xn )2 = n(X12 + . . . + Xn2 ) . Par linéarité de l’espérance,
n
X 2
V ar(X1 + . . . + Xn ) = E Xi − E(Xi )
i=1
On sait que
n
X
V ar(X1 + . . . + Xn ) = E Xi − E(Xi ) Xj − E(Xj )
i,j=1
53
Si Y et Z sont deux variables de carré intégrable, comme |Y Z| = (Y 2 + Z 2 )/2, leur produit Y Z est
intégrable. Donc chaque terme (Xi − E(Xi ))(Xj − E(Xj )) est intégrable et par linéarité de l’espérance,
n
X n X
X
V ar(X1 + . . . + Xn ) = V ar(Xi ) + E(Xi − E(Xi ))(Xj − E(Xj ))
i=1 i=1 i6=j
E Xi − E(Xi ))(Xj − E(Xj ) = E Xi − E(Xi ) E Xj − E(Xj ) = 0
xi 1 2
P (X = xi ) 0, 7 0, 3
yi -2 5 8
P (Y = yi ) 0, 3 0, 5 0, 2
X / Y −2 5 8 Somme
1 0, 21 0, 35 0, 14 0, 7
2 0, 09 0, 15 0, 06 0, 3
Somme 0, 3 0, 5 0, 2 1
2°) Covariance.
E(X) = 0, 7 × 1 + 0, 3 × 2 = 1, 3
E(Y ) = 0, 3 × (−2) + 0, 5 × 5 + 0, 2 × 8 = 3, 5
4.2.13 Exercice
Exercice 4.2.1. Soit X une variable aléatoire qui suit une loi binomiale de paramètre n, p, soit
X ∼ B(n, p) Alors
E(X) = np,
54
V ar(X) = np(1 − p)
et
GX (s) = (1 − p + ps)n
et la fonction caractéristique
φX (t) = ((1 − p) + peit )n
1
E(X) =
p
et
q
V ar(X) = ,
p2
ps
GX (s) =
1 − (1 − p)s
Exercice 4.2.3. On dit qu’une variable aléatoire X suit une loi uniforme discrète lorsqu’elle prend ses
valeurs dans {1, . . . , n}
n+1
E(X) =
2
n2 − 1
V ar(X) =
12
Exercice 4.2.4. Soit X une variable aléatoire qui suit une loi exponentielle de paramétré (X ∼ E(λ)),
dont sa densité est donnée par : (
0, si λ<0
λe−λx , si λ ≥ 0
Alors
1
E(X) =
λ
et
1
V ar(X) = ,
λ2
λ
GX (s) =
λ−t
et
λ
φX (t) =
λ − it
Exercice 4.2.5. Soit X une variable aléatoire de Poisson de paramètre X ∼ P(λ), alors
E(X) = λ et V ar(X) = λ
55
et
GX (s) = eλ(s−1)
et
it −1)
φX (s) = eλ(e
Exercice 4.2.6. Soit X une v.a. dont la loi binomiale de paramètres n et p (relation notée X ∼ B(n, p))
si sa loi de probabilité est Calculer E(X), V ar(X) par la fonction génératrice
Exercice 4.2.7. Soit X ∼ N (0, 1). Alors L’espérance mathématique et varaince de X est
E(X) = 0 V ar(X) = 1.
– a) Expliciter l’espace des épreuves et préciser la loi de probabilité pour cette expérience.
– a) Expliciter l’espace des épreuves et préciser la loi de probabilité pour cette expérience.
Exercice 4.2.10. Loi binomiale. Dans un livre de deux cents pages, il y a vingt fautes d’impression,
réparties au hasard.
On modélise cette situation en considérant l’espace Ω = {1, ..., 200}20 muni de la probabilité uniforme P.
1°) On considère une page donnée, de numéro n. Quelle est la probabilité que s’y trouvent deux fautes
56
d’impression ?
2°) On considère un ensemble E de 10 pages.
a) Quelle est la probabilité que s’y trouvent trois fautes d’impression ?
b) Sachant que, dans l’ensemble E se trouvent trois fautes d’impression, quelle est la probabilité que ces
trois fautes soient toutes sur la première page de E ?
57
Exercice 4.2.15. Soit X une variable aléatoire de Poisson de paramètre λ.
Calculer E(cos(πX)) et V ar(2X + 3).
Exercice 4.2.17. Loi hypergéométrique. Dans une boîte, il y a 6 boules rouges et 8 boules jaunes.
On tire au hasard 3 boules de la boîte, sans remise.
Soit X (respectivement Y ) le nombre de boules rouges (respectivement jaunes) tirées parmi les 3.
1°) Expliciter la loi de X. 2°) Calculer :
– a) E[X].
– b) E[Y ].
– c) V ar(Y ).
Exercice 4.2.18. On suppose que la glycémie est distribuée normalement dans la population, avec une
moyenne de 1g/l et un écart-type de 0, 03g/l. On mesure la glycémie chez un individu. 1- Calculer la
probabilité pour que sa glycémie soit :
– a) inférieure à 1,06 ;
– b) supérieure à 0,9985 ;
– c) comprise entre 0,94 et 1,08 ;
2- On mesure la glycémie chez 1000 individus choisis au hasard. Donner le nombre moyen d’individus
dont la glycémie est supérieure à 0, 99.
58
Chapitre 5
Corrections
64 = 1296
– (a) Pour former un carré, il suffit de choisir l’une des six faces, il y a donc 6 carrés possibles.
– (b) Pour former un brelan, il suffit de choisir une face qui sera répétée trois fois puis une autre,
différente de la première, qui se répétera une fois. Il y a donc :
A26 = 30
P (3, 1) = 4
– (c) Pour former une double-paire, il suffit de choisir deux faces parmi les six, chacune sera répétée
deux fois. Il y a donc :
C62
P22
C62 × P (2, 2) = 90
– (d) Pour former une simple-paire, il suffit de choisir une face parmi les six qui sera répétée deux
fois puis deux autres faces différentes, parmi les cinq restantes, qui seront répétées chacune une
seule fois. Ainsi, il y a donc :
C61 × C52 = 60
P (2, 1, 1) = 12
– (e) Le nombre de résultats banals est le nombre d’arrangements de quatre faces parmi les six faces :
A46 = 360
La solution1.9.2
1. Le nombre de manières de répartir les six pièces mécaniques, chacune dans un atelier différent, est
le nombre de permutations d’ordre 6 :
6! = 720
2. Le nombre de manières de répartir les six pièces mécaniques, deux à deux dans trois ateliers
différents, est le nombre de permutations d’ordre 6 avec les répétitions (2, 2, 2) :
6!
P (2, 2, 2) = = 90
2! × 2! × 2!
3. Le nombre de manières de répartir les six pièces mécaniques sur quatre ateliers différents, deux
recevant chacun deux pièces et les deux autres recevant chacun une seule pièce, est le nombre de
permutations d’ordre 6 avec les répétitions (2, 2, 1, 1) :
6!
P (2, 2, 1, 1) = = 180
2! × 2! × 1! × 1!
La solution1.9.3
60
permutations d’ordre n :
P (n) = n!
2. (a) Si les tômes 1 et 2 doivent se trouver côte à côte dans cet ordre, alors il y a (n − 1) manières
possibles pour les placer, puis (n − 2)! manières possibles pour placer les (n − 2) tômes restants.
Donc, le nombre de placements possibles dans ce cas est : (n − 1)!.
(b) Si les tômes 1 à p doivent se trouver côte à côte dans cet ordre, alors il y a (n − p + 1) manières
possibles pour les placer, puis (n − p)! manières possibles pour placer les (n − p) tômes restants.
Donc, le nombre de placements possibles dans ce cas est : (n − p + 1)!
n!
Cnp =
p!(n − p)!
En effet, si :
f : {1, . . . , p} −→ {1, . . . , n}
est une application strictement croissante, alors (f (1), ..., f (p)) est une combinaison d’ordre p de
{1, . . . , n}.
Réciproquement, soit {a1 , . . . , ap } une combinaison d’ordre p de {1, . . . , n} et soit σ une permutation de
{1, . . . , p} telle que
aσ1 < aσ2 < . . . < aσp
L’application f :
{1, . . . , p} −→ {1, . . . , n}
k −→ aσk
p (n + p − 1)!
Knp = Cn+p−1 =
p!(n − p)!
En effet, si :
f : {1, . . . , p} −→ {1, . . . , n}
est une application, alors (f (1), ..., f (p)) est une combinaison avec répétition d’ordre p de{1, . . . , n}.
Réciproquement, soit {a1 , . . . , ap } une combinaison avec répétition d’ordre p de {1, . . . , n}et soit σ une
61
permutation de {1, . . . , p} telle que :
L’application f :
{1, . . . , p} −→ {1, . . . , n}
k −→ aσk
est croissante.
D’où le résultat.
3-Démontrons que le nombre de solutions de l’équation :
n
X
xi = p p ∈ N, xi ∈ N
i=1
est le nombre de combinaisons avec répétition d’ordre p de {1, . . . , p}, c’est à dire :
p (n + p − 1)!
Knp = Cn+p−1 =
p!(n − 1)!
En effet, si (x1 , . . . , xn ) est une solution de cette équation, alors la suite dans laquelle l’élément 1 est
répété x1 fois, . . ., l’élément n est répété xn fois est une combinaison avec répétition d’ordre p de
{1, . . . , n}. Réciproquement, soit {a1 , . . . , ap } une combinaison avec répétition d’ordre p de {1, . . . , n}
et désignons par xi le nombre de répétition de l’élément i dans cette combinaison ; on a alors :
n
X
xi = p
i=1
est équivalente à :
n+1
X
∃xn+1 ∈ N xi = p
i=1
n+1
X
xi = p p ∈ N, xi ∈ N
i=1
62
à savoir :
p p
Kn+1 = Cn+p
P(D)P(S|D) 1
P(D|S) = =
P(S) 2
63
et
P(U2 ) = 0.5 , P(B|U2 ) = 0.9
P(U2 )P(B|U2 ) 45
P(U2 |B) = =
P(U1 )P(B|U1 ) + P(U2 )P(B|U2 ) 80
3
P(B) = P(A)P(B|A) + P(Ā)P(B|Ā) =
10
La solution2.6.4 1-La probabilité de tirer deux boules rouges est :
4 5 20
p1 = =
9 11 99
2- La probabilité de tirer deux boules bleues est :
5 6 30
p2 = =
9 11 99
3-La probabilité de tirer une boule bleue et une boule rouge est :
49
p3 = 1 − p1 − p2 =
99
La solution2.6.5 1-Le nombre d’épreuves qu’on peut- proposer au candidat est :
3
C100 = 161700
2-La probabilité pk pour que le candidat sache traiter exactement k sujets, 0 ≤ k ≤ 3, parmi les trois
sujets proposes est :
k 3−k
C50 C50
pk = 3
C100
d’où :
(a) La probabilité pour qu’il sache traiter les trois sujets est :
p3 = 0.1212
64
(b) La probabilité pour qu’il sache traiter seulement deux sujets est :
p2 = 0.3788
p1 = 0.3788
p0 = 0.1212
La solution2.6.6
Ui :le tirage est effectue de l’urne i, 0 ≤ i ≤ 9
9
X 19
P(N1 N2 ) = P(Uk )P(N1 N2 |Uk ) =
k=0
54
9
X 1
P(N1 ) = P(Uk P(N1 |Uk ) =
k=0
2
d’où :
P(N2 N1 ) 19
P(N2 |N1 ) = =
P(N1 ) 27
La solution2.6.7 Considérons les événements :
B : "le tirage est effectué de l’urne blanche"
N : "le tirage est effectué de l’urne noire"
Bn : "la ème boule est blanche"
65
Nn : "la ème boule est noire"
On a :
P(B) = p, P(N ) = q
et :
et pour tout n, n ≥ 2, on a : (
B1 = B1 B + B1 N
Bn = Bn Bn−1 + Bn Nn−1
de même : (
N1 = N1 B + N1 N
Bn = Nn Bn−1 + Nn Nn−1
1. D’après la formule des probabilités totales on a :
(
P(B1 ) = P(B1 |B)P(B) + P(B1 |N )P(N )
P(Bn ) = P(Bn |Bn−1 )P(Bn−1 ) + P(Bn |Nn−1 )P(Nn−1 )
et (
P(N1 ) = P(N1 |B)P(B) + P(N1 |N )P(N )
P(Nn ) = P(Nn |Bn−1 )P(Bn−1 ) + P(Nn |Nn−1 )P(Nn−1 )
d’où : (
p1 = (1 − α)p + βq
pn = (1 − α)pn−1 + βqn−1
et (
q1 = αp + (1 − β)q
qn = αpn−1 + (1 − β)qn−1
On en déduit que pour tout n, n ≥ 1, on a :
Vn = M Vn−1
66
et : !
p
V0 =
q
2- Il en résulte que pour toutn ∈ N. on a :
Vn = M n V0
(a)Si :
α=β=0
alors l’urne blanche ne contient que des boules blanches et l’urne noire ne contient que des boules noires.
Tous les tirages seront effectués de la même urne, celle choisie au départ.
(b)Si
α=β=1
alors l’urne blanche ne contient que des boules noires et l’urne noire ne contient que des boules blanches.
Les tirages seront effectués en alternant les deux urnes.
(c)Si
α+β =1
alors les deux urnes ont la même composition. Une fois que l’urne est choisie, il n’est plus nécessaire de
la changer
(a) Si :
α=β=0
M = I2
(b) Si
α=β=1
alors !
0 1
1 0
puisque :
M 2 = I2
67
on en déduit que pour tout k ∈ N∗ : !
p
V2k =
q
!
q
V2k+1 =
p
Les suites (pn )n∈N∗ et (qn )n∈N∗ . sont divergentes sauf lorsque :
1
p=q=
2
(c) Si
α=β=1
alors :
M2 = M
donc : !
1−α
Vn = M V0 =
α
d’où : (
pn = 1 − α
qn = α
68
et n
X
GX (s) = Cnk pk sk (1 − p)k = (1 − p + ps)n
k=0
On a n
X
itX
φX (t) = E(e )= Cnk pk (1 − p)n−k eiuk = ((1 − p) + peit )n
k=0
La solution4.2.2 ∞
X
2
E(X ) = kP(X = k)
k=1
∞
X
= kp(1 − p)k−1
k=1
∞
X 0
k
=p (1 − p)
k=0
1
=p
1 − (1 − p)
1 1
=p 2 =
p p
∞
X
2
E(X ) = k 2 P(X = k)
k=1
∞
X
= k 2 p(1 − p)k−1
k=1
X∞
=p k 2 (1 − p)k−1
k=1
∞
X 0
= −p (1 − p)k
k=0
On sait que
∞
X 0 1 − p 0 −2 + p −p2 − 2p(1 − p)
p k(1 − p)k =p =p=
k=0
p2 p2 p4
Donc
2−p
E(X 2 ) =
p2
D’ou
2−p 1 1−p
V ar(X) = E(X 2 ) − (E(X ))2 = 2
− 2 =
p p p2
69
Calculons la fonction génératrice
X
gX (s) = sn p(1 − p)n−1
n∈N∗
X
= ps((1 − p)s)n−1
n∈N∗
X
= ps((1 − p)s)k
k∈N
ps
=
1 − (1 − p)s
La solution4.2.3
1 1 1 1
E(X) = 1 + 2 + 3 + ... + n
n n n n
n
1 X
= k
n k=1
1 n(n + 1)
=
n 2
(n + 1)
=
2
n
X n(n + 1)
k = est la somme des premiers termes d’une suite arithmétique de raison 1 de premier
k=1
2
terme 1
1 1 1 1
E(X 2 ) = 12 + 2 2 + 3 2 + . . . + n2
n n n n
n
1 X
= k2
n k=1
1 n(n + 1)(2n + 1)
=
n 6
(n + 1)(2n + 1)
=
2
n
X n(n + 1)(2n + 1)
k2 = est un résultat classique qui se démontre par récurrence.
k=1
6
Ainsi,
V ar(X) = E(X 2 ) − (E(X))2
(n + 1)(2n + 1) (n + 1)2
= −
6 4
n2 − 1
=
12
70
La solution4.2.4 On sait que
Z
E(X) = xf (x)dx
ZR+∞ Z 0
= xf (x)dx + xf (x)dx
0 −∞
Z +∞
= xλe−λx dx
0
−1 h −λx i+∞
= e
λ 0
1
=
λ
On sait que
2 1 1
V ar(X) = E(X 2 ) − (E(X))2 = − =
λ2 λ2 λ2
inutile de calculer les moments. Pour t < λ on a
GX (s) = E(etX )
Z +∞
= esx λe−λx dx
Z0 +∞
= λe(s−λ)x dx
0
λ
= [e(s−λ)x ]x=∞
x=0
s−λ
λ
=
λ−s
71
et
φX (t) = E(eitX )
Z +∞
= eitx λe−λx dx
Z0 +∞
= λe(it−λ)x dx
0
λ
= [e(it−λ)x ]x=∞
x=0
it − λ
−λ
=
it − λ
La solution4.2.5
+∞
X
E(X) = kP(X = k)
k=1
+∞
X λk
= ke−λ
k=1
k!
+∞
X λk−1
= λe−λ
k=1
(k − 1)!
+∞
X λk
= λe−λ
k=0
(k)!
+∞
X λk
= e−λ eλ λ car e−λ =
k=0
(k)!
= λ + λ − λ2
2
=λ
2-X ∼ P(λ)
X λk
GX (s) = sk e−λ
k∈N
k!
X (sλ)k
= e−λ
k∈N
k!
= eλ(s−1)
72
φX (s) = E(eitX )
X λk
= eitk e−λ
k∈N
k!
X (eit λ)k
= e−λ
k∈N
k!
it −1)
= eλ(e
La solution4.2.6 Soit X une v.a. dont la loi binomiale de paramètres n et p (relation notée X ∼ B(n, p))
si sa loi de probabilité est donnée par
P (X = k) = Cnk pk (1 − p)n−k
0
h i
E(X) = gX (1) = m1 = np(pu + q)n−1 = np car p + q = 1
u=1
00 0 0
V ar(X) = gX (1) + gX (1) − (gX (1))2
h i
2 n−1
= n(n − 1) n(n − 1)p (pu + q) + np − (np)2
u=1
73
Ce qui justifie la dénomination de centrée pour la loi de X.La variance de X est l’espérance de (X −
R +∞
E(X))2 . Soit −∞ t2 f (t)dt soit u et v sont deux fonctions dérivables, à dérivées continues sur R avec
( 0
u(t) = √−t −→ u (t) = −1
√
2π 2π
0 2 /2 2 /2
v (t) = −te−t −→ v(t) = e−t
Ainsi
1
I1 = 0 , I2 = P (x ≤ X ≤ 0) =
2
et
1
I3 = 0 , I4 = P (0 ≤ X ≤ y) =
2
On en déduit que V ar(X) = 1
2
+ 1
2
GX (s) = E(exs )
Z +∞
1 x2
= esx √ e− 2 dx
−∞ 2π
Z +∞
1 x2 +2sx
=√ e− 2 dx
2π −∞
−v 2
C’est une intégrale gaussienne ; il convient de mettre l’exposant de l’intégrand sous la forme 2
+ c.On
a
−x2 −1 2
+ sx = (x − 2sx)
2 2
−1
= ((x − s)2 − s2 )
2
−v 2 s2
= +
2 2
74
pour v = x − s, et finalement
GX (s) = E(exs )
Z +∞
1s2 v2 s2
=e √ 2 e− 2 dv = e 2
2π −∞
Z +∞
φX (t) = eitx f1 (x)dx
−∞
Z +∞
1 −1 x − m 2
= √ eitx exp( ( ) dx
σ 2π −∞ 2 σ
Z +∞
1 1
= √ exp(− 2 (x − m)2 + itx)dx
σ 2π −∞ 2σ
Z +∞
1 n 1 2 σ 2 t2 o
= √ exp (− 2 x − (m + itσ 2 ) )) + mit − dx
σ 2π −∞ 2σ 2
Z +∞
σ 2 t2 1 n 1 2 o
= exp(itm − ) √ exp (− 2 x − (m + itσ 2 ) )) dx
2 σ 2π −∞ 2σ
2 2
σ t
= exp(itm − )
2
car Z +∞
1 n 1 2
2 o
√ exp (− 2 x − (m + itσ ) )) = 1
σ 2π −∞ 2σ
cas m = 0 et σ = 1 on a
t2
φX (t) = exp(− )
2
La solution4.2.8 On sait que X a même loi que σX0 + m où X0 ∼ N (0, 1), elle a aussi même
fonction caractéristique :
75
Il suffit donc de montrer que ΦX0 (t) = exp(−t2 /2) où
Z
1 2
ΦX0 (t) = √ eitx e−x /2 dx
2π ZR
1 −2itx+x2
=√ e− 2 dx
2π ZR
1 (x−it)2 −(it)2
=√ e− 2 dx
2π ZR
1 −2itx+x2
=√ e− 2 dx
2π ZR
1 (x−it)2 t2
=√ e− 2 e− 2 dx
2πZ R
t2 1 (x−it)2
= e− 2 √ e− 2 dx
R 2π
Une autre preuve consiste à voir que ΦX0 (t) est solution de l’équation différentielle
( 0
y (t) + ty(t) = 0,
y(0) = 1 .
t2
ce qui exige ΦX0 (t) = e− 2
Ω = Ω1 × Ω2 × Ω3 = {F F F, F P F, F F P, F P P, P F F, P P F, P P P }
qui sera notre espace des épreuves. Donc Card(Ω) = 8. On définit la loi de probabilité P par l’indépen-
dance : si L1 , L2 , L3 , sont les résultats des lancers successifs et si l1 l2 l3 est un événement élémentaire de
Ω, avec li ∈ {F, P }, l’indépendance des lancers se traduit par la formule
1 1
P(l1 l2 l3 ) = ( )3 =
2 8
76
Donc on trouve une loi uniforme sur Ω.
L’événement "Obtenir deux piles et une face" est l’événement A = {P P F, P F P, F P P }. Avec la loi
uniforme sur Ω, sa probabilité est 81 Card(A) = 83 .
P(l1 l2 l3 ) = pn q 3−n
avec q = 1 − p.
b) Probabilité de l’événement A.
La probabilité de l’événement A = {F F P, F P F, P F F } est :
2
P(X = 2) = C20 × (0, 005)2 × (0, 995)18 = 4, 3 × 10−4
77
P(X = 2) = 4, 3 × 10−4
Une faute donnée se trouve avec la même probabilité dans chacune des 200 pages.
La probabilité qu’une faute donnée se trouve dans les 10 pages choisies est donc 10
200
= 0, 05. Par un
raisonnement analogue à celui de la première question, le nombre Y de fautes dans les 10 pages choisies
suivra une loi binomiale de paramètres n = 20 et p = 0, 05.
2
P(X = 2) = C20 × (0, 05)3 × (0, 95)17 = 0.06
P(X = 2) = 6 × 10−2
La probabilité que les trois fautes soient sur la première page de l’ensemble E est 10−3 .
La solution4.2.11 Comme chaque personne a autant de chances que les autres de retrouver son
chapeau, la probabilité qu’un convive prenne son propre chapeau parmi les n chapeaux est 1
n
La variable de Bernoulli Yi a donc pour paramètre p = n1 .
Le nombre Xn de chapeaux que l’on a retrouvés sur la tête de leur légitime propriétaire est la somme
des Yi :
Xn = Y1 + . . . + Yn .
78
X(Ω) = N∗ .
Le numéro du premier dé étant fixé, la probabilité pour que X = 1, c’est-à-dire la probabilité pour
que le deuxième dé indique le même numéro que le premier à son premier lancer est :
1
P(X = 1) = p =
6
. Le deuxième dé donne le même numéro que le premier seulement au n e lancer si, et seulement si, les
n − 1 premiers lancers ont donné un numéro différent et le n e a donné le même numéro.
P(X = n) = pq n−1
avec q = 1 − p.
2°)Espérance de X.
X
E(X) = nP(X = n)
n∈N∗
X
= npq n−1
n∈N∗
X
=p nq n−1
n∈N∗
= p × (1 + 2q + 3q 2 + . . . + nq n−1 + . . .)
= p × (1 + q + q 2 + . . . + q n + . . .)
d 1
=p×
dq 1 − q
1
=p×
(1 − q)2
1
=p× 2
p
1
= =6
p
3°) Variance de X.
79
V ar(X) = E(X 2 ) − (E(X))2
∞
X
2
E(X ) = n2 P(X = n)
n=1
∞
X
= n2 pq n−1
n=1
X∞
=p n2 q n−1
n=1
X∞
=p (n(n − 1)q n−1 + nq n−1 )
n=1
∞
X X
=p n(n − 1)q n−1 + npq n−1
n=1 n∈N∗
= pq(2 × 1 + 3 × 2 × q + 4 × 3 × q 2 + . . .) + E(X)
d2
= pq × (1 + q + q 2 + q 3 + . . .) + E(X)
dq 2
d2 1
= pq × 2 + E(X)
dq 1 − q
d 1
= pq × + E(X)
dq (1 − q)2
2
= pq × + E(X)
(1 − q)3
q 1
=2× 2 +
p p
q 1
= 2+ 2
p p
et
q 1 1 q 5
V ar(X) = 2
+ 2 − 2 = 2 = × 36 = 30
p p p p 6
La solution4.2.13 La variable X − Y peut prendre toute valeur entière, positive, négative ou nulle.
Cherchons la probabilité d’une valeur k ∈ Z.
a) Pour k = 0.
80
p
P(X − Y = 0) =
2−p
b) Pour k > 0.
P(X − Y = k) = P(X = n et Y = n − k)
X∞
= p2 (1 − p)2n−k−2
k=1
2 −k
p (1 − p) p
2
= (1 − p)−k
1 − (1 − p) 2−p
p
P(X − Y = k) = (1 − p)−k
2−p
d) Rassemblons ces résultats :
p
P(X − Y = k) = (1 − p)|k| , k∈Z
2−p
Le fait de regarder, pour un navire, s’il est ou non perdu dans l’année, constitue une épreuve de Bernoulli.
On peut répéter l’épreuve de Bernoulli pour les 1000 navires assurés par "La Guêpe" : les épreuves de
Bernoulli correspondantes sont indépendantes par hypothèse.
Le nombre de succès dans cette répétition d’épreuves de Bernoulli est le nombre X de navires perdus dans
l’année : il suit une loi binomiale de paramètres n = nombre de répétitions = 1000, et p = probabilité
du succès dans l’épreuve de Bernoulli = 0, 001.
X B(1000, 0, 001).
81
k
P(X = k) = C1000 (0, 001)k (0, 999)1000−k
X P1 .
e−1
P(X = k) =
k!
2°) Probabilité de perdre trois navires dans l’année.
Avec l’approximation de Poisson, P(X = 3) = 1
6e
= 0.0613.
P(X = 3) = 6/100.
Si X suit une loi de Poisson de paramètre λ = 1, la table de la loi de Poisson cumulée donne
P(X > 5) = 0, 001.
Donc P(X ≤ 5) = 0, 999.
Pour que la compagnie "La Guêpe" puisse honorer ses engagements avec une probabilité de 0, 999, il
faudra donc qu’elle ait des réserves correspondant au sinistre de 5 navires, soit 50 millions d’euros.
"La Guêpe" doit avoir des réserves de 50 millions d’euros pour tenir ses engagements avec une
probabilité de 0, 999.
4°) Fusion.
82
Comme X et Y sont indépendantes, uX et uY sont indépendantes :
La table cumulée de la loi de Poisson de paramètre 2 donne P(Z > 7) = 0, 001, de sorte que les
réserves de la compagnie fusionnée "L’Hyménoptère" doivent correspondre au règlement de 7 sinistres,
soit 70 millions d’euros.
"L’Hyménoptère" doit avoir des réserves de 70 millions d’euros pour tenir ses engagements avec une
probabilité de 0,999.
Conclusion.
La fusion diminue de 30/100 les réserves à maintenir pour tenir les engagements avec une probabilité
de 0, 999. Les dirigeants, hélas, se distribueront à eux-mêmes les 30 millions d’euros d’économies et
licencieront un tiers du personnel
La solution4.2.15
La loi de Poisson de paramètre l est définie par :
λk
P(X = k) = e−λ
k!
∞
X
E(cos(πX)) = cos(kπ)P(X = k).
k=0
cos(kπ) = (−1)k
∞ k
kλ
X
−λ
E(cos(πX) = e (−1) = e−2λ
k=0
k!
donc
E(cos(πX)) = e−2λ
2°) Variance de 2X + 3.
La variance de 2X + 3 est donnée par la formule : V ar(aX + b) = a2 V ar(X), donc V ar(2X + 3) =
83
4V ar(X). Or la variance d’une variable de Poisson de paramètre λ est égale à λ, donc :
V ar(2X + 3) = 4λ.
La solution4.2.16 1°) Loi de probabilité du nombre de fautes d’impression dans une page.
Considérons une faute d’impression particulière.
Comme les fautes sont réparties au hasard dans les 500 pages, la probabilité pour que la faute considérée
se trouve à la page 36 est p = 1
500
. Le fait de regarder si telle faute se trouve à la page 36 est une
épreuve de Bernoulli dont le succès " la faute se trouve à la page 36 " a une probabilité p = 1
500
,
toujours la même, quelle que soit la faute.
Lorsqu’on répète cette épreuve de Bernoulli pour les n = 300 fautes, le nombre X de fautes qui se
trouvent à la page 36 apparaît comme le nombre de succès dans une répétition d’épreuves de Bernoulli.
On sait alors que X suit une loi binomiale de paramètres n = 300 et p = 1
500
.
k 1 k 1 300−k
P(X = k) = C300 ( ) (1 − )
500 500
2°) Probabilités de la loi binomiale.
k 0 1 2 3
P(X = k) 0, 5485 0, 3297 0, 0988 0, 0197
P(X = 2) = 0, 0988
et
P(X ≥ 2) = 1 − P(X = 0) − P(X = 1) = 0, 1218
84
approximativement par la loi de Poisson de paramètre λ = np = 0, 60.
λk 0, 60k
P(X = k) = e−λ = e−0,60
k! k!
k 0 1 2 3
Loi binomiale 0, 5485 0, 3297 0, 0988 0, 0197
Loi de Poisson 0, 5488 0, 3293 0, 0988 0, 0198
On en déduit les réponses aux questions posées :
P(X = 2) = 0, 0988
En comparant ces valeurs avec celles obtenues dans la question précédente à partir de la loi binomiale,
on voit que l’approximation par la loi de Poisson est tout à fait bonne dans le cas présent.
En fait, dans ce cas particulier, les calculs à la machine ne sont pas plus compliqués avec la loi binomiale
qu’avec la loi de Poisson et l’approximation par la loi de Poisson n’a pas réellement de justification ici.
3
X 1 9
E(X) = kP(X = k) = (6 × 28 + 2 × 15 × 8 + 3 × 20) =
k=0
364 7
b) E(Y ).
E(Y ) = E(3 − X) = 3 − E(X) = 1, 714.
c) V ar(Y ).
V ar(Y ) = V ar(3 − X) = V ar(X) = E(X 2 ) − (E(X))2
207
E[X 2 ] = (6 × 28 + 22 × 15 × 8 + 32 × 20) =
91
85
396
V ar(Y ) =
637
La solution4.2.18 1°) Probabilité de divers intervalles de valeurs de la glycémie.
Notons X la glycémie mesurée sur un individu de la population.
X suit une loi normale N (1, 00, 0, 03) de paramètres m = 1, 00 et σ = 0, 03.
La variable aléatoire centrée réduite correspondante U = X−m
σ
suit une loi normale N (0, 1).
a) P(X < 1, 06)
1, 06 − 1, 00
P(X < 1, 06) = P(U ≤ ) = P(U < 2) = F (2) = 0, 9772
0, 03
0, 9985 − 1, 00
P(X > 0, 9985) = P(U > ) = P(U > −0, 05) = P(U < 0, 05)
0, 03
Remarque.
Comme la valeur 0,05 est petite, on peut avoir une approximation de la valeur de F en utilisant un
développement en série de Taylor :
0 00 u2 000 u3
F (u) = F (0) + F (0)u + F (0) + F (0) + . . . ,
2! 3!
avec
1 u2
F 0 (u) = f (u) = √ e− 2 .
2π
En limitant le développement aux trois premiers termes non nuls, on obtient :
1 1
F (0) = 0, 5, F 0 (0) = f (0) = √ , F 00 (0) = f 0 (0) = 0, F 000 (0) = √ , . . .
2π 2π
86
1 0.053
F (0, 05) = 0, 5 + √ (0, 05 − ) = 0, 5199
2π 6
C’est déjà une bonne approximation.
c) P(0, 94 < X < 1, 08)
0, 94 − 1, 00 1, 08 − 1, 00
P(0, 94 < X < 1, 08) = P( <U < )
0, 03 0, 03
8 8
= F ( ) − F (−2) = F ( ) − 1 + F (2) = 0, 9734
3 3
(table de la fonction de répartition de la variable normale).
La probabilité p que la glycémie X d’un individu choisi au hasard dans la population soit supérieure
à 0, 99g/l est donnée par la loi normale :
0, 99 − 1, 00 1 1
p = P(X > 0, 99) = 1 − P (X ≤ 0, 99) = 1 − F ( ) = 1 − F (− ) = F ( ) = 0, 6306.
0, 03 3 3
E(N ) = 630, 6
La loi faible des grands nombres (théorème de Bernoulli) nous dit, d’ailleurs, qu’en moyenne, la
proportion d’individus ayant une glycémie supérieure à 0,99 g/l, tend, en probabilité, à se rapprocher de
la valeur théorique de la probabilité donnée par la loi normale, à mesure que le nombre d’individus pris
en considération augmente. Dans un échantillon aléatoire de 1000 individus, on peut donc admettre que :
87
La fonction caractéristique FX d’une variable aléatoire réelle X est, par définition, l’application qui,
à un u ∈ R, fait correspondre l’espérance mathématique de eiuX :
FX (u) = E(eiuX ).
Lorsque X est une variable aléatoire discrète, la fonction caractéristique s’exprime par une série de
Fourier :
X
FX (u) = P(X = xk )eiuxk
k∈N
Pour une variable aléatoire X de loi constante sur l’intervalle [0, 1], la densité de probabilité est 1[0,1] et
la fonction caractéristique est :
Z 1
1 iux 1 i
FX (u) = eiux dx = [e ]0 = (1 − eiu )
0 iu u
La densité de probabilité de la variable Y est constante sur l’intervalle [−1, 1] : fY = 12 1[−1,1] (l’in-
tervalle a pour longueur 2).
La fonction caractéristique FY de Y est donnée par la formule :
Z Z 1
iuy 1 1 iuu 1 sin u
FY (u) = fY (y)e dy = eiuy dy = [e ]−1 =
R 2 −1 2iu u
Comme X et Y sont, par hypothèse, indépendantes, les variables aléatoires eiuX et eiuY sont, elles aussi,
indépendantes et l’espérance de leur produit est le produit de leurs espérances :
i sin u
FX+Y (u) = E(eiuX )E(eiuY ) = FX (u)FY (u) = (1 − eiu )
u u
La formule FX+Y (u) = FX (u)FY (u) montre que la loi de probabilité de X + Y est le produit de convolu-
tion des lois de X et de Y , puisque sa transformée de Fourier est le produit des transformées de Fourier
88
des lois de X et Y .
4°) Loi de probabilité de Z.
On peut écrire :
1
cos u = (eiu + e−iu ).
2
Or la fonction caractéristique d’une variable aléatoire discrète Z de valeurs zk , k ≥ 1, prend la forme
X
FZ (u) = P(Z = zk )eiuzk
k∈N
Par identification, on reconnaît, dans la formule donnant cos u, la fonction caractéristique d’une
variable discrète Z prenant les valeurs −1 et 1, avec des probabilités.
Une loi de probabilité est entièrement déterminée par sa fonction caractéristique (réciprocité de la
transformation de Fourier).
La loi de probabilité de Z est donc donnée par le tableau suivant :
1
P (Z = −1) = P (Z = 1) =
2
89
Bibliographie
[1] A. Borovkov. Mathematical statistics. Gordon and Breach Science Publishers, 1998.
[2] N. Bouleau. Probabilités de l’ingénieur. Variables aléatoires et simulation. Hermann, 1986.
[3] P. Brémaud. Introduction aux probabilités. Springer Verlag, 1984.
[4] J. Neveu. emph Introduction aux probabilités. Ecole Polytechnique, 1990.
[5] G. Saporta. emph Probabilités, Statistique et Analyse des Données. Technip, 1990.
[6] Kada Allab , Element d’analyse fonction d’une variable réelle (2001)
[7] AZOULAY Elie, Les mathématiques en licence Tome 1, (2007)
[8] J.F. Delmas. Introduction au calcul des probabilités et à la statistique. Polycopié ENSTA, 2008.