[go: up one dir, main page]

100% ont trouvé ce document utile (1 vote)
250 vues91 pages

Cours et Exercices de Probabilités

Ce document présente un cours sur les probabilités et l'analyse combinatoire. Il introduit des concepts clés tels que les arrangements, les permutations, les combinaisons et décrit plusieurs lois de probabilité usuelles.

Transféré par

Mohammed Mankour
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
250 vues91 pages

Cours et Exercices de Probabilités

Ce document présente un cours sur les probabilités et l'analyse combinatoire. Il introduit des concepts clés tels que les arrangements, les permutations, les combinaisons et décrit plusieurs lois de probabilité usuelles.

Transféré par

Mohammed Mankour
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 91

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE


SCIENTIFIQUE

Université Des Sciences Et De La Technologie D’Oran


Faculté Des Mathématiques Et Informatique

Département de Mathématiques

Cours de Probabilités

&
Exercices Corrigés

Blouhi Tayeb
Table des matières

1 Eléments d’analyse combinatoire 3


1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Arrangement avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Arrangement sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Permutation sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Permutation avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6 Combinaison sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.7 Combinaison avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.8 Tableau récapitulatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Probabilités 10
2.1 Espace des possibles, événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Vocabulaire probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Indépendance et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Indépendance en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Variables aléatoires 24
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Densité de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.3 Moments d’une variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3.1 Loi d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.2 Les moments d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . 32
3.3.3 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Fonction génératrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Cours et Exercices de Probabilités 1 Blouhi Tayeb


3.5 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4 Lois usuelles 40
4.1 Lois absolument continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.1 Loi uniforme continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.4 La loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Lois usuelles discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.3 Loi géométrique (ou loi de Pascal) . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.5 Loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.6 Loi binomiale négative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.7 Approximation de la loi binomiale par la loi de Poisson . . . . . . . . . . . . . . . 45
4.2.8 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.9 Coordonnées d’une v.a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.10 Loi du couple discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.11 Loi du couple continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.12 L’image de (X, Y ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.13 Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

5 Corrections 59
5.1 Les solution chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 les solution chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3 Les solutions chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

2
Chapitre 1

Eléments d’analyse combinatoire

L’analyse combinatoire est une branche des mathématiques qui étudie la cardinalité d’un ensemble
ou de combinaison d’ensembles finis. Elle fournit des méthodes de dénombrement particulièrement utiles
en théorie des probabilités. Les probabilités dites combinatoires utilisent constamment les formules de
l’analyse combinatoire développées dans ce chapitre.

1.1 Généralités
(a) Disposition sans répétition : c’est une disposition où un élément peut apparaître 0 ou 1 fois.

Exemple 1.1.1. On considère un ensemble à deux éléments {a, b}. Avec deux tirages sans répé-
tition, on peut obtenir {a, a} ou {b, a}.

(b) Disposition avec répétition : un élément peut figurer plus d’une fois.

Exemple 1.1.2. : On considère un ensemble à deux éléments {a, b}. En considérant deux tirages
avec répétition, on peut obtenir {a, a}, {a, b}, {b, a} ou {b, b}. Cela correspond à un tirage avec
remise.

(c) Disposition non ordonnée : l’ordre d’obtention d’un élément n’est pas important.
Exemple : Ayant une urne avec 5 boules blanches et 4 noires, le nombre de choix de 3 boules
blanches en trois tirages ne nécessite pas un ordre.
(d) Disposition ordonnée : l’ordre d’obtention d’un élément est important.

Exemple 1.1.3. Dans le même exemple pris précédemment, si les boules étaient numérotées,
l’ordre aurait eu une signification.

Autre exemple :

Cours et Exercices de Probabilités 3 Blouhi Tayeb


On considère un ensemble E ayant 3 éléments, E = {a, b, c} choisir 2 éléments dans cet ensemble
peut se faire de plusieurs manières différentes suivant que l’on ordonne les éléments et que l’on
autorise la possibilité de choisir plusieurs fois le même objet ou non.
Description répétition sans répétition
avec ordre aa,ab,ac,ba,bb,bc,ca,cb,cc ab,ac,ba,bc,ca,cb
sans ordre aa,ab,ac,bb,bc,cc ab,ac,bc

1.2 Arrangement avec répétition


Soit Ω un ensemble composé de n éléments : card(Ω) = n. Nous constituons un échantillon E de
taille p (card(E) = p) à partir des éléments de Ω. Si nous avons à choisir p éléments parmi n dans
une disposition ordonnée (les places sont distinctes) et avec répétition (on peut choisir le même élément
plusieurs fois), on dit qu’on a un arrangement de p éléments parmi n. Le nombre d’arrangement avec
répétition est np .
N.B. : Dans ce cas, il est possible que p > n. Réaliser un arrangement avec répétition des éléments de
Ω, c’est aussi définir une application d’un ensemble E à p éléments dans Ω. L’ensemble des applications
de Edans Ω sera noté ΩE et on a card(ΩE ) = card(Ω)card(E) .
Questions classiques :
1) Dans une numérotation téléphonique à 10 chiffres, si les 3 premiers chiffres sont fixés, combien de
numéros de téléphone existe-t-il ?
2) On a 6 clochettes produisant chacune un son différent des autres. On veut faire une mélodie de
10 notes avec ces clochettes. Combien de possibilités de suites de 6 notes a-t-on ?
Réponses :
1)
7 arrangements avec répétitions parmi 10 : 107 .

2)
10 arrangements avec répétitions parmi 6 : 610 .

1.3 Arrangement sans répétition


Soit un ensemble avec card(Ω) = n. On constitue un échantillon de taille p, (p ≤ n), la disposition
est ordonnée et sans répétition. On dit qu’on a un arrangement sans répétition de p éléments parmi n.
Le nombre de p−arrangements d’un ensemble à n éléments est :

n!
Apn =
(n − p)!

Réaliser un arrangement sans répétition des éléments de Ω, c’est déterminer un p−uple (x1 , . . . , xp )
d’éléments de deux à deux distincts. C’est aussi définir une application injective d’un ensemble E à p

4
éléments dans un ensemble à n éléments.
Question classique : Après les prolongations d’un match de football, l’entraîneur doit choisir les 5
tireurs de penaltys parmi les onze joueurs et l’ordre de passage. Combien de choix a-t-il ?
Réponse
11!
A11
5 = = 55 440
6!

1.4 Permutation sans répétition


n
Y
La valeur factorielle de (n), notée n! est définie par n! = 1.2 . . . .n = i. Par convention 0! = 1.
i=1
Nous pouvons également utiliser une définition récursive

n! = n(n − 1)!

C’est un arrangement sans répétition de n éléments parmi n.

n!
Pn = Ann = = n!
(n − n)!

Réaliser une permutation des éléments de Ω, c’est réaliser un tirage exhaustif sans remise des éléments
de Ω en tenant compte de l’ordre du tirage. C’est aussi définir une bijection de ensemble sur lui-
même.L’ensemble des permutations d’un ensemble à n éléments s’appelle le groupe symétrique d’ordre
n et se note Sn . On a ]Sn = n!.

1.5 Permutation avec répétition


On appelle permutation avec répétition de p éléments où n sont distincts (n ≤ p), une disposition
ordonnée de l’ensemble de ces p éléments où le premier figure p1 fois, le second p2 fois, etc., tel que
p1 + p2 + . . . + pn = p. Le nombre de permutation avec répétitions est p!
p1 !p2 !...+pn

1.6 Combinaison sans répétition


On considère un ensemble constitué de n éléments tous discernables. On forme un échantillon de
taille p. Si la disposition est non-ordonnée et sans répétition, on dit que l’on a une combinaison sans
répétition de p éléments parmi n. Le nombre de ces combinaisons se note Cnp ou (np ) :

n!
Cnp =
p!(n − p)!

Questions classiques :

5
1) Au jass, on reçoit 9 cartes d’un jeu de 36 cartes. Combien y a-t-il de mains différentes (de 9 cartes)
possibles ?
2) Un joueur choisit entre 1 et 20 numéros et marque une feuille de Keno, qui en contient 80 (de 1
à 80). Le casino tire alors 20 nombres au hasard. Combien de grilles différentes de Keno existe-t-il ?
Réponse :
1)
C936 = 94 143 280

2)
80
C20 = 3 535 316 142 212 174 320

Propriétés
1. Cn0 = Cnn = 1
2. Cnp = Cnn−p : formule du complémentaire
3. Cnp = Cn−1
p p−1
+ Cn−1 : dit triangle de Pascal (Il est à noter qu’il a été a développé par EL-Karadji
[Abou Bekr Mohammed Ibn El Hassan] au début du XIe siècle ; plusieurs siècle avant Pascal)
Apn
4. Cnp = p!

Proposition 1.6.1. (Formule du binôme)

n
X
(a + b)n = Cnp ap bn−p .
p=0

6
Preuve 1.6.1.

(a + b)n+1 = (a + b)(a + b)n

n
X
= (a + b) Cnp ap bn−p
p=0

n
X n
X
= Cnp ap+1 bn−p + Cnp ap bn−p+1
p=0 p=0

n+1 n
X 0 0 0 X
= Cnp +1 ap bn+1−p + Cnp ap bn−p+1
p0 =1 p=0

n
X   n
X 
= Cnp+1 ap bn+1−p + Cnn an+1 b0 + Cn0 a0 bn+1 + Cnp ap bn+1−p
p=1 p=1

n
X
n+1
=a + (Cnp−1 + Cnp )ap bn+1−p + bn+1
p=1

alors
n+1
X
n+1 p
(a + b) = Cn+1 .ap .bn+1−p .
p=0

Avec Cn+1
p p−1
= Cn+1 + Cnp

1.7 Combinaison avec répétition


C’est une disposition non-ordonnée de p éléments, à choisir parmi n éléments discernables, avec
répétition. Le nombre de combinaisons avec répétitions de n objets pris p à p est :

p
Knp = Cn+p−1

Exemple (jeu de domino)Les pièces sont constituées en disposant côte à côte deux éléments de l’en-
semble {blanc, 1, 2, 3, 4, 5, 6} Si nous retournons un domino, nous changeons l’ordre des deux éléments,
mais le domino reste identique (C’est donc une disposition non-ordonnée).Nous avons une combinaison
avec répétition de 2 éléments pris parmi les 7, et au total il y a K72 = 28 dominos dans un jeu.

7
Toute p− combinaison avec répétition peut s’écrire :

x1 : k1 fois, . . . , xn : kn fois
n
X
avec 0 ≤ kn ≤ p et ki = p.
i=1
On peut ainsi mettre en bijection l’ensemble des p−combinaisons avec répétition des n éléments de E
avec les applications On peut ainsi mettre en bijection l’ensemble des p−combinaisons avec répétition
des n éléments de E f : E −→ N telles que avec les applications

x1 7−→ f (x1 ) = k1
n
X
... vérifiant f (xi ) = p
i=1

xn 7−→ f (xn ) = kn

1.8 Tableau récapitulatif

Principaux objets de l’analyse combinatoire


Arrangements de n objets p à p n≥p Apn
Permutations de n objets n!
Arrangements avec répétition d’ordre (p1 , . . . , pn ) de {1, . . . , n}
Pn p!
i=1 pi = p p1 p2 ...pn
Combinaisons avec répétition d’ordre p de {1, . . . , n} Knp
Permutations avec répétition d’ordre (n1 , . . . , np )
P
ni = n
n
(permutations de n éléments parmi lesquels
n1 !n2 ! . . . nn !
ni sont du type i et ce pour i = (1, . . . , p).
Nombre d’applications et de solutions d’équation
Applications de {1, . . . , p} dans {1, . . . , n} np
Applications injectives de {1, . . . , p} dans {1, . . . , n} Apn
Applications croissantes de{1, . . . , p} dans {1, . . . , n} Knp
Applications strictement croissantes de {1, . . . , p} dans {1, . . . , n} n≥p Cnp
Solutions de l’équation pi=1 xi = n xi dans N p−1 p−1
P
Kn+1 = Cn+p−1
Solutions de l’équation pi=1 xi = n xi dans N∗ , p−1
P
p ≤ n Cn−1
Solutions de l’inéquation pi=1 xi ≤ n xi dans N p p
P
Kn+1 = Cn+p
Solutions de l’inéquation pi=1 xi ≤ n xi dans N, Cnp
P
p≤n

8
1.9 Exercices
Exercice 1.9.1. On jette quatre dés discernables et on appelle résultat, une suite ordonnée des quatre
points amenés.

1. Combien y a-t-il de résultats possibles ?


2. Combien parmi eux qui conduisent à :
– (a) un carré ? (quatre points identiques),
– (b) un brelan ? (trois points identiques et un autre différent),
– (c) une double-paire ? (deux couples différents de points identiques),
– (d) une simple-paire ? (deux points identiques et les autres différents),
– (e) un résultat banal ? (quatre points différents)

Exercice 1.9.2. On achète six pièces mécaniques. De combien de manières peut-on les répartir si :
1. elles doivent être placées chacune dans un atelier différent ?
2. elles sont placées deux à deux dans trois ateliers différents ?
3. il y a quatre ateliers, deux recevant deux pièces chacun et deux autres une pièce chacun ?

Exercice 1.9.3. Les n tômes d’une encyclopédie, numérotés de 1 à n, sont placés au hasard sur une
étagère.
1. Combien y a-t-il de manière de les placer ?
2. Parmi ces classements, combien y en a-t-il où :
(a) les tômes 1 et 2 se trouvent côte à côte dans cet ordre ?
(b) les tômes 1 à p se trouvent côte à côte dans cet ordre ?

Exercice 1.9.4. 1. Déterminer le nombre d’applications strictement croissantes de {1, . . . , p} dans


{1, . . . , n}
2. Déterminer le nombre d’applications croissantes de {1, . . . , p} dans {1, . . . , n}.
3. Déterminer le nombre de solutions de l’équation :
n
X
xi = p p ∈ N, xi ∈ N
i=1

4. Déterminer le nombre de solutions de l’inéquation :


n
X
xi ≤ p p ∈ N, xi ∈ N
i=1

9
Chapitre 2

Probabilités

La théorie des probabilités fournit des modèles mathématiques permettant l’étude d’expériences dont
le résultat ne peut être prévu avec une totale certitude.

2.1 Espace des possibles, événements


Une épreuve est une expérience dont l’issue n’est pas prévisible car répétée dans des conditions
identiques, elle peut donner lieu à des résultats différents ou aléatoires (expérience aléatoire). L’ensemble
des résultats possibles s’appelle l’ensemble fondamental (ou référentiel, univers des possibles) et sera noté
Ω.
Un événement est un ensemble de résultats (un sous-ensemble de l’univers) d’une expérience aléatoire.
Comme l’événement est une affirmation concernant le résultat d’une expérience, nous devons pouvoir
dire, pour tout résultat de l’univers, si l’événement se réalise ou non. Un événement donné, souvent
défini par une proposition, est identifié à la partie de l’univers pour laquelle il est réalisé.
On étudie une expérience aléatoire. L’espace des possibles ou univers décrit tous les résultats possibles
de l’expérience. Chacun de ces résultats est appelé événement élémentaire. On note souvent l’espace
des possibles Ω et un résultat élémentaire w. Un événement est un sous-ensemble de Ω, ou une réunion
d’événements élémentaires. On dit qu’un événement est réalisé si un des événements élémentaires qui le
constitue est réalisé. Les événements sont des ensembles, représentés souvent par des lettres capitales.
Exemples :
1. Match OL − OM : Ω = {OL gagne, OM gagne, match nul.} Donc Ω est composé de trois
événements élémentaires. On peut considérer par exemple l’événement qui correspond à "Lyon ne
gagne pas".
2. On lance un dé : Ω = {1, 2, . . . , 6}. On peut s’intéresser à l’événement A =
”on obtient un chiffre pair”, ie A = {2, 4, 6}.
3. On lance deux dés : Ω = {1, 2, . . . , 6} × {1, 2, . . . , 6}. Ici, un événement élémentaire w est un couple
(i, j), où i représente le résultat du premier dé et j celui du second.

Cours et Exercices de Probabilités 10 Blouhi Tayeb


Il existe un vocabulaire propre aux événements, différent du vocabulaire ensembliste.
Rappel (dénombrabilité) :une partie infinie est dénombrable si elle peut être mise en bijection
avec N, c’est á dire si on peut énumérer tous ses éléments. L’ensemble N, bien sûr, est dénombrable mais
Z, Q le sont aussi. Par contre [0, 1] ou R ne le sont pas.
Comme on peut énumérer aussi les éléments d’une partie finie, il est usage d’inclure le cas fini dans le
cas dénombrable, même si d’ordinaire, le terme dénombrable est utilisé pour les parties infinies dénom-
brables.
Ces opérations logiques sur des suites d’évènements sont très utiles pour analyser les évènements com-
plexes : il s’agit de les exprimer comme réunion, intersection, complémentaire d’évènements plus simples.
Il importe donc de bien traduire en langage ensembliste un énoncé et ses enchaînements logiques.

Définition 2.1.1. Tribu On associe a l’univers Ω un ensemble d’événements F. L’ensemble F est


appelé tribu (ou σ−algèbre) sur Ω, s’il vérifie les propriétés suivantes :
1. Ω ∈ F
2. ∀A ∈ F =⇒ Ac ∈ F (où Ac désigne le complémentaire de A dans Ω).
3. Si ∀n ∈ N, An ∈ F =⇒ ∪n∈N An ∈ F (est stable par union dénombrable).

Si ces trois axiomes sont vérifiés, alors le couple (Ω, F) est appelé espace mesurable ou espace
probabilisable.

Exemple 2.1.1. La tribu engendrée par {∅, Ω} est appelée tribu grossière (la vérification que c’est une
tribu est simple).
La tribu engendrée par l’ensemble de toutes les parties de Ω est la tribu la plus riche.
Il est intéressant de construire la structure de treillis de toutes les tribus sur Ω : Ce treillis a la
particularité d’avoir un minimum (la tribu grossière) et maximum (la tribu la plus riche).

2.2 Vocabulaire probabiliste


D’un point de vue modélisation, dans la suite, l’ensemble de base Ω est un support de description du
phénomène à étudier. es outils de description sont des parties de Ω que l’on suppose stables par rapport
à l’union dénombrable et à la complémentarité.

Remarque 2.2.1. Il faut retenir que


– une réunion s’interprété comme un « ou »,
– une intersection s’interprète comme un « et »,
– un complémentaire {.}c s’interprète comme « le contraire de »

Avec ce mode de représentation, les opérations logiques sur les évènements que sont « ou », « et »,
« négation » se traduisent par des opérations ensemblistes : réunion ∪, intersection ∩, complémentaire
{.}c . Voici le tableau des correspondances entre ces deux langages :

11
Notations Vocabulaire ensembliste Vocabulaire probabiliste
∅ ensemble vide évènement impossible
Ω ensemble plein évènement certain
w élément de Ω évènement élémentaire
w∈Ω w appartient à A le résultat w est une des réalisations possibles de A
A⊂B A inclus dans B A implique B
A∪B A ou B A ou B
A∩B A et B A et B
Ac complémentaire de A dans Ω évènement contraire de A
A∩B =∅ A et B sont disjoints A et B sont incompatibles

Pour un Tout évènement décrit par des "ou", des "et" (répétés au plus de manière dénombrable) ou des
"non" est seulement un élément de F ; la tribu associée.

Exemple 2.2.1. On lance un dé à six face. Le résultat a priori est aléatoire et les résultats possibles
sont 1, 2, 3, 4, 5, 6. L’espace Ω = {1, 2, 3, 4, 5, 6} décrit bien l’ensemble des résultats. La partie A = {1, 4}
est un évènement composé : il s’agit de ( le résultat est un 1 ou un 4 ). Par contre {3} est un évènement
élémentaire, ( observer un 3 ) ne peut pas être décrit par des événements plus simples.

Les opérations sur les ensembles (ou sur les évènements) peuvent faire intervenir plus de deux évè-
nements. Ainsi si A1 , . . . , An sont des évènements,

∪ni=1 Ai=1 = A1 ∪ . . . ∪ An

est l’ensemble des w qui sont dans au moins un des Ai . De même

∩ni=1 Ai=1 = A1 ∩ . . . ∩ An

est l’ensemble des w qui sont dans tous les Ai . On étend encore ces définitions aux réunions et intersec-
tions dénombrables (ie. en nombre infini mais qu’on peut énumérer) :

i=1 Ai = { réalisation d’au moins un Ai },


∪i∈N Ai = ∪∞

i=1 Ai = { réalisation de tous les Ai },


∩i∈N Ai = ∩∞

Définition 2.2.1. (Tribu borélienne) Lorsque Ω est un espace topologique (c’est à dire muni d’une
famille d’ouverts), la plus petite tribu contenant tous les ouverts est appelée la tribu borélienne. Elle est
notée B(Ω).

Les mesurables A ∈ B(Ω) s’appellent aussi les boréliens.

12
Définition 2.2.2. Tribu engendrée
– Soit M une famille de parties de Ω. La tribu engendrée par M, notée σ(M), est la plus petite
tribu de Ω contenant M : σ(M) = ∩A⊃M A.

Définition 2.2.3. Tribu produit


Soient (Ω1 , A) et (Ω2 , B) des espaces mesurables. La tribu produit A × B sur l’espace produit
Ω1 × Ω2 = {(x, y) : x ∈ Ω1 , y ∈ Ω2 } est la tribu engendrée par les produits des parties d’ensembles me-
surables A × B, A ∈ A, B ∈ B.

Remarque 2.2.2. Sur R2 = R × R, on peut considérer la tribu borélienne associée à la topologie


produit sur R2 et le produit des tribus boréliennes sur chaque espace R. En utilisant que tout ouvert
de R2 peut s’écrire comme une réunion dénombrable de pavés d’intervalles ouverts, on montre que les
deux coïncident : B(R2 ) = B(R) × B(R) = B(R)⊗2 . Plus généralement, on montre pour Rn qu’on a
B(Rn ) = B(R)⊗n ).

2.3 Axiomatique de Kolmogorov


De manière générale, à chaque événement, on associe un nombre positif compris entre 0 et 1, sa
probabilité.
Dans la théorie moderne des probabilités, Kolmogorov a introduit l’axiomatique de mesure de pro-
babilité sur une tribu exprimée par la définition suivante :

Définition 2.3.1. On appelle probabilité sur l’espace probabilisable (Ω, F), l’application P de F dans
[0, 1] vérifiant :
1. Pour tout événement A ∈ F,0 ≤ P(A) ≤ 1
2. P(Ω) = 1
3. pour tout ensemble dénombrable d’événements incompatibles A1 , A2 ; . . . , An , on a

X
P(∪i∈N Ai ) = P(Ai ) σ − additivité de P
i=1

Expériences composées : Parfois, une expérience aléatoire peut être décomposée en deux ou plus
expériences partielles.

Exemple 2.3.1. Si on lance un dé rouge et un dé noir, il est naturel de considérer l’issue du lancer
comme étant un couple (i, j), ordonné, où i représente le résultat du dé rouge et j celui du dé noir.
L’univers associé à cette expérience est

Ω = {(i, j), 1≤i≤6 1 ≤ j ≤ 6}

13
"L’événement" le dé rouge donne un nombre pair et le noir un nombre inférieur à "3" est

A = {(2, 1), (2, 2), (4, 1), (4, 2), (6, 1), (6, 2)}

Définition 2.3.2. On appelle espace probabilisé le triplet (Ω, F, P), F est une tribu de parties de Ω et
P : F −→ [0, 1] est une mesure de probabilité.

On peut préciser le calcul de probabilités d’un événement A. De manière simplifiée, la probabilité


théorique vaut
Nombre de cas favorables N (A)
P(A) = =
Nombre de cas possibles N (Ω)
Dans ce cas, le calcul d’une probabilité se ramène alors à des dénombrements.

Exemple 2.3.2. Quelle est la probabilité d’obtenir un nombre pair en jetant un dé ? On suppose que le
dé est parfaitement équilibré, donc que les issues sont équiprobables.
Comme il y a 6 issues,Ω = {1, 2, 3, 4, 5, 6}, on leur attribue à chacune la probabilité 1/6. Soit l’événement
A : "obtenir un nombre pair". Alors A = {2, 4, 6} et P(A) = 63 .

Exemple 2.3.3. Quelle est la probabilité d’obtenir deux côtés distincts en jetant deux pièces de mon-
naie ? On suppose que la pièce est parfaitement équilibrée, donc que chaque côté a une chance sur deux
d’apparaître lors d’un lancer.
Posons F = "Face" et P = "Pile" P(F ) = P(P ) = 12 . Il y a deux manières de décrire l’univers des
possibles :
On tient compte de l’ordre d’arrivée des pièces (jets successifs), l’univers des possibles est formé de
couples :
Ω1 = {(P, P ), (P, F ), (F, P ), (F, F )}

On n’en tient pas compte (jets simultanés), l’univers des possibles est formé de paires :

Ω2 = {(P, P ), (P, F ), (F, F )}

Du point de vue "physique", le résultat doit être le même, la parfaite simultanéité n’existant pas. On ne
peut donc avoir affaire dans les deux descriptions à des univers équiprobables.
Chaque chemin représente une issue. Les hypothèses faites sur la pièce nous conduisent à donner une
même probabilité aux 4 chemins de l’univers Ω1 , par contre on ne peut rien dire à priori des probabilités
des chemins de l’univers Ω2 . Ainsi

1
P(P, P ) = P(P, F ) = P(F, P ) = P(F, F ) =
4

Soit A l’événement "obtenir deux faces distinctes".

1
P{(P, F ), (F, P )} =
2
14
Dans l’univers Ω2 , les probabilités des issues sont donc :

1 2 1
P(P, P ) = , P(P, F ) = , P(F, F ) =
4 4 4

Très souvent, on ne peut pas faire l’hypothèse d’équiprobabilité, on détermine alors la probabilité d’un
événement en répétant un grand nombre de fois l’expérience aléatoire.

Propriétés 2.3.1. Les propriétés usuelles d’une probabilité définie sur F sont :
1. P(∅) = 0.
2. ∀A ∈ F, P(Ac ) = 1 − P(A).
3. ∀A, B, ∈ F, P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
4. ∀A, B, ∈ F, A ⊂ B ⇒ P(A) ≤ P(B).

X
5. ∀(Ai )i∈N ⊂ F, P(∪i Ai ) ≤ P(Ai ).
i=1

Démonstration :
1) Soit A un événement quelconque. Comme

A ∪ ∅ = A avec P(A ∪ ∅) = P(A).

D’autre part, on sait que

A ∩ ∅ = ∅ (tout événement est incompatible avec l’événement impossible)

d’après le 3ème axiome, P(A ∪ ∅) = P(E) + P(∅). Des deux égalités, on obtient P(∅) = 0
2) on sait que
A ∪ Ac = Ω

et
A ∩ Ac = ∅
P(Ω) = P(A) + P(Ac )
1 = P(A) + P(Ac )
D’où
P(Ac ) = 1 − P(A)

3) On découpe selon une partition de

(A ∪ B) = (A ∩ B) ∪ (B ∩ A) ∪ (A ∩ B).

Ces ensembles sont deux à deux incompatibles d’où

15
P(A ∪ B) = P(A ∩ B) + P(B ∩ A) + P(A ∩ B) (2.1)

de plus

P(A) = P(A ∩ B) + P(A ∩ B) (2.2)

et

P(B) = P(A ∩ B) + P(A ∩ B) (2.3)

d’ou

P(A ∩ B) = P(A) − P(A ∩ B) (2.4)

et

P(A ∩ B) = P(B) − P(A ∩ B) (2.5)

Remplace (2.5) et (2.4) dans (2.1) on obtient

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

4) D’après la propriété précédente et la positivité de la probabilité, on a

P(A ∪ B) = P(A) + P(B) − P(A ∩ B) ≤ P(A) + P(B)

5) Formule précédente que l’on peut généraliser à un nombre quelconque d’événements


X
P(∪i Ai ) ≤ P(Ai )
i=1

car
∩∞
i=1 Ai = ∅ Ai des événements sont deux à deux incompatibles.

Exemple 2.3.4. Jet de deux dés distincts.


On considère les événements
A :Un dé au moins donne 1.
B :Un dé au moins donne 6.
C : La somme des points est ≥ 10.
On obtient
11 1
P(A) = P(B) = , P(C) =
36 6

16
Ainsi : 1-A et C sont incompatibles

17
P(A ∪ C) = = P(A) + P(C)
36

1-B et C sont incompatibles


12
P(B ∪ C) = = P(B) + P(C)
36
Exemple 2.3.5. Un certain type de voiture présente parfois deux vices de fabrication ; on sait que
7/100 de ces voitures ont le premier défaut, 11/100 le deuxième défaut et 2/100 ont les deux défauts ;
on se propose de calculer la probabilité qu’une voiture de ce type soit exempte de défauts. On considère
les événements :
A : "La voiture a le premier défaut".
B : "La voiture a le deuxième défaut".
Alors, la donnée implique que :

P(B) = 0.11, P(A) = 0.07, P(A ∩ B) = 0.02

L’événement dont on cherche la probabilité étant Ā ∩ B̄ on a alors :

P(Ā ∩ B̄) = P(A ∪ B) = 1 − P(A ∪ B) = 1 − (P(A) + P(B) − P(A ∩ B)) = 0.84

2.4 Indépendance et conditionnement


Définition 2.4.1. Étant donnés deux événements A et B, avec P(A) > 0, on appelle probabilité de B
conditionnellement à A, ou sachant A, la probabilité notée P(B|A) définie par

P(B ∩ A)
P(B|A) =
P(A)

On peut écrire aussi P(B ∩ A) = P(B|A)P(A)

Propriétés 2.4.1. (Formule des probabilités totales)


Soit A un événement tel que 0 < P(A) < 1. Pour tout événement B, on a

P(B) = P(B|A)P(A) + P(B|A)P(A)

Démonstration :Comme

Ω=A∪A

On sait que
B = B ∩ (A ∪ A)

17
alors
P(B) = P(B ∩ (A ∪ A) = P((B ∩ A) ∪ (B ∩ A))

car
(B ∩ A) ∩ (B ∩ A) = ∅

Donc
P(B) = P(B ∩ A) + P(B ∩ A)

La définition de la probabilité conditionnelle permet de conclure.

Exemple 2.4.1. En lançant deux dés est la probabilité d’avoir une somme égale à 8 si les deux dés
indiquent des résultats différents Ω contient 36 cas possibles équiprobables.
Soit A L’événement " la somme dés est 8"
Alors A = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)}

Soit B l’événement "les deux dés indiquent dés résultat différentes.


Alors B on a B = Ω − {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}.

A ∩ B = {(2, 6), (3, 5), (5, 3), (6, 2)}

Alors 4
P(A ∩ B) 36 2
P(A|B) = = 30 =
P(B) 36
15
Exemple 2.4.2. Pour connaître les intentions de vote de la population, on a interrogé 100 personnes
et on leur a demandé pour lequel des partis A, B, C elles voteraient. On regroupe les résultats dans le
tableau 5.
Si on choisit une personne au hasard dans ce groupe, trouver la probabilité
a) qu’elle vote pour le parti A
b) qu’elle vote pour le parti A, si on sait que c’est une femme
c) qu’elle vote pour le parti B ou C, si on sait que c’est un homme
d) que ce soit une femme, si on sait qu’elle vote pour le parti C.
Notons les événements ainsi :
A : "La personne vote pour le parti A"
B : "La personne vote pour le parti B"
C : "La personne vote pour le parti C"
H : "La personne est un homme"
F : "La personne est une femme".

18
Description A B C Totaux
hommes 13 21 19 53
femmes 20 8 19 47
Totaux 33 29 38 100

On trouve les probabilités suivantes :

33 29 38 53
P(A) = , P(B) = , P(C) = , P(H) =
100 100 100 100

et
47 20
P(F ) = , P(A ∩ F ) =
100 100
a)
33
P(A) =
100
b)
20
P(A ∩ F ) 100 20
P(A|F ) = = 47 =
P(F ) 100
47
c)

P(B ∪ C|H)) = P(B|H) + P(C|H) car B et Csont incompatibles

Alors 21 19
P(B ∩ H) P(C ∩ H) 100 100 40
P(B ∪ C|H)) = + = 53 + 53 =
P(H) P(H) 100 100
53
d)
19
P(F ∩ C) 100 1
P(F |C)) = = 38 =
P(C) 100
2
D’un point de vue pratique, il y a deux manières de calculer une probabilité conditionnelle

Définition 2.4.2. Soit (Ai )i∈I une famille d’événements. On l’appelle partition de Ω si elle vérifie les
deux conditions :
– i)∪i∈I Ai = Ω
– ii) les Ai sont deux à deux incompatibles :pour tous i 6= j, Ai ∩ Aj = ∅.

Propriétés 2.4.2. (Formule de Bayes)


Soit A et B deux événements tels que 0 < P(A) < 1 et P(B) > 0. Alors,

P(B | A)P(A)
P(A | B) =
P(B | A)P(A) + P(B | A)P(A)

19
2.5 Indépendance en probabilité
Définition 2.5.1. Deux événements A et B sont dits indépendants si

P(A ∩ B) = P(A)P(B)

S’il sont de probabilité non nulle, alors

P(B | A) = P(B) ⇐⇒ P(A | B) = P(A) ⇐⇒ P(B ∩ A) = P(B)P(A)

Exemple 2.5.1. Une urne contient 6 boules blanches et 4 rouges. On tire successivement deux boules
en remettant dans l’urne la boule tirée (tirage avec remise). On considère les événements :
A : "il sort une boule rouge au premier tirage"
B : "il sort une boule rouge au deuxième tirage"
et on se propose de déterminer si ces événements sont indépendants ou non.
Dans cet exemple, l’univers est l’ensemble de couples ordonnés :

Ω = {(b, b), (b, r), (r, r), (r, b)}

où (b, r) est l’issue "une blanche au 1er et une rouge au 2ème tirage". En admettant que toutes les boules
sont indistinguables, on a :

6 6 36 6 4 24
P(b, b) = × = , P(b, r) = × =
10 10 100 10 10 100

et
4 4 16 4 6 24
P(r, r) = × = , P(r, b) = × =
10 10 100 10 10 100
On a :
A = {(r, b), (r, r)}, A = {(b, r), (r, r)}, A ∩ B = {(r, r)} =
6 ∅

De plus :
24 16 40
P(A) = + = = P(B)
100 100 100
et
16
P(A ∩ B) =
100
Ainsi, on a bien :
P(A ∩ B) = P(A)P(B)

Les événements A et B sont donc bien indépendants, comme le confirmait notre intuition.
Toutefois, la notion d’indépendance n’est pas aussi intuitive qu’on peut le penser.
Exemple 2.5.2. Dans l’exemple précédent, on considère les événements :

20
C : "on tire au maximum une boule blanche"
D : "on tire deux mêmes boules" alors

64 52
P(C) = , P(D) =
100 100

et
16
P(C ∩ D) =
100
mais
P(C ∩ D) 6= P(C)P(D)

Les événements C et D ne sont donc pas indépendants.

Remarque 2.5.1. A et B sont donc indépendants si la connaissance de la réalisation de l’un n’influence


pas la probabilité de l’autre.

Remarque 2.5.2. Deux événements incompatibles A et B, avec P(A) > 0 et P(B) > 0, ne sont jamais
indépendants. En effet, A ∩ B = ∅ ; entraîne P(A ∩ B) = 0 6= P (A)P (B).

Définition 2.5.2. Un ensemble d’événements A1 , A2 , . . . An . An est dit totalement indépendant si pour


tout sous ensemble I ⊂ {1, 2 . . . , n}
Y
P(∩i∈I ) = P(Ai ).
i∈I

Les événements sont deux à deux indépendants si pour tous indices i, j(i 6= j)

P(Bi ∩ Aj ) = P(Bi )P(Aj ).

2.6 Exercices
Exercice 2.6.1. A et B sont deux évènements d’un espace probabilisable vérifiant

P(Ā) = 0.6 P(B̄) = 0.7 P(Ā ∩ B̄) = 0.55

1. Calculer P(A ∩ B) et P(A ∪ B)


2. Calculer la probabilité que A se réalise mais pas B.
3. Calculer la probabilité que A se réalise ou que B ne se réalise pas.

Exercice 2.6.2. On considère quatre groupes A, B, CetD. Dans chaque groupe, les proportions de
personnes ayant fait des études supérieures sont respectivement de 5/100, 10/100, 25/100 et 40/100.
On choisit au hasard l’un des groupes et dans le groupe choisi une personne.
1. Quelle est la probabilité que la personne choisie au hasard ait fait des études supérieures ?
2. La personne choisie ayant fait des études supérieures, quelle est la probabilité qu’elle appartienne au

21
groupe D ?

Exercice 2.6.3. On considère deux sacs S1 et S2 contenant chacun trois boules rouges et sept boules
noires.
On prend une boule dans S1 et on la place dans S2 .
Quelle est alors la probabilité de tirer une boule rouge de S2 ?

Exercice 2.6.4. On dispose de deux urnes contenant respectivement cinq boules bleues et quatre rouges,
et six boules bleues et cinq rouges. On tire une boule de chaque urne. Quelle est la probabilité :
1-de tirer deux boules rouges ?
2- de tirer deux boules bleues ?
3- de tirer une boule bleue et une boule rouge ?

Exercice 2.6.5. On appelle "épreuve", un lot de trois sujets tirés au hasard parmi cent sujets possibles.
Un candidat doit traiter au choix l’un des trois sujets.
1. Combien d’épreuves peut-on proposer au candidat ?
2. Un candidat se présente en ne connaissant que la moitié des sujets. Quelle est la probabilité pour
qu’il sache traiter :
(a) les trois sujets ?
(b) seulement deux sujets ?
(c) un seul sujet
(d) aucun des trois sujets ?

Exercice 2.6.6. On dispose de dix urnes numérotées de 0 à 9. L’urne k contient k boules noires et
9 − k boules blanches. On choisit une urne au hasard et sans connaitre son numéro on tire deux boules
avec remise.
1- Quelle est la probabilité d’obtenir deux boules noires ?
2- Les deux boules obtenues sont noires. Quelle est la probabilité qu’elles proviennent de l’urne U5 ?
3-Le premier tirage a donné une boule noire. Quelle est la probabilité que le second tirage donnent aussi
une boule noire ?

Exercice 2.6.7. On considéré deux urnes : l’une peinte en blanc et l’autre peinte en noir. Chacune de
ces deux urnes contient des boules blanches et des boules noires.
L’urne blanche contient une proportion α de boules noires et l’urne noire contient une proportion β de
boules blanches.
On choisit une urne au hasard (probabilité p de tirer l’urne blanche et q = 1 − p de tirer l’urne noire)

22
et on tire ensuite une boule de cette urne. Si la boule tirée est de la même couleur que l’urne, on tire
a nouveau une boule de cette urne. Dans le cas contraire, on effectue le tirage dans l’autre urne. On
poursuit ce mode de tirage, supposes tous avec remise, la ème boule est tirée dans l’urne dont la couleur
est celle de la (n − 1)me boules tirée. Soit pn la probabilité que la mène boule tirée soit blanche, qn la
probabilité que la mène boule tirée soit noire et Vn le vecteur colonne de composantes pn et qn .
1- Établir une relation de récurrence entre Vn et Vn−1 .
2- En déduire que :
Vn = M n V0

ou M est une matrice carrée et V0 est le vecteur colonne de composantes p et q.


3. Que signifie :

– (a) α = β = 0
– (b) α = β = 1
– (c) α + β = 1
4-Calculer, dans chacun de ces cas, les limites de pn et qn quand n tend vers +∞.

23
Chapitre 3

Variables aléatoires

3.1 Introduction
La notion de variable aléatoire ne se limite pas à la notion d’application seulement. Elle introduit
également le lien entre les tribus utilisées dans chacun des ensembles mis en relation par l’application.

Définition 3.1.1. Soient (Ω, F) et (E, E) deux espaces probabilisables (ou mesurables) et soit X une
application de (Ω, F) vers (E, E). On dit que X est une variable aléatoire (ou application mesurable) si
elle vérifie
• X : Ω −→ E est une application,
• X −1 (E) ⊂ F (X −1 est la fonction réciproque ensembliste qui existe toujours). Cela veut dire
aussi que X −1 : E −→ F est une application.

Dans des situations où interviennent plusieurs variables aléatoires, le calcul de la probabilité d’un
événement dont la réalisation dépend des valeurs de ces variables doit faire intervenir ces variables
considérées dans leur ensemble et non chacune isolement. celle de variables aléatoire.

Définition 3.1.2. Tribu engendrée


– Soit M une famille de parties de Ω. La tribu engendrée par M, notée σ(M), est la plus petite
tribu de Ω contenant M : σ(M) = ∩A⊃M A.
– Soit X une application de Ω dans E. Si (E, E) est un espace mesurable, la tribu engendrée par X
sur Ω est la plus petite tribu AX sur Ω rendant X : (Ω, AX ) −→ (E, E) mesurable (ou variable
aléatoire). C’est la tribu formée des {X −1 (B) : B ∈ B}. On la note AX ou σ(X).

Remarque 3.1.1. Soit X : (Ω, F, P) −→ (E, E)


Dans l’espace probabilisable (E, E), nous construisons, de manière inductive, une mesure de probabilité,
notée PX vérifiant
∀B ∈ E, PX (B) = P(X −1 (B))

Cela montre que la mesure dans (Ω, F) suffit pour mesurer les événements de l’espace probabilisable
image.

Cours et Exercices de Probabilités 24 Blouhi Tayeb


3.2 Variables aléatoires continues
Définition 3.2.1. Soit X : (Ω, F, P) −→ (E, E) une variable aléatoire (v.a.). On dit X est une v.a.
continue si X(Ω) a la puissance du continu.

En considérant E ≡ R, la puissance du continu est équivalente à un intervalle dans R

Définition 3.2.2. Soit (Ω, F, P) un espace probabilisé. Nous appelons variable aléatoire réelle
(v.a.r.) toute application de Ω dans R telle que : pour tout intervalle I de R, l’ensemble
X −1 (I) = {w ∈ Ω|X(w) ∈ I} est un événement de F.

Notations
– Les variables aléatoires sont notées avec des lettres majuscules et les quantités déterministes avec
des lettres minuscules.

– Nous notons X(Ω) l’ensemble des valeurs prises par la variable aléatoire X définie sur l’espace
probabilisé (Ω, F, P).
– X −1 ({x}) = {w ∈ Ω|X(w) = x} se note {X = x}
– X −1 (] − ∞, a[) = {w ∈ Ω|X(w) ≤ a} se note {X ≤ a}
– X −1 (]a, b[) = {w ∈ Ω|a ≤ X(w) ≤ b} se note {a ≤ X ≤ b}

Remarque 3.2.1. Si F = P(Ω) (en particulier si Ω est fini), toute application de Ω dans R est une
variable aléatoire.

Quelques exemples :
1. Nombre de lancers avant d’obtenir ”6” avec un dé : X(w) de 0 à l’infini ;
2. Nombre d’appels arrivant à un standard téléphonique en une minute de 0 à 10.
3. Nombre de clients attendant au service après-vente :X(w) de 0 à 10.
Interprétation de variable aléatoire continue Une variable aléatoire est dite continue si elle peut
prendre toutes les valeurs d’un intervalle. En particulier, dans le cas où la variable aléatoire peut
prendre toute valeur réelle (son ensemble image contient un intervalle de R) ; on parle alors de variable
aléatoire réelle.
Dans ce cas, il ne s’agira plus de calculer une probabilité d’apparition d’une valeur donnée mais d’un
intervalle.

Quelques exemples :
1. moyenne des tailles de 20 étudiants pris au hasard :X(w) ∈ [α, β].
2. longueur de cheveux : X(w) ∈ [0; 4m]
0
3. temps d’attente pour avoir le bus :X(w) ∈ [0, 10 ]

25
3.2.1 Fonction de répartition
Définition 3.2.3. La fonction de répartition d’une v.a.r. X est l’application F de R dans [0, 1] définie
par
F (x) = PX (X < x) = P(X −1 (] − ∞, x[))

que l’on note abusivement F (x) = P(X < x)

Définition 3.2.4. Pour une variable continue, on travaille la plupart du temps avec un ensemble de
définition sur les réels. La probabilité ponctuelle P(X = x) = f (x) est la fonction de densité. La fonction
de répartition F (x) = P(X ≤ x) est définie par :
Z x
F (x) = f (t)dt
−∞

La densité de probabilité d’une variable aléatoire continue est la dérivée première par rapport à x de la
fonction de répartition. Cette dérivée prend le nom de fonction de densité, notée f (x) = dF (x)
dx
.
Pour calculer la probabilité P(a ≤ X ≤ b) dans le cas d’une variable continue, le calcul est le suivant
Rb
a
f (x)dx. Développons cette expression :

P(a ≤ X ≤ b) =P(X ≤ b) − P(X ≤ a)


Z b Z a
= f (t)dt − f (t)dt
−∞ −∞

= F (b) − F (a)

Cela se traduit par la surface comprise entre a et b de la courbe de densité.

3.2.2 Densité de probabilité


Définition 3.2.5. On appelle fonction de densité de probabilité ou fonction de densité ou encore densité
de probabilité sur un intervalle I, toute fonction f , continue et positive sur [a, b] et dont l’intégrale entre
a et b est égale à 1.
Autrement dit : f est une densité de probabilité sur l’intervalle [a, b]lorsque :
1. f ≥ 0 sur I
2. f est continue sur I,
Rb
Z x
3. a f (x)dx = 1 si I = [a, b] et lim f (t)dt = 1 si I = [a, b]
t−→+∞ a

Propriétés 3.2.1. Soit X une variable aléatoire continue à valeurs dans un intervalle [a, b] muni d’une
fonction de densité f . Alors
1. Probabilité d’un point : Pour tout réel c ∈ [a, b] avec P (X = c) = 0

26
2. Les bornes n’ont pas d’importance Pour tous nombres réels c, d ∈ [a, b]

P(c ≤ X ≤ d) = P(c ≤ X < d) = P(c < X ≤ d) = P(c < X < d)

3. Événement contraire. Pour tout nombre réel c ∈ [a, b] :


Z c
P(X > c) = P(c < X ≤ b) = 1 − P(a ≤ X < c) = 1 − f (x)dx
a

Preuve 3.2.1. 1-) Pour tout réel c ∈ [a, b] :


Z c
P (X = c) = P (c ≤ X ≤ c) = f (x)dx = 0.
c

2-) [c, d] = [c, d[∪d. Ces deux événements étant incompatibles, on a :

P([c, d]) = P([c, d[) + P({d}) = P([c, d[) + 0 = P([c, d[).

3-)L’événement (X > c) = (c < X ≤ b) est l’événement contraire de (a ≤ X < c).


Donc, par définition des probabilités de deux événements contraires, nous avons :
Z c
P(X > c) = P(c < X ≤ b) = 1 − P(a ≤ X < c) = 1 − f (x)dx
a

Propriétés 3.2.2. 1. F est non décroissante.


2. F est continue à gauche.
3. ∀x0 ∈ R,P(X = x0 ) = limx−→x+0 F (x) − F (x0 )
4. F (−∞) = 0 et F (+∞) = 1
5. P(a ≤ X ≤ b) = F (b) − F (a)

Preuve 3.2.2. 1) Montrons que F est croissante

(x < y =) =⇒ F (x) ≤ F (y).

On a la réunion disjointe ] − ∞, y[=] − ∞, y[∪[x, y[ et F (y) = P (X −1 (] − ∞, y[) =


P (X −1 (] − ∞, x[) ∪ X −1 ([x, y[)) et en utilisant les propriétés de P , F (y) = F (x) + P (X ∈ [x, y[) ≥ F (x).

2) Soit x0 ∈ R., X −1 ([x0 − n1 , x0 [) décroît vers ∅ quand n tend vers l’infini, donc F (x0 ) − F (x0 . − n1 )
tend vers 0. Comme F est croissante, cela implique que F est continue à gauche.

3-) De même, X −1 ([x0 , x0 + n1 [) décroît vers X −1 (x0 ) donc la différence F (x0 + n1 ) − F (x0 ) tend
vers P (X −1 (x0 )) quand n tend vers l’infini.

27
4-) F étant croissante, F (−∞) = limn−→∞ F (−n). Or ] − ∞, −.n[ décroît vers, quand n tend
vers l’infini ; ainsi F (−n) = P (X −1 (] − ∞, −n[)) décroît vers 0. De même, ] − ∞, −n[ croît vers R
quand n tend vers l’infini et F (n) = P(X −1 (] − ∞, n[)) croît vers P(X ∈ R) = 1

5-) X −1 (] − ∞, b[) est la réunion disjointe de X −1 (] − ∞, a[) et de X −1 ([a, b[) donc


F (b) = P (X ∈ [a, b[) + F (a).

3.2.3 Moments d’une variable aléatoire continue


Soit X une variable aléatoire de densité f . Par définition,
Z
E(X) = xf (x)dx
R

sous réserve de convergence de l’intégrale (soit E(|X|) < ∞).

Théorème 3.2.1. de transfert Soit X de densité f , soit ϕ une fonction définie sur R, continue sauf
en un nombre fini de points. Alors, sous réserve de convergence absolue de l’intégrale :
Z +∞
E(ϕ(X)) = ϕ(x)f (x)dx
−∞

Ceci découle immédiatement de la linéarité de la sommation ou de l’intégration. Voyons cela sur le


cas particulier aX + b pour le cas continu :
Z +∞
E(aX + b) = (ax + b)f (x)dx
−∞
Z +∞ Z +∞
=a xf (x)dx + b f (x)dx
−∞ −∞

= aE(X) + b

On notera bien que dans le cas général E(ϕ(X)) n’est pas égal à ϕ(E(X)), par exemple E(X 2 ) 6=
(E(X))2 .

Théorème 3.2.2. de Koenig-Huygens Soit X de densité f . X admet une espérance et une variance
ssi X admet un moment d’ordre 2, c’est-à-dire ssi l’intégrale
Z
2
µ2 (X) = E(X ) = x2 f (x)dx < ∞
R

Définition 3.2.6. On appelle moment simple d’ordre r de la v.a.r. X, où r est un entier positif, la

28
valeur (si elle existe)
µr = E(X r )

Ainsi µ1 est la moyenne de X que l’on note plus simplement µ (ou µX il y a plusieurs v.a.r. à
distinguer). En fait les caractéristiques de forme reposent plutôt sur les moments centrés, c’est-à-dire
sur les espérances mathématiques des puissances de X − E(X), ou X − µ, transformation de X appelée
centrage de X.

Définition 3.2.7. On appelle moment centré d’ordre r de la v.a.r. X, où r est un entier positif, la
valeur (si elle existe)
0
µr = E(X − µ)r

Variance
Soit X de densité f , admettant une espérance E(X). Par définition
Z +∞
V ar(X) = (x − E(X))f (x)dx = E(X − E(X))2
−∞

sous réserve de convergence de l’intégrale

Propriétés 3.2.3. Soit X une variable aléatoire à densité dont le moment d’ordre 2 existe (E(X 2 ) <
+∞). La variance de X par rapport a l’origine est définie par

V ar(X) = E(X − E(X))2 = E(X 2 ) − (E(X))2 (3.1)

Preuve 3.2.3.
V ar(X) = E(X − E(X))
Z
= (x − E(X))2 f (x)dx
ZR
= (x2 − 2xE(X) + (E(X))2 )f (x)dx
ZR Z 2
2
= x f (x)dx − xf (x)dx
R R
2 2
= E(X ) − (E(X))
Avec Z
2
(E(X)) = (E(X))2 − 2xE(X))f (x)dx
R

Théorème 3.2.3. (Inégalité de Markov)Si X est une v.a.r. positive ayant une espérance alors

E(X)
∀t > 0, P(X ≥ t) ≤
t

29
Preuve 3.2.4. Dans la série E(X), on regroupe les termes en deux paquets selon la position de xk par
rapport à t :
+∞
X
E(X) = xk P(X = xk )
k=1
X X
= xk P(X = xk ) + xk P(X = xk )
k|xk <t k|xk ≥t
X
=0+t P(X = xk ) car {X ≥ t} = ∪k|xk ≥t {X = xk }
k|xk ≥t

≥ tP(X ≥ t).
Théorème 3.2.4. (Inégalité de Tchebychev) Si V ar(X) existe, on a pour tout t > 0

V ar(X)
P(|X − E(X)| ≥ t) ≤
t2

Preuve 3.2.5. Il suffit dé appliquer théorème 3.2.3 la variable aléatoire Y = (X −E(X))2 en remarquant
que {|X − E(X)| ≥ t} = {(X − E(X))2 ≥ t2 } et que par définition

E(Y ) = E((X − E(X)))2 = V ar(X)

3.3 Variable aléatoire discrète


Définition 3.3.1. Dans un espace probabilisable (Ω, F, P), toute variable aléatoire réelle X dont l’image
X(Ω) est au plus dénombrable, c’est-à-dire finie ou dénombrable, est appelée variable aléatoire discrète.
Plus précisément
– toute variable aléatoire réelle X dont l’image X(Ω) est finie, est une variable aléatoire réelle discrète
finie ;
– toute variable aléatoire réelle X dont l’image X(Ω) est infinie dénombrable, est une variable aléa-
toire réelle discrète infinie.
Dit autrement, toute variable aléatoire à valeurs dans une partie au plus dénombrable de R est une
variable aléatoire discrète.

Remarque 3.3.1. – Si Ω est fini ou dénombrable, F = P(Ω), et toute application de Ω dans R


est une variable aléatoire dont l’image est au plus dénombrable ; c’est une variable aléatoire discrète.

– On rappelle qu’un ensemble Eest dénombrable s’il peut être mis en bijection avec N : les éléments
de E peuvent donc être indexés par N .
Les ensembles N, Z, Q, N2 sont dénombrables. Toute partie infinie d’un ensemble dénombrable
est dénombrable. Toute réunion dénombrable d’ensembles dénombrables est dénombrable.
L’ensemble R des réels, l’ensemble P(N) des parties de N, ne sont pas dénombrables

30
– Tout ensemble E fini ou dénombrable peut s’écrire sous la forme E = {xi |i ∈ I} ou I est une
partie de N et l’application i 7−→ xi une bijection de I sur E (on peut prendre I = N si E est
dénombrable, I = 1, . . . , n si E est fini de cardinal n).
Dans la suite de ce chapitre, si X est une variable aléatoire discrète, nous noterons donc X(Ω) =
{xi , i ∈ I} ou I est une partie de N .
La plupart du temps on aura X(Ω) ⊆ N ou X(Ω) ⊆ Z.

Proposition 3.3.1. Soit (Ω, F, P ) un espace probabilisable et X une application de Ω dans R telle que
X(Ω) soit fini ou dénombrable. On note X(Ω) = {xi , i ∈ I}, ou I est une partie de N .
Alors X est une variable aléatoire réelle discrète si, et seulement si,

[X = xi ] = {w ∈ Ω, X(w) = xi } ∈ F

Preuve 3.3.1. Comme X(Ω) est au plus dénombrable, si X est une variable aléatoire, c’est une variable
aléatoire réelle discrète, que si X est une variable aléatoire alors, pour tout i ∈ I, [X = xi ] est un
événement.
Supposons réciproquement que cette condition est réalisée. Montrons alors que X est une variable aléa-
toire réelle, c’est-a-dire que, pour tout réel x, {w ∈ Ω, X(w) ≤ x} est un élément de la tribu F. Comme
X(Ω) = {xi , i ∈ I}, on a

{w ∈ Ω, X(w) ≤ x} = {w ∈ Ω, ∃i ∈ I, X(w) = xi et xi ≤ x}
= {w ∈ Ω, ∃i ∈ I, [X = xi ] et xi ≤ x}
= ∪i∈I,xi ≤x [X = xi ]

Comme [X = xi ] est un élément de F pour tout i de I et que {i ∈ I, xi ≤ x} est fini ou dénombrable,


alors {w ∈ Ω, X(w) ≤ x} est une réunion au plus dénombrable d’éléments de F, donc un élément F
(d’après les proprietes de l’ensemble F des événements).

3.3.1 Loi d’une variable aléatoire discrète


Définition 3.3.2. Si X une variable aléatoire discrète X de l’espace probabilisé (Ω, F, P ), l’application

P :F −→[0, 1]
A 7−→P(A)

où A est un ensemble discret.

Propriétés 3.3.1. Soit X une variable discrète de l’espace probabilisé (Ω, F, P ).

31
– Si X est une variable finie telle que X(Ω) = {x1 , x2 , . . . , xn }, on a

n
X
P([X = xk ]) = 1
k=1

– Si X est une variable aléatoire discrète infinie et X(Ω) = {xk , k ∈ N }, on a


X
P([X = xk ]) = 1
k=1

3.3.2 Les moments d’une variable aléatoire discrète


Définition 3.3.3. Soit X une v.a. discrète de loi P(X = k), k ∈ N. On appelle espérance mathématique
ou moment d’ordre r ≥ 1 de X la quantité E(X r ) définie par
X
E(X r ) = k r P(X = k).
k∈N

Remarque 3.3.2. Ce n’est pas la moyenne des k r pondérés par la probabilités correspondes

Propriétés 3.3.2. L’espérance mathématique d’une v.a. X, Y vérifie les propriétés suivantes :
– a)Espérance d’une constante :
E(c) = c ∀c ∈ R

– b)Linéarité :
E(aX + bY ) = aE(X) + bE(Y ) ∀a, b ∈ R

Définition 3.3.4. Toute variable aléatoire réelle discrète admettant une espérance nulle est dite centrée.

Corollaire 3.3.1. Soit X est une variable aléatoire réelle discrète admettant une espérance E(X). Pour
tout couple (a, b) de réels, aX + b est une variable aléatoire réelle discrète admettant aE(X) + b comme
espérance

Propriétés 3.3.3. Pour toute variable aléatoire réelle discrète X admettant une espérance E(X), la
variable aléatoire X − E(X) est une variable aléatoire réelle discrète centrée appelée variable aléatoire
centrée associée à X.

Preuve 3.3.2. Notons que E(X) est un réel qu’on considère comme une variable aléatoire constante ;
celle-ci a pour espérance E(X). D’après le corollaire 3.3.1, la variable aléatoire X − E(X) est une
variable aléatoire réelle discrète admettant une espérance et

E(X − E(X)) = E(X) − E(X) = 0

32
3.3.3 Variance et écart-type
Définition 3.3.5. Soit X une variable aléatoire discrète dont le moment d’ordre 2 existe (E(X 2 ) < +∞).
La variance de X est donnée par :
X
V ar(X) = E(X − E(X))2 = (k − E(X))2 P(X = k)
k∈N

Nous la notons également σX


2
s’il y a plusieurs variables aléatoires à distinguer
Nous appelons écart-type de X la valeur V ar(X), que nous noterons σ selon les cas
p

Propriétés 3.3.4. (Formule de Koenig-Huygen) Soit X une variable aléatoire discrète

V ar(X) = E(X 2 ) − (E(X))2

Preuve 3.3.3. Si X possède un moment d’ordre 2, elle possède un moment d’ordre 1,c’est-à-dire une
espérance
(X − E(X))2 = X 2 − 2E(X)X + ((E(X))2 ,

on en déduit par linéarité que (X − E(X))2 possède une espérance. Ainsi V ar(X) existe et

V ar(X) = E(X 2 − 2E(X)X + ((E(X))2 ))


= E(X 2 − 2E(X)E(X) + E(E(X))2 ))
= E(X 2 − 2(E(X))2 + (E(X))2 )
= E(X 2 ) − (E(X))2

puisque E(X) est une variable aléatoire constante dont l’espérance est E(X).

Propriétés 3.3.5. Non-linéarité de la variance


Pour toute variable aléatoire X et a, b ∈ R
1. V ar(X) ≥ 0
2.
V ar(aX) = a2 V ar(X)

3.
V ar(a) = 0

Preuve 3.3.4. On pose Y = aX

V ar(Y ) = E(Y 2 ) − (E(Y ))2


= E((aX)2 ) − (E(aX))2
= a2 E(X 2 ) − a2 (E(X))2

33
Alors
V ar(aX) = a2 V ar(X)
Vocabulaire

– Si E(X) = 0, alors X est une variable aléatoire centrée.

– Si V ar(X) = 1, alors X est une variable aléatoire réduite.

– Si X admet une variance non nulle, la variable X∗ = X−m


σX
est appelée variable centrée et réduite
associée a X.
Exemple 3.3.1. X = résultat d’un jet de dé à six faces non-pipé.
Les n = 6 modalités possibles, x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5, x6 = 6, ont toutes pour probabilité
élémentaire 1
6
:
1
∀ k = 1, . . . , 6, P(X = k) =
6
et on peut calculer E(X) = 72 ; V ar(X) = 35
12
.
Propriétés 3.3.6. (Théorème de transfert, Espérance d’une fonction de v.a) Soient X une v.a.
discrète de domaine X(Ω) = {x1 , . . . , xk , . . .} et g une fonction numérique sur R (ou dont l’ensemble de
définition contient au moins l’ensemble des valeurs X(Ω) de X). Alors si E[g(X)] existe, on a


X
E[g(X)] = g(xk )P(X = xk )
k=1

Preuve 3.3.5. Notons Y = g(X), l’ensemble des valeurs prises par la v.a. Y est

{g(x1 ), . . . , g(xk ), . . .}

avec éventuellement des répétitions car g n’est pas nécessairement injective. En notant

{y1 , . . . , yk , . . .}

l’ensemble des valeurs de Y sans répétition (i.e. les yi sont deux à deux distincts), on a :


X
E(Y ) = E(g(X)) = yi P(Y = yi ) (3.2)
i=1

Pour chaque i = 1, . . . , k, . . . , notons Bi = {xk |g(xk ) = yi } l’ensemble des antécédents de yi par g. Ce


sous-ensemble est non vide et au plus dénombrable (si g est injective, cet ensemble est de cardinal 1).

{Y = yi } = ∪k|xk ∈B {X = xk } (3.3)

34
en effet {Y = yi } ⊂ ∪k|xk ∈B {X = xk } car si w ∈ {Y = yi } alors g(X(w)) = Y (w) = yi . Or il existe k
tel que X(w) = xk . Comme alors g(xk ) = yi , on a xk ∈ Bi . Autrement dit, il existe k vérifiant xk ∈ Bi
tel que X(w) = xk , c’est à dire
w ∈ ∪k|xk ∈B {X = xk }

Puis si w ∈ ∪k|xk ∈B {X = xk } alors Y (w) = F (X(w)) = g(xk ) = yi car xk ∈ Bi , donc w ∈ {Y = yi }, ce


qui justifie l’inclusion réciproque et donc l’égalité (3.3).
Le terme général de la série (3.2) se transforme alors en
X X
yi P(Y = yi ) = yi P(∪xk ∈Bi ) = yi P(X = xk ) = g(xk )P(X = xk )
xk ∈Bi xk ∈Bi

La série précédente est absolument convergente car g est constante sur Bi . Comme les Bi forment une
partition de X(Ω), les propriétés des séries à termes positifs donnent

+∞
X +∞ X
X
|g(xk )|P(X = xk ) = |g(xk )|P(Y = yi ) < +∞
k=1 i=1 xk ∈Bi

par hypothèse (existence de E[Y ]). Ceci légitime le même calcul sans les valeurs absolues et prouve la
proposition .

Propriétés 3.3.7. 1. Si X a une espérance et X ≥ 0, alors E(X) ≥ 0.


2. Si X et Y ont des espérances et X ≤ Y alors E(X) ≤ E(Y ).

Preuve 3.3.6. X ≥ 0 signifie que pour tout w ∈ Ω , on a X(w) ≥ 0. De même, X ≤ Y signifie que
pour tout w ∈ Ω , on a X(w) ≤ Y (w).
Il suffit de voir le premier point, le deuxième se voit en appliquant le premier à Z = Y − X et en
appliquant la linéarité de l’espérance.
Soit donc X ≥ 0, l’ensemble des valeurs xk prises par X est dans R+ . E(X) apparaît alors comme une
série avec que des termes positifs, elle est a fortiori positive

3.4 Fonction génératrice.


Définition 3.4.1. Etant donnée une variable aléatoire discrète X, à valeurs entières (X(Ω) ∈ N), on
appelle fonction génératrice de X, l’application gX : R −→ R définie, lorsqu’elle existe, par :

gX (u) = E(uX )

Par définition de l’espérance mathématique d’une fonction aléatoire, on a donc, s’agissant d’une variable
aléatoire à valeurs entières
+∞
X
gX (u) = uk P(X = k)
k=0

35
La définition de la fonction génératrice conduit à :

+∞
X
gX (u) = uk P(X = k)
k=0

donc la probabilité que X égale n est le coefficient de un dans le développement en série entière de gX (u)
au voisinage de 0.
Si on développe gX (u) en série de Taylor, sous la forme :

+∞ k
X g (0)X
gX (u) = uk
k=0
k!

Comme le développement en série entière est unique, on obtient, par identification :

+∞ k
X g (0) X
P(X = k) =
k=0
k!

Remarque 3.4.1. Si la fonction génératrice de X est un polynôme, les valeurs de X sont les puissances
de u et la probabilité d’une valeur n est le coefficient de un dans le polynôme.

Proposition 3.4.1. (Propriété fondamentale)


La fonction génératrice de la somme de deux variables aléatoires indépendantes est le produit des fonc-
tions génératrices de chaque variable,i.e

gX+Y (u) = gX (u)gY (u) (3.4)

Preuve 3.4.1. Soit X et Y sont indépendantes alors forcement uX et uY le sont

gX+Y (u) = E(uX+Y ) = E(uX uY ) = E(uX )E(uY ) = gX (u)gY (u)

Définition 3.4.2. Moment factoriel d’ordre n.


Pour n ≥ 1, on appelle moment factoriel d’ordre n l’espérance mathématique de X(X − 1)(. . .)(X −
(n − 1)) :

n
mn = E(X(X − 1)(. . .)(X − (n − 1))) = gX (1)

Par extension de la définition, on appelle moment factoriel d’ordre 0 la valeur de la fonction géné-
ratrice pour u = 1 :

+∞
X
m0 = E(1) = gX (1) = 1 = P(X = k) (condition de normalisation).
k=0

Les moments factoriels interviennent dans le développement de la fonction génératrice en série entière

36
au voisinage de 1
+∞ k +∞
X g (1) X
X mk
gX (1 + v) = vk = vk
k=0
k! k=0
k!

Proposition 3.4.2. Soit une v.a. X dont la fonction génératrice est gX (u). Alors

0
E(X) = gX (1) = m1 (3.5)

00 0 0
V ar(X) = gX (1) + gX (1) − (gX (1))2 = m2 + m1 − m21 (3.6)

3.5 Fonction caractéristique


Définition 3.5.1. On appelle fonction caractéristique d’une variable aléatoire X de fonction de répar-
tition FX (x) la fonction à valeur complexes
Z
ΦX (t) = E(e itX
)= eitx dFX (x) (3.7)
R

En particulier, si la densité de la v.a. X, f (x) = FX (x) existe, la fonction carapaté rustique représente
la transformée de Fourier de la densité f :
Z
ΦX (t) = E(e itX
)= eitx f (x)dx (3.8)
R

Proposition 3.5.1. Soit X v.a. de fonction caractéristique ΦX


1. ΦX (0) = 0
2. ∀t ∈ R, |ΦX (t)| ≤ 1
3. ΦX (t) est continue
4. ∀t ∈ R, ΦX (t) = ΦX (−t)
5. Si les moments d’ordre k existent et si ΦX (t) est de classe C k

ΦkX (t)
E|X k eitX | = (3.9)
ik

6. pour tout α, β ∈ R
ΦαX+β (t) = eiβt ΦX (αt) (3.10)

Théorème 3.5.1. Soit X une variable aléatoire de fonction caractéristique Φ(αt). Si Φ(αt) est inté-
grable,alors X admet une densité de probabilité donnée par
Z
1
f (x) = e−itx ΦX (t)dt (3.11)
2π R

37
Théorème 3.5.2. Soit X1 , . . . , Xn des variables aléatoires de carré intégrable. Alors X1 + . . . + Xn est
de carré intégrable et si les Xi sont indépendantes,alors
n
X
V ar(X1 + . . . + Xn ) = V ar(Xi )
i=1

Preuve 3.5.1. Le fait que la somme X1 + . . . + Xn est de carré intégrable découle de l’inégalité

(X1 + . . . + Xn )2 ≤ n(X12 + . . . + Xn2 )

Par linéarité de l’espérance

n 
X 2 
V ar(X1 + . . . + Xn ) = E Xi − E(Xi )
i
n 
X  
=E Xi − E(Xi ) Xj − E(Xj )
i,j

Si Y et Z sont deux variables de carré intégrable, comme |Y Z| ≤ (Y 2 + Z 2 )/2, leur produit Y Z est
intégrable. Donc chaque terme (Xi − E(Xi ))(Xj − E(Xj )) est intégrable et par linéarité de l’espérance,

n
X n X
X n
V ar(X1 + . . . + Xn ) = V ar(Xi ) + E((Xi − E(Xi ))(Xj − E(Xj )) =
i=1 i=1 i6=j=1

On conclut en remarquant que par indépendance des variables X1 , . . . , Xn , pour i 6= j,

E((Xi − E(Xi ))(Xj − E(Xj )) = E((Xi − E(Xi ))E((Xj − E(Xj )) = 0

Parfois, il est plus facile de calculer directement l’espérance à l’aide de la fonction de répartition à
l’aide du résultat suivant :

Théorème 3.5.3. Si X est une variable aléatoire réelle positive de fonction de répartition FX , alors
Z +∞ Z +∞
E(X) = P(X > t)dt = (1 − FX (t))dt
0 0

De plus, E[X] < +∞ si et seulement si, pour un ou tout  > 0

X X
P(X > n) < +∞ ou 2n P(X > 2n ) < +∞
n≥0 n≥0

Preuve 3.5.2. D’aprés le théorème de Fubini, on peut écrire

38
Z +∞ Z +∞
P(X > t)dt = E(1(X>t) )dt
0 0
 Z +∞ 
=E 1(X>t) dt
0
Z X 
=E dt
0

= E(X)

Pour la deuxième partie, on voit que pour t ∈ [n, n + 1], on a P(X > n + 1) ≤ P(X > t) ≤ P(X > n) et
donc
Z n+1
P(X > n + 1) ≤ P(X > t)dt ≤ P(X > n)
n

puis en sommant

X Z +∞ X
P(X > n + 1) ≤ P(X > n)dt ≤ P(X > n)
n≥0 0 n≥0

en décomposant [0, +∞[ en intervalles [n, n + 1[. De la même façon avec [0, +∞[= ∪+∞ n n+1
n=0 [2 , 2 [

X Z +∞ X
n n+1
2 P(X > 2 )≤ P(X > t)dt ≤ P(X > 2n )
n≥0 1 n≥0
R1
et comme 0 ≤ 0
P(X > t)dt ≤ 1 on a

X Z +∞ X
n n+1
2 P(X > 2 )≤ P(X > t)dt ≤ 1 + P(X > 2n )
n≥0 0 n≥0

On conclut en remplaçant X par X/

39
Chapitre 4

Lois usuelles

Dans cette note est faite une liste des lois de probabilité usuelles sur R sur une de ses sous-parties
ainsi que quelques unes de leurs propriétés (moyenne, variance, fonction caractéristique). Qualifier ces
lois de probabilité d’usuelles signifie qu’elles doivent être connues de tous et non qu’elles seraient les
seules qu’on puisse rencontrer dans un problème, un exercice et surtout dans une situation concrète. De
nombreuses propriétés sont données sans démonstration. Elles peuvent être traitées en exercice.

4.1 Lois absolument continues usuelles

4.1.1 Loi uniforme continue


Définition 4.1.1. On dit que la variable aléatoire réelle X suit la loi uniforme sur [a, b] avec b > a
lorsque X admet pour densité de probabilité la fonction
(
1
b−a
, si a ≤ t ≤ b
f (t) =
0, sinon.

Notation La loi uniforme sur [a, b]est notée U[a;b] . On peut aussi définir la fonction de répartition F
donnée par :

Z x  0,

 si ; x < a
FX (x) = f (t)dt = x−a
b−a
, si a≤x≤b
−∞ 
si x > b

 1,

Cours et Exercices de Probabilités 40 Blouhi Tayeb


Soit X une variable aléatoire de loi U[a;b] . Tous ses moments existent et on calcule aisément
Z b
E(X) = xf (x)dx
a
1 x2 b
= [ ]
b−a 2 a
1 b 2 − a2
=
b−a 2
a+b
=
2

On peut aussi calculer la variance :

V ar(X) = E(X 2 ) − (E(X))2


Z b
= xf (x)dx − (E(X))2
a
1 x2 b a+b
= [ ]a − ( )
b−a 2 2
1 x3 b a+b
= [ ]a − ( )
b−a 3 2
(b − a)2
=
12

calculer GX (s) à partir de sa série entière. En fait

GX (s) = E(sX )
Z b
= esx f (x)dx
a
1 1 sx b
= [ e ]a
b−a t
ebt − eat
=
(b − a)t

et
φX (s) = E(eitX )
Z b
= eitx f (x)dx
a
1 1 itx b
= [ e ]a
b−a t
eibt − eiat
=
(b − a)it

41
4.1.2 Loi exponentielle
Définition 4.1.2. Soit λ un paramètre réel strictement positif. On dit que la variable aléatoire réelle X
suit la loi exponentielle de paramètre λlorsque X admet pour densité de probabilité la fonction
(
0, si t ≤ 0,
λe −λt
, si t > 0

La loi exponentielle de paramètre λ > 0est notée E(λ).


On peut maintenant calculer la fonction de répartition FX avec FX (x) = P(X ≤ t) :
(
0, si t≤0
FX (x) =
1 − e−λt , si t > 0

4.1.3 Loi normale


Définition 4.1.3. Soient deux réels m et σ. On suppose σ > 0. On dit que la variable aléatoire réelle
continue X suit la loi normale de paramètres m etσ lorsqu’elle admet pour densité de probabilité la
fonction

1 −1 (x−m)
2
f (x) = √ e 2 σ2
2πσ 2
Notons que l’on ne peut pas calculer formellement la probabilité d’un intervalle. En effet, la fonction de
répartition est Z x Z x
1 −1 (t−m)
2
FX (x) = f (t)dt = √ e 2 σ2 dt
−∞ 2πσ 2 −∞

Notation La loi normale de paramètres m et σ est notée N (m, σ).

4.1.4 La loi normale centrée réduite


Définition 4.1.4. On dit qu’une variable aléatoire X sur R suit la loi normale centrée réduite si sa loi
de densité est :
1 −x2
f (x) = √ e 2
2πσ 2

4.2 Lois usuelles discrètes

4.2.1 Loi de Bernoulli


Soit A un événement relatif à une expérience aléatoire modélisée par un espace (Ω, F, P).

42
Définition 4.2.1. On appelle v.a. indicatrice de l’événement A la v.a. définie sur par
(
1, si w ∈ A
1A (w)
0, si w ∈ Ā

Si on note p = P(A) la probabilité de l’événement A. La loi de probabilité de la v.a. 1A (appelée loi de


Bernoulli B(1, p)) est donnée par

1A 0 1
pi 1−p p

Si X est une variable aléatoire de loi la loi de Bernoulli de paramètre p ∈ [0, 1], alors elle admet des
moments a tout ordre et on a :
On sait que X(Ω) = {0, 1} alors

E(X) = 0 × (1 − p) + 1 × p = p

et
V ar(X) = E(X 2 ) − (E(X))2
= 0 × (1 − p) + 12 × p − p2
= p − p2
= p(1 − p)
et
GX (s) = 1 − p + ps

et la fonction caractéristique
φX (t) = E(eitX ) = ((1 − p) + peit )

4.2.2 Loi binomiale


On considère une expérience aléatoire à deux issues S (succès) et E(échec) avec P (S) = p et
P (E) = 1 − p (0 ≤ p ≤ 1). On fait n répétitions indépendantes de cette expérience qu’ on modélise
par ’espace produit Ω = {S, E}n muni de la probabilité produit comme expliqué au chapitre

Définition 4.2.2. La variable aléatoireX=«nombre total de succès» (au cours des n répétitions) est
appelée v.a. binomiale de paramètres (n, p). Pour abréger la loi d’une telle v.a. sera désignée par
B(n, p)

Propriétés 4.2.1. L’expression de la loi B(n, p) est

pk = P(X = k) = Cnk pk (1 − p)n−k k = 0, 1, . . . n.

43
Preuve 4.2.1. L’événement [X = k] est l’ensemble des n-uplets composés de k lettres S et n − k lettres
E qui sont au nombre de Cnk . Tous ces n uplets ont la même probabilité pk (1 − p)n−k (par définition de
la probabilité produit). D’où le résultat

4.2.3 Loi géométrique (ou loi de Pascal)


On considère une infinité de répétitions indépendantes d’une expérience à deux issues S et E modé-

lisée par l’espace produit infini Ω = {S, E}N des suites infinies w = (xk )k≥1 (xk ∈ {S, E}), muni de la
probabilité produit comme expliqué au chapitre 1. On considère la v.a. X=«instant du premier succès»
qui est telle que

X(w) = n si ∀ k = {1, . . . , n − 1}, xk = E et xn = E (4.1)

Si on considère les événements Ei =«échec au i-ème coup» et Si =«succès au i-ème coup», on peut écrire
l’événement [X = n] sous la forme

[X = n] = E1 ∩ E2 ∩ . . . ∩ En−1 ∩ Sn (4.2)

(intersection d’événements indépendants) d’où il résulte aussitôt que

P[X = n] = (1 − p)n−1 p n ∈ N∗ (4.3)

Définition 4.2.3. La loi de probabilité (4.3) de la v.a. «instant du premier succès» considérée en (4.1)
s’appelle loi géométrique (ou loi de Pascal).

4.2.4 Loi de Poisson


Définition 4.2.4. Soit λ > 0un paramètre fixé. On dit qu’une v.a.X à valeurs dans l’ensemble des
entiers Nsuit la loi de Poisson de paramètre λ si

λn
∀n ∈ N, P(X = n) = e−λ
n!
n
Remarque 4.2.1. On notera que les nombres pn = e−λ λn! constituent bien une loi de probabilité sur N
puisqu’ils sont positifs et de somme
∞ ∞
X
−λ
X λn
pn = e =1
n=0 n=0
n!

44
4.2.5 Loi uniforme discrète
Définition 4.2.5. Une variable aléatoire discrète X prenant un nombre fini de valeurs x1 , x2 , . . . , xn
suit une loi uniforme (équirépartie) sur l’ensemble{x1 , x2 , . . . , xn }, si :

1
P0 (X = xk ) = , ∀k = {1, 2, . . . , n}.
n

4.2.6 Loi binomiale négative


Définition 4.2.6. Une v.a.r. Xest dite de loi binomiale négative de paramètres n et p si elle est à
valeurs dans D = Net si
P0 (X = k) = Cn+k−1
n−1
pn q k , où q = 1 − p.

Reprenons l’exemple de tirages successifs au hasard, indépendants et avec remise dans une urne contenant
des boules bleues et rouges en proportion respectivement p et q = 1 − p. Soit Y le nombre de tirages
que l’on doit faire pour obtenir n boules bleues. Alors la v.a.r. X = Y − n représentant donc le nombre
de boules rouges obtenues avant d’avoir n boules bleues suit une loi binomiale négative. On retrouve
facilement que
n−1
P(X = k) = Cn+k−1 pn q k , où q = 1 − p.

puisque l’événement {X = k}signifie que sur les k + n tirages on a eu k boules rouges et n boules bleues,
dont l’une est la dernière tirée. La probabilité de chaque résultat élémentaire permettant à l’événement
{X = k} d’être vérifié est donc pn q k . Or l’événement {X = k} est la réunion deCn+k−1
n−1
résultats
élémentaires différents : une boule bleue étant tirée en dernier, il reste Cn+k−1
n−1
façons différentes de
placer les autres boules bleues. Remarquons que, bien sûr, pour n = 1 la loi de Y est une loi géométrique
G(p) :

4.2.7 Approximation de la loi binomiale par la loi de Poisson


Théorème 4.2.1. (Approximation de la loi de Poisson par la loi binomiale) Si (pn )n∈N est
une suite de réels de [0, 1] telle que

npn −→ λ ∈ [0, +∞], n −→ ∞

Alors
λ
Cnk pkn (1 − pn )n−k −→ e−λ
k!
Autrement dit, si Xn est une suite de v.a. de loi binomiale B(n, pn ) et X une v.a. de loi P(λ) alors pour
tout k ∈ N :
lim P(Xn = k) = P(X = k)
n−→∞

Les lois binomiales convergent vers la loi de Poisson

45
Preuve 4.2.2. On remplace pn par son équivalent nλ . Pour k fixe,

P(Xn = k) = Cnk pkn (1 − pn )n−k


n!
= pk (1 − pn )n−k
k!(n − k)! n
n!
= pk e(n−k) ln(1−pn )
k!(n − k)! n
n(n − 1) . . . (n − k + 1) λ k −(n−k) λ
' ( ) e n
k! n
1 n(n − 1) . . . (n − k + 1) λ nk k −λ k λ
' ( ) λ e e n
k! k! n
−λ λ
'e
k!
' P(X = k)

Application pratique. Le théorème 4.2.1 sert de justification théorique à la réglé pratique suivante :
lorsque n est « grand » et np est « petit », on peut remplacer la loi binomiale B(n, p) par la loi de Poisson
P(λ) où λ = np.
En général, on considéré que lorsque n est de l’ordre de quelques centaines et np est de l’ordre de
quelques unité, l’approximation de B(nnp) par P(np) est assez bonne. Intérêt : si n est grand, le calcul
des coefficients binomiaux Cnk est fastidieux, voire impossible. En approchant par la loi de Poisson, le
calcul devient assez simple.

4.2.8 Couples de variables aléatoires


Nous allons étudier particulièrement les v.a.à 2 dimensions Mais presque tous les résultats seront
généralisables à n dimensions. Une v.a à 2 dimensions est une application mesurable de (Ω, F) dans
(R2 , B(R2 )) où B(R2 ) est la tribu borélienne de R2 .

Tribu borélienne sur R2 .


Si on munit R de sa tribu borélienne, on a vu qu ’on peut munir R × R de la tribu B(R2 ) × B(R2
engendrée par la famille des pavés

C = {A1 × A1 , Ai ∈ B}

On peut démontrer que B(R) × B(R) = B(R2 ) (tribu engendrée par les ouverts de R2

4.2.9 Coordonnées d’une v.a


Théorème 4.2.2. pour que la fonction Z = (X, Y ) soit une v.a sur (Ω, F) il faut et il suffit que X et
Y soient des v.a de (Ω, F) sur (R, B(R)).

46
Preuve 4.2.3. a) Z est une v.a., on sait que si on la compose avec une autre application mesurable, on
obtient une application encore mesurable. L’application de R2 dans R telle que (x, y) −→ x est continue,
donc boréliennes (mesurable si on munit R et R2 de leurs tribus boréliennes B(R) et B(R2 ) donc X est
mesurable , c’est une v.a sur R
b)Xet Y sont 2 v.a de (Ω, F) sur R. soit un pavé de C : A1 ×A2 avec Z −1 (A1 ×A2 ) = {w ∈ Ω, /Z(w) ∈
A1 × A2 } donc

Z −1 (A1 × A2 ) = {w ∈ Ω, X(w) ∈ A1 } ∩ {w ∈ Ω, Y (w) ∈ A2 } = X −1 (A1 ) ∩ Y −1 (A2 ) ∈ F

C engendre B donc Z est mesurable (c’est - à -dire une v.a)

Théorème 4.2.3. soient la v.a Z = (X, y) et r une application borélienne de R2 dans R alors r(X, Y )
est une v.a réelle

4.2.10 Loi du couple discrètes


Soient X et Y 2 v.a réelles dont les lois de probabilité sont définies par

P(X = xi ) = Pi. ∀i ∈ I

P(Y = xj ) = P.j ∀j ∈ J

où I et J sont des ensembles finis ou dénombrables

Définition 4.2.7. La lois du couple (X, Y ) est définit par les nombres

P(X = xi , Y = xj ) = pij

où pij = 1 et pij ≥ 0,
P
∀(i, j) ∈ I × J

Lois marginales On peut s’intéresse seulement à la valeur de l’une des composantes. Ainsi :

Pi. = P(X = xi ) = P(X = xi ∩ {∪j Y = yj })


X
Pi. = Pij
j

et de même
X
P.j = Pij
i

Si les Pij sont données sous forme de tableau, on voit que les pi. et les p.j peuvent s’écrire (en marge
) du tableau (somme par ligne ou par colonne. ) C’est pourquoi pi. et p.j sont appelés (lois marginales).
X et Y sont les (variables marginales )

47
Il est peut être prudent de rappelr que le couple (X, Y ) et les 2 variables marginales X et Y sont 3
v.a distinctes.

D’autre parts, on n’a pas en général la propriété :

Pij = Pi. × P.j

Exemple 4.2.1. Soit le couple aléatoire (X, Y ) où X prend les valeur 0, 1, 2 et Y les valeurs 0, 1, la lo
du couple est donnée par le tableau ci-dessous

Y /X 0 1 2 Somme=Loi marginale de Y
0 1
10
2
10
1
10
4
10
1 1
10
3
10
2
10
6
10
Somme=Loi marginale de Y 2
10
5
10
3
10
1

4.2.11 Loi du couple continu


Définition 4.2.8. La fonction de répartition du vecteur aléatoire V est la fonction H de R2 dans [0, 1]
telle que :
H(x, y) = P({X ≤ x} ∩ {Y ≤ y})

Si les dérivés secondes

∂ 2H ∂ 2H
h(x, y) = (x, y) = (x, y)
∂x∂y ∂y∂x
existent, alors h s’appelle densité de probabilité du vecteur V .
On dit alors que le vecteur aléatoire a une loi de probabilité absolument continue.

Propriétés 4.2.2. les propriétés de H sont da la même nature qu ’ a 1 dimension, et sont énoncées ci
dessous :
Rx Ry
1. 0 ≤ H ≤ 1 et −∞ −∞
h(u, v)dudv
0 0
2. H est croissante, c’est-à- dire que si x ≤ x et y ≤ y alors

0 0
H(x, y) ≤ H(x , y )

3. H a une limite à droite et une limite à gauche pour chaque coordonnée.


4. H(x, −∞) = H(−∞, y) = 0
5. Appelons F et G les f.d.r marginales de X et de Y respectivement.
6. H(x, +∞) = P(X ≤ x, Y ≤ +∞) = P(X ≤ x) = F (x)

48
7. H(x, +∞) = P(X ≤ +∞, Y ≤ y) = P(Y ≤ y) = G(y)
8. H(+∞, +∞) = F (+∞) = G(+∞) = 1
9. P ({x ≤ X ≤ x + dx} ∩ {y ≤ Y ≤ y + dy}) = H(x, y)dxdy
10. Appelons f et g les densités marginales de X et de Y respectivement :
Z +∞
h(x, y)dy = f (x)
−∞

Z +∞
h(x, y)dx = g(y)
−∞
Rx R +∞
En effet, F (x) = H(x, +∞) = −∞
du −∞
h(u, y)dy D’ou
Z +∞
0
f (x) = F (x) = h(x, y)dy
−∞

de même pour g(y)

4.2.12 L’image de (X, Y )


Soient V = (X, Y ) un vecteur aléatoire de R2 et r une fonction mesurable de R2 dans R.
Posons r(X, Y ) = Z

Z est une v.a à dimension. On se propose de trouver la loi de Z.

P(Z ≤ z) = P(r(X, Y ) ≤ z)

Pour une valeur donnée z, {r(X, Y ) ≤ z} détermine dans R2 une région ∆


Ors P(Z ≤ z) = P(M ∈ ∆) où M est le point aléatoire du plan de coordonnées (X, Y ) on en déduit :
Dans le cas discret :

Z étant une v.a discrète, il est plus commode de décrire sa loi de probabilité en donnant les proba-
bilités de tous les événements possibles {Z = z}
X
P{Z = z} = )P((X = xi ) ∩ (Y = yj ))
r(xj ,yj

b) Si le couple est absolument continu,


Z Z Z Z
P(Z ≤ z) = h(x, y)dxdy = 1∆ (x, y)h(x, y)dxdy
∆ R R

Où h est la densité du couple.

49
Cas discret On donne le couple (X, Y ) dont la loi de probabilité est décrite par tableau ci-dessous.

Y /X X = −1 X=0 X = +1
Y = −3 0.1 0.05 0
Y = −1 0.15 0.1 0.1
Y =1 0 0.15 0.2
Y =2 0, 1 0 0.05

Soit Z = XY l’ensemble des valeurs possibles de Z est

{−3, −2, , −1, 0, 1, 2, 3}

P(Z = −3) = 0 , P(Z = −2) = 0.1 , P(Z = −1) = 0.1 , P(Z = 0) = 0.3

et
P(Z = 2) = 0, 05 , P(Z = 3) = 0.1

Cas continu
Somme de deux variables aléatoires.
Soit (X, Y ) un couple aléatoire absolument continu et soit h(x, y) sa densité de probabilité. La variable
aléatoire

Z =X +Y

a pour fonction de répartition Z Z


P(Z ≤ z) = h(x, y)dxdy

où ∆ est demi plan formé par les points M (x, y) tel que x + y < z
Effectuant le changement de variables
(x, y) = (x, z − x)

Le jacobien de la transformation est égale à 1. D’où


Z Z
P(Z ≤ z) = f (x, z − x)dxdz
∆0

0 0
où ∆ est l’image de ∆ dans XOZ. (i.e ∆ est le demi plan )
Z Z
P(Z ≤ z) = f (x, z − x)dxdz
R R

Supposons que r soit une application de R2 dans R2 mesurable et bijective :


Soit V = (X1 , X2 ) le vecteur aléatoire de R2 et (Y1 , Y2 ) son image

50
Posons
Y1 = r1 (X1 , X2 ) , Y2 = r2 (X1 , X2 )

On note
X1 = s1 (Y1 , Y2 ) , X2 = s2 (Y1 , Y2 )

les formules définissent la transformation s inverse de r.


On suppose que les fonctions si i = 1, 2 sont continument dérivables,par rapport à chaque variable, et
l’on désigne par J, le déterminait jacobien de la transformation
∂s
i
J = (Y1 , Y2 ) i, j = 1, 2

∂Yj

Propriétés 4.2.3. La loi de probabilité du vecteur aléatoire Y = (Y1 , Y2 ) définie par Y = r(X) où
X = (X1 , X2 ), admet une densité g donnée par la relation :

g(y1 , y2 ) = |J|f (s1 (y1 , y2 ), s1 (y1 , y2 ))

Preuve 4.2.4. On remarque d’abord que, r étant mesurable. Y est bien un vecteur aléatoire. Soit G la
f.d.r de Y .
G(t1 , t2 ) = P((Y1 ≤ t1 ) ∩ (Y2 ≤ t2 ))

et
P(r1 (X1 , X2 ) ≤ t1 ) ∩ (r2 (X1 , X2 ) ≤ t2 ))

Appelons D1 et D2 les domaines du plan tels que

r1 (X1 , X2 ) ≤ t1

et
r2 (X1 , X2 ) ≤ t2

Z Z
G(t1 , t2 ) = P((X1 , X2 ) ∈ D1 ∩ D2 ) = f (x1 , x2 )dx1 dx2
D1 ∩D2

On effectue le changement,t de variables :


Z Z
G(t1 , t2 ) = |J|f (s1 (y1 , y2 ), s2 (y1 , y2 ))dy1 dy2
y1 ≤t1 y2 ≤t2

Formule qui donne immédiatement le résultat

Exemple 4.2.2. Soit X = (X1 , X2 ) v.a de densité

1 x2 + x22
f (x1 , x2 ) = exp(− 1 )
2π 2
51
effectuons le changement de variables

(X1 , X2 ) = (Y1 , Y1 Y2 )

Trouver la densité g(y1 , y2 ) du couple (Y1 , Y2 )

Définition 4.2.9. L’espérance du vecteur aléatoire (X, Y ) est le vecteur (E(X), E(Y ))),s’il existe, c’est
-à-dire si E(X) et E(Y ) existent

Propriétés 4.2.4. 1)Soit V un vecteur aléatoire de R2 et a une constante réelle :

E(aV ) = (E(aX), E(aY ))) = a(E(X), E(Y )))

2)Soit r une application borélienne de R2 dans R2 alors


Z Z
E(r(X, Y )) = r(x, y)h(x, y)dxdy.
R R

si h est la densité du couple (X, Y ) et si l’intégrale converge

þ Dans le cas discret u dans le cas absolument continu

E(X + Y ) = E(X) + E(Y )

Preuve 4.2.5. Démontrons ce théorème,très important, dans le cas absolument continu.


a)D’après la proposition précédente où r(x, y) = x + y
Z Z
E(X + Y ) = (x + y)h(x, y)dxdy.
R R

Alors Z Z Z Z Z Z
(x + y)h(x, y)dxdy = x h(x, y)dxdy + y h(x, y)dxdy
R R R R R R

or Z
h(x, y)dy = f (x) la densité de X
R

et Z
h(x, y)dx = g(y) la densité de Y
R

D’ou Z Z
E(X + Y ) = xf (x)dx + yg(x)dy = E(X) + E(Y )
R R

Lois conditionnelles.

Définition 4.2.10. Étant donnée la loi conjointe d’un couple aléatoire réel discret (X, Y ), la loi condi-

52
tionnelle de X pour Y fixé est définie par

P ((X = xi ) ∩ Y = yj )
P ((X = xi ) (Y = yj )) =
P (Y = yj )

La loi conditionnelle de X s’obtient, pour chaque valeur de Y , en divisant la probabilité conjointe dans
une case, par la somme de la colonne.
La loi conditionnelle de Y s’obtient, pour chaque valeur de X, en divisant la probabilité conjointe dans
une case, par la somme de la ligne :

X/Y y1 ... yj Total Loi marginale de X


x1 P(X = x1 , Y = y1 ) ... P(X = x1 , Y = yj ) P(X = x1 )
... ... ... ... ...
xi P(X = xi , Y = y1 ) ... P(X = xi , Y = yj ) P(X = xi )
... ... ... ... ...
Total Loi marginale de Y P(Y = y1 ) ... P(Y = yj ) 1
Indépendance de variables aléatoires

Définition 4.2.11. Deux variables aléatoires sont dites indépendantes si tous les couples d’événements
X = xi , Y = yj sont indépendants. Autrement dit, xi ∈ X(Ω), yj ∈ Y (Ω),

P((X = xi ) ∩ (Y = yj )) = P(X = xi )P(Y = yj ).

Dans l’énoncé suivant, l’hypothèse d’indépendance est essentielle. Pour une fois, elle ne permet pas
une factorisation mais une sommation

Propostion 4.2.1. Soit X1 + . . . + Xn des variables aléatoires de carré intégrable. Alors X1 + . . . + Xn


est de carré intégrable et
n
X
si les Xi sont indépendantes, alors V ar(X1 + . . . + Xn ) = V ar(Xi ).
i=1

Preuve 4.2.6. Le fait que la somme X1 + . . . + Xn est de carré intégrable découle de l’inégalité (X1 +
. . . + Xn )2 = n(X12 + . . . + Xn2 ) . Par linéarité de l’espérance,

n 
X 2 
V ar(X1 + . . . + Xn ) = E Xi − E(Xi )
i=1

On sait que
n 
X  
V ar(X1 + . . . + Xn ) = E Xi − E(Xi ) Xj − E(Xj )
i,j=1

53
Si Y et Z sont deux variables de carré intégrable, comme |Y Z| = (Y 2 + Z 2 )/2, leur produit Y Z est
intégrable. Donc chaque terme (Xi − E(Xi ))(Xj − E(Xj )) est intégrable et par linéarité de l’espérance,

n
X n X
X
V ar(X1 + . . . + Xn ) = V ar(Xi ) + E(Xi − E(Xi ))(Xj − E(Xj ))
i=1 i=1 i6=j

On conclut en remarquant que par indépendance des variables X1 , . . . , Xn , pour i 6= j,

     
E Xi − E(Xi ))(Xj − E(Xj ) = E Xi − E(Xi ) E Xj − E(Xj ) = 0

Exemple 4.2.3. Loi conjointe de deux variables indépendantes.


On suppose que X et Y sont des variables aléatoires indépendantes ayant pour lois de probabilités res-
pectives :

xi 1 2
P (X = xi ) 0, 7 0, 3

yi -2 5 8
P (Y = yi ) 0, 3 0, 5 0, 2

Calculer la loi de probabilité conjointe de X et Y et vérifier que Cov(X, Y ) = 0.

Solution 4.2.1. 1°) Loi conjointe.


Comme les variables aléatoires X et Y sont indépendantes, la loi conjointe s’obtient par produit des lois
marginales.

X / Y −2 5 8 Somme
1 0, 21 0, 35 0, 14 0, 7
2 0, 09 0, 15 0, 06 0, 3
Somme 0, 3 0, 5 0, 2 1
2°) Covariance.
E(X) = 0, 7 × 1 + 0, 3 × 2 = 1, 3

E(Y ) = 0, 3 × (−2) + 0, 5 × 5 + 0, 2 × 8 = 3, 5

E(XY ) = 0, 21 × (−2) + 0, 35 × 5 + 0, 14 × 8 + 0, 09 × (−4) + 0, 15 × 10 + 0, 06 × 16 = 4, 55

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 4, 55 − 1, 3 × 3, 5 = 0

4.2.13 Exercice
Exercice 4.2.1. Soit X une variable aléatoire qui suit une loi binomiale de paramètre n, p, soit
X ∼ B(n, p) Alors
E(X) = np,

54
V ar(X) = np(1 − p)

et
GX (s) = (1 − p + ps)n

et la fonction caractéristique
φX (t) = ((1 − p) + peit )n

Exercice 4.2.2. Soit X une variable aléatoire de loi géométrique de paramètre p on a

1
E(X) =
p

et
q
V ar(X) = ,
p2
ps
GX (s) =
1 − (1 − p)s
Exercice 4.2.3. On dit qu’une variable aléatoire X suit une loi uniforme discrète lorsqu’elle prend ses
valeurs dans {1, . . . , n}
n+1
E(X) =
2

n2 − 1
V ar(X) =
12
Exercice 4.2.4. Soit X une variable aléatoire qui suit une loi exponentielle de paramétré (X ∼ E(λ)),
dont sa densité est donnée par : (
0, si λ<0
λe−λx , si λ ≥ 0
Alors
1
E(X) =
λ
et
1
V ar(X) = ,
λ2
λ
GX (s) =
λ−t
et
λ
φX (t) =
λ − it
Exercice 4.2.5. Soit X une variable aléatoire de Poisson de paramètre X ∼ P(λ), alors

E(X) = λ et V ar(X) = λ

55
et
GX (s) = eλ(s−1)

et
it −1)
φX (s) = eλ(e

Exercice 4.2.6. Soit X une v.a. dont la loi binomiale de paramètres n et p (relation notée X ∼ B(n, p))
si sa loi de probabilité est Calculer E(X), V ar(X) par la fonction génératrice

Exercice 4.2.7. Soit X ∼ N (0, 1). Alors L’espérance mathématique et varaince de X est

E(X) = 0 V ar(X) = 1.

Sa fonction caractéristique est


GX (s) = exp(s2 /2)

Exercice 4.2.8. Soit X ∼ N (m, σ 2 ). Alors sa fonction caractéristique est

ΦX (t) = exp(itm − σ 2 t2 /2)

Exercice 4.2.9. Loi uniforme. On lance au hasard 3 pièces successivement. On va supposer


l’indépendance des lancers.
1) Les pièces sont équilibrées.

– a) Expliciter l’espace des épreuves et préciser la loi de probabilité pour cette expérience.

– b) Quelle est la probabilité d’avoir deux piles et une face.

2) On note p la probabilité de face dans un lancer.

– a) Expliciter l’espace des épreuves et préciser la loi de probabilité pour cette expérience.

– b) Calculer la probabilité d’avoir deux faces et une pile.

– c) Quelle est la probabilité d’obtenir au moins deux faces.

Exercice 4.2.10. Loi binomiale. Dans un livre de deux cents pages, il y a vingt fautes d’impression,
réparties au hasard.
On modélise cette situation en considérant l’espace Ω = {1, ..., 200}20 muni de la probabilité uniforme P.
1°) On considère une page donnée, de numéro n. Quelle est la probabilité que s’y trouvent deux fautes

56
d’impression ?
2°) On considère un ensemble E de 10 pages.
a) Quelle est la probabilité que s’y trouvent trois fautes d’impression ?
b) Sachant que, dans l’ensemble E se trouvent trois fautes d’impression, quelle est la probabilité que ces
trois fautes soient toutes sur la première page de E ?

Exercice 4.2.11. Loi binomiale.


n personnes reprennent au hasard leur chapeau en sortant d’une soirée arrosée. On note Xn le nombre
de chapeaux que l’on a retrouvé sur la tête de leur légitime propriétaire.
En introduisant la variable de Bernoulli Yi qui vaut 1, par définition, si, et seulement si, le convive
numéro i a retrouvé son chapeau, calculer l’espérance et la variance de Xn .

Exercice 4.2.12. Loi géométrique


On joue avec deux dés équilibrés à six faces numérotées de 1 à 6 (dés non pipés). On jette un premier
dé. On jette ensuite le deuxième dé jusqu’à ce qu’il indique le même numéro que le premier. Soit X le
nombre de fois qu’il faut lancer le deuxième dé pour qu’il indique le même numéro que le premier.
a) Établir la loi de probabilité de X.
b) Calculer son espérance mathématique et sa variance.

Exercice 4.2.13. Différence de deux variables géométriques.


Soient X et Y deux variables aléatoires indépendantes suivant chacune une loi géométrique de paramètre
p ∈]0, 1[. Trouver la loi de X − Y .

Exercice 4.2.14. Loi de Poisson.


La compagnie "La Guêpe" assure 1000 navires. Un navire a une valeur de 10 millions d’euros. La pro-
babilité de perte d’un navire est estimée à 0, 001 pour une année. Les risques de pertes des navires sont
indépendants.
1°) On appelle X la variable aléatoire ayant pour valeur le nombre de navires perdus en une année parmi
les navires assurés par "La Guêpe". Quelle est la loi de probabilité de X ?
2°) Quelle est la probabilité qu’il y ait trois navires perdus en une année ?
3°) A la fin de l’année, la compagnie "La Guêpe" règle les sinistres de l’année. A combien doivent d’éle-
ver ses réserves pour qu’elle puisse honorer ses engagements avec une probabilité de 0,999 ?
4°) La compagnie "La Fourmi" est placée dans les mêmes conditions que "La Guêpe" : elle assure 1 000
navires, d’une valeur unitaire de 10 millions d’euros. Elle règle, en fin d’année, les sinistres de l’année.
Elle doit maintenir ses réserves à un niveau suffisant pour pouvoir honorer ses engagements avec la
probabilité de 0,999.
Les dirigeants des deux compagnies envisagent la fusion de celles-ci. La nouvelle compagnie "L’Hyméno-
ptère" prendra en charge les 2000 navires. Calculer le montant des réserves que doit avoir "L’Hyméno-
ptère" pour pouvoir rembourser les sinistres en fin d’année avec une probabilité de 0, 999. On appellera
Y le nombre de navires perdus en un an par la compagnie "L’Hyménoptère". Conclure.

57
Exercice 4.2.15. Soit X une variable aléatoire de Poisson de paramètre λ.
Calculer E(cos(πX)) et V ar(2X + 3).

Exercice 4.2.16. Fautes d’impression dans un livre.


On suppose que, dans un livre de 500 pages, il y a 300 fautes d’impression distribuées au hasard.
Calculer la probabilité pour que la page 36 contienne :
– a) Exactement deux fautes d’impression.
– b) Au moins deux fautes d’impression

Exercice 4.2.17. Loi hypergéométrique. Dans une boîte, il y a 6 boules rouges et 8 boules jaunes.
On tire au hasard 3 boules de la boîte, sans remise.
Soit X (respectivement Y ) le nombre de boules rouges (respectivement jaunes) tirées parmi les 3.
1°) Expliciter la loi de X. 2°) Calculer :
– a) E[X].
– b) E[Y ].
– c) V ar(Y ).

Exercice 4.2.18. On suppose que la glycémie est distribuée normalement dans la population, avec une
moyenne de 1g/l et un écart-type de 0, 03g/l. On mesure la glycémie chez un individu. 1- Calculer la
probabilité pour que sa glycémie soit :
– a) inférieure à 1,06 ;
– b) supérieure à 0,9985 ;
– c) comprise entre 0,94 et 1,08 ;
2- On mesure la glycémie chez 1000 individus choisis au hasard. Donner le nombre moyen d’individus
dont la glycémie est supérieure à 0, 99.

Exercice 4.2.19. Fonction caractéristique d’une loi constante.


Soit X une variable continue de loi constante sur l’intervalle [0, 1].
Soit Y une variable continue de loi constante sur l’intervalle [−1, 1], indépendante de X.
1°) Calculer la fonction caractéristique de X.
2°) Calculer la fonction caractéristique de Y .
3°) Calculer la fonction caractéristique de X + Y .
4°) On considère une variable aléatoire Z de fonction caractéristique FZ (u) = cos u.
Quelle est la loi de probabilité de Z ?

58
Chapitre 5

Corrections

5.1 Les solution chapitre 1


La solution1.9.1 Chaque dé comporte six faces, donc le nombre de résultats possibles est :

64 = 1296

– (a) Pour former un carré, il suffit de choisir l’une des six faces, il y a donc 6 carrés possibles.
– (b) Pour former un brelan, il suffit de choisir une face qui sera répétée trois fois puis une autre,
différente de la première, qui se répétera une fois. Il y a donc :

A26 = 30

possibilités pour le choix des deux faces.


Le nombre de manière de les ordonner est le nombre de permutations avec les répétitions (3, 1) :

P (3, 1) = 4

D’où le nombre de brelans est :


A26 × P (3, 1) = 120

– (c) Pour former une double-paire, il suffit de choisir deux faces parmi les six, chacune sera répétée
deux fois. Il y a donc :
C62

possibilités pour le choix des deux faces.


Le nombre de manière de les ordonner est le nombre de permutations avec les répétitions (2, 2) :

P22

Cours et Exercices de Probabilités 59 Blouhi Tayeb


D’où le nombre de double-paire est :

C62 × P (2, 2) = 90

– (d) Pour former une simple-paire, il suffit de choisir une face parmi les six qui sera répétée deux
fois puis deux autres faces différentes, parmi les cinq restantes, qui seront répétées chacune une
seule fois. Ainsi, il y a donc :
C61 × C52 = 60

possibilités pour le choix des trois faces.


Le nombre de manière de les ordonner est le nombre de permutations avec les répétitions (2, 1, 1) :

P (2, 1, 1) = 12

D’où le nombre de simple-paire est :

C(2, 1) × C(5, 2) × P (2, 1, 1) = 720

– (e) Le nombre de résultats banals est le nombre d’arrangements de quatre faces parmi les six faces :

A46 = 360

La solution1.9.2
1. Le nombre de manières de répartir les six pièces mécaniques, chacune dans un atelier différent, est
le nombre de permutations d’ordre 6 :
6! = 720

2. Le nombre de manières de répartir les six pièces mécaniques, deux à deux dans trois ateliers
différents, est le nombre de permutations d’ordre 6 avec les répétitions (2, 2, 2) :

6!
P (2, 2, 2) = = 90
2! × 2! × 2!

3. Le nombre de manières de répartir les six pièces mécaniques sur quatre ateliers différents, deux
recevant chacun deux pièces et les deux autres recevant chacun une seule pièce, est le nombre de
permutations d’ordre 6 avec les répétitions (2, 2, 1, 1) :

6!
P (2, 2, 1, 1) = = 180
2! × 2! × 1! × 1!
La solution1.9.3

1. Le nombre de manière de placer les n tômes de l’encyclopédie sur l’étagère.est le nombre de

60
permutations d’ordre n :
P (n) = n!

2. (a) Si les tômes 1 et 2 doivent se trouver côte à côte dans cet ordre, alors il y a (n − 1) manières
possibles pour les placer, puis (n − 2)! manières possibles pour placer les (n − 2) tômes restants.
Donc, le nombre de placements possibles dans ce cas est : (n − 1)!.
(b) Si les tômes 1 à p doivent se trouver côte à côte dans cet ordre, alors il y a (n − p + 1) manières
possibles pour les placer, puis (n − p)! manières possibles pour placer les (n − p) tômes restants.
Donc, le nombre de placements possibles dans ce cas est : (n − p + 1)!

La solution1.9.4 1-Démontrons que le nombre d’applications strictement croissantes de {1, . . . , p}


dans {1, . . . , n} est le nombre de combinaisons d’ordre p de {1, . . . , n}, à savoir :

n!
Cnp =
p!(n − p)!

En effet, si :
f : {1, . . . , p} −→ {1, . . . , n}

est une application strictement croissante, alors (f (1), ..., f (p)) est une combinaison d’ordre p de
{1, . . . , n}.
Réciproquement, soit {a1 , . . . , ap } une combinaison d’ordre p de {1, . . . , n} et soit σ une permutation de
{1, . . . , p} telle que
aσ1 < aσ2 < . . . < aσp

L’application f :
{1, . . . , p} −→ {1, . . . , n}

k −→ aσk

est strictement croissante.


D’où le résultat.
2-Démontrons que le nombre d’applications croissantes de {1, . . . , p} dans {1, . . . , n} est le nombre de
combinaisons avec répétition d’ordre p de {1, . . . , n}, à savoir :

p (n + p − 1)!
Knp = Cn+p−1 =
p!(n − p)!

En effet, si :
f : {1, . . . , p} −→ {1, . . . , n}

est une application, alors (f (1), ..., f (p)) est une combinaison avec répétition d’ordre p de{1, . . . , n}.
Réciproquement, soit {a1 , . . . , ap } une combinaison avec répétition d’ordre p de {1, . . . , n}et soit σ une

61
permutation de {1, . . . , p} telle que :

aσ1 ≤ aσ2 ≤ . . . ≤ aσp

L’application f :
{1, . . . , p} −→ {1, . . . , n}

k −→ aσk

est croissante.
D’où le résultat.
3-Démontrons que le nombre de solutions de l’équation :
n
X
xi = p p ∈ N, xi ∈ N
i=1

est le nombre de combinaisons avec répétition d’ordre p de {1, . . . , p}, c’est à dire :

p (n + p − 1)!
Knp = Cn+p−1 =
p!(n − 1)!

En effet, si (x1 , . . . , xn ) est une solution de cette équation, alors la suite dans laquelle l’élément 1 est
répété x1 fois, . . ., l’élément n est répété xn fois est une combinaison avec répétition d’ordre p de
{1, . . . , n}. Réciproquement, soit {a1 , . . . , ap } une combinaison avec répétition d’ordre p de {1, . . . , n}
et désignons par xi le nombre de répétition de l’élément i dans cette combinaison ; on a alors :
n
X
xi = p
i=1

(x1 , . . . , xn ) est donc une solution de l’équation. D’où le résultat


4-Remarquons que l’inéquation
n
X
xi ≤ p p ∈ N, xi ∈ N
i=1

est équivalente à :
n+1
X
∃xn+1 ∈ N xi = p
i=1

Il en résulte qu le nombre de solutions de l’inéquation est égal au nombre de solutions de l’équation :

n+1
X
xi = p p ∈ N, xi ∈ N
i=1

62
à savoir :
p p
Kn+1 = Cn+p

5.2 les solution chapitre 2


La solution2.6.1

1. On a d’une part P(A ∪ B) = 1 − P(A ∪ B) = 1 − P(Ā ∩ B̄) = 1 − 0.55 = 0.45


et d’autre part P(A ∩ B) = P(A) + P(B) − P(A ∪ B) = 0.4 + 0.3 − 0.45 = 0.25
2. Comme A ∩ B̄ et A ∩ B forment une partition de A, on écrit que P(A ∩ B̄) = P(A) − P(A ∩ B) =
0.4 − 0.25 = 0.15.
3. On cherche la probabilité de l’évènement A ∪ B̄. On a P(A ∪ B̄) = P(A) + P(B̄) − P(A ∩ =0.4
¯ +
0.7 − 0.15 = 0.95.

La solution2.6.2 Considérons les événements :


A : "la personne appartient au groupe A"
B : "la personne appartient au groupe B"
C : "la personne appartient au groupe C"
D : "la personne appartient au groupe D"
S : "la personne a fait des études supérieure"
On a : 

 P(A) = 14 , P(S|A) = 0.05

 P(B) = 1 ,

P(S|B) = 0.1
4
1


 P(C) = 4
, P(S|C) = 0.25

P(D) = 14 , P(S|D) = 0.4

1-D’après la formule des probabilités totales on a :

P(S) = P(S|A)P(A) + P(S|B)P(B) + P(S|C)P(C) + P(S|D)P(D) = 0.2

2-D’après le théorème de Bayes, on a :

P(D)P(S|D) 1
P(D|S) = =
P(S) 2

La solution?? Considérons les événements :


U1 : "la pièce est fabriquée par le premier usine"
U2 : "la pièce est fabriquée par le deuxième usine"
B : "la pièce est bonne"
On a
P(U1 ) = 0.5 , P(B|U1 ) = 0.7

63
et
P(U2 ) = 0.5 , P(B|U2 ) = 0.9

D’après le théorème de Bayes, on a :

P(U2 )P(B|U2 ) 45
P(U2 |B) = =
P(U1 )P(B|U1 ) + P(U2 )P(B|U2 ) 80

La solution2.6.3 Considérons les événements :


A : "la boule tirée de S1 est rouge"
B : "la boule tirée de S2 est rouge"
alors, d’après la formule des probabilités totales on a :

3
P(B) = P(A)P(B|A) + P(Ā)P(B|Ā) =
10
La solution2.6.4 1-La probabilité de tirer deux boules rouges est :

4 5 20
p1 = =
9 11 99
2- La probabilité de tirer deux boules bleues est :

5 6 30
p2 = =
9 11 99
3-La probabilité de tirer une boule bleue et une boule rouge est :

49
p3 = 1 − p1 − p2 =
99
La solution2.6.5 1-Le nombre d’épreuves qu’on peut- proposer au candidat est :

3
C100 = 161700

2-La probabilité pk pour que le candidat sache traiter exactement k sujets, 0 ≤ k ≤ 3, parmi les trois
sujets proposes est :
k 3−k
C50 C50
pk = 3
C100
d’où :
(a) La probabilité pour qu’il sache traiter les trois sujets est :

p3 = 0.1212

64
(b) La probabilité pour qu’il sache traiter seulement deux sujets est :

p2 = 0.3788

(c) La probabilité pour qu’il sache traiter un seul sujets est :

p1 = 0.3788

(d) La probabilité pour qu’il ne sache traiter aucun sujets est :

p0 = 0.1212

La solution2.6.6
Ui :le tirage est effectue de l’urne i, 0 ≤ i ≤ 9

Ni : la i ème boule tirée est noire, i = 1, 2


On a :
1
P(Uk ) = , 0≤k≤9
10
k
P(Ni |Uk ) = , 0 ≤ k ≤ 9 , i = 1, 2
9
1-D’après la formule des probabilités totales, la probabilité d’obtenir deux boules noires est :

9
X 19
P(N1 N2 ) = P(Uk )P(N1 N2 |Uk ) =
k=0
54

2-D’après la théorème de Bayes on a :

P(U5 )P(N1 N2 |U5 ) 5


P (U5 |N1 N2 ) = =
P(N1 N2 ) 57

3-D’après la formule des probabilités totales :

9
X 1
P(N1 ) = P(Uk P(N1 |Uk ) =
k=0
2

d’où :
P(N2 N1 ) 19
P(N2 |N1 ) = =
P(N1 ) 27
La solution2.6.7 Considérons les événements :
B : "le tirage est effectué de l’urne blanche"
N : "le tirage est effectué de l’urne noire"
Bn : "la ème boule est blanche"

65
Nn : "la ème boule est noire"
On a :
P(B) = p, P(N ) = q

et :

P(Bn |Bn−1 ) = P(Bn |B) = 1 − α

P(Bn |Nn−1 ) = P(Bn |N) = β

P(Nn |Bn−1 ) = P(Nn |B) = α

P(Nn |Nn−1 ) = P(Nn |N) = 1 − β

et pour tout n, n ≥ 2, on a : (
B1 = B1 B + B1 N
Bn = Bn Bn−1 + Bn Nn−1
de même : (
N1 = N1 B + N1 N
Bn = Nn Bn−1 + Nn Nn−1
1. D’après la formule des probabilités totales on a :
(
P(B1 ) = P(B1 |B)P(B) + P(B1 |N )P(N )
P(Bn ) = P(Bn |Bn−1 )P(Bn−1 ) + P(Bn |Nn−1 )P(Nn−1 )

et (
P(N1 ) = P(N1 |B)P(B) + P(N1 |N )P(N )
P(Nn ) = P(Nn |Bn−1 )P(Bn−1 ) + P(Nn |Nn−1 )P(Nn−1 )
d’où : (
p1 = (1 − α)p + βq
pn = (1 − α)pn−1 + βqn−1
et (
q1 = αp + (1 − β)q
qn = αpn−1 + (1 − β)qn−1
On en déduit que pour tout n, n ≥ 1, on a :

Vn = M Vn−1

où M est la matrice carrée : !


1−α β
M=
α 1−β

66
et : !
p
V0 =
q
2- Il en résulte que pour toutn ∈ N. on a :

Vn = M n V0

(a)Si :
α=β=0

alors l’urne blanche ne contient que des boules blanches et l’urne noire ne contient que des boules noires.
Tous les tirages seront effectués de la même urne, celle choisie au départ.
(b)Si
α=β=1

alors l’urne blanche ne contient que des boules noires et l’urne noire ne contient que des boules blanches.
Les tirages seront effectués en alternant les deux urnes.
(c)Si
α+β =1

alors les deux urnes ont la même composition. Une fois que l’urne est choisie, il n’est plus nécessaire de
la changer
(a) Si :
α=β=0

alors la matrice M est la matrice identique d’ordre 2 :

M = I2

d’ou pour tout n ∈ N∗ : (


pn = p
qn = q

(b) Si
α=β=1

alors !
0 1
1 0
puisque :
M 2 = I2

67
on en déduit que pour tout k ∈ N∗ : !
p
V2k =
q
!
q
V2k+1 =
p

Les suites (pn )n∈N∗ et (qn )n∈N∗ . sont divergentes sauf lorsque :

1
p=q=
2

(c) Si

α=β=1

alors :
M2 = M

donc : !
1−α
Vn = M V0 =
α
d’où : (
pn = 1 − α
qn = α

5.3 Les solutions chapitre 4


La solution4.2.1 On a l’écriture X = X1 + X2 + . . . + Xk + . . . + Xn , ou les Xk sont n variables
aléatoires de Bernoulli indépendantes. On a en effet par linéarité de l’espérance

E(X) = E(X1 ) + E(X2 ) + . . . + E(Xk ) + . . . + E(Xn )


= nE(X1 )
= np

et par indépendance des variables aléatoires (Xk )k=1...n

V ar(X) = V ar(X1 ) + V ar(X2 ) + . . . + V ar(Xk ) + . . . + V ar(Xn )


= nV ar(X1 )
= np(1 − p)

68
et n
X
GX (s) = Cnk pk sk (1 − p)k = (1 − p + ps)n
k=0

On a n
X
itX
φX (t) = E(e )= Cnk pk (1 − p)n−k eiuk = ((1 − p) + peit )n
k=0

La solution4.2.2 ∞
X
2
E(X ) = kP(X = k)
k=1

X
= kp(1 − p)k−1
k=1

X 0
k
=p (1 − p)
k=0
 1 
=p
1 − (1 − p)
1 1
=p 2 =
p p

X
2
E(X ) = k 2 P(X = k)
k=1

X
= k 2 p(1 − p)k−1
k=1
X∞
=p k 2 (1 − p)k−1
k=1

X 0
= −p (1 − p)k
k=0

On sait que

X 0  1 − p 0 −2 + p −p2 − 2p(1 − p)
p k(1 − p)k =p =p=
k=0
p2 p2 p4

Donc
2−p
E(X 2 ) =
p2
D’ou
2−p 1 1−p
V ar(X) = E(X 2 ) − (E(X ))2 = 2
− 2 =
p p p2

69
Calculons la fonction génératrice
X
gX (s) = sn p(1 − p)n−1
n∈N∗
X
= ps((1 − p)s)n−1
n∈N∗
X
= ps((1 − p)s)k
k∈N
ps
=
1 − (1 − p)s

La solution4.2.3
1 1 1 1
E(X) = 1 + 2 + 3 + ... + n
n n n n
n
1 X
= k
n k=1
1 n(n + 1)
=
n 2
(n + 1)
=
2
n
X n(n + 1)
k = est la somme des premiers termes d’une suite arithmétique de raison 1 de premier
k=1
2
terme 1
1 1 1 1
E(X 2 ) = 12 + 2 2 + 3 2 + . . . + n2
n n n n
n
1 X
= k2
n k=1
1 n(n + 1)(2n + 1)
=
n 6
(n + 1)(2n + 1)
=
2
n
X n(n + 1)(2n + 1)
k2 = est un résultat classique qui se démontre par récurrence.
k=1
6
Ainsi,
V ar(X) = E(X 2 ) − (E(X))2
(n + 1)(2n + 1) (n + 1)2
= −
6 4
n2 − 1
=
12

70
La solution4.2.4 On sait que
Z
E(X) = xf (x)dx
ZR+∞ Z 0
= xf (x)dx + xf (x)dx
0 −∞
Z +∞
= xλe−λx dx
0
−1 h −λx i+∞
= e
λ 0
1
=
λ

Il suffit de calculer E(X 2 ) pour démontrer V ar(X)


Z
2
E(X ) = x2 f (x)dx
ZR+∞ Z 0
2
= x f (x)dx + x2 f (x)dx
0 −∞
Z +∞
= x2 λe−λx dx
0
Z +∞
= [−x2 e−λx ]+∞
0 +2 xλe−λx dx
0
Z +∞
2
= xe−λx dx
λ 0
2
= 2
λ

On sait que
2 1 1
V ar(X) = E(X 2 ) − (E(X))2 = − =
λ2 λ2 λ2
inutile de calculer les moments. Pour t < λ on a

GX (s) = E(etX )
Z +∞
= esx λe−λx dx
Z0 +∞
= λe(s−λ)x dx
0
λ
= [e(s−λ)x ]x=∞
x=0
s−λ
λ
=
λ−s

71
et
φX (t) = E(eitX )
Z +∞
= eitx λe−λx dx
Z0 +∞
= λe(it−λ)x dx
0
λ
= [e(it−λ)x ]x=∞
x=0
it − λ
−λ
=
it − λ
La solution4.2.5
+∞
X
E(X) = kP(X = k)
k=1
+∞
X λk
= ke−λ
k=1
k!
+∞
X λk−1
= λe−λ
k=1
(k − 1)!
+∞
X λk
= λe−λ
k=0
(k)!
+∞
X λk
= e−λ eλ λ car e−λ =
k=0
(k)!

V ar(X) = E(X 2 ) − (E(X))2


= E((X)(X − 1)) + E(X) − (E(X))2
+∞
X λk
= (k(k − 1))e−λ + λ − λ2
k=1
k!
+∞
2 −λ
X λk−2
=λ e + λ − λ2
k=2
(k − 2)!
+∞ k
2 −λ
X λ
=λ e + λ − λ2
k=0
k!

= λ + λ − λ2
2

2-X ∼ P(λ)
X λk
GX (s) = sk e−λ
k∈N
k!
X (sλ)k
= e−λ
k∈N
k!

= eλ(s−1)

72
φX (s) = E(eitX )
X λk
= eitk e−λ
k∈N
k!
X (eit λ)k
= e−λ
k∈N
k!
it −1)
= eλ(e

La solution4.2.6 Soit X une v.a. dont la loi binomiale de paramètres n et p (relation notée X ∼ B(n, p))
si sa loi de probabilité est donnée par

P (X = k) = Cnk pk (1 − p)n−k

alors la fonction génératrice est donnée par gX (u) = (pu + 1 − p)n


On sait que
n
X n
X
gX (u) = E(uX ) = Cnk pk (1 − p)n−k uk = Cnk (1 − p)n−k (pu)k
k=0 k=0

d’aprés la formule du binôme on obtient

gX (u) = (pu + q)n tell que q = 1 − p

Calculer E(X), V ar(X)

0
h i
E(X) = gX (1) = m1 = np(pu + q)n−1 = np car p + q = 1
u=1

00 0 0
V ar(X) = gX (1) + gX (1) − (gX (1))2
h i
2 n−1
= n(n − 1) n(n − 1)p (pu + q) + np − (np)2
u=1

= np((n − 1)p + 1 − np) + np − (np)2


= npq
La solution4.2.7 On a
1 −x2
fX (x) = √ e 2

d’où Z 0 Z x
t −1 t2 t −1 2
E(X) = lim √ e 2 dt + lim √ e 2 t dt
x−→−∞ x 2π x−→+∞ 0 2π
h −1 i 0 h −1 − 1 t2 iy
− 12 t2
= lim √ e + lim √ e 2
x−→−∞ 2π x y−→+∞ 2π 0
−1 1
=√ −√
2π 2π
=0

73
Ce qui justifie la dénomination de centrée pour la loi de X.La variance de X est l’espérance de (X −
R +∞
E(X))2 . Soit −∞ t2 f (t)dt soit u et v sont deux fonctions dérivables, à dérivées continues sur R avec
( 0
u(t) = √−t −→ u (t) = −1

2π 2π
0 2 /2 2 /2
v (t) = −te−t −→ v(t) = e−t

Par une intégration par parties :


Z +∞
V ar(X) = t2 f (t)dt
−∞
Z 0 2 Z y 2
t −1 2
t t −1 2
= lim √ e 2 dt + lim √ e 2 t dt
x−→−∞ x 2π y−→+∞ 0 2π
h −t Z 0
1 2
i0 1 1 2
= lim √ e− 2 t + lim √ e− 2 t
x−→−∞ 2π x x−→−∞ x
Z y 2π
h −t 1 2
iy 1 1 2
+ lim √ e− 2 t + lim √ e− 2 t
y−→∞ 2π 0 y−→∞ 0 2π
= I1 + I2 + I3 + I4

Ainsi
1
I1 = 0 , I2 = P (x ≤ X ≤ 0) =
2
et
1
I3 = 0 , I4 = P (0 ≤ X ≤ y) =
2
On en déduit que V ar(X) = 1
2
+ 1
2

GX (s) = E(exs )
Z +∞
1 x2
= esx √ e− 2 dx
−∞ 2π
Z +∞
1 x2 +2sx
=√ e− 2 dx
2π −∞

−v 2
C’est une intégrale gaussienne ; il convient de mettre l’exposant de l’intégrand sous la forme 2
+ c.On
a
−x2 −1 2
+ sx = (x − 2sx)
2 2
−1
= ((x − s)2 − s2 )
2
−v 2 s2
= +
2 2

74
pour v = x − s, et finalement

GX (s) = E(exs )
Z +∞
1s2 v2 s2
=e √ 2 e− 2 dv = e 2
2π −∞

on travaile par f1 (x) = √1


σ 2π
exp( −1
2
( x−m
σ
)2

Z +∞
φX (t) = eitx f1 (x)dx
−∞
Z +∞
1 −1 x − m 2
= √ eitx exp( ( ) dx
σ 2π −∞ 2 σ
Z +∞
1 1
= √ exp(− 2 (x − m)2 + itx)dx
σ 2π −∞ 2σ
Z +∞
1 n 1  2 σ 2 t2 o
= √ exp (− 2 x − (m + itσ 2 ) )) + mit − dx
σ 2π −∞ 2σ 2
Z +∞
σ 2 t2  1 n 1  2 o
= exp(itm − ) √ exp (− 2 x − (m + itσ 2 ) )) dx
2 σ 2π −∞ 2σ
2 2
σ t
= exp(itm − )
2
car Z +∞
1 n 1  2
2 o
√ exp (− 2 x − (m + itσ ) )) = 1
σ 2π −∞ 2σ
cas m = 0 et σ = 1 on a
t2
φX (t) = exp(− )
2
La solution4.2.8 On sait que X a même loi que σX0 + m où X0 ∼ N (0, 1), elle a aussi même
fonction caractéristique :

ΦX (t) = ΦσX0 +m (t)


= E(eit(σX0 +m) )
= E(eitm eitσX0 )
= eitm E(eitσX0 )
= eitm ΦX0 (σt)

75
Il suffit donc de montrer que ΦX0 (t) = exp(−t2 /2) où
Z
1 2
ΦX0 (t) = √ eitx e−x /2 dx
2π ZR
1 −2itx+x2
=√ e− 2 dx
2π ZR
1 (x−it)2 −(it)2
=√ e− 2 dx
2π ZR
1 −2itx+x2
=√ e− 2 dx
2π ZR
1 (x−it)2 t2
=√ e− 2 e− 2 dx
2πZ R
t2 1 (x−it)2
= e− 2 √ e− 2 dx
R 2π

car avec le changement de variable (complexe) y = x − it, on a :


Z Z
1 −
(x−it)2 1 2 /2
√ e 2 dx = √ e−y =1
2π R 2π R

Une autre preuve consiste à voir que ΦX0 (t) est solution de l’équation différentielle
( 0
y (t) + ty(t) = 0,
y(0) = 1 .

t2
ce qui exige ΦX0 (t) = e− 2

La solution4.2.9 1°) Espace des épreuves.


Soit Ωi = {F, P } les résultats possibles du lancer i. Tous les résultats possibles forment un ensemble

Ω = Ω1 × Ω2 × Ω3 = {F F F, F P F, F F P, F P P, P F F, P P F, P P P }

qui sera notre espace des épreuves. Donc Card(Ω) = 8. On définit la loi de probabilité P par l’indépen-
dance : si L1 , L2 , L3 , sont les résultats des lancers successifs et si l1 l2 l3 est un événement élémentaire de
Ω, avec li ∈ {F, P }, l’indépendance des lancers se traduit par la formule

P(l1 l2 l3 ) = P(L1 = l1 )P(L2 = l2 )P(L3 = l3 )

1°) Pièces équilibrées.


a) Espace des épreuves, loi de probabilité.

1 1
P(l1 l2 l3 ) = ( )3 =
2 8

76
Donc on trouve une loi uniforme sur Ω.

b) Probabilité d’un événement.

L’événement "Obtenir deux piles et une face" est l’événement A = {P P F, P F P, F P P }. Avec la loi
uniforme sur Ω, sa probabilité est 81 Card(A) = 83 .

2°) Probabilité p d’obtenir face.

a) Espace des épreuves, loi de probabilité.

Si n est le nombre faces obtenus en 3 lancers successifs, on aura :

P(l1 l2 l3 ) = pn q 3−n

avec q = 1 − p.
b) Probabilité de l’événement A.
La probabilité de l’événement A = {F F P, F P F, P F F } est :

P(A) = P({F F P }) + P({F P F }) + P({P F F }) = 3p2 q

. c) Probabilité d’un événement B.

L’événement "Obtenir au moins 2 faces" est l’événement B = {F F F, F F P, F P F, P F F } = {F F F }∪


A. C’est la réunion de deux évènements incompatibles : sa probabilité est la somme des probabilités de
ces deux évènements :
P(B) = P({F F F }) + P(A) = p3 + 3p2 q.

La solution4.2.10 1°) Nombre de fautes dans une page.


Une faute donnée se trouve avec la même probabilité dans chacune des 200 pages.
Pour une faute, de deux choses l’une :
– ou bien la faute se trouve dans la page choisie avec une probabilité 1
200
= 0, 005.
– ou bien elle se trouve ailleurs avec une probabilité 0, 995.
Le nombre X de fautes dans la page choisie apparaît donc comme le nombre de succès dans la répétition
20 fois d’épreuves de Bernoulli indépendantes où la probabilité du succès est 0, 005.
On sait qu’alors, la loi de probabilité de X est une loi binomiale de paramètres n = 20 etp = 0, 005.

2
P(X = 2) = C20 × (0, 005)2 × (0, 995)18 = 4, 3 × 10−4

77
P(X = 2) = 4, 3 × 10−4

2°) Nombre de fautes dans dix pages.

Une faute donnée se trouve avec la même probabilité dans chacune des 200 pages.
La probabilité qu’une faute donnée se trouve dans les 10 pages choisies est donc 10
200
= 0, 05. Par un
raisonnement analogue à celui de la première question, le nombre Y de fautes dans les 10 pages choisies
suivra une loi binomiale de paramètres n = 20 et p = 0, 05.

2
P(X = 2) = C20 × (0, 05)3 × (0, 95)17 = 0.06

P(X = 2) = 6 × 10−2

3°) Probabilité conditionnelle.


Sachant que l’ensemble E de 10 pages contient trois fautes d’impression, chacune des trois fautes a
une chance sur 10 de se trouver sur la première page de l’ensemble E.
Le nombre de fautes contenues dans la première page apparaît comme le nombre de succès dans la
répétition trois fois d’une épreuve de Bernoulli dans laquelle la probabilité du succès est 0, 10.
Le nombre Z de fautes contenues dans la première page suit alors une loi binomiale de paramètres
n = 3etp = 0, 10.
P(Z = 3) = C32 × (0, 1)3 × (0, 90)3−3 = 10−3

La probabilité que les trois fautes soient sur la première page de l’ensemble E est 10−3 .

La solution4.2.11 Comme chaque personne a autant de chances que les autres de retrouver son
chapeau, la probabilité qu’un convive prenne son propre chapeau parmi les n chapeaux est 1
n
La variable de Bernoulli Yi a donc pour paramètre p = n1 .
Le nombre Xn de chapeaux que l’on a retrouvés sur la tête de leur légitime propriétaire est la somme
des Yi :
Xn = Y1 + . . . + Yn .

La variable Xn suit donc une loi binomiale de paramètres n et p = n1 .

Son espérance est np = 1 et sa variance npq = n−1


n
= 1 − n1 .
La solution4.2.12
1°) Loi de X. On lance le deuxième dé au moins une fois, donc les valeurs de X sont les entiers
naturels différents de 0 :

78
X(Ω) = N∗ .

Le numéro du premier dé étant fixé, la probabilité pour que X = 1, c’est-à-dire la probabilité pour
que le deuxième dé indique le même numéro que le premier à son premier lancer est :

1
P(X = 1) = p =
6

. Le deuxième dé donne le même numéro que le premier seulement au n e lancer si, et seulement si, les
n − 1 premiers lancers ont donné un numéro différent et le n e a donné le même numéro.

La probabilité de cet évènement est donc :

P(X = n) = pq n−1

avec q = 1 − p.

X est une variable géométrique de paramètre p = 1


6
sur N∗ .

2°)Espérance de X.
X
E(X) = nP(X = n)
n∈N∗
X
= npq n−1
n∈N∗
X
=p nq n−1
n∈N∗

= p × (1 + 2q + 3q 2 + . . . + nq n−1 + . . .)
= p × (1 + q + q 2 + . . . + q n + . . .)
d 1
=p×
dq 1 − q
1
=p×
(1 − q)2
1
=p× 2
p
1
= =6
p
3°) Variance de X.

La variance de X est donnée par la formule de la variance :

79
V ar(X) = E(X 2 ) − (E(X))2

Calculons, en premier lieu, E(X 2 ).


X
2
E(X ) = n2 P(X = n)
n=1

X
= n2 pq n−1
n=1
X∞
=p n2 q n−1
n=1
X∞
=p (n(n − 1)q n−1 + nq n−1 )
n=1

X X
=p n(n − 1)q n−1 + npq n−1
n=1 n∈N∗

= pq(2 × 1 + 3 × 2 × q + 4 × 3 × q 2 + . . .) + E(X)
d2
= pq × (1 + q + q 2 + q 3 + . . .) + E(X)
dq 2
d2 1
= pq × 2 + E(X)
dq 1 − q
d 1
= pq × + E(X)
dq (1 − q)2
2
= pq × + E(X)
(1 − q)3
q 1
=2× 2 +
p p
q 1
= 2+ 2
p p

et
q 1 1 q 5
V ar(X) = 2
+ 2 − 2 = 2 = × 36 = 30
p p p p 6
La solution4.2.13 La variable X − Y peut prendre toute valeur entière, positive, négative ou nulle.
Cherchons la probabilité d’une valeur k ∈ Z.
a) Pour k = 0.

P(X − Y = 0) = P(X = k et Y = k) = P(X = k) × P(Y = k)


X∞
= p2 (1 − p)2(k−1)
k=1
p2 p
= 2
=
1 − (1 − p) 2−p

80
p
P(X − Y = 0) =
2−p
b) Pour k > 0.

P(X − Y = k) = P(Y = n et X = n + k) = P(Y = n) × P(X = n + k)


X∞
= p2 (1 − p)2n+k−2
k=1
p (1 − p)k
2
p
= 2
= (1 − p)k
1 − (1 − p) 2−p
p
P(X − Y = k) = (1 − p)k
2−p
c) Pour k < 0.

P(X − Y = k) = P(X = n et Y = n − k)
X∞
= p2 (1 − p)2n−k−2
k=1
2 −k
p (1 − p) p
2
= (1 − p)−k
1 − (1 − p) 2−p
p
P(X − Y = k) = (1 − p)−k
2−p
d) Rassemblons ces résultats :

p
P(X − Y = k) = (1 − p)|k| , k∈Z
2−p

La solution4.2.14 1°) Loi de probabilité de X.


Pour un navire assuré par "La Guêpe", de deux choses l’une :
– ou bien il est sinistré, c’est le succès, de probabilité p = 0, 001,

– ou bien il n’est pas sinistré, c’est l’échec, de probabilité q = 1 − p = 0, 999.

Le fait de regarder, pour un navire, s’il est ou non perdu dans l’année, constitue une épreuve de Bernoulli.
On peut répéter l’épreuve de Bernoulli pour les 1000 navires assurés par "La Guêpe" : les épreuves de
Bernoulli correspondantes sont indépendantes par hypothèse.
Le nombre de succès dans cette répétition d’épreuves de Bernoulli est le nombre X de navires perdus dans
l’année : il suit une loi binomiale de paramètres n = nombre de répétitions = 1000, et p = probabilité
du succès dans l’épreuve de Bernoulli = 0, 001.

X B(1000, 0, 001).

81
k
P(X = k) = C1000 (0, 001)k (0, 999)1000−k

Approximation par la loi de Poisson.


n est grand (n = 1000)
p est petit (p = 0, 001)
np = 1 est de l’ordre de grandeur de l’unité.
Les conditions de l’approximation de la loi binomiale B(n, p) par la loi de Poisson Pnp sont réunies.
La loi de probabilité de X peut donc être approchée par une loi de Poisson de paramètre λ = np = 1.

X P1 .

e−1
P(X = k) =
k!
2°) Probabilité de perdre trois navires dans l’année.
Avec l’approximation de Poisson, P(X = 3) = 1
6e
= 0.0613.

P(X = 3) = 6/100.

Si X suit une loi de Poisson de paramètre λ = 1, la table de la loi de Poisson cumulée donne
P(X > 5) = 0, 001.
Donc P(X ≤ 5) = 0, 999.
Pour que la compagnie "La Guêpe" puisse honorer ses engagements avec une probabilité de 0, 999, il
faudra donc qu’elle ait des réserves correspondant au sinistre de 5 navires, soit 50 millions d’euros.

"La Guêpe" doit avoir des réserves de 50 millions d’euros pour tenir ses engagements avec une
probabilité de 0, 999.
4°) Fusion.

Si Y est le nombre de navires sinistrés de la compagnie "La Fourmi", Z = X + Y est la somme de


deux variables de Poisson indépendantes de même paramètre λ = 1. C’est une variable de Poisson de
paramètre λ = 1 + 1 = 2.

En effet, la fonction génératrice de la loi de Poisson est

gX (u) = E(uX ) = eλ(u−1) .

Pour λ = 1 : gX (u) = E(uX ) = eu−1 et gY (u) = E(uY ) = eu−1

gX+Y (u) = E(uX+Y ) = E(uX uY )

82
Comme X et Y sont indépendantes, uX et uY sont indépendantes :

E(uX uY ) = E(uX )E(uY ) = e2(u−1)

, donc X + Y suit une loi de Poisson de paramètre 2.

La table cumulée de la loi de Poisson de paramètre 2 donne P(Z > 7) = 0, 001, de sorte que les
réserves de la compagnie fusionnée "L’Hyménoptère" doivent correspondre au règlement de 7 sinistres,
soit 70 millions d’euros.

"L’Hyménoptère" doit avoir des réserves de 70 millions d’euros pour tenir ses engagements avec une
probabilité de 0,999.
Conclusion.
La fusion diminue de 30/100 les réserves à maintenir pour tenir les engagements avec une probabilité
de 0, 999. Les dirigeants, hélas, se distribueront à eux-mêmes les 30 millions d’euros d’économies et
licencieront un tiers du personnel

La solution4.2.15
La loi de Poisson de paramètre l est définie par :

λk
P(X = k) = e−λ
k!

1°) Espérance de cos(πX).


L’espérance de cos(πX) est définie par


X
E(cos(πX)) = cos(kπ)P(X = k).
k=0

cos(kπ) = (−1)k

∞ k

X
−λ
E(cos(πX) = e (−1) = e−2λ
k=0
k!

donc
E(cos(πX)) = e−2λ

2°) Variance de 2X + 3.
La variance de 2X + 3 est donnée par la formule : V ar(aX + b) = a2 V ar(X), donc V ar(2X + 3) =

83
4V ar(X). Or la variance d’une variable de Poisson de paramètre λ est égale à λ, donc :

V ar(2X + 3) = 4λ.

La solution4.2.16 1°) Loi de probabilité du nombre de fautes d’impression dans une page.
Considérons une faute d’impression particulière.
Comme les fautes sont réparties au hasard dans les 500 pages, la probabilité pour que la faute considérée
se trouve à la page 36 est p = 1
500
. Le fait de regarder si telle faute se trouve à la page 36 est une
épreuve de Bernoulli dont le succès " la faute se trouve à la page 36 " a une probabilité p = 1
500
,
toujours la même, quelle que soit la faute.
Lorsqu’on répète cette épreuve de Bernoulli pour les n = 300 fautes, le nombre X de fautes qui se
trouvent à la page 36 apparaît comme le nombre de succès dans une répétition d’épreuves de Bernoulli.
On sait alors que X suit une loi binomiale de paramètres n = 300 et p = 1
500
.

k 1 k 1 300−k
P(X = k) = C300 ( ) (1 − )
500 500
2°) Probabilités de la loi binomiale.

Le calcul avec une calculette HP − 48SX donne les valeurs suivantes :

k 0 1 2 3
P(X = k) 0, 5485 0, 3297 0, 0988 0, 0197

On en déduit les réponses aux questions posées :

P(X = 2) = 0, 0988

et
P(X ≥ 2) = 1 − P(X = 0) − P(X = 1) = 0, 1218

3°/ Approximation par la loi de Poisson.


On peut approcher la loi binomiale de paramètres n et p par une loi de Poisson de paramètre λ = np
lorsque :
– n est grand
– p est petit
– np n’est n trop grand, n trop petit et les valeurs de k étudiées ne s’éloignent pas trop de la moyenne
np.
Avec n = 300, p = 1
500
, et des valeurs de k étudiées de 0 à 2 qui sont proches de np = 0, 60, ces conditions
d’approximation sont réalisées : les valeurs de probabilités données par la loi binomiale peuvent se calculer

84
approximativement par la loi de Poisson de paramètre λ = np = 0, 60.

λk 0, 60k
P(X = k) = e−λ = e−0,60
k! k!

La calculette donne les valeurs suivantes

k 0 1 2 3
Loi binomiale 0, 5485 0, 3297 0, 0988 0, 0197
Loi de Poisson 0, 5488 0, 3293 0, 0988 0, 0198
On en déduit les réponses aux questions posées :

P(X = 2) = 0, 0988

P(X ≥ 2) = 1 − P(X = 0) − P(X = 1) = 0, 1219

En comparant ces valeurs avec celles obtenues dans la question précédente à partir de la loi binomiale,
on voit que l’approximation par la loi de Poisson est tout à fait bonne dans le cas présent.
En fait, dans ce cas particulier, les calculs à la machine ne sont pas plus compliqués avec la loi binomiale
qu’avec la loi de Poisson et l’approximation par la loi de Poisson n’a pas réellement de justification ici.

La solution4.2.17 1°) Loi de X.


On choisit au hasard l’une des combinaisons équiprobables de 3 boules parmi les 14.
Parmi ces combinaisons, il y en a comportant k boules rouges choisies parmi les 6, et 3 − k boules jaunes
choisies parmi les 8, 0 ≤ k ≤ 3.
La probabilité que X = k, égale àb la probabilité que Y = 3 − k, est donc donnée par la loi hypergéo-
métrique :
C6k C83−k
P(X = k) = 3
,0 ≤ k ≤ 3
C14
2°) Espérances et variance.
a)E(X)

3
X 1 9
E(X) = kP(X = k) = (6 × 28 + 2 × 15 × 8 + 3 × 20) =
k=0
364 7

b) E(Y ).
E(Y ) = E(3 − X) = 3 − E(X) = 1, 714.

c) V ar(Y ).
V ar(Y ) = V ar(3 − X) = V ar(X) = E(X 2 ) − (E(X))2

207
E[X 2 ] = (6 × 28 + 22 × 15 × 8 + 32 × 20) =
91
85
396
V ar(Y ) =
637
La solution4.2.18 1°) Probabilité de divers intervalles de valeurs de la glycémie.
Notons X la glycémie mesurée sur un individu de la population.
X suit une loi normale N (1, 00, 0, 03) de paramètres m = 1, 00 et σ = 0, 03.
La variable aléatoire centrée réduite correspondante U = X−m
σ
suit une loi normale N (0, 1).
a) P(X < 1, 06)

1, 06 − 1, 00
P(X < 1, 06) = P(U ≤ ) = P(U < 2) = F (2) = 0, 9772
0, 03

(table de la fonction de répartition de la variable normale).

P(X < 1, 06) = 0, 9772

b) P(X > 0, 9985)

0, 9985 − 1, 00
P(X > 0, 9985) = P(U > ) = P(U > −0, 05) = P(U < 0, 05)
0, 03

P(X > 0, 9985) = F (0, 05) = 0, 5199

(table de la fonction de répartition de la variable normale).

P (X > 0, 9985) = 0, 5199

Remarque.

Comme la valeur 0,05 est petite, on peut avoir une approximation de la valeur de F en utilisant un
développement en série de Taylor :

0 00 u2 000 u3
F (u) = F (0) + F (0)u + F (0) + F (0) + . . . ,
2! 3!

avec
1 u2
F 0 (u) = f (u) = √ e− 2 .

En limitant le développement aux trois premiers termes non nuls, on obtient :

1 1
F (0) = 0, 5, F 0 (0) = f (0) = √ , F 00 (0) = f 0 (0) = 0, F 000 (0) = √ , . . .
2π 2π

86
1 0.053
F (0, 05) = 0, 5 + √ (0, 05 − ) = 0, 5199
2π 6
C’est déjà une bonne approximation.
c) P(0, 94 < X < 1, 08)

0, 94 − 1, 00 1, 08 − 1, 00
P(0, 94 < X < 1, 08) = P( <U < )
0, 03 0, 03

8 8
= F ( ) − F (−2) = F ( ) − 1 + F (2) = 0, 9734
3 3
(table de la fonction de répartition de la variable normale).

P(0, 94 < X < 1, 08) = 0, 9734

2°) Nombre moyen d’individus.

La probabilité p que la glycémie X d’un individu choisi au hasard dans la population soit supérieure
à 0, 99g/l est donnée par la loi normale :

0, 99 − 1, 00 1 1
p = P(X > 0, 99) = 1 − P (X ≤ 0, 99) = 1 − F ( ) = 1 − F (− ) = F ( ) = 0, 6306.
0, 03 3 3

(table de la fonction de répartition de la variable normale).


Le fait de regarder si, pour un individu, sa glycémie est supérieure ou non à 0, 99g/l, constitue une
épreuve de Bernoulli dans laquelle la probabilité du succès est p, indépendante de l’individu choisi.
Lorsqu’on répète cette épreuve de Bernoulli pour les n = 1000 individus de l’échantillon, le nombre N
de succès obtenus est le nombre d’individus dont la glycémie est supérieure à 0, 99g/l.
Ce nombre N suit une loi binomiale de paramètres n = 1000 et p = 0, 6306.
La valeur moyenne de N est son espérance mathématique E(N ) = np = 630, 6.

E(N ) = 630, 6

La loi faible des grands nombres (théorème de Bernoulli) nous dit, d’ailleurs, qu’en moyenne, la
proportion d’individus ayant une glycémie supérieure à 0,99 g/l, tend, en probabilité, à se rapprocher de
la valeur théorique de la probabilité donnée par la loi normale, à mesure que le nombre d’individus pris
en considération augmente. Dans un échantillon aléatoire de 1000 individus, on peut donc admettre que :

Il y a en moyenne 630, 6 individus qui présentent une glycémie supérieure à 0, 99g/l.

La solution4.2.19 1°) Fonction caractéristique de X.

87
La fonction caractéristique FX d’une variable aléatoire réelle X est, par définition, l’application qui,
à un u ∈ R, fait correspondre l’espérance mathématique de eiuX :

FX (u) = E(eiuX ).

C’est la transformée de Fourier de la densité de probabilité fX de X.


Lorsque X est une variable aléatoire continue, la fonction caractéristique s’exprime par une intégrale :
Z
FX (u) = fX (x)eiux dx
R

Lorsque X est une variable aléatoire discrète, la fonction caractéristique s’exprime par une série de
Fourier :
X
FX (u) = P(X = xk )eiuxk
k∈N

Pour une variable aléatoire X de loi constante sur l’intervalle [0, 1], la densité de probabilité est 1[0,1] et
la fonction caractéristique est :
Z 1
1 iux 1 i
FX (u) = eiux dx = [e ]0 = (1 − eiu )
0 iu u

2°) Fonction caractéristique de Y .

La densité de probabilité de la variable Y est constante sur l’intervalle [−1, 1] : fY = 12 1[−1,1] (l’in-
tervalle a pour longueur 2).
La fonction caractéristique FY de Y est donnée par la formule :
Z Z 1
iuy 1 1 iuu 1 sin u
FY (u) = fY (y)e dy = eiuy dy = [e ]−1 =
R 2 −1 2iu u

3°) Fonction caractéristique de X + Y .

FX+Y (u) = E(eiu(X+Y ) ) = E(eiuX+iuY ) = E(eiuX eiuY )

Comme X et Y sont, par hypothèse, indépendantes, les variables aléatoires eiuX et eiuY sont, elles aussi,
indépendantes et l’espérance de leur produit est le produit de leurs espérances :

i sin u
FX+Y (u) = E(eiuX )E(eiuY ) = FX (u)FY (u) = (1 − eiu )
u u

FX+Y (u) = (1 − eiu ) sin u

La formule FX+Y (u) = FX (u)FY (u) montre que la loi de probabilité de X + Y est le produit de convolu-
tion des lois de X et de Y , puisque sa transformée de Fourier est le produit des transformées de Fourier

88
des lois de X et Y .
4°) Loi de probabilité de Z.
On peut écrire :
1
cos u = (eiu + e−iu ).
2
Or la fonction caractéristique d’une variable aléatoire discrète Z de valeurs zk , k ≥ 1, prend la forme
X
FZ (u) = P(Z = zk )eiuzk
k∈N

Par identification, on reconnaît, dans la formule donnant cos u, la fonction caractéristique d’une
variable discrète Z prenant les valeurs −1 et 1, avec des probabilités.
Une loi de probabilité est entièrement déterminée par sa fonction caractéristique (réciprocité de la
transformation de Fourier).
La loi de probabilité de Z est donc donnée par le tableau suivant :

1
P (Z = −1) = P (Z = 1) =
2

Z est une variable discrète uniforme sur l’ensemble {−1, 1}.

La variable aléatoire est une variable de Bernoulli de paramètre.

89
Bibliographie

[1] A. Borovkov. Mathematical statistics. Gordon and Breach Science Publishers, 1998.
[2] N. Bouleau. Probabilités de l’ingénieur. Variables aléatoires et simulation. Hermann, 1986.
[3] P. Brémaud. Introduction aux probabilités. Springer Verlag, 1984.
[4] J. Neveu. emph Introduction aux probabilités. Ecole Polytechnique, 1990.
[5] G. Saporta. emph Probabilités, Statistique et Analyse des Données. Technip, 1990.
[6] Kada Allab , Element d’analyse fonction d’une variable réelle (2001)
[7] AZOULAY Elie, Les mathématiques en licence Tome 1, (2007)
[8] J.F. Delmas. Introduction au calcul des probabilités et à la statistique. Polycopié ENSTA, 2008.

Cours et Exercices de Probabilités 90 Blouhi Tayeb

Vous aimerez peut-être aussi