[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
26 vues21 pages

Chapitre 2 - Les Variables Aléatoires

Transféré par

younesbenghalia7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
26 vues21 pages

Chapitre 2 - Les Variables Aléatoires

Transféré par

younesbenghalia7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 21

Chapitre 2 : Rappels sur les probabilités et les Variables

Aléatoires

1. Notions de probabilités
Contrairement aux signaux déterministes qui se représentent par une connaissance exacte d’un
événement à travers une relation analytique connue et ceci quel que soit le temps, les signaux
aléatoires se présentent sous forme imprévisible a priori. Alors, pour définir les
caractéristiques de ces signaux on fait appel aux techniques de probabilités et de statistiques.
Donc les signaux aléatoires c’est un phénomène physique ou processus ou un signal x(t) qui le
représente est considéré comme aléatoire lorsque : le hasard intervient toujours et l’on ne peut
pas faire de prévisions absolument certaines.
Le but principal de la théorie des probabilités est de fournir un modèle mathématique pour
décrire les phénomènes aléatoires sous sa forme moderne, la formation de cette théorie
contient : les réalisations, l’univers, les événements, et la mesure de probabilité.
1.1. Réalisation :
Pour ce type de signal, un enregistrement unique xi(t) pour une expérience donnée représente
une seule réalisation des développements possibles. Pour avoir une connaissance complète du
phénomène, il faudrait en théorie enregistrer toutes les réalisations possibles.
1.2. Univers :
Il s’agit d’un ensemble Ω , dont les éléments correspondent à tous les résultats possibles de
l’expérience aléatoire. On appelle également l’espace des observations, ou l’espace
échantillon.
Exemple :
1) Un tirage à pile ou face : Ω = {P, F }.
2) deux tirages à pile ou face : Ω = {PP, PF , FP, FF } .

3) Durée de vie d’une ampoule : Ω = ℜ + .


On dit que le processus aléatoire x(t) qui décrit le phénomène physique est défini par
l’ensemble des enregistrements xi(t).

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 1


Figure : Représentation d’un ensemble de réalisations.

Ω est l’ensemble de tous les résultats possibles d’une expérience aléatoire.


1.2. Événement:
Un événement est une propriété dont on peut dire si elle est vérifiée ou non, une fois le
résultat de l’expérience connu. Donc l’événement est une proposition logique relative au
résultat d’une expérience aléatoire (un tel résultat est alors appelé une réalisation de
l’événement).
Exemple :
-Lancer un dé : Ω = {1,2,3,4,5,6}, Ω : l’espace échantillon ou l’ensemble de tous les résultats
possibles.
Événement A : obtenir le ‘1’, A = {1} .
Événement B : obtenir un multiple de ‘3’, B = {3,6} .
Événement C : obtenir un nombre paire, C = {2,4,6}.
Événement D : obtenir un nombre impaire, D = {1,3,5} .

1 3 5 D
A

Ω 2 4 6

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 2


1.3. Les probabilités :
Pour étudier une expérience aléatoire, on construit un modèle mathématique sur la base de
trois éléments :
Ω : L’ensemble des résultats d’expérience.
C : Ensemble des événements.
P : Application des probabilités de C dans l’intervalle [0,1].
(Ω, C , P ) : Espace probabiliste.
Exemple :
- Ω = {X , Y , Z }
X ∈ Ω , X est un élément de l’ensemble Ω .
F ∉ Ω , F n’est pas un élément de l’ensemble Ω .
Implication (inclusion) Conjonction (intersection)

X ∈ A ∩ B si : X ∈ A et X ∈ B

A
B A∩ B
A⊂ Ω
A B⊂Ω B
A⊂ B
Ω Ω

Disjonction (union) Événement complémentaire (négative)

X ∈ A∪B si : X ∈ Aou X ∈ B

A
B

Ω Ac

A c ou A événement contraire de A

Différence
La différence entre A et B est A-B ou A\B : contient tout les éléments de A mais pas de B.

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 3


X ∈ A − B si : X ∈ A et X ∉ B, A − B = A ∩ Bc
A
A−B

Événement mutuellement exclusifs


A∩ B = Φ

Ω B

A = {A1 , A2 ,..., An } tel que A1 , A2 ,..., An ⊂ A .

Ai ∩ A j = Φ pour i ≠ j
n

A = A1 ∪ A2 ∪ ... ∪ An = ∪ Ai
i =1
n

∩ Ai = A1 ∩ A2 ∩ ... ∩ An
i =1

( A ∪ B ) c = Ac ∩ B c
Probabilité de C :
Probabilité (P) est une application de C dans l’intervalle [0,1].
P : C → [0,1]
qui vérifie les propriétés suivantes :
A → P ( A)
P (Ω ) = 1
()
P A = 1 − P ( A)
 n  n
 
P ∪ Ai  = ∑ P ( Ai )
 i =1  i =1
 
P (Φ ) = 0

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 4


si A ⊂ B alors P( A) ≤ P( B)
P( A ∪ B) = P( A) + P( B) − P( A ∩ B) ≤ P( A) + P( B)
P( A ∩ B) = P( A) + P( B) − P( A ∪ B) ≤ P( A) + P( B)
Démonstration :
A ∪ B = ( A \ B) ∪ ( A ∩ B ) ∪ ( B \ A)
P( A ∪ B) = P ( A \ B) + P( A ∩ B) + P( B \ A)
= P( A) − P ( A ∩ B)
+ P( A ∩ B)
+ P( B) − P( A ∩ B)
= P( A) + P( B) − P( A ∩ B)
si A et B sont mutuellement exclusifs : A ∩ B = Φ ⇒ P( A ∪ B) = P( A) + P( B)

P( A \ B) = P(A)- P(A∩ B)
P(B \ A) = P(B)- P(A∩ B)

A
A∩ B
A\B

B\A

Probabilité conditionnelle :
1
P( B ∩ C ) 1
Exemple : supposons que C se soit réalisé : P( B C ) = 6 = =
3 P(C ) 3
6
B C : B à condition C.

1
P( B ∩ C ) 1
supposons que B se soit réalisé : P(C B) = 6 = =
2 P( B) 2
6

1 3 5 D
A

Ω 2 4 6

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 5


La probabilité conditionnelle de A étant donné B :
P( A ∩ B)
P( A B) = avec P ( B ) ≠ 0 : la probabilité d’un événement A sachant B (ou
P( B)
probabilité de A conditionnellement à B).
Remarque :
Écriture équivalente : P( A ∩ B) = P( A B ) P( B)

P ( A) ≠ 0 et P ( B ) ≠ 0
Pour deux événements A et B : P ( A ∩ B ) = P ( B A) P ( A)
P( A ∩ B) = P( A B) P ( B)

Exemple 1 :
*Lancer deux dés, X1 et X2 : nombre des points apparait sur chaque côté.
L’événement A = {X 1 ≥ 2}, L’événement B = {X 2 > X 1}.

Trouver P(A), P(B), P( A B ) .

Exemple 2 :
Soit à calculer la probabilité pour que, tirant successivement deux cartes d’un jeu de 52 cartes,
ces deux cartes soient des rois. Appelons R1 et R2 les deux événements suivants :
- A: la première carte est un roi,
- B: la deuxième carte est un roi.
La probabilité cherchée est P(2rois ) = P( R1 ∩ R2 ) avec P( R1 ∩ R2 ) = P( R1 ) P( R2 R1 ) .

4
Lors du premier tirage, il y a 52 cartes et 4 rois dans le jeu, d’où P ( R1 ) = .
52
Lors du second tirage, il reste 51 cartes et seulement 3 rois, puisque l’événement A est réalisé,
3
d’où P ( R2 R1 ) = .
51
4 3 1
Le résultat est donc: P (2rois ) = P ( R1 ∩ R2 ) = P ( R1 ) P ( R2 R1 ) = =
52 51 221
Probabilité conditionnelle pour 3 événements :
P( A ∩ B ∩ C ) = P( A) P( B A) P(C A ∩ B)

Exemple :
*tirage de trois cartes sans remise dans un jeu de 52 cartes :
4 3 2 1
P (3rois ) = P ( R1 ∩ R2 ∩ R3 ) = P ( R1 ) P ( R2 R1 ) P ( R3 R1 ∩ R2 ) = =
52 51 50 5525

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 6


Indépendance :
A et B sont deux événements indépendantes si :
P( A B) = P( A), P( B A) = P( B) , Qui veut dire que la probabilité que l’un des événements se

produise n’est nullement influencée par la réalisation de l’autre, donc P ( A ∩ B ) = P ( A) P ( B ) .


A, B et C sont trois événements indépendantes si :
a) A et B sont indépendantes.
b) B et C sont indépendantes.
c) A et C sont indépendantes.
d) P ( A ∩ B ∩ C ) = P( A) P ( B) P (C ) .
Exemple :
Une expérience avec des probabilités égales (équiprobables) :
A = {1,2,3,4} , P (a ) = 1 / 4, pour a ∈ A .
L’événement A1 = {1,3,4} .
L’événement A2 = {2,3,4} .
L’événement A3 = Φ .

Les événements A1 , A2 et A3 sont indépendantes ?

Probabilités totales :
Les événements A1 , A2 ,…, An
n

∪ Ai = A1 ∪ A2 ∪ ... ∪ An = Ω et Ai ∩ A j = Φ avec i ≠ j
i =1
Soit B un événement quelconque de Ω , nous pouvons définir la probabilité totale de
n n
l’événement B : P( B) = ∑ P ( B ∩ Ai ) =∑ P( B Ai ) P( Ai )
i =1 i =1

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 7


Nous pouvons noter que le terme droite de l’équation précédente est conditionné par
l’événement Ai et le terme gauche de l’équation dépend de l’événement B. cette équation est
connue sous l’appellation de théorème de Bayes :
P( B Ai ) P( Ai ) P( B Ai ) P( Ai )
P( Ai B) = =
n P( B)
∑ P( B Ai ) P( Ai )
i =1

Exemple:
une société dispose de trois machines : A1 , A2 et A3 pour la fabrication des résistances de
1KΩ .
A1 → 80% , A2 → 90% , A3 → 60% résistances avec une valeur nominale de 50Ω .
Dans chaque heure la première machine A1 produits 3000 résistance, la deuxième machine A2
produit 4000 résistances, et la troisième machine A3 produits 3000 résistances.
Toutes les résistances sont mélangées au hasard dans un seul boité pour l’utilisation dans les
montages électroniques.
- Quelle est-la probabilité pour les résistances avec une valeur nominale de 50Ω .
- Déterminer la probabilité des résistances de la machine 3.
- Utiliser le diagramme de l’arbre pour trouver les résistances acceptables et inacceptables.
Probabilité de succès :
n résultats possibles ayant tous la même chance de se réaliser.
La probabilité de succès Si correspondante à n(Si) résultats.
n( S i )
La probabilité de succès : P ( S i ) = ,
n
où n(Si) est le nombre de réalisation correspondante à l’événement Si et n est le nombre
d’échantillons.
Si les événements sont équiprobables donc p1=p2=…=pn.
1 1
P ( S ) = P ( S1 ) + P( S 2 ) + ... + P ( S n ) = 1 = np ⇒ p = , P( S i ) = p = .
n n
Exemple :
Lancer un dé de six face, tous les faces sont équiprobables.
-Quelle est la probabilité de chaque résultat ?
-Trouver P(face égal 4 ou supérieur)
-Trouver P(face :un nombre pair)

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 8


Variable aléatoire
Une variable aléatoire est une fonction réelle dans l’espace d’échantillon Ω , donc une V.A X
est une fonction qui associe à chaque événement w d’une expérience aléatoire un nombre réel
x.
X :Ω → ℜ
w→ x

Figure. Représentation d’une variable aléatoire.

-Une variable aléatoire peut être continue, discrète ou mixte suivant l’ensemble des valeurs
possibles de l’expérience aléatoire. Une VA est caractérisée par l’ensemble des valeurs
qu’elle peut prendre et par l’expression mathématique de la probabilité de ces valeurs. Cette
expression s’appelle la loi de probabilité ou la distribution de probabilité de la VA. La
fonction de répartition elle représente la probabilité pour qu’une VA X soit inférieure ou égale
à xi : FX(xi)=P(X≤xi).
Exemple : Lancer un dé à six faces. Les six événements possibles sont: 1,2,3,4,5,6. On peut
associer à chaque événement la valeur de la face. Ceci définit une variable aléatoire (VA) à
six valeurs qui ont chacune une probabilité de 1/6. Dans ce cas, la variable aléatoire est
scalaire, discrète et monodimensionnelle.
On peut distingue trois calasses des variables aléatoires :
Variable aléatoire discrète : X est une VA discrète si l’ensemble des valeurs possibles de X
est fini ou dénombrable.
Exemple :
Une expérience aléatoire : Contacter cinq clients.
VA X : Nombre de clients qui passent une commande.

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 9


Valeurs x que prendre la VA X : 0,1,2,3,4,5.
On notera alors l’ensemble des valeurs possibles : {xi, i ∈ I}.
La loi de X est définie par :
1) {xi, i ∈ I}.
2) P[X=xi].
Telles que ∑ P[ X = xi ] = 1 .
i∈ I

Variable aléatoire continue : X est une VA continue si l’ensemble des résultats possibles de
X est infini ou non dénombrable (intervalle des nombres réels ou une suite d’intervalles).
Exemple : Poids, température, temps, distance, taille.
La loi de probabilité de X est définie par :
1) {X(x), x ∈ Ω}.
2) une densité de probabilité pX(x), x ∈ ℜ .
∀x, p X ( x) ≥ 0

telles que  P[ X ∈ ∆] = p ( x)dx, ∆ ⊂ ℜ .
 ∫ X
 ∆

Variable aléatoire mixte : On dit que X est une VA mixte si l’ensemble des valeurs possibles
de X est la réunion de deux ensemble, le premier est un ensemble fini ou dénombrable {xi, i ∈
I} avec P[X=xi]>0, ∀i ∈ I , le seconde est un ensemble infini non dénombrable.
P[ X ∈ ∆] = ∫ p X ( x)dx + ∑ P[ X = xi ]
∆ xi ∈∆

Exemple 1 : Une variable aléatoire est représentée dans l’espace d’échantillon


S = {− 4 ≤ i ≤ 12}. X est une V.A donnée par :

− 2 i ≤ −2
i − 2 < i ≤1

X (i ) = 
1 1< i ≤ 4
6 4<i
- Dessiner les valeurs de x en fonction de i.
- Quelle est le type de variable aléatoire X.
Fonction de répartition :
La fonction de répartition ou la distribution cumulative d’une VA X est la fonction défini par :
Fx ( x) = P ( X ≤ x), pour − ∞ < x < +∞

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 10


C’est donc la probabilité que X prenne une valeur inférieure à un seuil x. La fonction de
répartition vérifie les propriétés suivantes :
1. 0 ≤ Fx ( x) ≤ 1 .

2. Fx ( x1 ) ≤ Fx ( x2 ) si x1 < x2 .

3. Fx (+∞) = 1 et Fx (−∞) = 0 , Fx (x) est une fonction croissante.

4. P( x > a ) = 1 − Fx (a ) .
X VA discrète à valeur dans {xi, i ∈ I}: On dit que la VA est discrète si sa fonction de
répartition est en escalier. Ainsi, elle peut s’écrire comme suit :
FX ( x) = ∑ p X ( xi )u ( x − xi )
i

avec p X ( xi ) ≥ 0 , ∑ p X ( xi ) = 1 et u (x) est la fonction d’échelon unitaire. Ainsi, la VA ne


i

peut prendre que des valeurs discrètes avec des probabilités pi.
FX(x) est fonction de répartition en escalier, elle change de valeurs à chaque saut et constante
entre chaque saut.
Supposons que Ω={x1,x2,..,xn} pour lesquels la séquence peut être finie ou infinie, et de plus
supposons que : xi < x j si i < j . Nous avons alors :

FX ( xi ) − FX ( xi −1 ) = P[ X ≤ xi ] − P[ X ≤ xi −1 ] = P[ X = xi ] .

Posons : p X ( x) = P( X = x) , la fonction est appelée la fonction de probabilité de la VA.


1) 0 ≤ p X ( xi ) ≤ 1 , pour i=1,2,…,n.

2) p X ( x) = 0 si x ≠ xi , pour i=1,2,…,n.

3) ∑ p X ( xi ) = 1 .
i

La fonction de densité de probabilité :

Variable aléatoire discrète : densité de probabilité Variable aléatoire continue : densité de probabilité
et fonction de répartition. et fonction de répartition.
Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 11
∂FX ( x)
p X ( x) = f X ( x) =
∂x
VA discrète : p X ( x) = ∑ P[ X = xi ]δ ( x − xi ) .
i

FX (x) : fonction CFD.


p X (x) ou f X (x) est une fonction de densité de probabilité (PDF) de la VA continue X. avec
les propriétés suivantes :
p X ( x) ≥ 0
+∞
∫ p X ( x)dx = 1
−∞
b
P[a < X ≤ b] = ∫ p X ( x)dx = FX (b) − FX (a)
a

La fonction de répartition FX(x) est donnée par :


x
F X ( x ) = P( X ≤ x ) = ∫ p X (u )du
−∞

1
Exemple 1 : Une V.A à une densité de probabilité : p X ( x) =  u ( x)e − x / 2
2
Trouver les probabilités des événements A, B, et C: A = {1 < X ≤ 3}, B = {X ≤ 2.5}, C = A ∩ B .
Exemple 2 : Trois appels téléphoniques, avec les appels vocaux (v) et les appels de données
(d) sont des probabilités égales.
-Soit X le nombre d’appels vocaux, et Y le nombre d’appels de données.
-Soit R=XY.
Résultats ddd ddv dvd dvv vdd vdv vvd vvv
P 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8
X 0 1 1 2 1 2 2 3
Y 3 2 2 1 2 1 1 0
R 0 2 2 2 2 2 2 0
-Calculer la densité de probabilité de R ?
-Calculer la fonction de répartition.

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 12


Exemple 3 : Dessiner les fonctions suivantes:
0 x<0
a) FX ( x) = 
1 − e − x / 2 x≥0

0 x<0

b) FX ( x) = 0.5 + 0.5 sin[π ( x − 1) / 2] 0≤ x<2
1 x≥2

c) FX ( x) =
x
[u(x − a ) − u (x − 2a )]
a
Déterminer parmi les fonctions précédentes lesquelles sont des fonctions de répartition
(justifier votre réponse).
N
Exemple 4 : La fonction de répartition FX(x) est donnée par : FX ( x) = K ∑ n 3u ( x − n)
n =1

-Déterminer la constante K.
Exemple 5 : La fonction de répartition FX(x) est défini par :
 2  x   x 
FX ( x) = a 1 +   arcsin  rect   + (a + b )u ( x − c) , x ∈ ℜ , avec c > 0 , b et a sont des
 π   c   2c 
constantes réelles. – Trouver les conditions de a, b et c pour que FX(x) soit une fonction de
répartition.
Notions :
-Les nombres probabilistes sont associés à une population hypothétique (ensemble de tous les
résultats possibles d’une expérience aléatoire).
-Les notions statistiques sont associées à un nombre restreint d’observation (échantillon).
-La loi des grands nombres nous permet d’établir un pont entre les notions probabilistes et les
notions statistiques. Elle précise que la fréquence relative d’un événement tend vers à sa
probabilité lorsque le nombre de répétitions de l’expérience aléatoires augmente.
Notions probabilistes (concepts théoriques) Notions statistiques (concepts pratiques)
-Probabilité d’un événement -Fréquence relative.
-Variable aléatoire -Variable statistique.
-Loi de probabilité. -Distribution statistique (empirique).
-Esperance mathématique d’un VA. -Moyenne arithmétique d’une variable
-Variance d’un VA. statistique.
-Variance d’une variable statistique.

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 13


Paramètres d’une VA :
-Paramètre de tendance centrale : -Espérance mathématique.
-Paramètre de dispersion : -Variance.
-Ecart type.
Moments d’une variable aléatoire :
Pour caractériser complètement une VA, nous devons connaître sa fonction de densité de
probabilité. Cette densité peut être caractérisée par quelques nombres appelés moments
statistiques. Généralement, les moments d’une VA peuvent être calculés par la relation
suivante où le moment d’ordre n correspond à :
+∞
E[ X ] = ∫x
n n
p X ( x)dx Pour le cas continu.
−∞

E[ X n ] = ∑ xi n p X ( xi ) Pour le cas discret.


i

Propriétés :
Si X et Y sont deux VA définies sur le même univers admettant une espérance :
E[ X + Y ] = E[ X ] + E[Y ]
E[aX ] = aE[ X ], ∀a ∈ ℜ
Si X ≥ 0, alors : E[ X ] ≥ 0
-Une variable aléatoire contenu X (ou xk discret) est caractérisée par sa fonction de densité de
probabilité pX(x), caractérisé par sa moyenne statistique mx ou espérance E[X] (moment du
2
premier ordre), sa puissance moyenne totale σ eff (moment d’ordre 2), et sa variance Var[X]

(moment centré d’ordre 2):


L’espérance mathématique E[X] :
 +∞
 ∫ xp X ( x)dx X : continu

m X = E[ X ] = − ∞
∑ xk p X ( xk ) X : discret
 k

De façon plus générale, toute fonction f d’une variable aléatoire X est une variable aléatoire f.
La connaissance des lois de probabilités nous permet de déterminer les valeurs espérées
théoriquement – ou espérances mathématiques - ou moyenne statistique - ou moments de f :
+∞
E[ f ( x)] = ∫ f ( x) p X ( x)dx .
−∞

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 14


2
La puissance moyenne totale σ eff :

 +∞ 2
 ∫ x p X ( x)dx X : continu
2 2 
σ eff = E[ X ] = − ∞
 x2 p (x )
∑ k X k X : discret
k

La variance Var[X] :
 +∞
 ∫ ( x − m X ) 2 p X ( x)dx X : continu

σ X2 = Var[ X ] = E[( X − m X ) 2 ] = − ∞ , σ X est l’écart type.
 ( x − m )2 p (x )
∑ k X X k X : discret
k

La variance est le carré de l’écart-type σ X et correspond à la puissance des fluctuations


autour de la valeur moyenne :
+ ∞ 2
 +∞ 
 x p ( x)dx −  xp ( x)dx 
2
∫  ∫ X
X : continu
X

 − ∞  − ∞ 
Var[ X ] = E[( X − E ( X )) 2 ] = E[ X 2 ] − ( E[ X ]) 2 = 
2
  
∑ x k p X ( x k ) −  ∑ x k p X ( x k ) 
2
X : discret
 k  
 k 
Remarque : Lorsque la moyenne est nulle, on dit que la variable aléatoire est centrée, lorsque
sa variance égale à 1, on dit qu’elle est réduite.
- La densité de probabilité nous fournit une première information sur notre VA que l'on
complètera par le calcul de différents paramètres statistiques. La moyenne et la variance sont
largement utilisés pour la représentation des VA. La valeur moyenne est équivalente à la
composante continue et la variance aux fluctuations autour de cette moyenne.
Covariance de deux variables aléatoires :
La covariance entre deux VA X et Y est donné par:
Cov[ X , Y ] = E[( X − m x )(Y − m y )] = E[ XY ] − m x m y

L’autocovariance d’une VA X :

Cov[ X , X ] = E[( X − E ( X )) 2 ] = E ( X 2 ) − E 2 ( X ) = σ x2
Deux variables ayant une covariance non nulle sont dites dépendantes. Par contre, la
covariance est nulle dans le cas où les deux variables sont indépendantes. Cela se traduit par:
Cov[ X , Y ] = E[ XY ] − m x m y = 0 ⇒ E[ XY ] = E[ X ]E[Y ] = m x m y

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 15


Corrélation de deux variables aléatoires : La fonction de corrélation entre deux variables
aléatoires est exprimée par le moment du produit.
R XY = E[XY ]
Aussi, on définit le coefficient de corrélation entre deux variables X et Y par :
Cov[ X , Y ] Cov[ X , Y ]
ρ XY = = , avec − 1 ≤ ρ XY ≤ 1
Var[ X ]Var[Y ] σ xσ y

-Si ρ XY = ±1 : X et Y sont totalement liés, elles sont dites corrélées.


-Si Cov[ X , Y ] = 0 on dit alors que les deux VA X et Y sont décorrélées ρ XY = 0 .
-X, Y indépendantes ⇒ X, Y décorrélées mais en général, la réciproque est fausse (X, Y
faut
décorrélées ⇒ X, Y indépendantes).
Le coefficient de corrélation renseigne sur le degré de dépendance linéaire de deux variables
aléatoires. Plus le coefficient de corrélation est proche des valeurs extrêmes -1 et +1, plus la
corrélation entre les variables est forte. Une corrélation égale à zéro signifie que les variables
aléatoires sont linéairement indépendantes.
Exemple 1: Soit une V.A discrète X pouvant prendre les valeurs : xi=i2 avec i={1,2,3,4,5}, X
est réalisé avec des probabilités P={0.4,0.25,0.15,0.1,0.1}. Trouver la moyenne de X
( X = E[ X ] ).
Exemple 2: Les nombres entiers sont les valeurs possibles d’une variable aléatoire X donnée

par: xn = n , n={1,2,3,...} ces valeurs avec les probabilités : P ( xn ) = p n .

-Trouver la valeur de p de la densité de probabilité pX(xn), avec 0 < p < 1 .


-Calculer l’espérance mathématique de X.
Exemple 3: Soit une VA à une densité de probabilité pX(x) donné par:
1
p X ( x) = Π 2a ( x )
2 2
π a −x
1 −a ≤ x ≤ a
Π 2a ( x) =  , a>0.
0 ailleurs
Trouver : la moyenne de X (E[X]), le moment de second ordre E[X2] et la variance Var[X].
Indépendance statistique : Deux VA sont statistiquement indépendantes si :
p XY ( x, y ) = p X ( x). pY ( y ) . Sous cette condition on aura : E[ X ⋅ Y ] = E[ X ].E[Y ] (la valeur
prise lors du tirage aléatoire de la première n’a aucune influence sur le tirage de la seconde).

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 16


Fonction caractéristique :
La fonction caractéristique d’une VA réelle X est la transformée de Fourier de sa mesure de
probabilité :
+∞
jω x jωx
Pour le cas continu : Φ X (ω ) = E[e ]= ∫e p X ( x)dx
−∞

Pour le cas discret : Φ X (ω ) = E[e jωx k ] = ∑ e jωx k p X ( xk )


k

Cette fonction possède les propriétés suivantes :


Φ X (0) = 1
Φ X (ω ) = Φ X (−ω )

Φ X (ω ) ≤ 1

La fonction caractéristique contient les informations relatives à tous les moments. D’un point
de vue calcul elle n’est qu’une transformée de Fourier avec –w au lieu de w.
La densité de probabilité à partir de cette fonction se fait comme suit :
+∞
1 − jωx
p X ( x) =
2π ∫ Φ X (ω )e dω
−∞

Fonction génératrice :
Soit X une VA avec les probabilités P0,P1,…,Pk, la fonction générant les probabilités de cette
variable est donné par :

G X ( z ) = E[ z x ] = ∑ z k Pk
k

-La fonction génératrice de probabilités d’une VA discrète n’est que la transformée en Z (avec
une différence du signe) de sa pdf.

-La fonction caractéristique est égale à Φ X (ω ) = G X (e jω ) .


-L’espérance mathématique de la VA est calculée par : E[ X ] = G ' X (1) .
Exemple :
On considère une VA ayant les valeurs suivantes :
k 0 1 3
Pk 1/2 1/3 1/6
-Calculer la fonction génératrice de cette VA.
-Déduire l’espérance mathématique.

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 17


Lois de probabilité usuelles
Une VA est une grandeur dont la valeur dépond du hasard, cette dépendance est exprimée
dans les problèmes concrets par une loi qui permet d’approcher au mieux la réalité : la loi de
probabilité caractérisée par une densité de probabilité et une fonction de répartition.
Distribution normale ou de Gaussienne
Une VA continue de valeur moyenne µ x et la variance σ x2 est à distribution normale

N ( µ x , σ x2 ) ou Gaussienne si sa densité de probabilité est du type :


 (x−µx )2 
− 
1 2σ x2 
p X ( x) = e
2π σ x

-si la variable aléatoire suit la loi normale centrée réduit : N (0,1) .

-pour faire des calculs avec une loi normale N ( µ x , σ x2 ) , on se ramène a la loi N (0,1) .

X −µ
si X ~ N ( µ x , σ x2 ) alors ~ N (0,1)
σ
Variable aléatoire a distribution uniforme :
Une variable aléatoire continue est à distribution uniforme si sa densité de probabilité :
1  1  1 1
p X ( x) = Π (b −a )  x − (a + b)  , avec µ x = (a + b) et σ x2 = (b − a ) 2
(b − a)  2  2 12

X est uniformément répartie entre a et b veut dire que la distribution est équiprobable quelque
soit la valeur de x sur [a, b].

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 18


Loi de Bernoulli
La loi de Bernoulli, est une expérience avec seulement deux essais possibles a et b avec les
probabilités respectives de p et (1-p). Exemple: Résultat pile ou face d’une pièce.
- La densité de probabilité est donnée par : p X ( x) = pδ ( x − a) + (1 − p)δ ( x − b) .
- La fonction de répartition par : FX ( x) = pu ( x − a) + (1 − p )u ( x − b)

Variables aléatoires discrètes


Loi de Probabilité Espérance Variance
distribution p k = P[X = k ] E[ X ] = ∑ xk pk Var[ X ] = ∑(xk − E[ X ])2 pk
k k

Bernouilli P( X = 0) = (1 − p ) p p (1 − p)
P( X = 1) = p
p ∈ [0,1]

Binomiale C nk p k (1 − p) n −k np np(1-p)
n ∈ Ν*
Poisson ( λ ) λk e − λ λ λ
k!
λ ∈ ℜ +* , k ∈ Ν
Géométrique p (1 − p) k −1 1 1− p
p p2
k ∈ Ν*
Variables aléatoires réelles continues
Loi de Densité de Probabilité Espérance Variance
distribution p X (x) +∞
Var[ X ] = E[ X 2 ] − ( E[ X ]) 2
E[ X ] = ∫ xp X ( x)dx
−∞

Gamma λα −λx α −1 α α
e x
α ∈ ℜ +* , λ ∈ ℜ +* Γ(α ) λ λ2

Exponentielle λ e − λx 1 1
λ λ2
λ ∈ ℜ +*
Chi-deux χ n2 1 −
x n
−1 n 2n
n
e 2x2
n
n ∈ Ν* Γ  2 2

2
+∞
n!
C =
k
, Γ(a) = ∫ t a −1e −t dt
k!(n − k )!
n
0

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 19


Variable aléatoire complexe
Dans certaines applications on a besoin de générer des signaux aléatoires complexes et des
modèles de bruit nécessitant des variables et des vecteurs complexes. Dans cette cas le VA est
une variable à deux dimensions : Z = X + jY
-L’espérance mathématique de Z est donnée par : E[ Z ] = E[ X ] + jE[Y ]
-La variance de Z est donnée par : Var[ Z ] = Var[ X ] − Var[Y ]
Transformations des variables aléatoires (Fonctions des variables aléatoires) :
Etant donné une VA X et une fonction g ( X ) , nous pouvons définir une nouvelle VA Y telle
que Y = g ( X ) .

La transformation inverse de g ( X ) est : X = g −1 ( y ) .


La densité de probabilité de Y est donnée par :

∂x ∂x 1 p ( g −1 ( y ))
pY ( y ) = p X ( x) = p X ( g −1 ( y )) = p X ( g −1 ( y )) = X
∂y ∂g ( y ) ∂g ( x) / ∂x g ' ( x)

A partir des caractéristiques de X (la densité de probabilité et la fonction de répartition), les


caractéristiques de Y sont obtenues comme suit :
La fonction de répartition:

Si est une fonction croissante: FY ( y ) = FX ( g −1 ( y ))

Si est une fonction décroissante : FY ( y ) = 1 − FX ( g −1 ( y )) .


Une fonction de deux variables aléatoires :
On a deux VA X, Y (VA bidimensionnelles) et une fonction g ( X , Y ) , nous pouvons définir
une nouvelle variable aléatoire Z telle que : Z = g ( X , Y )
Noter Dz une région du plan x y tell que g ( x, y ) ≤ z
L’espérance mathématique de Y = g ( X ) est donnée par :

 +∞
 ∫ g ( x) p X ( x)dx X : continu

E[Y ] = E[ g ( X )] = − ∞
∑ g ( xk ) p X ( xk ) X : discret
 k

L’espérance mathématique de Z = g ( X , Y ) est donnée par :

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 20


 +∞ +∞
 ∫ ∫ g ( x, y ) p XY ( x, y )dxdy X : continu

E[ Z ] = E[ g ( X , Y )] = − ∞ − ∞
∑∑ g ( xi , y j ) p XY ( xi , y j ) X : discret
 j i

Pour N VA {X1,X2,….XN} et fonction de N VA continus.


 +∞ +∞
 ∫ ... ∫ g ( x1 , x2 ,..., x N ) p X 1 , X 2 ,..., X N ( x1 , x2 ,..., x N )dx1dx2 .....dx N X : continu

E[ g ( X 1 , X 2 ,..., X N )] = − ∞ − ∞
∑ ...∑ g ( xi , xi ,...., xi ) p X , X ,..., X ( xi , xi ,...., xi ) X : discret
i 1 2 N 1 2 N 1 2 N

 N i1

Quelques transformations courantes:


Transformation linéaire : Y = aX + b , a et b sont des constantes, la densité de probabilité
1  y −b
est: pY ( y ) = PX  .
a  a 

Transformation quadratique : Y = aX 2 , la densité de probabilité est :

1   y  
pY ( y ) =  PX   + PX  − y u ( y ) .
2 ay   a 
  a  
a a
Transformation hyperbolique : Y = a / X , la densité de probabilité : pY ( y ) = PX   .
2
y  y

Redresseur symétrique : Y = X , la densité de probabilité : pY ( y ) = [PX ( y ) + PX (− y )]u ( y ) .

Transformation en sinus : Y = a sin( X + θ ) , la densité de probabilité :

 +∞
1
 pY ( y ) = ∑ PX (xn ) y <a
 a2 − y2 n = −∞ .

0 sinon

1
Si PX est uniforme sur [0,2π ] et a=1, on trouve pY ( y ) =
π 1− y2

Chapitre 2. Les variables aléatoires (Enseignant F. Douak) 21

Vous aimerez peut-être aussi