[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
922 vues10 pages

Statistiques Exhaustives et Estimation dans Diverses Lois de Probabilité

Transféré par

samyalovely1
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
922 vues10 pages

Statistiques Exhaustives et Estimation dans Diverses Lois de Probabilité

Transféré par

samyalovely1
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 10

Université Mohammed V-Agdal Printemps 2022

Faculté des Sciences MSE


Département de Mathématiques Statistique Inférentielle
Série 2
Exercice1.
1. Soit 𝑿 = (𝐗 𝟏 , … , 𝐗 𝐧 ) un n-échantillon de loi 𝓤[𝐚,𝐛] avec a < b.
Donner la densité de la loi conjointe de cet échantillon et montrer que (𝐗 (𝟏) , 𝐗 (𝐧) ) est une
statistique exhaustive pour (a, b).
1
Soit (x1 , … , xn ) ∈ ℝn on a : fX (x1 , … , xn ) = ∏ni=1 fXi (xi ) = ∏ni=1 b−a 𝕀[a,b] (xi )
1 n 1 n
= (b−a) ∏ni=1 𝕀[a,b] (xi ) = (b−a) 𝕀[a,b] (x(1) )𝕀[a,b] (x(n) )
La densité jointe s’écrit alors : fX (x1, … , xn ) = h(x1 , … , xn )g (a,b) (x(1) , x(n) )
1 n
Avec h(x1 , … , xn ) = 1 et g (a,b) (x, y) = (b−a) 𝕀[a,b] (x)𝕀[a,b] (y)
D’où d’après le théorème de factorisation T(X) = (X(1) , X (n) ) est une statistique exhaustive pour
(a, b).

2. Soit 𝐗 𝟏 , … , 𝐗 𝐧 un échantillon de taille n issu de la loi 𝓤[𝛉−𝟏,𝛉+𝟏]


𝟐 𝟐

Déterminer une statistique exhaustive pour le paramètre θ.


1 1
En faisant le même raisonnement que dans 1. avec [a, b] = [θ − 2 , θ + 2], on obtient :
n

fX (x1 , … , xn ) = ∏ fXi (xi ) = 𝕀[θ−1,θ+1] (x(1) )𝕀[θ−1,θ+1] (x(n) )


2 2 2 2
i=1
Et T(X) = (X(1) , X (n) ) est une statistique exhaustive pour θ.
Remarque : On remarque qu’on a une statistique à 2 composantes pour un paramètre unitaire.
Exercice2.
On considère une variable aléatoire X suivant une loi de Pareto de paramètres α > 1 et
θ > 0 admettant une densité de la forme
𝐟𝐗 (𝐱, 𝛂, 𝛉) = (∝ −1)θ∝−1 𝐱 −𝛂 𝕝[𝛉,+∞[ (𝐱)
Soit 𝐗= (𝐗 𝟏 , … , 𝐗 𝐧 ) un n-échantillon de X.
Donner une statistique exhaustive pour (α, θ).
Soit x = (x1 , … , xn ) ∈ ℝn
n n −α
n n(∝−1)
f X (x1 , … , xn ) = ∏ fXi (xi , α, θ) = (∝ −1) θ (∏ xi ) 𝕝[θ,+∞[ (x(1) )
i=1 i=1
=h(x)g (α,θ) (∏ni=1 xi , x(1) )
Avec g (α,θ) (x, y) = (∝ −1)n θn(∝−1) x −α 𝕝[θ,+∞[ (y) et h(x) = 1
Ainsi d’après le théorème de factorisation T(X) = (∏ni=1 Xi , X (1) ) est une statistique exhaustive
pour (α, θ).

1
Exercice3.
Soit 𝐗 𝟏 , … , 𝐗 𝐧 un n-échantillon issu de la loi exponentielle de moyenne θ.
1. Montrer que la statistique 𝐓(𝐗) = ∑𝐧𝐢=𝟏 𝐗 𝐢 est exhaustive et complète pour θ.
1 x
fX (θ) = e−θ 𝕝]𝟎,+∞[ (𝐱) = h(x)c(θ)exp[w(θ)t(x)]
θ
D’où la loi exponentielle appartient à une famille exponentielle et T(X) = ∑ni=1 t(Xi ) = ∑ni=1 Xi
est une statistique exhaustive complète pour le paramètre θ.
𝐗𝐧
2. Montrer que la statistique 𝐒(𝐗) = 𝐗 est libre.
𝟏 +⋯+𝐗 𝐧

∀i ∈ {1,2, … , n} , on a: FXi (θ) = FXi (xθ) ⟹ fXi (θ) = θfXi (xθ) = e−x 𝕝]𝟎,+∞[ (𝐱)
θ θ
Xi Xi
Donc ~ℇ(1) , la loi de ne dépend pas de θ (On dit que 𝛉 est un paramètre d’échelle).
θ θ
X1 Xn
Les Xi étant toutes indépendantes donc +⋯+ ~ℇ(n),
θ θ
Xn
Xn θ
Donc la loi de S(X) = X = X1 X ne dépend pas de θ ainsi S(X) est libre.
1 +⋯+Xn
θ
+⋯+ θn
𝐗𝐧
3. En déduire 𝐄 [𝐗 ].
𝟏 +⋯+𝐗 𝐧

On a Xn = S(X)T(X), or S(X) et T(X) sont indépendantes car une statistique libre est
indépendante de toute statistique exhaustive complète (Théorème de Basu), donc :
E(Xn ) θ 1
E(Xn ) = E(S(X))E(T(X)) ⟺ E(S(X)) = = =
E(T(X)) nθ n

Exercice4.
Soit X une variable aléatoire suivant une loi 𝓝(𝛍, 𝟏) et soit 𝐗 𝟏 , … , 𝐗 𝐧 un n-échantillon de
X.
1) Montrer que la variance empirique 𝐒𝐧𝟐 et l’étendue 𝐗 (𝐧) − 𝐗 (𝟏) sont des statistiques libres
pour le paramètre µ.
D’après le théorème de Fisher on a : (n − 1)Sn2~χ2 (n − 1) ne dépend pas de μ
D’où la loi de Sn2 ne dépend pas de μ donc 𝐒𝐧𝟐 est libre.
D’autre part on pose : 𝐙𝐢 = 𝐗 𝐢 − 𝛍~ 𝓝(𝟎, 𝟏) ne dépend pas de μ
(On dit que 𝛍 est un paramètre de position)
On a : Z(n) − Z(1) = X (n) − X (1) et la loi de Z(n) − Z(1) ne dépend pas de μ
donc 𝐗 (𝐧) − 𝐗 (𝟏) est libre.
2) Donner la loi de la moyenne empirique 𝐗 ̅ 𝐧 et montrer que cette statistique est exhaustive
complète pour µ.
̅n ~ 𝒩 (μ, 1 ), la loi 𝒩(μ, 1) appartient à une famille exponentielle, en effet :
X 𝑛
1 1
f X (x, μ) = exp [− (x − μ)2 ]
√2Π 2
1 1 μ2 x
= exp [− 2 x 2 ] exp [ 2 ] exp [nμ n] = h(x)c(μ)exp[w(μ)t(x)]
√2Π
X
D’où T(X) = ∑ni=1 t(Xi ) = ∑ni=1 𝑛i = ̅
X n est une statistique exhaustive complète pour µ.
3) Retrouver l’indépendance de 𝐗 ̅ 𝐧 et 𝐒𝐧𝟐 .
D’après le théorème de Basu (une statistique exhaustive complète est indépendante de toute
statistique libre), ̅
Xn et Sn2 sont indépendantes.
2
Exercice5.
Soit 𝐗 = (𝐗 𝟏 , … , 𝐗 𝐧 ) un échantillon aléatoire issu d’une loi de densité
(𝐤 + 𝟏)𝐱 𝐤
𝐟(𝐱, 𝛉) = 𝕝]𝟎,𝛉] (𝐱)
𝛉𝐤+𝟏
𝐨ù 𝛉 > 𝟎 est un paramètre inconnu et le paramètre k>-1 est connu.
1- Déterminer un estimateur 𝛉 ̂ du paramètre 𝛉 par la méthode du maximum de vraisemblance et
étudier ses propriétés.
L’estimateur θ̂ du paramètre θ par la méthode du maximum de vraisemblance est la valeur de θ qui
maximise la fonction de vraisemblance 𝐿(x1 , … , xn , θ)
On a:
n n
(k + 1)n
L(x1 , … , xn , θ) = ∏ f(xi , θ) = n(k+1) ∏ xik 𝕝[x(n),+∞[ (θ) ≤ L(x1 , … , xn , x (n) )
θ
i=1 i=1
D’où
θ̂ = X (n)
est un estimateur du paramètre θ par la méthode du maximum de vraisemblance (EMV).
On a besoin de la loi de θ̂ pour calculer son espérance.
On cherche sa fonction de répartition Fθ̂ puis on la dérive pour obtenir sa fdp fθ̂ .
Fθ̂ (𝑥) = 𝑃(X(n) ≤ 𝑥) = 𝑃(X1 ≤ 𝑥, … , Xn ≤ 𝑥)
𝑛
=∏ni=1 𝑃(Xi ≤ 𝑥) = (𝑃(X1 ≤ 𝑥)) (les Xi sont indépendantes et identiquement distribuées) (iid).
𝑛
= (FX1 (𝑥))
𝑛−1
D’où fθ̂ (𝑥) = 𝑛 (FX1 (𝑥)) 𝑓X1 (𝑥)
Or
0 si x < 0
k+1
FX1 (x) = {( x ) si 0 ≤ x ≤ θ
θ
1 si x > θ
Donc
𝑥 (𝑛−1)(𝑘+1) (k + 1)x k 𝑛(k + 1)x 𝑛(𝑘+1)−1
fθ̂ (𝑥) = 𝑛 ( ) 𝕝]0,θ] (x) = 𝕝]0,θ] (x)
𝜃 θk+1 θ𝑛(𝑘+1)
On pose m=n(k+1) -1
Alors
(m + 1)x m
fθ̂ (𝑥) = 𝕝]0,θ] (x)
θm+1
et
θ (m θ
+ 1)x m m + 1 x m+2 m+1
̂
E(θ) = ∫ x dx = [ ] = θ (∗)
0 θm+1 θm+1 m + 2 0 m + 2
E(θ̂ ) ≠ 𝜃 donc l’estimateur θ̂ est biaisé.
2 2
𝑉𝑎𝑟θ̂ = E (θ̂ ) − (E(θ̂ ))
θ 𝜃
2 (m + 1)x m 𝑚 + 1 x m+3 𝑚+1 2
E (θ̂ ) = ∫ 𝑥 2 𝑑𝑥 = [ ] = 𝜃 (∗∗)
0 θm+1 θm+1 𝑚 + 3 0 𝑚 + 3
m+1 2 m+1 m+12 n(k+1)
Varθ̂ = θ −( θ) = (m+3)(m+2)2 θ2 = (n(k+1) θ2 .
m+3 m+2 +2)(n(k+1) +1)2

̂𝟏 de 𝛉.
2- En déduire un estimateur sans biais 𝛉
𝑚+2 ̂
L’estimateur θ̂1 = θ
est sans biais pour 𝜃.
𝑚+1
3- Déterminer un estimateur 𝛉̂𝟐 du paramètre 𝛉 par la méthode des moments et étudier ses
propriétés.
On a d’après (∗) :
θ (k
+ 1)x k k+1
E(X) = ∫ x dx = θ
0 θk+1 k+2

3
k+2
⟹θ= E(X) = g(E(X))
k+1

k+2
⟹ θ̂ 2 = g(X
̅) = ̅
X est un estimateur du paramètre θ par la méthode des moments (EMM).
k+1
k+2 k+2
E(θ̂ 2 ) = ̅) =
𝐸(X 𝐸(X) = 𝜃
k+1 k+1
Donc l’estimateur θ̂ 2 est sans biais pour 𝜃.
k+2 2 k + 2 2 VarX k+2 2 k+1 1
Varθ̂ 2 = ( ̅=(
) VarX ) =( ) 2 θ2 = θ2
k+1 k+1 n k + 1 n(k + 3)(k + 2) n(k + 1)(k + 3)
̂ 𝟏 et 𝛉
4- Comparer au sens de l’EMQ les estimateurs 𝛉 ̂𝟐 .

Les estimateurs θ̂1 et θ̂ 2 étant non biaisés donc pour les comparer au sens de l’EMQ il suffit de comparer
leur variance.
m+2 2 m+2 2 m+1 1
̂
Varθ1 = ( ̂
) Varθ = ( ) θ2 = θ2
m+1 m + 1 (m + 3)(m + 2)2 n(k + 1)(n(k + 1) + 2)
1
et Varθ̂ 2 = n(k+1)(k+3) θ2

1 1
Varθ̂1 − Varθ̂ 2 = θ2 − θ2
n(k + 1)(n(k + 1) + 2) n(k + 1)(k + 3)
θ2 θ2 (1 − n)(k + 1) θ2 (1 − n)
= [k + 3 − n(k + 1) − 2] = = <0
n(k + 1) n(k + 1) n
D’où l’estimateur θ̂1 est meilleur que θ̂ 2 au sens de l’EMQ.
Exercice6.
Soit X une variable aléatoire, modélisant la durée de vie d’un certain équipement, ayant pour
densité de probabilité :

𝟏 √𝐱
𝐟𝛉 (𝐱) = 𝐞𝐱𝐩 (− ) 𝕝 ∗ (𝐱)
𝟐𝛉√𝐱 𝛉 ℝ+

Où 𝛉 est un pramètre inconnu strictement positif.


Nous disposons d’un n-échantillon 𝐗 𝟏 , … , 𝐗 𝐧 issu de la même loi que X.
1. Montrer que la loi de X appartient à une famille de type exponentielle et en déduire une statistique
exhaustive et complète pour θ. On la notera Y.
On a:
1 √x
fθ (x) = exp (− ) 𝕝 ∗ (x) = C(θ)h(x)exp(w(θ)t(x))
2θ√x θ ℝ+
1 1 1
Avec C(θ) = 2θ , h(x) = 𝕝 ∗ (x) , w(θ) = − θ et t(x) = √x ,
√x ℝ+

Donc fθ appartient à une famille de type exponentielle et Y= ∑𝑛𝑖=1 √x𝑖 une statistique exhaustive
complète pour θ.
2. Établir que Y suit une loi gamma dont on précisera les paramètres.

On pose : Yi = √Xi , on cherche la loi de Yi ,


si y ≤ 0 : FYi (y) = P(Yi ≤ y) = 0
Si y > 0: FYi (y) = P(Yi ≤ y) = P(Xi ≤ y 2 ) = FXi (y 2 )
1 y
Donc : fYi (y) = 2yfθ (y 2 ) = θ exp (− θ)
1 y
D’où : fYi (y) = 2yfθ (y 2 ) = θ exp (− θ) 𝕝ℝ∗+ (x)
1 1 1
Donc Yi ~ℰ (θ) = γ (1, θ) ⇒ Y = ∑ni=1 √xi ~γ (n, θ)
4
car la somme de n v.a iid de loi γ(αi , β) suit la loi γ(∑ni=1 αi , β)

3. Déterminer l’estimateur T du maximum de vraisemblance de θ.

Soit x = (x1 , … , xn ) tel que x(1) ∈ ℝ∗+


1 ∑ni=1 √xi
L(x, θ) = exp (− )
(2θ)n ∏ni=1 √xi θ
n n
1
LogL(x, θ) = −nLogθ − nLog2 − ∑ Log√xi − ∑ √xi
θ
i=1 i=1
n
∂ n 1
LogL(x, θ) = − + 2 ∑ √xi
∂θ θ θ
i=1
n
∂ 1
LogL(x, θ) = 0 ⟺ θ = θ̂ = ∑ √xi
∂θ n
i=1
D’autre part :
n
∂2 n 2 n 2 n
LogL(x, θ̂) = 2 − 3 ∑ √xi = 2 − 3 𝑛θ̂ = − 2 < 0
∂θ 2 ̂
θ ̂
θ i=1 ̂
θ ̂
θ ̂
θ
D’où :
1
T = ∑ni=1 √Xi = est l’EMV.
n
4. Montrer de deux manières différentes que T est l’ESBVM pour θ.
Y
1. On a : E(Y) = nθ d’oùT= n est un estimateur sans biais (ESB) pour θ,
Et comme Y est une statistique exhaustive complète pour θ, d’après le théorème de Lehmann
Scheffé :
Y Y
E[T/Y] = E [ /Y] = = T est l’unique ESBVM pour θ.
n n
2. D’après 2) c) T ESB pour θ
T est efficace ⟺ VarT = BCR( la borne de Cramer Rao)
On a:
Var√X1 θ2 1
VarT = = , (√X1 ~ℰ ( ))
n n θ
D’autre part :
2

I1 (θ) = E [( Logfθ (x)) ]
∂θ

√x
Logfθ (x) = −Logθ − Log2√x −
θ
∂ 1 √x
Logfθ (x) = − + 2
∂θ θ θ
D’où :
2
1 √X √X 1 √X 1
I1 (θ) = E [(− + ) ] = 𝑉𝑎𝑟 = Car E( 2 ) =
θ θ2 θ2 θ2 θ θ
Donc
n 1
In (θ) = 2 =
θ BCR
et
VarT = BCR
D’où T est efficace donc T est l’unique ESBVM pour θ
Exercice7.
On considère le modèle d’échantillonnage 𝐗 𝟏 , … , 𝐗 𝐧 de taille n associé à la famille de lois de
Poisson 𝓟 = {𝓟(𝛉), 𝛉 > 𝟎 }.
1. ̂𝐧 de 𝛉?
Calculer l'estimateur du maximum de vraisemblance 𝛉

5
θx
Pθ (X1 = x) = e−θ , x∈ℕ
x!

Soit x = (x1 , … , xn ) ∈ ℕn
n n
θ∑i=1 xi
L(x, θ) = ∏ Pθ (X = xi ) = e−nθ
∏ni=1 xi !
i=1

n n n

LogL(x, θ) = −nθ + (∑ xi ) Logθ − Log (∏ xi !) = −nθ + nxLogθ − Log (∏ xi !)


i=1 i=1 i=1
∂ nx
LogL(x, θ) = −n +
∂θ θ

LogL(x, θ) = 0 ⟺ θ = θ̂ = x
∂θ
D’autre part :
∂2 n n
LogL(x, θ̂) = − 2 x = − < 0
∂θ 2
θ̂ θ̂
D’où :
θ̂n = X est l’EMV.
On a :
E(θ̂n ) = E(X) = E(X1 ) = θ
Donc θ̂n est un ESB pour θ.

2. Montrer qu'il est sans biais et efficace. Conclure.


θ̂n est efficace ⟺ Varθ̂n = BCR( la borne de Cramer Rao)
On a:
VarX1 θ
Varθ̂n = = ,
n n
Calculons l’information de Fisher :
2

I1 (θ) = E [( LogPθ (X1 = x)) ]
∂θ
θx
LogPθ (X1 = x) = Loge−θ = −θ + xLogθ − Log(x!)
x!
∂ x
LogPθ (X1 = x) = −1 +
∂θ θ
D’où :
X1 2 1 1
I1 (θ) = E [(−1 + ) ] = θ2 E[(X1 − θ)2 ] = θ Car E(X1 ) = θ
θ
Donc
n 1
In (θ) = nI1 (θ) = =
θ BCR
et
Varθ̂n = BCR
D’où θ̂n est efficace donc θ̂nest l’unique ESBVM pour θ.
On cherche à estimer 𝐞−𝛉 .
3. Montrer que 𝐓 = ∑𝐧𝐢=𝟏 𝐗 𝐢 est une statistique exhaustive et complète pour 𝛉.
La loi de Poisson appartient à une famille de type exponentielle, en effet :
−θ
θx
(X
Pθ 1 = x) = e = C(θ)h(x)exp(w(θ)t(x))
x!
1
Avec C(θ) = 𝑒 −𝜃 , h(x) = , w(θ) = Logθ et t(x) = x.
𝑥!

donc T = ∑ni=1 Xi est une statistique exhaustive et complète pour θ


4. Montrer que 𝕝{𝐗𝟏 =𝟎} est un estimateur sans biais pour 𝐞−𝛉 .

6
On a :
E( 𝕝{X1=0} ) = P(X1 = 0) = e−θ
Donc 𝕝{X1=0} est un ESB pour 𝑒 −𝜃

5. Déterminer l’ESBVM pour 𝐞−𝛉 .

D’après le théorème de Lehmann-Scheffé :

Sn = E[ 𝕝{𝐗𝟏 =𝟎} /T] est l’unique ESBVM pour 𝑒 −𝜃 .


D’autre part on a :
P(X1 = 0, T = k) P(X1 = 0, ∑ni=2 Xi = k)
E[ 𝕝{𝐗𝟏 =𝟎} ∕ T = k] = P(X1 = 0 ∕ T = k) = =
P(T = k) P(T = k)
P(X1=0).P(∑n
i=2 Xi =k)
= , (X1 et ∑ni=2 Xi sont indépendantes)
P(T=k)
Or
n n

T = ∑ Xi ~ 𝒫(nθ) et ∑ Xi ~ 𝒫((n − 1)θ)


i=1 i=2
D’où
k
((n − 1)θ) k! 1 k
E[ 𝕝{𝐗𝟏 =𝟎} ∕ T = k] = e−θ . e−(n−1)θ . −nθ = (1 − )
k! e (nθ)k n
1 T
Ainsi Sn = (1 − n) est l’unique ESBVM pour e−θ.

Exercice8.
Soit 𝐗 une variable aléatoire de loi de densité
𝐚 𝐚−𝟏
𝐟𝛉 (𝐱) = 𝐱 𝕀]𝟎,𝛉[ (𝐱),
𝛉𝐚
𝐚 𝐞𝐭 𝛉 𝐝𝐞𝐮𝐱 𝐩𝐚𝐫𝐚𝐦è𝐭𝐫𝐞𝐬 𝐩𝐨𝐬𝐢𝐭𝐢𝐟𝐬
I. 1. Calculer l’espérance et la variance de X
θ θ
a a−1 a θ a a x a+1 a
E(X) = ∫ x a x dx = a ∫ x dx = a [ ] = θ
0 θ θ 0 θ a+1 0 a+1
θ θ
a a−1 a θ a+1 a x a+2 a
E(X 2 )
=∫ a xx2dx = a ∫ x dx = a [ ] = θ2
0 θ θ 0 θ a + 2 0
a + 2
a a 2 a
⟹ VarX = E(X 2 )−[E(X)]2 = θ2 − [ θ] = θ2
a+2 a+1 (a + 2)(a + 1)2
2. soit 𝐗 𝟏 , … , 𝐗 𝐧 un n-échantillon issu d’une population de même loi que la loi de X.
Donner une statistique exhaustive pour (𝐚, 𝛉).
On a :
𝑛 𝑛 𝑎−1
a𝑛
fθ (x1 , … , xn ) = ∏ fθ (x𝑖 ) = na (∏ x𝑖 ) 𝕀]0,θ[ (x(𝑛) ) = g (a,θ) (T(𝑥))ℎ(𝑥)
θ
𝑖=1 𝑖=1
a𝑛
Avec ℎ(𝑥) = 1 et g (a,θ) ((𝑡1 , 𝑡2 )) = θna 𝑡1𝑎−1 𝕀]0,θ[ (𝑡2 )

Donc d’après le théorème de factorisation la statistique T(𝑋) = (∏𝑛𝑖=1 X𝑖 , X(𝑛) ) est exhaustive pour
(a, θ).
II. On suppose a connu et 𝛉 inconnu. Exercice 3 avec k+1=a

𝐚 (𝐤+𝟏)𝐱 𝐤
𝐟𝛉 (𝐱) = 𝛉𝐚 𝐱 𝐚−𝟏 𝕀]𝟎,𝛉[ (𝐱) même loi que l’ex3 avec k+1=a (𝐟(𝐱, 𝛉) = 𝕝]𝟎,𝛉] (𝐱))
𝛉𝐤+𝟏
̂𝟏 pour 𝛉. Est-il biaisé ? Calculer sa variance.
1. Déterminer l’estimateur des moments 𝛉
2. Déterminer l’estimateur du maximum de vraisemblance 𝛉 ̂𝟐 pour 𝛉. Est-il biaisé ? Si oui en
̂ 𝟑 pour 𝛉. Calculer sa variance.
déduire un estimateur sans biais 𝛉

7
̂𝟏 et 𝛉
3. Comparer au sens de l’erreur moyenne quadratique les 2 estimateurs 𝛉 ̂𝟑 . Lequel choisirez-
vous ?
III. On suppose 𝛉 connu et a inconnu.
1. Déterminer l’estimateur du maximum de vraisemblance 𝐓𝟏 pour a.
𝐚
𝐟𝐚 (𝐱) = 𝐚 𝐱 𝐚−𝟏 𝕀]𝟎,𝛉[ (𝐱)
𝛉
Soit x = (x1 , … , xn ) ∈ ]0, θ[𝑛
n n
an
L(x1 , … , xn , a) = ∏ f(xi , a) = na ∏ xi𝐚−𝟏
θ
i=1 i=1
n

LogL(x, a) = −naLogθ + nLoga + (a − 1) ∑ Logxi


i=1
n
∂ n
LogL(x, a) = −nLogθ + + ∑ Logxi
∂a a
i=1
∂ 𝑛 −n
LogL(x, a) = 0 ⟺ a = â = =
∂a nLogθ − ∑i=1 Logxi ∑n Ln xi
n
i=1 θ
D’autre part :
∂2 n
2
LogL(x, â) = − 2 < 0
∂a â
D’où :
−n
T1 = Xi est l’EMV.
∑n
i=1 Ln θ
2. Montrer que la loi de X appartient à une famille exponentielle
𝐚 𝒙 𝒂−𝟏
𝐟𝐚 (𝐱) = ( ) 𝕀]𝟎,𝛉[ (𝐱) = C(a)h(x)exp(w(a)t(x))
𝛉 𝜽
𝐚 xi
C(a) = , h(x) = 𝕀]𝟎,𝛉[ (𝐱) , w(a) = 𝑎 − 1 , t(x) = Ln
𝛉 θ
Donc la loi de X appartient à une famille exponentielle
𝟏 𝐗
3. En déduire que 𝐔 = − 𝐧 ∑𝐧𝐢=𝟏 𝐋𝐧 𝛉𝐢 est une statistique exhaustive complète pour θ.
1 X
D’après ce qui précède U = − n ∑ni=1 Ln θi est une statistique exhaustive complète pour θ.
4. Déterminer l’unique ESBVM pour a et calculer sa variance. Est- il convergent ?
X
On cherche la loi de Ln θi
X
F = ℙ (−Ln ≤ u) = ℙ(X ≥ θe−u ) = 1 − FX (θeu )
X (u)
Ln
θ θ
X
f X (u) = θe−u fa (θe−u ) = ae−au 𝕀]𝟎,+∞[ (u) ⟹ −Ln ~ℰ(a)
Ln
θ θ
D’où
Xi
− ∑ni=1 Ln ~Γ(n, a) (*)
θ

On a :
+∞
−n n an −au n−1 nΓ(n − 1) +∞ an−1
E(T1 ) = E ( )=∫ e u du = a ∫ e−au un−2 du
n Xi u Γ(n) Γ(n) Γ(n − 1)
∑i=1 Ln 0 0
θ
nΓ(n − 1) an
E(T1 ) = a =
Γ(n) n−1
𝑛−1
Donc T2 = 𝑛 T1 =est un ESB pour a.
Ainsi d’après lehmann-scheffé
1−n
E[T2 /U] = T2 = Xi est l’ESBVM pour a.
∑n
i=1 Ln θ

5. Est-il efficace ?
8
n−1 2
𝐕𝐚𝐫T2 = ( ) 𝐕𝐚𝐫T1
n

2
+∞
−n n 2 an −au n−1
E(T12 ) = E (( ) )=∫ ( ) e u du
X u Γ(n)
∑ni=1 Ln i 0
θ
n2 Γ(n − 2) +∞ an−2 a2 n2
= a2 ∫ e−au un−3 du =
Γ(n) 0 Γ(n − 2) (n − 1)(n − 2)
D’où
a2 n2 1 1 a2 n2
𝐕𝐚𝐫T1 = ( − )=
(n − 1) n − 2 n − 1 (n − 1)2 (n − 2)
2
𝑛−1 a2
𝐕𝐚𝐫T2 = ( ) 𝐕𝐚𝐫T1 =
𝑛 (n − 2)
D’autre part :

2 n 2 n
∂ n Xi Xi 𝑛
𝐼𝑛 (𝑎) = 𝐸 [( LogL(X, a)) ] = E [(− − ∑ Ln ) ] = 𝑉𝑎𝑟 (− ∑ Ln ) = 2
∂a a θ θ a
i=1 i=1
a2
BCR = ≠ VarT2
n
T2 n’est pas efficace

Exercice9. Soit X le nombre annuel de sinistres d’une police d’assurance choisie au hasard dans
un portefeuille. On suppose que la loi de X est la loi de Poisson P(λ), 𝛌 > 𝟎, et que le
paramètre λ est lui-même une réalisation d’une v.a. Λ de loi Gamma𝚪(𝛂, 𝛃), 𝛂 , 𝛃 ∈ ℝ, qui est la
loi a priori du paramètre 𝛌.
Soit 𝐗 = (𝐗 𝟏 , … , 𝐗 𝐧 ) un échantillon aléatoire de X
1. Déterminer la loi a posteriori de 𝛌.
Soit f(x /λ) la vraisemblance de l’échantillon, on a :
n n
λ∑i=1 xi
f(x /λ) = ∏ Pλ (X = xi ) = e−nλ
∏ni=1 xi !
i=1

La densité de la loi à priori est donnée par :


βα α−1 −βλ
Π(λ) = λ e 𝕀]0,+∞[ (λ)
Γ(α)
La loi jointe est donc :
n
λ∑i=1 xi βα α−1 −βλ
f(x , λ) = f(x /λ)Π(λ) = e−nλ λ e 𝕀]0,+∞[ (λ)
∏ni=1 xi ! Γ(α)
n
βα −(n+β)λ λ∑i=1 xi+α−1
f(x , λ) = e 𝕀 (λ)
Γ(α) ∏ni=1 xi ! ]0,+∞[
Et la prédictive s’écrit :
+∞ +∞
βα 1 n
f(x) = ∫ f(x , λ)dλ = ∫ e−(n+β)λ λ∑i=1 xi +α−1 dλ
0 Γ(α) ∏ni=1 xi ! 0

βα 1 Γ(∑ni=1 xi + α)
f(x) =
Γ(α) ∏ni=1 xi ! (n + β)∑ni=1 xi+α
Ainsi la loi à posteriori a pour expression :

9
n
(n + β)∑i=1 xi+α −(n+β)λ ∑n x +α−1
f(x , λ)
Π(λ/x) = = e λ i=1 i 𝕀]0,+∞[ (λ)
f(x) Γ(∑ni=1 xi + α)
Il s’agit d’une loi gamma de paramètres (∑ni=1 xi + α , n + β )
3. En déduire un estimateur pour𝛌.
Un estimateur pour λ est donné par :
∑ni=1 Xi + α
E(Π(λ/X)) =
n+β

10

Vous aimerez peut-être aussi