Regression Analysis">
Jdjnmacs Comparaison2identification
Jdjnmacs Comparaison2identification
Jdjnmacs Comparaison2identification
entière
Stéphane Victor, Rachid R. Malti, Alain Oustaloup
sur
Résumé
la Deux méthodes
dénition de Grünwaldd'identication
de la dérivée nonnonentière, basées
entière, sont (coecients al et bm ) sont calculés à partir de l'inversion
comparées dans
deLa prédiction cet article.
à unpluspas,facile La première,
est plus minimisant
délicateen à÷uvre l'erreur
mettrecarenelle
÷uvre.
du changement de variables.
baséeseconde
sur la est
diérenciation à mettre
directe des signaux d'entrée estet A. Modèle discret
dediérence
sortie. entre
D'un lespointdeuxdeméthodes
vue miseréside
en ÷uvre, la principale
en compte ou non du dernier échantillon de la sortie.la prise
donc dans La discrétisation de l'équation (2) s'eectue en rempla-
çant les dérivées continues par une approximation discrète
D D D
L K µ ¶
a0 na0
y(t) + a1 na1
y(t) + . . . + aL naL y(t) =
X al X k nal
y(Kh) + (−1) y((K − k)h) =
b0 D nb0
D
u(t) + . . . + bM nbM u(t). (1) l=1
hnal
k=0
k
M K µ ¶
bm X k n bl
Pour des raisons évidentes d'identiabilité et sans aucune (4)
X
(−1) u((K − k)h).
perte de généralité, a0 est xé à 1 et na0 à 0, tout au long de m=0
hnbm k
k=0
l'article. Par ailleurs, les ordres de dérivation sont supposés
connus ou xés selon une connaissance a priori et seuls les Ce modèle est de dimension croissante avec le temps t =
coecients al et bm de l'équation diérentielle : Kh, car la dérivée non entière d'un signal dépend de tout
son passé (d'où la somme sur k). Lorsque le nombre de
y(t) + a1 D na1
D
y(t) + . . . + aL naL y(t) = données est important, la somme est souvent tronquée et
D
b0 nb0 u(t) + . . . + bM D nbM
u(t) (2) les paramètres estimés sur une fenêtre réduite.
La sortie du modèle à l'instant Kh (prédicteur à un pas)
sont estimés. s'exprime en fonction des entrées et des sorties passées en
isolant tous les termes y(Kh), correspondant à k = 0 de
II. Méthode Indirecte de Le Lay
(3), ce qui permet d'obtenir :
La méthode d'estimation indirecte de L. Le Lay et de
B. Mathieu [1], [2], [3] a été initialement développée à par- L K
tir de l'équation diérentielle (1), tout en imposant une al
¡na ¢
(−1)k
P P
h
na
l k
l y((K − k)h)
contrainte sur les coecients al , rendant l'identiabilité des y(Kh) = − l=1 k=1
+
al et bm possible. La présentation de cette méthode est sim-
L
P aj
1+ na
pliée dans cet article, en xant d'emblée a0 à 1 et na0 à 0 j=1
h j
bm
où (8) −Y1 ((K − 1)h) −YL ((K − 1)h)
b′m = L
0 ≤ m ≤ M, ···
. . .
aj Φ=
. . .
P
1+ h
na
j
. . .
−Y1 ((K + N − 1)h) · · · −YL ((K + N − 1)h)
j=1
U0 (Kh) UM (Kh)
(20)
D
···
y(Kh)
Yl ((K − 1)h) = nal
y(t)|t=Kh − na , (9) .
.
.
.
.
.
.
.
.
.
h l
U0 ((K + N )h) UM ((K + N )h)
et
···
Um (Kh) = D (10)
nbm
u(t)|t=Kh , L'erreur de prédiction s'écrit :
permettent de réécrire (6) sous une forme linéaire par rap-
port aux coecients a′l et b′m : ε(kh) = y(kh) − ŷ(kh). (21)
L M L'estimée optimale du vecteur des paramètres,
(11)
X X
y(Kh) = − a′l Yl ((K − 1)h) + b′m Um (Kh),
l=1 m=0 θˆ′ opt = argmin(JN (θ̂)), (22)
soit sous la forme matricielle : minimisant le critère quadratique de l'erreur de prédiction,
y(Kh, θ ) = ϕ(Kh)θ ,′ ′T
(12) JN (θ̂) = EN T EN (23)
avec θ′ = [a′1 ... a′L b′0 ... b′M ] et ϕ(Kh) le vecteur de régres-
où ENT
= ε(Kh) . . . ε((K + N h)) , est donnée par les
£ ¤
sion déni par :
moindres carrés :
ϕ(Kh) = [−Y1 ((K − 1)h) · · · − YL ((K − 1)h) θˆ′ opt = (ΦT Φ)−1 ΦT Y . (24)
U0 (Kh) · · · UM (Kh)]. (13)
D. Retour aux coecients de l'équation diérentielle
C. Estimation paramétrique du modèle discret
Le retour aux coecients al du modèle continu se fait
Le modèle typique considéré est de type ARX généralisé par la résolution du système linéaire suivant :
donné par l'équation diérentielle suivante :
D D
L M
(14) (a′1 h−na1 − 1) a′1 h−na2 ... a′1 h−naL
X X
nal nbm
y(t) + al y(t) = bm u(t) + e(t),
l=1 m=0
′ −na1
a2 h ′ −na2
(a2 h − 1) ... a′2 h−naL
. . ..
.
. .
. .
avec nal , nbm ∈ R et e(t) représentant un bruit stochas- ...
tique. a′L h−na1 a′L h−na2 . . . (a′L h−naL − 1)
Compte tenu de (6) ou (11), la sortie discrétisée du mo-
a1 −a′1
dèle ARX généralisé s'écrit : a2 −a′2
× . = .. , (25)
L
X M
X .. .
y(Kh) = − a′l Yl ((K − 1)h) + b′m Um (Kh) + e′ (Kh), aL −a′L
l=1 m=0
(15) les coecients bm s'exprimant alors directement par :
où
e(Kh)
(16)
à L
!
e′ (Kh) =
(26)
X
PL
al bm = b′m 1+ al h −nal
.
1+ n
h al l=1
l=1
E. Estimateur de la variable instrumentale Le vecteur de régression est déni par :
L'estimateur de la variable instrumentale, variante clas-
ϕ(Kh) = [−Y1 (Kh) · · · − YL (Kh)
sique de la méthode des moindres carrés, consiste à intro-
duire un vecteur ϕiv (Kh), tel que ses composantes soient U0 (Kh) · · · UM (Kh)]. (34)
susamment corrélées avec les composantes du vecteur de Là aussi, le modèle typique considéré est de type ARX
régression ϕ(Kh) et totalement décorrélées du bruit. Il en généralisé donné par l'équation diérentielle (14) que l'on
découle [4] : peut écrire sous la forme discrétisée :
E{ϕiv (Kh)ϕT (Kh)} est non singulière
½
L M
(27) X X
E{ϕiv (Kh)e(Kh)} = 0, y(Kh) = − al Yl (Kh) + bm Um (Kh) + e(Kh). (35)
l=1 m=0
où E{.} représente l'espérance mathématique.
L'écriture de l'équation (35) pour N + 1 points de me-
Les variables instrumentales sont généralement issues
sures entre Kh et (K + N )h conduit à la regression linéaire
du modèle auxiliaire, H(p, θ0 ), obtenu lors d'une première
suivante :
identication par moindres carrés linéaires :
Ŷ (θ̂) = Φθ̂ T , (36)
i
yiv (t, θi ) = H(p, θi )u(t) i = 0, . . . , Niter (28) avec
Ŷ = [ŷ(Kh) ... ŷ((K + N )h)]T (37)
Ainsi, le vecteur est formé conformément à (13) où les
ϕiiv
et
Yl sont remplacés par des Yl−iv
i
, calculés à partir de (9) où
la sortie bruitée du système y est remplacée par la sortie −Y1 (Kh) −YL (Kh)
···
du modèle auxiliaire yiv
i
. Le vecteur des paramètres, θ′i , est Φ=
.
.
.
.
.
.
. . .
ensuite estimé à partir de : −Y1 ((K + N )h) · · · −YL ((K + N )h)
U0 (Kh) ··· UM (Kh)
(38)
θˆ′i opt = (Φiv T Φ)−1 Φiv T Y . (29) .
.
.
.
.
. .
. . .
U0 ((K + N )h) ··· UM ((K + N )h)
L'estimation paramétrique est ensuite améliorée en cal-
culant de nouvelles variables instrumentales yiv i
pour i = Le critère quadratique à minimiser se formulant tou-
1, . . . Niter , à partir du nouveau modèle H(p, θi ) et en ité- jours de la même façon (voir (21) et (23)), la solution des
rant sur la variable i, jusqu'à convergence des coecients moindres carrés correspond à (29), où la nouvelle matrice
θi [5]. de régression s'écrit conformément à (38).
La méthode d'identication directe, basée sur les tra- An d'améliorer l'estimateur des moindres carrés de la
vaux de Cois [2], consiste à estimer les coecients al et méthode directe, en présence de bruit de sortie, là aussi la
bm de l'équation diérentielle (2), à partir des dérivées non variable instrumentale est utilisée conformément à la des-
entières de y(t) et de u(t), calculées directement par la for- cription du paragraphe II-E. La seule modication consiste
mule de Grünwald : à calculer Yl−iv
i
conformément à la méthode directe et à
l'équation (31).
L
X M
X
y(Kh) = − al Yl (Kh) + bm Um (Kh), (30) IV. Comparaison des Méthodes d'Identification
b1 s0.6 + b0
H(s) = . (40) 0.8
a2 s1.2 + a1 s0.6 + 1
0.6
0.2
0
0.5
−0.2
uid
0
−0.4
−0.5
−0.6
5 6 7 8 9 10
temps (s) −0.8 modèle indirect
système réel
−1
5 6 7 8 9 10
0.5 temps (s)
yid
0
Fig. 2. Comportement dynamique de yid par rapport à uid
−0.5
Gain dB
0.4
0.6
0.2
0.4 0
−2 −1 0 1 2 3 4
10 10 10 10 10 10 10
0.2 fréquence (rd/sec)
50
0
Phase (deg)
0
−0.2
−0.4 −50
système réel
modèles directs
−0.6 −100
−2 −1 0 1 2 3 4
10 10 10 10 10 10 10
fréquence (rd/sec)
−0.8 modèle direct
système réel
−1
5 6 7 8 9 10
Fig. 5. Simulation par Méthodes Variables Instrumentales Directes
temps (s) par Monte Carlo
Fig. 3. Comportement dynamique de yid par rapport à uid Paramètres Estimateur IV direct Estimateur IV indirect
vrais VM ET VM ET
a1 0.63192 0.6599 0.1262 0.6599 0.1175
diérentes de rapport signal sur bruit de 20dB. Les 100 a2 0.09563 0.0993 0.0166 0.0990 0.0155
modèles estimés sont comparés au vrai système (39) sur les b0 0.20000 0.1924 0.0326 0.1947 0.0312
diagrammes de Bode des g 4 et 5. b1 0.40384 0.4213 0.0784 0.4205 0.0730
Réponse fréquentielle du modèle identifié par VI indirecte et du système réel TABLE I
0.8
Tableau de synthèse après simulations par Monte Carlo ;
0.6 VM=Valeur moyenne ; ET=Ecart-type
Gain dB
0.4
0.2
0
10
−2
10
−1
10
0
10être établie à travers les équations (6) et (30). La méthode
1
fréquence (rd/sec)
2
10 10
3
10
4
50
indirecte minimise l'erreur de prédiction à un pas ; elle est
plus délicate à mettre en ÷uvre ; et ne prend pas en compte
le dernier échantillon de la sortie lors de l'estimation para-
Phase (deg)