Mathematics">
[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
142 vues72 pages

Chapitre 1 - Systèmes Classification Et Modélisation

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 72

Chapitre 1

DEFINITIONS, CLASSIFICATION ET
MODELISATION DES SYSTEMES LINEAIRES

I. SYSTEMES

1. Définition :
Un système est un ensemble isolé de dispositifs
orientés, qui établit un lien de cause à effet entre des signaux
d’entrée (appelés excitations) et des signaux de sortie
(appelés réponses ou mesures). Ces deux types de signaux
peuvent se distinguer aisément, dans la mesure où les
excitations sont des grandeurs indépendantes (leurs valeurs
peuvent être choisies indépendamment les unes des autres),
tandis que les réponses sont généralement liées les unes aux
autres. De plus, il est souvent nécessaire de distinguer les
excitations sur lesquelles l’utilisateur peut agir, appelées
commandes, de celles qui ne peuvent être maîtrisées,
appelées perturbations.
Fig.1.1

Cette définition regroupe bien évidemment une très


grande variété de phénomènes physiques.
Un système est aussi un modèle mathématique d’un
processus physique qui relie le signal d’entrée (excitation ou
cause) au signal de sortie (réponse ou effet).
De façon générale, la relation de cause à effet qui lie
la commande x(t) et la mesure y(t) peut être vue comme une
transformation de x(t) en y(t). Cette transformation peut être
représentée par le symbole mathématique : = ou T est
l’opérateur représentant les règles bien définies par lesquelles
x est transformé en y.

Fig.1.2 système scalaire (a) et système multi variables (b)

Comme pour les signaux, quelques caractéristiques


supplémentaires permettent également de préciser la nature
des systèmes étudiés.
Un système peut consister en des composants
physiques (réalisation matérielle ou hardware realisation en
anglais) ou en un algorithme qui calcule le signal de sortie en
fonction du signal d’entrée (réalisation logicielle ou software
realisation).
De façon plus pratique, un système physique consiste
en des composants interconnectés, qui sont caractérisés par
leurs relations aux bornes. En plus, un système est gouverné
par des lois d’interconnexions. Par exemple, dans un système
électrique, les relations aux bornes sont les relations
familières tension-courant pour les résistances, les
inductances, condensateurs, transformateurs, transistors et
ainsi de suite, de même que les lois d’interconnexion (lois de
Kirchhoff). En utilisant ces lois, on obtient des équations
mathématiques qui lient les sorties aux entrées. Ces
équations représentent un modèle mathématique du
système. Ainsi on peut considérer qu’un système est défini par
ses entrées, ses sorties et son modèle mathématique.
L’étude des systèmes consiste en trois axes majeurs :
la modélisation mathématique, l’analyse et la conception.
Même si nous allons utiliser la modélisation mathématique,
notre travail sera principalement orienté analyse et
conception. En fait, la grande partie de ce livre est dévolue au
problème d’analyse, comment déterminer les sorties d’un
système pour une entrée donnée et un modèle mathématique
du système. Nous allons aussi considérer l’approche
conception ou synthèse, comment construire un système qui
produira un ensemble de sorties en fonctions de certaines
entrées données.
2. Donnée nécessaire pour calculer la réponse
d’un système
Pour comprendre de quelle donnée on a besoin pour
calculer la réponse d’un système, considérons un simple
circuit RC qui a une source de courant ( ) comme signal
d’entrée. La tension de sortie ( ) est donnée par

( )= . ( )+ ( ) (Eq.1.1a)

Fig.1.3 : Exemple d’un système électrique simple

Les limites de l’intégrale partent de −∞ à , parce que cette


intégrale représente la charge du condensateur par rapport au
courant qui circule dans le condensateur, et cette charge est
le résultat du courant qui circule dans le condensateur
depuis −∞.
Maintenant, Eq.1.1a peut être exprimée comme suit

( )= . ( )+ ( ) + ( ) (Eq.1.1b)

L’intégrale du milieu est (0), la tension du condensateur


à = 0.
( )= (0) + . ( ) + ( ) ≥0 (Eq.1.1c)

Cette équation peut être généralisée


( )= ( )+ . ( )+ ( ) ≥ (Eq.1.1d)

A partir de Eq.1.1a, la tension de sortie ( ) à un instant


peut être calculée si nous connaissons le courant d’entrée
dans le condensateur à travers son passé entier(−∞ à ). De
façon similaire, si nous connaissons le courant d’entrée ( ) à
partir d’un moment , en utilisant Eq.1.1d, on peut aussi
calculer ( ) ≥ grâce à la connaissance du courant
d’entrée connue ( ), la tension initiale du condensateur.
Ainsi, ( ) contient toute l’information liée au passé entier du
circuit (−∞ à ) dont nous avons besoin pour
calculer ( ) ≥ . Ainsi, la réponse d’un système à
≥ peut être déterminée de ses entrée(s) durant l’intervalle
à avec certaine conditions initiales à = .

De l’exemple précédent, on a eu seulement besoin d’une


condition initiale. Cependant, dans des systèmes plus
complexes, plusieurs conditions initiales peuvent être
nécessaires. Nous savons per exemple, que dans un réseau
RLC passif, les valeurs initiales de tous les courants
d’inductances et toutes les tensions des condensateurs sont
nécessaires pour déterminer les sorties à tout instant ≥ 0 si
les entrées sont données sur l’intervalle [0, ].
II. CLASSIFICATION DES SYSTEMES

Les systèmes peuvent être classés en plusieurs


catégories non exclusives. Nous citons ici celles qui nous
intéressent pour notre cours.

1. Systèmes linéaires et non linéaires


a. Concept de linéarité
Un système dont la sortie est proportionnelle à son
entrée est un exemple de système linéaire. Mais la linéarité
implique plus que cela ; elle implique aussi la propriété
d’additivité : si plusieurs entrées agissent sur un système,
alors l’effet total sur le système dû à toutes ces entrées peut
être déterminé en considérant une entrée à la fois en
considérant les autres entrées nulles. L’effet total est donc la
somme de tous les effets des composants.
D’un point de vue purement technique, les systèmes
linéaires vérifient le principe de superposition et le principe
d’homogénéité énoncés comme suit :

Principe d’homogénéité
Un système vérifie le principe d’homogénéité si pour
une entrée $%( ), la sortie est donnée par $&( ).

Principe de superposition
La réponse &( ) d’un système linéaire à une entrée %( )
composée de la combinaison linéaire de plusieurs entrées
%( ) = ∑() $( %( ( ) est la somme des réponses élémentaires
&( ( ) à chacune des entrées individuelles &( ) = ∑() $( &( ( )
Ainsi l’hypothèse de linéarité va permettre l’utilisation
d’outils analytiques, graphiques très simples et puissants tels
que les transformées de Laplace et de Fourier, le calcul
opérationnel ou le théorème de convolution.
Toutefois, l’hypothèse de linéarité est valide dans un
domaine précis et ne tient pas compte d’un certain nombre de
phénomènes purement non linéaires. En effet, la plupart des
systèmes physiques sont en réalité non linéaires (bras de
robot, phénomènes électrostatiques) ou font apparaitre des
phénomènes non linéaires (hystérésis, seuil, zone morte,
frottement sec). Il conviendra donc de toujours justifier en
pratique l’hypothèse de linéarité et d’identifier son domaine de
validité.
b. Réponse d’un système linéaire
Par souci de simplicité, nous discuterons seulement
des systèmes à une seule entrée - une seule sortie (SISO).
Mais la discussion peut être facilement étendue aux systèmes
à entrées multiples et sorties multiples (MIMO).
La sortie d'un système à ≥ 0 est le résultat de deux
causes indépendantes: les conditions initiales du système (ou
l'état du système) à = 0 et l'entrée ( ) pour ≥ 0. Si un
système doit être linéaire, la sortie doit être la somme des
deux composants issus de ces deux causes: d'une part, la
composante de réponse à entrée nulle (ou en anglais «zero
input response ») qui résulte seulement des conditions
initiales à = 0 à l'entrée ( ) = 0 pour ≥ 0, et puis la
composante réponse au repos (ou en anglais «zero state
response »)qui résulte seulement de l'entrée ( ) pour ≥
0, lorsque les conditions initiales (à = 0) sont supposées à
être égale à zéro. Lorsque toutes les conditions initiales
appropriées sont à zéro, le système est dit être dans l'état
zéro. La sortie du système est nulle lorsque l'entrée est égale
à zéro uniquement si le système est à l'état zéro.
En résumé, la réponse d’un système linéaire peut
s’exprimer comme la somme de la réponse à entrée nulle et
de la réponse au repos :

Réponse totale=réponse à entrée nulle + réponse au repos

Cette propriété des systèmes linéaires, qui permet la


séparation en composants résultant des conditions initiales et
du signal d’entrée, est appelée propriété de décomposition.
Pour notre circuit RC, on a obtenu la réponse ( )

( )= (0)
*+, . ( )+
+ *66666+66666,
( ) ≥0 (Eq.1.2)
-é/0123 à 31 -é3 14553 -é/0123 74 -3/02
De l’équation (1.2) il est clair que si l’entrée ( ) = 0 ≥
0, la sortie ( ) = (0). Et donc (0) est la composante à
entrée nulle de la réponse ( ). De même, si l’état du système
(la tension (0) dans ce cas) est à zéro à = 0, la sortie est
donnée par le second membre à droite de l’équation (1.2).
C’est la composante forcée de la réponse ( ).

Exemple 1 :
89
+3 ( ) = ( )
8
Montrer que le système décrit par l’équation
est linéaire.

Réponse :
Soit ( ) % ; ( ) les réponses du système respectivement
aux entrées ( ) % ; ( ).
89< 89=
Alors 8
+3 ( )= ( ) %
8
+ 3 ;( ) = ;( ).

En multipliant la première équation par > et la seconde par >;


et en les additionnant on obtient :

[> ( ) + >; ;( )] + 3[> ( ) + >; ;( )] = > ( ) + >; ;( )

Mais cette dernière équation est de la même forme que


l’équation du système, avec ( ) = > ( ) + >; ; ( ) et
( ) = > ( ) + >; ; ( )
Ainsi, quand le signal d’entrée est > ( ) + >; ; ( ), la
réponse du système est > ( ) + >; ; ( ). Par conséquent,
le système est linéaire.

En utilisant cet argument, on peut généraliser le


résultat pour montrer qu’un système décrit par une équation
différentielle de la forme :

AB C AB E C AH C AC
?@ + ?E B E + ⋯ + ?B C(D) = GB + ⋯ + GB + GB I(D)
ADB AD H
ADH E
AD
(JK. E. L)

Est un système linéaire. Les coefficients MN % ON dans cette


équation peuvent être des constantes ou des fonctions du
temps.

Application 1
Montrer que le système décrit par l’équation suivante est
linéaire
+ ; ( )= ( )
c. Autres données sur les systèmes linéaires

Presque tous les systèmes observés dans la pratique


deviennent non linéaire lorsque des signaux suffisamment
grands leur sont appliqués. Cependant, il est possible
d'approximer la plupart des systèmes non linéaires par des
systèmes linéaires pour l'analyse petit-signal. L'analyse des
systèmes non linéaires est généralement difficile. Des non-
linéarités peuvent surgir de tant de façons que les décrire avec
une forme mathématique classique est impossible. Non
seulement chaque système est une catégorie en soi, mais,
même pour un système donné, les variations des conditions
initiales ou des amplitudes du signal d'entrée peut changer la
nature du problème. D'autre part, la propriété de superposition
des systèmes linéaires est un principe unificateur puissant qui
permet une solution générale. La propriété de superposition
(linéarité) simplifie grandement l'analyse des systèmes
linéaires. En raison de la propriété de décomposition, on peut
évaluer séparément les deux composants de la sortie. La
composante à entrée nulle, peut être calculée en supposant
que l'entrée est nulle, et la composante forcée peut être
calculée en supposant des conditions initiales nulles. De plus,
si on exprime une entrée ( ) en tant que somme de fonctions
plus simples,

( )=M ( ) + M; ;( ) + ⋯ + MP P( )

ensuite, du fait de la linéarité, la réponse ( ) est donnée par

( )=M ( ) + M; ;( ) + ⋯ + MP P( )

où (( )est la réponse au repos à l’entrée (( ).


Cette observation apparemment triviale a de
profondes implications. Comme nous allons le voir à plusieurs
reprises dans les chapitres suivants, il se révèle extrêmement
utile et ouvre de nouvelles voies pour l'analyse des systèmes
linéaires. Par exemple, considérons une quelconque entrée
( ) telle que celle représentée sur la Fig. 1.2a. On peut
approximer ( ) avec une somme d'impulsions rectangulaires
de largeur ∆ et d'amplitudes différentes. L'approximation
s'améliore lorsque ∆ → 0, lorsque les impulsions
rectangulaires deviennent des impulsions espacées de
∆ secondes (avec ∆ → 0). Ainsi, une entrée arbitraire peut
être remplacée par une somme pondérée d'impulsions
espacées de ∆ (∆ → 0) secondes d'intervalle. Par
conséquent, si nous connaissons la réponse du système à
une impulsion unité ou impulsion de Dirac, nous pouvons
déterminer immédiatement la réponse du système à une
entrée arbitraire ( ) en additionnant la réponse du système
pour chaque impulsion composant ( ). Une situation
similaire est représentée sur la Fig. 1.2b, où ( ) est
approximée par une somme d'échelons d'amplitude variable
et espacés de ∆ secondes. L'approximation s'améliore quand
∆ diminue. Par conséquent, si l'on connaît la réponse du
système à une entrée échelon unité, on peut calculer la
réponse du système à une entrée arbitraire ( ) avec une
relative facilité. L'Analyse temporelle des systèmes linéaires
(voir le chapitre 2) utilise cette approche.
Fig.1.2

Des chapitres suivants utilisent la même approche, mais


utilisent plutôt des sinusoïdes ou des exponentielles comme
composants de base du signal. Nous montrons que tout signal
d'entrée quelconque peut être exprimé comme une somme
pondérée des sinusoïdes (ou exponentielles) ayant des
fréquences différentes. Ainsi la connaissance de la réponse
du système à une sinusoïde permet de déterminer la réponse
du système à une entrée arbitraire ( ).

2. Systèmes invariants et systèmes variant dans le


temps
Les Systèmes dont les paramètres ne changent pas avec
le temps sont (aussi appelés systèmes à paramètres
constants) des systèmes invariants dans le temps ou
stationnaires. Pour un tel système, si l'entrée est retardé de T
secondes, la sortie est la même que précédemment mais
retardée de T (en supposant que les conditions initiales sont
également décalées de T).
Cette propriété est exprimée graphiquement dans la
figure.1.3. Nous pouvons aussi illustrer cet immeuble, comme
le montre la Fig.1.4. On peut retarder la sortie y (t) d'un
système S par l'application de la sortie ( ) à un deuxième
retard T (Fig.1.4a). Si le système est invariant dans le temps,
alors la sortie retardée ( − S) peut également être obtenue
en retardant d'abord l'entrée ( ) avant de l'appliquer au
système, comme le montre la Fig.1.4b. En d'autres termes, le
système S et le décalage temporel permute si le système S
est invariant dans le temps. Ce ne serait pas vrai pour les
systèmes variant dans le temps. Considérons, par exemple,
un système variable dans le temps spécifié par ( ) =
% ( ). La sortie d'un tel système à la Fig.1.4a
est % ( T) ( − S). En revanche, la sortie pour le système
sur la Fig.1.4b est % ( − S)

Fig.1.4 Propriété d’invariance temporelle


Fig.1.5 Illustration de l’invariance temporelle

Il est possible de vérifier que le système de la figure.1.1


est un système invariant. Les Réseaux composées d'éléments
RLC et d'autres éléments actifs couramment utilisés tels que
les transistors sont des systèmes invariants dans le temps. Un
système avec une relation d'entrée-sortie décrit par une
équation différentielle linéaire de la forme donnée dans
l'exemple 1 (1.3) est un système linéaire invariant dans le
temps (LTI) lorsque les coefficients MN et ON de cette équation
sont des constantes. Si ces coefficients sont des fonctions du
temps, alors le système est un système linéaire variable dans
le temps. Le système décrit dans l’application 1 est linéaire
variant dans le temps. Un autre exemple bien connu d'un
système variable dans le temps est le microphone de carbone,
dans lequel la résistance R est une fonction de la pression
mécanique générée par les ondes sonores sur les granules de
carbone du microphone. Le courant de sortie du microphone
est ainsi modulé par les ondes sonores, comme on le
souhaite.
Application 2 :
Montrer que le système décrit par l’équation suivante est un
système à paramètres variant dans le temps
( ) = (sin( )) ( − 2)
Indication : Montrer que ce système ne satisfait pas la
propriété d’invariance temporelle

3. Systèmes à mémoire et systèmes sans


mémoire
Comme observé précédemment, la sortie d'un système à
un instant t dépend généralement de l'ensemble de l'entrée
passée. Cependant, dans une classe particulière de
systèmes, la sortie à un instant t ne dépend que de son entrée
à cet instant. Dans les réseaux résistifs, par exemple,
n'importe quel signal de sortie du réseau à un instant t ne
dépend que de l'entrée à l'instant t. Dans ces systèmes,
l'histoire passée est pertinente pour déterminer la réponse.
Ces systèmes sont dits systèmes instantanés ou sans
mémoire. Plus précisément, un système est dit instantané (ou
sans mémoire) si sa sortie à tout instant t dépend, tout au plus,
sur la force de son entrée (s) au même instant t, et non sur le
passé ou les valeurs futures de ses entrées. Sinon, le système
est dit être dynamique (ou un système à mémoire). Un
système dont la réponse à t est complètement déterminée par
les signaux d'entrée au cours des dernières secondes T
[intervalle de (t - T) à t] est un système à mémoire finie avec
une mémoire de T secondes. Les Réseaux contenant des
éléments inductifs et capacitifs sont généralement à mémoire
infinie parce que la réponse de ces réseaux à tout instant t est
déterminée par leurs entrées sur l'ensemble du passé (- ∞, t).
Cela est vrai pour le circuit RC de la Fig. 1.1.
Dans ce livre, nous allons généralement examiner les
systèmes dynamiques. Les Systèmes instantanées sont un
cas particulier des systèmes dynamiques.

4. Systèmes causals et systèmes non causal


Un système causal (également connu sous le nom
physique ou non anticipatif) est un système dont la sortie, à
tout instant ne dépend que de la valeur de l'entrée ( ) à ≤
0. En d'autres termes, la valeur de la sortie à l'instant présent
ne dépend que des valeurs passées et présentes de l'entrée
( ), et non de ses valeurs futures. Pour le dire simplement,
dans un système de causalité la sortie ne peut pas
commencer avant que l'entrée soit appliquée. Si la réponse
commence avant l'entrée, cela signifie que le système connait
l'entrée dans l'avenir et agit sur cette connaissance avant que
l'entrée lui soit appliquée. Un système qui viole la condition de
causalité est appelé un système non causal (ou anticipatif).
Tout système pratique qui fonctionne en temps réel [†] doit
nécessairement être causal. Nous ne savons pas encore
comment construire un système qui peut répondre aux futures
entrées (entrées non encore appliquées). Un système non
causal est un système prophétique qui sait le signal d'entrée
à venir et agit sur lui dans le présent. Ainsi, si nous appliquons
une entrée à partir de = 0 à un système non causal, la sortie
serait commencée avant même = 0. Par exemple,
considérerons le système spécifié par

( ) = ( − 2) + ( + 2) (Eq.1.4)
Pour l'entrée x(t) illustré sur la Fig.1.6a, la sortie y(t),
calculé à partir de l'équation précédente (Fig.1.6b) commence
avant même que l'entrée soit appliquée. L'équation montre
que y(t), la sortie à l'instant t, est donnée par la somme des
valeurs de l'entrée 2 secondes avant et 2 secondes après t (à
t -2 et t + 2, respectivement). Mais si nous opérons le système
en temps réel à t, nous ne savons pas ce que la valeur de
l'entrée sera à 2 secondes plus tard. Ainsi, il est impossible de
mettre en œuvre ce système en temps réel. Pour cette raison,
les systèmes non causals sont irréalisables en temps réel.

Fig. 1.6 : Un système non causal et sa réalisation à partir du


décalage d’un système causal

POURQUOI ÉTUDIER LES SYSTEMS NON CAUSALS?


La discussion qui précède peut suggérer que les systèmes
non causals n'ont aucune utilité pratique. Ce n'est pas le cas;
ils sont utiles dans l'étude des systèmes pour plusieurs
raisons. Premièrement, les systèmes non causals sont
réalisables lorsque la variable indépendante est autre que le
« temps » (par exemple, l'espace). Considérons, par exemple,
une charge électrique de densité Z( ) placée le long de l'axe
des pour ≥ 0. Cette densité de charge produit un champ
électrique [( ) qui est présent à chaque point sur l'axe de
= − ∞ à ∞. Dans ce cas, l'entrée [ie, Z de densité de charge
( )] commence à = 0, mais sa production [le champ
électrique [( )] commence avant = 0. De toute évidence,
ce système de charge d'espace est non causal. Cette
discussion montre que seuls les systèmes temporels
(systèmes avec le temps comme variable indépendante)
doivent être causals pour être réalisable. Les termes "avant"
et "après" n'ont une connexion spéciale avec la causalité que
lorsque la variable indépendante est le temps. Cette
connexion est perdue pour les variables autres que le temps.
Les Systèmes intemporelles, comme ceux qui se produisent
en optique, peuvent être non causals et être réalisables.
De plus, même pour les systèmes temporels, tels que ceux
utilisés pour le traitement du signal, l'étude des systèmes non
causals est importante. Dans de tels systèmes, nous pouvons
avoir toutes les données d'entrée préenregistrées. (Cela arrive
souvent avec la parole, les signaux géophysiques et
météorologiques, et avec des sondes spatiales.) Dans de tels
cas, les valeurs futures de l'entrée sont disponibles pour nous.
Par exemple, supposons que nous avions un ensemble
d'enregistrements de signaux d'entrée disponibles pour le
système décrit par l'équation. (Eq.1.4). Nous pouvons alors
calculer ( ) puisque, pour tout t, il suffit de consulter les
dossiers pour trouver la valeur de l'entrée 2 secondes avant
et 2 secondes après t. Ainsi, les systèmes non causals
peuvent être réalisées, mais pas en temps réel. Nous pouvons
donc être en mesure de réaliser un système non causal,
pourvu que nous sommes prêts à accepter un temps de retard
dans la sortie. Considérons un système dont la sortie ( ) est
le même que \( ) dans l'équation. (Eq.1.4) retardé de 2
secondes (figure 1.6c), de sorte que

\( ) = ( − 2) = ( − 4) + ( )

Ici, la valeur de la sortie Y à tout instant t est la somme des


valeurs de l'entrée x à l'instant t et à l'instant 4 secondes plus
tôt [à = ( − 4)]. Dans ce cas, la sortie à un instant t ne
dépend pas de la valeur future de l'entrée, et le système est
causal. La sortie de ce système, qui est y (t), est identique à
celui dans l'équation. (Eq.1.4) ou la Fig.1.6b sauf pour un délai
de 2 secondes. Ainsi, un système peut être réalisé non
causale ou estimés de manière satisfaisante en temps réel en
utilisant un système causal avec un retard.

Une troisième raison pour l'étude de systèmes non


causals est qu'ils fournissent une limite supérieure de la
performance des systèmes causals. Par exemple, si nous
voulons concevoir un filtre pour séparer un signal du bruit, puis
le filtre optimal est toujours un système non causal. Bien
qu'irréalisable, la performance de ce système non causale agit
comme la limite supérieure de ce qui peut être réalisé et nous
donne une norme pour évaluer la performance des filtres
causals.
À première vue, les systèmes non causals peuvent
sembler être impénétrables. En fait, il n'y a rien de mystérieux
dans ces systèmes et leur réalisation approximative grâce à
des systèmes physiques avec retard. Si nous voulons savoir
ce qui se passera d'ici un an, nous avons deux choix : aller à
un prophète (une personne irréalisable) qui peut donner les
réponses instantanément, ou aller à un homme sage et lui
laisser un délai d'un an pour nous donner, la réponse ! Si
l'homme sage est vraiment sage, il peut même être en
mesure, par les tendances qu'il étudie, de deviner
astucieusement l'avenir de très près avec un retard de moins
d'un an. Tel est le cas avec les systèmes non causals, rien de
plus et rien de moins.

Application 3
Montrer que le système décrit par l’équation suivante est non
causal :
_`

( )= ^ ( )
`
Montrer que ce système peut être réalisé physiquement si on
accepte un décalage de 5 secondes dans le signal d’entrée.

5. Systèmes à temps continu et systèmes à


temps discret
Les signaux définis ou spécifiés sur un ensemble continu
de temps sont des signaux à temps continus, notés par des
symboles ( ), ( ) et ainsi de suite. Les systèmes dont les
entrées et les sorties sont des signaux à temps continus sont
dits systèmes à temps continus. De même, les signaux
définis uniquement à des instants discrets de temps
, , … , 1 sont des signaux à temps discrets, noté par les
symboles ( 1 ), ( 1 ) et ainsi de suite, ou n est un entier. Les
systèmes dont les signaux d’entrée et de sortie sont des
signaux à temps discrets sont dits aussi systèmes à temps
discrets. Un ordinateur numérique est un exemple familier de
ce type de système. En pratique, les signaux à temps discrets
peuvent provenir de l’échantillonnage des signaux à temps
continus. Par exemple, quand l’échantillonnage est uniforme,
les instants discrets , , … , 1 sont uniformément espacés tel
que : (_ − ( = S & >.
Dans ce cas, les signaux à temps discrets représentés par
l’échantillonnage des signaux à temps continus ( ), ( ) et
ainsi de suite peuvent être exprimés par (bS), (bS) ; et ainsi
de suite ; par convention, nous simplifierons cette notation
en [b], [b],…, étant bien entendu que [b] = (bS) et que n
est un entier. On a représenté un signal à temps discrets
typique à la Fig.1.7. Un signal à temps discrets peut aussi être
vu comme une séquence de nombres …,
[−1], [0], [1], [2], … Ainsi un système à temps discrets
peut être vu comme le traitant une séquence de nombres [b]
et produisant une séquence de nombres [b].

Fig.1.7 : Signal à temps discret

Les signaux à temps discrets proviennent naturellement


de situations liées à un temps discret, comme les études de la
population, les problèmes d’amortissement, les modèles de
revenu national, le tracking RADAR. Ils peuvent aussi provenir
du résultat de l’échantillonnage des signaux à temps continus
par des systèmes à données échantillonnées, filtrage
numérique et les trucs du genre.

6. Systèmes analogiques et systèmes discrets


Nous avons déjà présenté les signaux analogiques et les
signaux numériques dans le chapitre 2 de ce livre. Si les
signaux d’entrée et de sortie x et y d’un système sont
analogiques, alors le système est dit analogique. Si les
signaux d’entrée et de sortie sont des séquences numériques,
alors le système est dit numérique.

Fig.1.8 système analogique (a) ; système numérique(b)

7. Systèmes inversibles et systèmes non


inversibles

Un système d effectue certaines opérations sur le signal


d'entrée. Si nous pouvons obtenir l'entrée I(D) depuis la sortie
C(D) correspondante par une opération, le système d est dit
inversible. Lorsque plusieurs entrées différentes donnent lieu
à la même sortie (comme dans un redresseur), il est
impossible d'obtenir l'entrée à partir du signal de sortie, et le
système est dit non inversible. Par conséquent, pour un
système inversible, il est essentiel que chaque entrée possède
une sortie unique, de sorte qu'il existe une correspondance
unique entre une entrée et la sortie correspondante. Le
système qui réalise l'opération inverse [obtention de I(D) à
partir de C(D)] est le système inverse de d. Par exemple, si d
est un intégrateur idéal, alors son système inverse est un
dérivateur idéal. Considérons un système d relié en parallèle
avec son inverse de, comme le montre la Fig.1.9. L'entrée I(D)
à ce système en tandem des résultats dans le signal C(D) à la
sortie d et le signal C(D), qui agit maintenant comme une
entrée à de, les rendements sauvegarder le signal I (D) à la
sortie de de, donc, de, annule l'opération de d sur I(D), ce qui
donne de retour I(D). Un système dont la sortie est égale à
l'entrée (pour toutes les entrées possibles) est un système
identité. Un système en cascade avec son système inverse,
comme le montre la Fig. 1.9, conduit à un système d'identité.

Fig.1.9 : La mise en cascade d’un système et son inverse conduit à


un système identité

En revanche, un redresseur, spécifié par une


équation ( ) = | ( )|, est non inversible parce que l'opération
de redressement ne peut être annulée. Les Systèmes
inverses sont très importants en traitement du signal. Dans de
nombreuses applications, les signaux sont déformés au cours
du traitement, et il est nécessaire d'annuler la distorsion. Par
exemple, dans la transmission de données sur un canal de
communication, les signaux sont faussés dues à la réponse
en fréquence non idéale et la bande passante finie d'un canal.
Il est nécessaire de rétablir autant que possible le signal dans
sa forme originale. Cette opération est également utilisée dans
les systèmes audio et les systèmes photographiques.

8. Systèmes stables et systèmes instables


Les systèmes peuvent également être classés comme des
systèmes stables ou instables. La stabilité peut être interne ou
externe. Si chaque entrée bornée appliquée à la borne
d'entrée résultats en une sortie bornée, le système est dit pour
être stable à l'extérieur. La stabilité externe peut être
déterminée par des mesures au niveau des bornes externes
(entrée et sortie) du système. Ce type de stabilité est
également connu comme stabilité dans le sens BIBO (entrée
bornée/sortie bornée). Le concept de stabilité interne est
reporté au Chapitre 2 parce qu'il exige une certaine
compréhension du comportement du système interne,
introduit dans ce chapitre.

D’autres classifications, comme les systèmes


déterministes et probabilistes, sont au-delà des propos de ce
livre et ne sont pas pris en compte ici. Cependant, seuls les
systèmes dynamiques seront étudiés ici, car ils correspondent
à tous les phénomènes qui font intervenir le stockage ou la
dissipation d’énergie. Le cas des autres types de systèmes
(systèmes algébriques, systèmes séquentiels) ne sera donc
pas examiné ici. De plus, les systèmes étudiés par la suite
seront presque exclusivement des systèmes mono variables
ou systèmes uni variables ou systèmes scalaires, c’est-à-dire
pour lesquels l’observateur n’accède qu’à une seule grandeur
de commande et n’observe qu’une seule grandeur de sortie.

III. MODELE D’UN SYSTEME : DESCRIPTION


ENTREE-SORTIE
Une description du système en ce qui concerne les
mesures sur les bornes d'entrée et de sortie est appelée
description entrées-sorties. Comme mentionné
précédemment, la théorie des systèmes englobe une variété
de systèmes, tels que les systèmes électriques, mécaniques,
hydrauliques, acoustiques, électromécaniques, et chimiques,
ainsi que sociaux, politiques, économiques et biologiques. La
première étape dans l'analyse de tout système est la
construction d'un modèle de système, qui est une
expression mathématique ou une règle qui se rapproche
de manière satisfaisante du comportement dynamique du
système. Dans ce chapitre, nous ne considérerons que les
systèmes en temps continu.
Le processus de développement d’un modèle
mathématique constitue le lien entre réalité et théorie
mathématique. Le modèle ne doit pas être trop simpliste au
risque de ne pas représenter la réalité mais doit être
suffisamment simple pour ne pas rendre inutilement
complexes les étapes d’analyse des propriétés du système et
de synthèse des régulateurs. La phase de modélisation est
donc essentielle dans le processus d’analyse et
de synthèse d’un système de commande. En Automatique, le
modèle mathématique d’un système dynamique est défini
comme un ensemble d’équations qui représentent le
comportement dynamique du système avec la précision
souhaitée.
Le processus de modélisation consiste premièrement en
l’identification du système et de ses composants élémentaires.
Le modèle mathématique idéal est obtenu en écrivant les lois
physiques régissant le comportement du système. Quelle que
soit la nature physique du système à étudier, cette étape
résulte en l’écriture des équations différentielles et
algébriques (linéaires, non linéaires, à coefficients constants
ou variant dans le temps) qui forment l’expression
mathématique du comportement idéal du système. Un certain
nombre d’hypothèses de travail sont ainsi formulées
définissant la classe des modèles utilisés. L’ultime phase
consiste alors à mettre en œuvre des méthodes d’analyse
permettant le passage de ces modèles mathématiques vers
des modèles particulièrement dédies l’Automatique.

La démarche globale peut ainsi se résumer de la manière


suivante :

1- Définir le système à étudier et ses composants


élémentaires
2- Formuler le modèle mathématique idéal et dresser la liste
des hypothèses à retenir
3- Ecrire les lois physiques régissant le comportement du
système et les équations différentielles et algébriques
associées
4- Définir le modèle dédié à l’Automatique
Au début de ce chapitre, nous avons introduit le
concept de systèmes et de certaines de leurs propriétés
générales. Ici et dans certains des chapitres suivants, nous
allons apprendre à connaître différentes méthodes qui
peuvent être utilisées pour modéliser ces systèmes. Nous
allons commencer en regardant les systèmes en temps
continu et nous limiter aux SSLICs.
Dans ce chapitre, nous sommes à la recherche d'une
forme standardisée de modèle du système qui représente les
caractéristiques entrée-sortie d'un système par des équations
mathématiques, indépendant de la mise en œuvre du
système.
Ce chapitre traite par la suite de trois techniques de
modélisation pour les systèmes à temps continu :
 Équations différentielles en tant que représentation
mathématique de la relation d'entrée-sortie,
 Schémas fonctionnels (Diagrammes Blocs) comme
une représentation graphique de la relation entre
entrée, sortie et états internes,
 Modèles de l'Etat qui sont l'équivalent des
diagrammes.

L'élément commun à ces trois techniques de modélisation


est l'utilisation de signaux dépendant du temps, dans lequel la
dérivée et l'intégrale par rapport au temps joue un rôle
important. Par conséquent, ces types de modèle du système
peuvent être classés comme « modèles de domaine temporel
». Leurs compléments sont des « modèles de domaine de
fréquence », qui seront examinés dans les prochains
chapitres.
1. Analyse du système
Notre objectif est de trouver un modèle de système sans
détails de la mise en œuvre du système. Comment cela peut-
il être atteint ? Nous allons utiliser l'analyse d'un circuit
électrique pour montrer les étapes essentielles.
Dans de nombreux manières il est possible d'ignorer
l'expansion spatiale des composants électriques sur une carte
de circuit et de travailler à la place avec des circuits
équivalents, constitués d'éléments concentrés. Des dispositifs
à semi-conducteurs sont un exemple de cela parce que leur
comportement interne compliqué ne peut être modélisé avec
précision qu'en utilisant la physique d'état solide. Leurs effets
à l'intérieur d'un circuit électrique, sont, cependant, souvent
linéaire assez pour être adéquatement modélisés par des
éléments simples comme les résistances et sources idéales.
La deuxième étape est le remplacement des composants
physiques avec leurs équivalents idéaux, par exemple, de
véritables résistances deviennent ohmique, les fils deviennent
des conducteurs parfaits, les condensateurs ont une capacité
idéale, etc.
Les réseaux électriques résultant peuvent être
analysés en utilisant des méthodes classiques, par exemple,
loi des mailles ou analyse nodale. Il en résulte des équations
différentielles ordinaires à coefficients constants, dans lequel
seuls les signaux d'entrée et de sortie et leurs dérivés se
produisent.
Ce processus peut également être appliqué à d'autres
dispositifs physiques qui, comme les circuits électriques,
peuvent être décrits par le potentiel électrique (par exemple
tension) et les quantités de flux (courant électrique par
exemple). L'analyse en conséquence simplifie les systèmes
mécaniques, systèmes pneumatiques, hydrauliques et
thermiques avec les équations différentielles. Le même
raisonnement s’applique à d'autres types de système, par
exemple, de la chimie, de la biologie ou de l'économie.
Les simplifications mentionnées ne sont évidemment
pas toujours permises. Les équations différentielles ordinaires
sont, par exemple, impropres aux problèmes du domaine de
la dynamique des fluides. Dans de nombreuses autres
utilisations, cependant, ils sont d'une grande importance, et
nous allons donc les examiner plus en profondeur.

2. Equations différentielles linéaires à


coefficients constants

Les équations différentielles établissent des relations entre


les dérivés des quantités dépendantes par rapport aux
variables indépendantes. EIles sont appelées équations
différentielles ordinaires si les dérivés n'apparaissent qu'en
fonction de l'une des variables indépendantes (par exemple le
temps). Les équations différentielles avec des dérivés
dépendant de plus d'une variable indépendante (par exemple
le temps et trois coordonnées spatiales) sont appelées
équations aux dérivées partielles.
Une équation différentielle est dite linéaire si les dérivées
individuelles sont multipliées par les facteurs seulement et
combinées par addition. En outre, si les facteurs de dérivés ne
dépendent pas de variables indépendantes, le terme «
équation différentielle à coefficients constants » est utilisé.
Pour la modélisation des systèmes en temps continu, nous
avons juste besoin d'équations différentielles ordinaires avec
le temps comme la seule variable indépendante. Dans ces
équations les signaux d'entrées et de sortie du système
doivent se produire comme variables dépendantes. Nous
allons bientôt découvrir que les systèmes linéaires, et
invariants dans le temps peuvent être modélisés par les
équations différentielles linéaires à coefficients constants, et
nous allons donc nous limiter à ce type d'équation.
Des exemples simples pour les équations différentielles
linéaires à coefficients sont :
g +2 h = Eq.1.
g +3 h +2 =2 h −

La forme générale d'une équation différentielle linéaire


ordinaire avec des coefficients constants est

kl m kr s
∑o
j) αj knl = ∑q) βq knr
t
Eq.1.

Le plus grand indice u d’un coefficient non nul $v détermine


ce qu'on appelle l'ordre de l'équation différentielle. Afin de
simplifier la discussion, posons w = u et considérons que
certains, mais pas tous les coefficients x( soient égal à zéro.
Pour une fonction donnée ( ), il existe jusqu'à u différentes
solutions linéairement indépendantes ( ) à Eq1.. Pour une
solution particulière, nous devons donner u conditions. Pour
les problèmes de conditions initiales, celles-ci seraient N
conditions initiales (0), h (0), g (0), ….
L'équation différentielle Eq1. décrit un système à
temps continu, si ( ) est le signal d'entrée, et ( ) est le
signal de sortie. Pour l'instant, nous ignorons peut-être les des
conditions initiales ; leur influence sera discutée en profondeur
dans un chapitre ultérieur.
Montrons maintenant que (2.3) représente un système
invariant. Par substitution des variables y = − dans Eq.1.
(2,3), il en résulte immédiatement que ( − ) conduit à la
solution ( − ). Pour montrer la linéarité nous considérons
les deux signaux d'entrée différents ( ) % ; ( ) et les
solutions correspondantes ( ) % ; ( ). En introduisant
l'équation linéaire z ( ) = { ( ) + | ; ( ) dans Eq.1. (2,3) on
vérifie que z ( ) = { ( ) + | ; ( ) est une solution de
l'équation différentielle, et donc le signal de sortie du système.
Chaque système qui peut être modélisé à l'aide
d'équations différentielles linéaires à coefficients constants
(2.3) est donc un système SLIC. Cela signifie que nous avons
trouvé notre première méthode pour la modélisation de ces
systèmes sous la forme d'une équation différentielle. Cette
méthode répond à nos exigences initiales :

 Modélisation d’un SSLIC indépendamment de sa


réalisation
 Représentation de la relation entrée-sortie, sans
connaissance des détails de son comportement
interne.

3. Exemples de modèles entrée-sortie


La complexité du modèle résultant va conditionner le choix
des méthodes d’analyse et de synthèse qu’il sera possible de
lui appliquer. Il est donc très important d’établir un bon
compromis entre la précision du modèle et sa complexité. Ce
chapitre a pour but de donner les principes de base de la
modélisation des systèmes dynamiques les plus courants
rencontrés dans le domaine électrique, mécanique et
électromécanique sans pour autant prétendre à l’exhaustivité.

 Systèmes électriques
Pour construire un modèle de système, nous devons
étudier les relations entre les différentes variables dans le
système. Dans les systèmes électriques, par exemple, il faut
déterminer un modèle satisfaisant de la relation tension-
courant de chaque élément, comme la loi d'Ohm pour une
résistance. En outre, nous devons déterminer les diverses
contraintes sur les tensions et courants lorsque plusieurs
éléments électriques sont interconnectés. Ce sont les lois de
l'interconnexion ou lois de Kirchhoff bien connus pour la
tension et le courant (loi des mailles et loi des nœuds). De
toutes ces équations, nous éliminons les variables
indésirables pour obtenir les équations en fonction des
variables d'entrée et de sortie souhaitées. Les exemples
suivants illustrent le mode opératoire de dériver des relations
d'entrée-sortie pour des systèmes électriques SLI.

Exemple 2 :
Pour le circuit série RLC de la fig.1.10, trouver l'équation
d'entrée-sortie reliant la tension d'entrée ( ) au courant de
sortie (courant de boucle) ( ).
Fig.6.10

Application de la loi de Kirchhoff en tension (loi des mailles)

}( )+ ~( )+ ( )= ( ) (Eq.1.5)

En utilisant les lois de tension-courant de chaque élément


(inductance, la résistance et condensateur), on peut exprimer
cette équation

+3 ( ) + 2^ ( ) = ( )

Avec
Z( ) ( )
}( ) = • y( ) ~( )= ( )% ( )= =
€ €

En dérivant l’équation on obtient :

8= 9 89 8•
8 = +38 +2 ( )= 8
(Eq.1.6)

Cette dernière équation différentielle est la relation d’entrée-


sortie entre la sortie y(t) et l’entrée x(t).
Il est plus pratique d'utiliser une notation D compact pour
l'opérateur différentiel / . Ainsi
AC A† C
≡ „C(D) …D ≡ „† C(D) ‡ˆ ‰Š‹ŒŠ •‡ ŒŽŠˆ‡
AD AD†

Avec cette notation on obtient (• ; + 3• + 2) ( ) = • ( )


L'opérateur différentiel est l'inverse de l'opérateur
intégral, afin que nous puissions utiliser l'opérateur 1/D pour
représenter l'intégrale
1
^ ( ) ≡ ( )

Par conséquent la loi des mailles devient
;
•• + 3 + ‘’ ( ) = ( ) (Eq.1.7)

Rappelons que l'équation. (Eq.1.7) n'est pas une équation


algébrique, et • ; + 3• + 2 n'est pas un terme algébrique que
y(t) multiplie; c'est un opérateur qui agit sur y(t). Cela signifie
que nous devons effectuer les opérations suivantes sur y(t):
prendre la dérivée seconde de y(t) et y ajouter 3 fois la dérivée
première de y(t) et 2 fois y(t). De toute évidence, un polynôme
en D multiplié par y(t) représente une certaine opération
différentielle sur y(t).

Exemple 3
Déterminer l’équation reliant l’entrée à la sortie pour le circuit
RC série de la Fig.1.11. Si l’entrée est la tension ( ) et la
sortie est :
a. Le courant “( )
b. La tension aux bornes du condensateur ( )
Fig.1.11

a. L’équation de la maille de ce circuit est


1
“( ) + ^ “( ) = ( ) [Z. 1.8

ou

15“( ) + 5 ^ “( ) = ( ) [Z. 1.9

Avec la notation opérationnelle vue plus haut on obtient


5
15“( ) + “( ) = ( ) [Z. 1.10

b. En multipliant l’équation Eq.6.10 par D on a

(15• + 5)“( ) = • ( ) ou 15 + 5“( ) =
89
Comme “( ) = € 8 = ` • ( ) on a après substitution

(3• + 1) ( ) = ( ) ou bien 3 + ( )= ( )

Application 4
Déterminer l’équation reliant l’entrée à la sortie pour le circuit
RC série de la Fig.1.10. Si l’entrée est la tension x(t) et la sortie
est :
a. La tension de la bobine } ( )
b. La tension aux bornes du condensateur ( )
Réponses
a. (• ; + 3• + 2) } ( ) = • ; ( )
b. (• ; + 3• + 2) ( ) = 2 ( )

 Systèmes mécaniques
Un Mouvement dans le plan peut être résolu en
mouvement de translation (rectiligne) et en mouvement de
rotation (torsion). Le Mouvement de translation sera considéré
en premier. Nous nous limiterons à des mouvements dans une
seule dimension.

Systèmes en translation

Les éléments de base utilisés dans la modélisation des


systèmes de translation sont des masses idéales, ressorts
linéaires et amortisseurs produisant un amortissement
visqueux. Les lois des différents éléments mécaniques sont
maintenant présentées.
Pour une masse M (fig.1.12a), une force x(t) provoque
un mouvement y(t) et l'accélération y(t). De la loi du
mouvement de Newton,

;
( ) = w ›( ) = w ;
= w• ; ( ) ([Z. 6.11)
Fig.1.12. : Quelques éléments des systèmes mécaniques en
translation

La force de x(t) nécessaire à l'étirement (ou


compression) d'un ressort linéaire (Fig.1.12b de) d'une valeur
y(t) est donnée par

( ) = >. ( )

Pour un amortisseur linéaire (Fig.1.12c de), qui opère


en vertu de frottement visqueux, la force de déplacement de
l'amortisseur est proportionnelle à la vitesse relative y(t) d'une
surface par rapport à l'autre. Ainsi
( ) = | h( ) = | = |• ( )
où B est le coefficient d'amortissement de l'amortisseur ou le
frottement visqueux.

Exemple 4
Trouver la relation d'entrée-sortie pour le système
mécanique de translation représenté sur la Fig.1.13a ou son
équivalent dans la Fig.1.13b. L'entrée est la force x(t), et la
sortie est la position de masse y(t).
Fig.6.13a

Dans les systèmes mécaniques, il est utile de dessiner


un diagramme du corps libre de chaque jonction, qui est un
point où deux ou plusieurs éléments sont reliés. Dans la
Fig.1.13, le point représentant la masse est une jonction. Le
déplacement de la masse est noté y(t). Le ressort est
également tendue par la quantité y(t), et par conséquent, il
exerce une force −• ( ) sur la masse. L'amortisseur exerce
une force −| ( ) sur la masse comme indiqué dans le
diagramme du corps libre (Fig.1.13c). D'après la deuxième loi
de Newton, la force nette doit être w g ( ). Donc

w g ( ) = −| h ( ) − • ( ) + ( )
Ou bien
(w• ; + |• + •) ( ) = ( )
Systèmes en rotation
Dans les systèmes de rotation, le mouvement d'un
corps peut être défini comme son mouvement autour d'un
certain axe. Les variables utilisées pour décrire un mouvement
de rotation sont le couple (à la place de la force), position
angulaire (à la place de position linéaire), la vitesse angulaire
(à la place de la vitesse linéaire), et l'accélération angulaire (à
la place de l'accélération linéaire). Les éléments du système
sont la masse en rotation ou moment d'inertie (à la place de la
masse) et des ressorts de torsion et amortisseurs de torsion
(à la place des ressorts et amortisseurs linéaires). Les
équations de borne pour ces éléments sont analogues aux
équations correspondantes pour les éléments de translation.
Si J est le moment d'inertie (ou masse en rotation) d'un corps
tournant autour d'un certain axe, le couple externe nécessaire
pour ce mouvement est égale à J (masse en rotation) fois
l'accélération angulaire. Si θ est la position angulaire du corps,
žg est son accélération angulaire, et
;
¢
Ÿ % = ¡¢g = ¡ ;
= ¡• ; ¢( )

De même, si K est la rigidité d’un ressort de torsion (par


unité de torsion angulaire), et θ est le déplacement angulaire
d'une terminaison du ressort par rapport à l'autre, alors

Ÿ % = •¢

Finalement, le couple dû à l'amortissement visqueux d'un


amortisseur de torsion de coefficient d'amortissement B est

Ÿ % = |¢h ( ) = |•¢( )
Exemple 5
L'attitude d'un aéronef peut être contrôlée par trois
ensembles de surfaces (représentée en ombre à la Fig.1.14.):
Ascenseurs, gouvernail, et les ailerons. En manipulant ces
surfaces, on peut poser l'appareil sur une trajectoire voulue.
L'angle de roulis φ peut être commandé par déviation dans la
direction opposée des deux surfaces d'ailerons comme
représenté sur la Fig.1.14. En considérant seulement le
mouvement de roulis, trouver l'équation reliant l'angle de roulis
φ à l'entrée (déviation) θ.

Fig.1.14 : control d’altitude d’un avion


Les surfaces des ailerons de générer un couple autour de
l'axe de roulis proportionnelle à l'angle de déflexion
d’aileron ž. Soit £ž, où Ÿ est la constante de proportionnalité.
Le Frottement de l'air dissipe le couple ¤¥h(D). Le couple
disponible pour le mouvement de roulis est alors £ž(D) −
¤¥h(D). Si J est le moment d'inertie de l'avion par rapport (axe
de roulis) à l'axe X, alors
¦¥h(D) = £§¨©ª… «…D
= £ž(D) − ¤¥h(D)
Et
;
¬ ¬
¡ ;
+| = Ÿ¢( ) (¡• ; + |•)¬( ) = Ÿ¢( )

Ceci est l'équation souhaitée reliant la sortie (angle de


roulis φ) à l'entrée (angle d'aileron θ). La vitesse de rotation ω
est ¬h( ). Si la sortie désirée est la vitesse de rotation ω au
lieu de l'angle de rotation φ, alors l'équation d'entrée-sortie
serait
A-
¦ + ¤- = £ž §¨ (¦„ + ¤)-(D) = £ž(D)
AD

Application 5
Un Couple Γ( ) est appliqué sur le système mécanique de
rotation représenté sur la figure.1.14a. La raideur de ressort
de torsion est K; la masse de rotation (le moment d'inertie de
l'arbre de sur le cylindre) est J; le coefficient d'amortissement
visqueux entre le cylindre et le sol est B. Trouver l'équation
reliant l'angle θ de sortie au couple d’entrée Γ.
[Astuce : Un diagramme du corps libre est montré dans la
figure.1.14b.]

Fig.1.15 : Système de rotation


Réponse :

;
¢ ¢
¡ ;
+| + •¢( ) = Γ( ) (¡• ; + |• + •)¢( ) = Γ( )

 Systèmes électromécaniques
Une grande variété de systèmes électromécaniques
convertis des signaux électriques en mouvement mécanique
(énergie mécanique) et vice versa. Ici, nous considérons
l'exemple assez simple d'un moteur à courant continu à
armature contrôlée entraîné par une source de courant x(t),
comme représenté sur la Fig.6.16a. Le couple Γ( ) généré
dans le moteur est proportionnel au courant d'induit les x(t).
Donc
¯(D) = ° I(D)

Fig.6.16 : moteur à courant continu à armature contrôlée


où •T est une constante du moteur. Ce couple entraîne une
charge mécanique dont le diagramme du corps libre est
montré dans la figure.6.16b. L'amortissement visqueux (à
coefficient B) dissipe un couple |¢h ( ). Si ¦ est le moment
d'inertie de la charge (y compris le rotor du moteur), le couple
net Γ( ) − |¢h ( ) doit être égal à ¡¢g ( ):

¡¢g ( ) = Γ( ) − |¢h ( )
Soit (¡• ; + |•)¢( ) = Γ( ) = •T ( ) dont la forme
conventionnelle est :
A† ž Až
¦ † +¤ = ° I(D)
AD AD

Cependant, (1 / D) D n'est pas nécessairement unité.


L'utilisation de la règle de Cramer dans la résolution
d'équations intégro-différentielles simultanées va toujours
entraîner l'annulation des opérateurs 1/D et D. Cette
procédure peut donner des résultats erronés lorsque le facteur
D apparait dans le numérateur ainsi que dans le
dénominateur. Cela arrive, par exemple, dans les circuits avec
des boucles tous-inductance ou des ensembles tout-
condensateur. Pour éliminer ce problème, éviter l'opération
intégrale dans les équations du système de sorte que les
équations résultantes soient différentielles plutôt que intégro-
différentielle. Dans les circuits électriques, cela peut être fait
en utilisant une charge (au lieu de courants) variables dans les
boucles contenant des condensateurs et en choisissant les
courants variables pour les boucles sans condensateurs.
Dans la littérature ce problème de commutativité de D et 1/D
est largement ignoré. Comme mentionné précédemment, une
telle procédure donne des résultats erronés uniquement dans
des systèmes spéciaux, tels que les circuits à boucles tout-
inductance ou à ensembles tout-condensateur.
Heureusement ces systèmes constituent une très petite
fraction des systèmes avec lesquels nous travaillons.
IV. DESCRIPTIONS EXTERNE ET INTERNE
D’UN SYSTÈME
La relation d'entrée-sortie d'un système est une
description externe de ce système. Nous avons trouvé une
description externe (non pas la description interne) des
systèmes dans tous les exemples examinés jusqu'ici. Cela
peut dérouter le lecteur parce que dans chacun de ces cas,
nous avons calculé la relation d'entrée-sortie en analysant la
structure interne de ce système. Pourquoi est-ce que ce n'est
pas une description interne ? Qu'est ce qui rend une
description interne ? Bien qu'il soit vrai que nous avons trouvé
la description d'entrée-sortie par l'analyse interne du système,
nous l'avons fait pour sa commodité. Nous aurions pu obtenir
la description d'entrée-sortie en faisant des observations à ses
bornes (bornes d'entrée et de sortie) externes, par exemple,
en mesurant la sortie pour certaines entrées comme une
impulsion ou une sinusoïde. Une description qui peut être
obtenue à partir de mesures sur les bornes extérieures (même
lorsque le reste du système est étanche à l'intérieur d'une
boîte noire inaccessible) est une description externe. De toute
évidence, la description d'entrée-sortie est une description
externe. Qu'est-ce donc une description interne? Une
description interne est capable de fournir les renseignements
complets sur tous les signaux possibles dans le système. Une
description externe ne peut pas donner une telle information
complète. Une description externe peut toujours être trouvée
à partir d'une description interne, mais l'inverse n'est pas
nécessairement vrai. Nous allons maintenant donner un
exemple pour clarifier la distinction entre une description
externe et une description interne.
Soit le circuit de la figure.1.17a avec l'entrée x(t) et la sortie
y(t) enfermés à l'intérieur d'une "boîte noire" avec seulement
les bornes d'entrée et de sortie accessibles. Pour déterminer
sa description externe, nous appliquons une tension connue
x(t) aux bornes d'entrée et mesurons la tension de sortie
résultante y(t)

Fig.6.17 : un système qui ne peut pas être décrit par des mesures
externes

Supposons aussi qu'il y a une certaine charge initiale


Qo présente sur le condensateur. La tension de sortie
dépendra généralement à la fois, de l'entrée x(t) et de la
charge initiale Qo. Pour calculer la sortie résultant en raison
de la charge Qo, on pose l'entrée x(t) = 0 (court-circuit à
l'entrée).
Dans ce cas, les courants dans les deux résistances 2
Ω dans les branches supérieures et inférieures au niveau des
bornes de sortie sont égaux et opposés en raison de la nature
équilibrée du circuit. De toute évidence, la charge du
condensateur produit une tension nulle à la sortie.
Maintenant, pour calculer la sortie y(t) résultant de la
tension d'entrée x(t), on suppose nulle la charge du initiale du
condensateur (court-circuit aux bornes du condensateur). Le
courant i(t) (Fig.1.17a), dans ce cas, se divise également entre
les deux branches parallèles parce que le circuit est équilibré.
Ainsi, la tension aux bornes du condensateur demeure à zéro.
Par conséquent, pour le calcul du courant i(t), le condensateur
peut être retiré ou remplacé par un court-circuit. Le circuit
résultant est équivalent à celui représenté sur la Fig.1.17b, ce
qui montre que l'entrée x(t) voit une charge de 5 Ω, et
1
“( ) = ( )
5
;
De même, parce que ( ) = 2“( ) b M ( ) = ` ( )

Ceci est la réponse totale. Il est clair que pour la


description externe, ne pas exister du condensateur. Aucune
mesure externe ou externe observation peuvent détecter la
présence du condensateur. En outre, si le circuit est enfermé
à l'intérieur d'une «boîte noire» de sorte que seuls les
terminaux externes sont accessibles, il est impossible de
déterminer les courants (ou) des tensions à l'intérieur du circuit
à partir de mesures ou d'observations externes. Une
description interne, cependant, peut fournir tous les signaux
possibles à l'intérieur du système. Dans l'exemple 7, nous
trouverons la description interne de ce système et montrer qu'il
est capable de déterminer tous les signaux possibles dans le
système.
Pour la plupart des systèmes, les descriptions externes
et internes sont équivalentes, mais il y a quelques exceptions,
comme dans le cas présent, où la description externe donne
une image insuffisante des systèmes. Cela se produit lorsque
le système est incontrôlable et / ou inobservable.
La Figure.1.18 montre des représentations
structurelles des systèmes incontrôlables et non observables
simples. Dans la Fig.1.18a, nous notons que la partie du
système (sous-système S2) à l'intérieur de la boîte ne peut
pas être commandé par l'entrée x(t). Dans la Fig.1.18b,
certaines des sorties du système (dans les sous-S2) ne peut
être observée à partir des bornes de sortie. Si nous essayons
de décrire un de ces systèmes par l'application d'une entrée
externe x(t) et en mesurant ensuite la sortie y(t), la mesure ne
sera pas caractériser l'ensemble du système, mais seulement
la partie du système (ici S1) qui est à la fois visible et
contrôlable (reliée à la fois à l'entrée et la sortie). Ces
systèmes ne sont pas souhaitables dans la pratique et
devraient être évités dans toute la conception du système. Le
système de la figure.1.17a peut être présenté ni contrôlable
ou ni observable. Il peut être représenté structurellement par
une combinaison des systèmes Fig.1.18a et 1.18b.

Fig.1.18 : Structures de systèmes non contrôlables et non


observables
La tension de sortie y(t) résultant en raison de la charge
du condensateur [en supposant x(t) = 0] est la réponse à
entrée nulle, ce qui, comme on l'a montré ci-dessus, est égal
à zéro. La composante de la sortie due à l'entrée x(t) (en
supposant la charge initiale du condensateur nulle) est la
réponse au repos. L'analyse complète de ce problème est
donnée plus tard dans l'exemple 7.

V. MODELISATION PAR DIAGRAMME BLOCS


Les diagrammes blocs ou schémas fonctionnels peuvent
représenter plus d’informations que les équations
différentielles car ils montrent non seulement les signaux
d’entrée et de sortie mais également les états internes d’un
système. Si, seule la relation d’entrée-sortie nous intéresse
alors le choix des états internes n’est pas important, et il existe
plusieurs diagrammes blocs correspondant à une même
équation différentielle. Dans le cas où des spécifications
additionnelles sur la structure interne sont disponibles, le
diagramme bloc peut-être construit de manière à représenter
les états internes du système. Par exemple, l’énergie stockée
dans les composants d’un réseau électrique.
Des différentes structures possibles de diagrammes blocs,
il y en a qui sont particulièrement adéquats si l’équation
différentielle du système est connue. Nous allons examiner ici
trois de ces structures en détails.

1. Forme directe I
Notre point de départ est un système SLIC tel que modélisé
par l’Eq.1. avec w = u. Nous intégrons l’équation N fois.

∑v
N) MN (N)
= ∑v
() O( (()
Eq.1.
Avec MN = $v N % O( = xv ( on écrit (N)
pour l’intégrale
d’ordre “.

²< ²=
(N)
= ± …± ( ) ³… N ³ N Eq.1.

Le réarrangement

= ( )
=
7 >=0 O>
´∑u (>)
− ∑u
“=0 M“ (“)
µ Eq.1.
conduit immédiatement au diagramme bloc d’un système
SLIC dans la forme directe I (fig.1.). Les boites rectangulaires
représentent une multiplication par le facteur indiqué à
l’intérieur de la boite, ou alternativement une seule intégration,
et le cercle avec le signe de sommation représente une
addition des signaux d’entrée.
L’avantage des diagrammes blocs avec cette structure
est que les coefficients des équations différentielles
apparaissent directement comme des valeurs des
multiplicateurs. Le désavantage est que pour une équation
différentielle d’ordre N il faut réaliser 2N intégrations.
Fig.1. : Système SLIC dans la forme directe I

2. Forme directe II
Nous allons construire une nouvelle forme de diagramme
bloc avec une structure différente qui n’utilise que N
intégrations. Pour créer cette nouvelle structure, nous
manipulons la forme directe I, en interchangeant les premiers
et deuxièmes étages (fig.1.). Cela est permis, car des
systèmes SLIC en cascade peuvent être interchangés sans
affecter leur fonction de transfert globale. Nous allons montrer
ce concept général de façon plus élégante dans un chapitre
ultérieur avec l’aide du modèle du domaine fréquentiel. Pour
le moment, cependant nous allons juste voir cette propriété
comme une assertion utile. Les deux cascades d’intégrateurs
de la fig.1. s’exécutent en parallèle tandis que les signaux
d’entrée des intégrateurs sont les mêmes à partir de = −∞,
de même que leur signaux de sortie. Nous pouvons cependant
rendre unitaire ces deux cascades et arriver à la forme directe
II montrée à la Fig.1.
Comme avec la forme directe I ; les coefficients de
multiplication de la forme directe II sont les coefficients de
l’équation différentielle. Plus important, cette forme requiert les
seules N intégrateurs, le nombre minimum pour une équation
différentielle d’ordre N. Les diagrammes blocs qui utilisent un
nombre minimal de stockage d’énergie (intégrateurs) pour la
réalisation d’une équation différentielle d’ordre N sont aussi
appelées formes canoniques.
Les signaux ¶N ,“ = 1, … , u, aux sorties des intégrateurs
dérivent l’état interne du système, c'est-à-dire que cet état est
non seulement modélisé par l’équation différentielle
correspondante, mais il est également donné par une
structure interne en forme directe II. Sans connaissance de la
réalisation effective du système, cette mission des états est,
bien sûr, tout à fait arbitraire.
Nous avons construit forme directe I directement à partir
de l'équation différentielle, et il est clair que les systèmes avec
cette structure satisfont l'équation différentielle (2.3). Nous
devons toujours veiller à ce que forme directe II directe
satisfait la même équation différentielle. Après tout, nous
avons utilisé l'hypothèse non encore prouvées que les deux
étapes de forme directe I peux être interchangés pour créer la
forme directe II. Pour vérifier la forme directe II nous
exprimons d'abord le signal d'entrée x et le signal de sortie y
en fonction des états ¶N ,“ = 1, … , u,

Fig.1. : Obtention du diagramme bloc de la forme directe II à partir


de la forme directe I

Les signaux d'entrée et de sortie sont lié par l'intermédiaire


des états au niveau des sorties de l'intégrateur, mais aussi
directement par le chemin vers le haut, et bien sûr nous
devons considérer ce chemin ainsi. Pour simplifier la notation,
nous introduisons un autre signal · interne, et soulignons qu'il
ne représente pas un état.
Fig.1. : Un système SLIC dans la forme directe II

Du schéma fonctionnel (figure 2.3), les relations


v v
1
= ¸ ON ·N % · = ¹ − ¸ MN ·N º [Z. 1.
M
N) N)
sont obtenues directement. La dernière relation peut être
réécrite comme
v

= ¸ MN ·N [Z. 1.
N)

En outre, chaque variable d'état peut être obtenue en


intégrant fois.

·N = ^ · [Z. 1.
(N)
Nous insérons maintenant (2.7) dans le côté gauche de
l'équation intégrale (2.4), qui est équivalente à l'équation
différentielle (2.3). En permutant l'ordre de sommation et de
l'intégration, et en utilisant de plus (2.9), nous obtenons

v v v

¸ M( ^ = ¸ M( ^ ¸ ON ·N =
(() (()
() () N)
v v v v

= ¸ ¸ M( ON ^ ·N = ¸ ¸ M( ON ^ · [Z. 1.
() N) (() () N) ((_ )

Intégrer · de façon répétée > + “ fois est équivalent à


intégrer ·( à plusieurs reprises “ » “&. Interchanger l'ordre
d'intégration et de sommation produit

v v v v

¸ M( ^ = ¸ ¸ M( ON ^ ·( = ¸ ON ^ ¸ M( ·(
(() (N) (()
() () N) N)

La dernière somme que nous reconnaissons comme x


comme dans (2.8), d'où l'équation intégrale (2.4) est satisfaite.
Cela montre que les signaux d'entrée et de sortie d'un
système dans la forme directe II en effet satisfait à l'équation
différentielle (2.3) comme nous l'avions espéré.

Exemple :
Construire le diagramme bloc de l’équation suivante :

4 g − h + 2 = −3 h +
Nous pouvons créer le diagramme de la forme directe II
présenté dans la figure 2.4 directement à partir de Figure 2.3.

Fig.1. : Exemple de diagramme bloc dans la forme directe II

3. Forme directe III

La construction d'une autre structure utilisée provenant de


nouveau de l'équation différentielle (2.3). Contrairement
aux formes directes I et II, nous n'allons faire aucun usage
des équations intégrales ou de réarrangement des
diagrammes. Au lieu de cela, nous obtenons les variables
d'état directement à partir de l'équation différentielle. La
transformation prend N étapes, chacune composée des
éléments suivants:
 réarrangement de l'équation différentielle
 introduction d'une variable désormais de l'Etat
 intégration

Dans la première étape l'équation différentielle est


réorganisée de sorte que toutes les dérivées sont sur le côté
gauche. Le côté droit restant devient la dérivée de la nouvelle
variable d'état ·v :

v N v (
¸ $N N
− ¸ x( (
=x −$ = ·hv [Z. 1.
N) ()

Après intégration on obtient

v N v (
¸ $N_ N
− ¸ x(_ (
= ·v [Z1.1
N) ()

La deuxième étape commence à nouveau par la collecte


de tous les produits dérivés sur le côté gauche et en
introduisant une nouvelle variable d'état pour le côté droit.

v N v (
¸ $N_ N
− ¸ x(_ (
= ·v + x −$ = ·hv [Z. 1.
N) ()

L’intégration et changement d’indice conduisent à

v ; N v ; (
¸ $N_; N
− ¸ x(_; (
= ·v [Z1.1
N) ()

Avec la u“è½% étape seule la première dérivée en fonction


du temps reste

$v − xv = ·; + xv − $v = ·h [Z. 1.
L’intégration finale donne

$v − xv = · [Z. 1.

Avant de dessiner le diagramme bloc on résume les équations


importantes et on renomme les coefficients de telle sorte que
MN = $v N , O( = xv (

1
= [· + O ]
M
·h = ·; + O − M
·h; = ·z + O; − M; [Z. 1.

·hv = ·v + Ov − Mv
·hv = Ov − Mv

La représentation de schéma de principe est illustrée à


la figure 2.5. Il peut également être obtenu graphiquement à
partir directe, forme directe II (Figure 2.3), si

• l'entrée x et la sortie y sont échangés,


• toutes les flèches sont inversées et
• les nœuds de sommation et de fractionnement sont
échangés.
Fig.1. : Système SLIC dans la forme directe III

Exemple :

La structure d'un système SLIC dans la forme


directe III peut être obtenue pour l'équation différentielle (2.12)
de l'exemple 2.1 à travers les étapes décrites ci-dessus.
Comme c'est une équation différentielle du second ordre,
deux étapes de transformation doivent être effectuées.
La première étape introduit la variable d'état ·; :

4 g − h + 3 h = − 2 = ·h; [Z. 1.
4 h − + 3 = ·; [Z. 1.
La deuxième étape introduit la variable d’état · :

4 h = ·; − 3 + = ·h [Z. 1.
4 =· [Z. 1.

Le digramme bloc dans la forme directe III peut être réalisé à


partir des équations

1
= ·
4 [Z. 1.
·h = ·; − 3 +
·h; = −2

Fig.1. : Un diagramme bloc dans la forme directe III déduit de


l’exemple précédent
4. Pourquoi ne pas utiliser des différenciateurs
pour construire des Systèmes SLIC?

Les schémas fonctionnels et les équations différentielles


sont des formes tout aussi valables pour la modélisation de
systèmes SLIC. Avec des schémas fonctionnels de la Forme
directe I, II et III la correspondance du schéma de principe et
l'équation différentielle est suffisamment forte de sorte que les
coefficients de ces deux formes correspondent. La différence
la plus frappante est que les équations différentielles sont
constituées de dérivés, alors que les diagrammes contiennent
des intégrateurs. Pourquoi ne pas supprimer cette différence
et construire des schémas fonctionnels utilisant des dérivées?
Si les diagrammes blocs existaient seulement comme
modèles de systèmes déjà mis en œuvre, alors l'utilisation des
différentiateurs ne ferait aucune différence. Les schémas
fonctionnels ont aussi une autre tâche utile: ils servent de
modèle pour la réalisation de systèmes qui n'existent pas
encore. La fonction de transfert requise peut être formulée
sous la forme mathématique d'une équation différentielle et
converti en un schéma de principe, à partir duquel les
composants individuels peuvent ensuite être créés. Afin de
décider qui des différenciateurs ou des intégrateur sont plus
appropriés en tant que point de départ pour la mise en œuvre,
les caractéristiques des signaux impliqués doivent être
considérées.
Chaque signal analogique est sujet à la corruption par le
bruit, c'est à dire qu'il contient des composantes indésirables
et généralement en évolution rapide. Les Différenciateurs
amplifient les changements rapides du signal et donc
augmentent le niveau de bruit indésirable. Les Intégrateurs,
quant à eux lissent et suppriment le bruit indésirable. C'est
pour cette raison que les schémas fonctionnels formés avec
des intégrateurs conduisent à des réalisations de qualité
supérieure, plus robustes. Un exemple de réalisation physique
d'un intégrateur est donné dans la section suivante.

5. Implémentation électrique d’un intégrateur en


utilisant un amplificateur opérationnel

Les circuits d'amplificateur opérationnel (AOP) sont un


exemple important de la mise en œuvre électrique
d'intégrateurs. Les AOP sont des amplificateurs à semi-
conducteurs qui, viennent généralement sous la forme de
circuits intégrés et peuvent être ainsi approximés à l'aide d'un
modèle très simple.

Fig.1. : Représentation symbolique d’un AOP

Un AOP idéal a les caractéristiques suivantes :


 L’impédance d’entrée est infinie c'est-à-dire aucun flux
de courant entre les bornes + et -.
 L’impédance de sortie est nulle, soit la sortie est une
source de tension idéale
 Le facteur d’amplification A est infini (>
10À b {ÁÂ
 Si un feedback négatif est appliqué, Ã_ ≈ Ã , c'est-à-
dire que les deux bornes d’entrée sont au même
potentiel.

Avec ces caractéristiques il est facile de montrer qu’un AOP


avec un feedback capacitif intègre la tension d’entrée ( )

Fig.1. : Amplificateur Opérationnel avec un circuit de feedback

En raison de l'impédance d'entrée infinie du courant i (t) à


travers la résistance R est égal au courant traversant le
condensateur C. L'amplification infinie force les deux bornes
au même potentiel, d'où la tension aux bornes de la résistance
est égale à la tension U1(t) d'entrée. Le courant i(t) est donc:

( ) ;
“( ) = = −€ [Z. 1.
De ce qui suit la relation intégrale requise entre ( )% ;( ):

−1
;( )= ^ ( ) [Z. 1.

Le circuit donné est donc un intégrateur de la tension d'entrée.
Comme l'addition et la multiplication sont également possibles
en utilisant des amplificateurs opérationnels avec d'autres
configurations de circuit, les systèmes peuvent être mis en
œuvre comme des circuits électriques directement à partir de
diagrammes.

VI. MODELISATION INTERNE : DESCRIPTION


DE L’ESPACE ETAT
Nous allons maintenant introduire la description d'espace
d'état d'un système linéaire, qui est une description interne
d'un système. Dans cette approche, nous identifions certaines
variables clés, appelées variables d'état, du système. Ces
variables ont la propriété que tous les signaux possibles dans
le système peuvent être exprimés comme une combinaison
linéaire de ces variables d'état. Par exemple, nous pouvons
montrer que tous les signaux possibles dans un circuit RLC
passif peuvent être exprimés comme une combinaison linéaire
des tensions des condensateurs indépendants et des
courants d'induction, qui, par conséquent, sont les variables
d'état pour ce circuit.
Pour illustrer ce point, considérons le réseau de la
figure.1.19. Nous identifions deux variables d'état; q1 la
tension du condensateur et le courant dans l'inductance q2. Si
les valeurs de Q1, Q2, et l'entrée x(t) sont connues à un instant
t, nous pouvons démontrer que tous les signaux possibles
(courant ou tension) dans le circuit peuvent être déterminés à
t. Par exemple, si q1 = 10, q2 = 1, et l'entrée x = 20 à un certain
instant, les tensions et les courants restants à cet instant
seront
( −Z )
“ = = 20 − 10 = 10 {
1
= − Z = 20 − 10 = 10 Å
Z
= Z = 10 Å “; =
=5{
;
2
“ = “ − “; − Z; = 10 − 5 − 1 = 4 { (Eq.1.12)
“z = Z; = 1 {
z = 5Z; = 5 Å
} = Z − z = 10 − 5 = 5 Å

Ainsi tous les signaux dans ce circuit sont déterminés.


De toute évidence, les variables d'état se composent des
variables clés dans un système; une connaissance des
variables d'état permet de déterminer chaque sortie possible
du système. Notez que la description des variables de l'État
est une description interne d'un système, car il est capable de
décrire tous les signaux possibles dans le système.

Fig.1.20 : Choisir les conditions initiales appropriées dans un


réseau

Exemple 6.

Cet exemple illustre comment les équations d'état


peuvent être naturelles et plus faciles à déterminer que
d'autres descriptions, tels que les équations de maille ou de
nœuds. Considérons à nouveau le réseau de la figure.1.20
avec Z % Z; comme variables d'état et écrivons les équations
d'état. Cela peut se faire par simple inspection de la Fig.1.20.
Comme Zh est le courant à travers le condensateur,
Zh = “ = “ − “; − Z;
= ( − Z ) − 0.5Z − Z;
= −1.5Z − Z; +

De même 2Zh ;, est la tension à travers l’induction, est


donnée par :

2Zh ; = Z − z
Zh ; = 0.5Z − 2.5Z;
= Z − 5Z;

Ainsi, les équations d'état sont :

Zh = −1.5Z − Z; +
Zh ; = 0.5Z − 2.5Z; ([Z. 1.13)

Ceci est un ensemble de deux équations simultanées


différentielles du premier ordre. Cet ensemble d'équations est
connu sous le nom d'équations d'état. Une fois que ces
équations ont été résolues pour Q1 et Q2, tout le reste dans
le circuit peut être déterminé en utilisant les équations
(Eq.1.12). L'ensemble des équations de sortie (Eq.1.12) est
appelé équations de sortie. Ainsi, dans cette approche, nous
avons deux ensembles d'équations, les équations d'état et les
équations de sortie. Une fois que nous avons résolu les
équations d'état, toutes les sorties possibles peuvent être
obtenues à partir des équations de sortie. Dans la description
d'entrée-sortie, un système d'ordre n est décrit par une
équation d'ordre n. Dans l'approche variable état, le même
système est décrit par N équations d'Etat simultanées de
premier ordre.

Exemple 7

Dans cet exemple, nous étudions la nature des


équations d'état et la question de la contrôlabilité et
observabilité pour le circuit de la figure.1.21a.
Ce circuit ne comporte qu'un seul pas de condensateur et
inducteurs. Par conséquent, il y a une seule variable d'état, le
q de tension de condensateur q(t). Etant donné que C = 1 F,
le courant du condensateur est q. Il y a deux sources dans ce
circuit: l'entrée x(t) et q de la tension de condensateur (t). La
réponse en raison de x(t), en supposant que Z( ) = 0, est la
réponse à entrée nulle, qui peut être trouvé à partir de la
Fig.1.21a, où nous avons court-circuité le condensateur
[Z( ) = 0]. La réponse due à q(t) en supposant que ( ) =
0, est la réponse au repos, qui peut être trouvé à partir de la
Fig.1.21b, où nous avons court-circuité x(t) pour assurer le
fait que ( ) = 0. Il est maintenant trivial pour trouver les deux
composants.

La Figure 1.21a montre courants libres dans chaque


branche. Il est clair que l'entrée x(t) voit une résistance
efficace de 5 Ω, et, par conséquent, le courant à travers x(t)
est x /5 A, qui se divise en deux branches parallèles résultant
dans le courant x /10 par chaque branche.
Fig.1.21 : L'analyse d'un système qui ne soit ni contrôlable ni
observable

L'examen du circuit à la Fig.1.21b pour la réponse à


entrée nulle, nous notons que la tension du condensateur est
q et le courant est q. Nous observons également que le
condensateur voit deux boucles en parallèle, chacune avec
une résistance de 4 Ω et de courant q/2. Fait intéressant, la
branche de 3 Ω est effectivement court-circuitée parce que le
circuit est équilibré, et donc la tension aux bornes cd est nulle.
Le courant total dans une branche est la somme des courants
dans cette branche à la figure.1.21a et 1.21b (principe de
superposition)

| MbŸℎ% € Mb S%b&“ b
Zh Zh
ŸM + 2Ç + È
10 2 10 2

Zh Zh
ŸO − 2Ç − È
10 2 10 2
• Éh • Éh
M −; 2 • − ;’
(Eq.1.14)
Zh Zh
O + 2Ç + È
10 2 10 2
%Ÿ 3• ’
5 5
%
5

Pour trouver l'équation d'état, nous notons que le


courant dans la branche ca est ( /10) + Z/2 et le courant
dans la branche cb est ( /10) − Z/2. Par conséquent,
l'équation autour de la boucle ?£G? est

Zh Zh
Z = 2 Ê− − Ë + 2 Ê − Ë = −2Zh
10 2 10 2
Ou
Zh = −0.5Z (Eq.1.15)

Ceci est l’équation d’état désirée.

Le remplacement de Z = −0.5Z dans les équations.


(Eq.1.14) montre que chaque courant possible et tension dans
le circuit peut être exprimé en termes de la variable d'état q
et l'entrée x, comme souhaité. Par conséquent, l'ensemble
des équations. (Eq.1.14) est l'équation de sortie de ce circuit.
Une fois que nous avons résolu l'équation d'état (Eq.1.15)
pour q, nous pouvons déterminer chaque sortie possible dans
le circuit.
La sortie y(t) est donnée par

Zh Zh
( ) = 2Ê − Ë +2Ê + Ë
10 2 10 2
2
( )= ( ) ([Z. 1.16)
5

Un petit examen de l'état et des équations de sortie


indique la nature de ce système. L'équation d'état (Eq.1.15)
montre que l'état q(t) est indépendante de l'entrée x(t), et par
conséquent, le q de l'état du système ne peut pas être contrôlé
par l'entrée. En outre, Eq. (1.16) montre que la sortie y(t) ne
dépend pas de l'état q (t). Ainsi, l'état du système ne peut être
observé à partir des bornes de sortie. Par conséquent, le
système n’est ni contrôlable, ni observable. Telle n’est pas le
cas des autres systèmes examinés plus tôt. Considérons, par
exemple, le circuit de la Fig. 1.20. L'équation d'état (Eq.1.13)
montre que les états sont influencés par l'entrée directement
ou indirectement. Par conséquent, le système peut être
commandé. De plus, comme la sortie équations. (Eq.1.12)
spectacle, chaque sortie possible est exprimé en termes de
variables d'état et de la entrée. Par conséquent, les états sont
également observables.

Les Techniques des espaces états sont utiles non


seulement en raison de leur capacité à fournir une description
interne du système, mais pour plusieurs autres raisons, y
compris ce qui suit.

1. Les équations d'état d'un système fournissent un


modèle mathématique de grande généralité qui peut
décrire non seulement les systèmes linéaires, mais
aussi non linéaires; les systèmes non seulement
invariants dans le temps, mais aussi des systèmes à
paramètres variables dans le temps; pas seulement
SISO (unique entrée / sortie unique), mais aussi des
systèmes à entrées multiples / sorties multiples
(MIMO). En effet, les équations d'état sont
parfaitement adaptées pour l'analyse, la synthèse et
l'optimisation des systèmes MIMO.
2. La notation matricielle compacte et les puissantes
techniques de l'algèbre linéaire facilitent grandement
les manipulations complexes. Sans ces
caractéristiques, de nombreux résultats importants de
la théorie de système moderne auraient été difficiles à
obtenir. Les équations d'état peuvent donner
beaucoup d'informations sur un système, même quand
ils ne sont pas résolus de manière explicite.
3. Les équations d'état se prêtent facilement à la
simulation informatique numérique de systèmes
complexes d'ordre élevé, avec ou sans non-linéarités,
et avec plusieurs entrées et sorties.
4. Pour les systèmes de second ordre (n = 2), une
méthode graphique appelée analyse du plan de phase
peut être utilisée sur les équations d'état, qu'ils soient
linéaires ou non linéaires.

Les vrais avantages de l'approche espace-état, cependant,


sont réalisés pour les systèmes très complexes d'ordre élevé.
Une grande partie du livre est consacrée à l'introduction des
concepts de base de l'analyse des systèmes linéaires, qui doit
nécessairement commencer par des systèmes plus simples
sans utiliser l'approche état-espace. Un Chapitre spécial
traitera de l’analyse de l’état-espace de système linéaire,
invariant dans le temps, à temps continu, et à temps discret.
Exercice 6
Écrire les équations d'état pour le circuit RLC série
indiqué sur la figure.1.22, en utilisant le courant d'inducteur
q1(t) et la q2(t) de tension de condensateur en tant que
variables d'état. Exprimer chaque tension et le courant dans
ce circuit comme une combinaison linéaire de q1, q2, et x.

Fig.6.22

Réponse :
Zh = −3Z − Z; +
Zh ; = 2Z
Z = −3Z − Z; +
Zh ; = 2Z
REFERENCES
1. Papoulis, A. The Fourier Integral and Its Applications.
McGraw-Hill, New York, 1962.
2. Mason, S. J. Electronic Circuits, Signals, and Systems.
Wiley, New York, 1960.
3. Kailath, T. Linear Systems. Prentice-Hall, Englewood
Cliffs, NJ, 1980.
4. Lathi, B. P. Signals and Systems. Berkeley-Cambridge
Press, Carmichael, CA, 1987.

Vous aimerez peut-être aussi