Vdocuments - MX - Analisis de Sistemas Dinamicos
Vdocuments - MX - Analisis de Sistemas Dinamicos
An´
alisis de sistemas
din´
amicos lineales
An´
alisis de sistemas
din´
amicos lineales
Oscar G. Duarte V.
Profesor asociado del Departamento de
Ingenierı́a Eléctrica y Electr´
onica
Contenido
Contenido IX
Lista de figuras XV
Prefacio XXIII
2. Preliminares matemáticos 21
2.1. Ecuaciones diferenciales y de diferencia . . . . . . . . . . . . . . . 21
2.1.1. Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . 21
2.1.2. Ecuaciones de diferencias finitas . . . . . . . . . . . . . . 22
2.1.3. Ecuaciones diferenciales y de diferencias lineales . . . . . 23
2.1.4. Métodos de solución de E.D. lineales . . . . . . . . . . . . 24
Z
2.2. Transformadas de Laplace y . . . . . . . . . . . . . . . . . . . 27
2.2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3. Parejas de transformadas . . . . . . . . . . . . . . . . . . 31
2.2.4. Utilización de la tabla de parejas de transformadas . . . . 32
ix
OSCAR G. DUARTE
x
CONTENIDO
xi
OSCAR G. DUARTE
xii
CONTENIDO
Bibliografı́a 295
xiii
OSCAR G. DUARTE
xiv
Lista de figuras
xv
OSCAR G. DUARTE
xvi
LISTA DE FIGURAS
xvii
OSCAR G. DUARTE
xviii
LISTA DE FIGURAS
xix
OSCAR G. DUARTE
xx
Lista de tablas
xxi
OSCAR G. DUARTE
xxii
Prefacio
xxiii
OSCAR G. DUARTE
Oscar G. Duarte
xxiv
Capı́tulo 1
Introducción al modelamiento de
sistemas
1.1.1. Sistemas
No es fácil encontrar una definición exacta de sistema , quizás porque el tér-
mino es utilizado en muy diversos contextos. En un sentido amplio, podemos
entender por sistema aquello que se va a estudiar . Tal definición es extrema-
damente vaga pero pone de manifiesto la necesidad de delimitar el objeto de
estudio, de imponerle unas fronteras precisas. Dividimos el universo en dos par-
tes: El sistema y todo lo demás; esto último lo denominamos el Entorno del
Sistema.
Podemos imaginar sistemas de tipos muy diferentes de acuerdo a qué es lo
que se va a estudiar; si se desea conocer cómo se nutre un determinado animal
estariamos definiendo un sistema biológico, mientras que si lo que se quiere es
conocer la variación de la población en una determinada ciudad a través de los
años definiriamos un sistema sociológico. Pueden plantearse también sistemas
abstractos, como por ejemplo el conjunto de los número enteros o las estrategias
de comunicación lingüı́s ticas.
El propósito de este curso no es, por supuesto, abordar cualquier tipo de
sistema, sino que se limita al estudio de un tipo especı́fico de sistemas que suelen
denominarse en el contexto de la fı́sica, la matemática y la ingenierı́a Sistemas
1
OSCAR G. DUARTE
amicos Lineales . Para precisar qué tipo de sistemas son éstos requerimos
Din´
primero de la presentación de los conceptos dese˜
nales y modelos .
1.1.2. Señales
Las señales son el medio a través del cual el sistema interactúa con su entorno.
En la figura 1.1 se visualiza esta interacción: El sistema, está representado por
un rectángulo, lo que da a entender que tiene sus fronteras definidas en forma
precisa; este sistema recibe del entorno unas se˜ nales de entrada , representadas
por flechas, y entrega a su entorno unas se˜ nales de salida , también representadas
por flechas.
En las aplicaciones tı́picas de ingenierı́a, las señales de entrada y salida son
variables (fı́sicas o abstractas) que cambı́an en el tiempo, como por ejemplo,
fuerzas, velocidades, temperaturas, etc.
Cuando un sistema recibe una única señal de entrada y produce una única
señal de salida, se dice que es un sistema SISO (del inglés Single Input Single
Output ), mientras que si recibe varias entradas y produce varias salidas, se dice
que es un sistema MIMO (del inglés Multiple Input Multiple Output ). También
existen las denominaciones MISO para sistemas de varias entradas y una sóla
salida, y SIMO para el caso con una entrada y varias salidas, éste úlimo poco
frecuente.
1.1.3. Modelos
Para entender un sistema debemos hacer una representación abstracta de él;
tal representación es el modelo del sistema. La figura 1.2 visualiza la diferencia
que existe entre sistema y modelo. El sistema existe, y de él hacemos una o
varias abstracciones para poder comprenderlo. Las representaciones abstractas
pueden ser de muchos tipos (ecuaciones, gráficas, etc.) algunos de los cuales son:
2
Modelos gráficos: en ocasiones empleamos tablas y/o gráficas como modelos;
los catálogos de productos de ingenierı́a suelen contener muchos ejemplos
de este tipo de modelo.
Modelos matemáticos: estos modelos son ampliamente usados en áreas como
la fı́sica, la ingenierı́a, la economı́a, etc.; generalmente se trata de ecua-
ciones que muestra las relaciones existentes entre las variables que afectan
un sistema;
Modelos de software: en ocasiones es posible desarrollar programas de com-
putador que representen a sistemas complejos.
Modelo1
Modelo3
3
OSCAR G. DUARTE
Modelamiento Identificación
de Sistemas de Sistemas
Modelos Modelos Modelos
de caja de caja de caja
blanca gris negra
4
Modelos
Matemáticos
No Causales Causales
Estáticos Dinámicos
Determi-
Estocásticos
nı́s ticos
Parámetros Parámetros
Distribuidos Concentrados
No Lineales Lineales
Variantes Invariantes
en tiempo en tiempo
Discretos Continuos
5
OSCAR G. DUARTE
f (αx) = αf (x)
6
7
OSCAR G. DUARTE
dn y
an
dtn
+ ··· + a1 dy
dt
+ a0 y(t) =
dm u
bm
dtm
+ ··· + b1 du
dt
+ b0 u(t) n ≥ m (1.1)
Por su parte, un sistema discreto de una única entrada y una única salida,
como el de la figura 1.6, tendrá por modelo una ecuaci´
on de diferencias finitas
ordinaria de coeficientes constantes :
u(t) Sistema
y(t)
u(k) Sistema
y(k)
≥
La condición n m de las ecuaciones (1.1) y (1.2) asegura modelos causales.
En efecto, podemos suponer una ecuación de diferencias que viole esta condición,
por ejemplo y(k) = u(k + 1) ; es obvio que para cualquier k la salida del sistema
depende de una condición futura de la entrada, (por ejemplo para k = 0 se tiene
y(0) = u(1)), lo que viola la condición de causalidad.
Otro tipo de ecuaciones diferenciales que se emplearán relacionan vectores
de variables mediante matrices. Para el caso continuo se muestra un ejemplo en
(1.3) y para el caso discreto en (1.4)
ẋ1 a11 a12 a13
x1
ẋ2 = a21 a22 a23
x2 (1.3)
ẋ3 a31 a32 a33 x3
8
x1 (k + 1) a11 a12 a13
x1 (k)
x2 (k + 1) = a21 a22 a23
x2 (k) (1.4)
x3 (k + 1) a31 a32 a33 x3 (k)
9
O
S
C
A
R
G
.
D
U
A
Eléctrico A Eléctrico B Mecánico Mecánico ro- Hidraúlico Térmico R
T
traslacional tacional (Tanques) E
11
OSCAR G. DUARTE
figura 1.9 muestra los dos tipos de uniones existentes, sus sı́mbolos y las
relaciones matemáticas que los rigen.
Ejemplo 1.1 La figura 1.10 muestra el diagrama de un elevador, compuesto por un
motor eléctrico, un eje, una polea, un cable y un vagón. En el motor hay un circuito
eléctrico que incluye una resistencia, una inductancia y la tensión contraelectromo-
triz; el eje se considera rı́gido, sin masa y con fricción viscosa; la polea tiene un
momento de inercia; el cable es elástico y el vagón está directamente acoplado al
cable.
La figura 1.11 muestra el sistema en forma esquematica, resaltando la existencia
de diferentes dominios de energı́a: eléctrico, rotacional y traslacional. La figura 1.12
muestra el grafo de enlaces de potencia del sistema completo: en la primera unión
se representa el circuito eléctrico en serie (unión tipo 1 porque el flujo es común);
el rotador representa la conversión de energı́a eléctrica en rotacional; la siguiente
unión representa el comportamiento de la polea; el transformador muestra el cambio
del dominio de energı́a rotacional al traslacional; y la última unión representa los
fenómenos mecánicos en el vagón, incluida la atracción de la gravedad. En este
grafo se han numerado todos los enlaces, para facilitar su identificación.
12
Elemento e e = Rf
R
R f
f = Re
Elemento e
e = C f dt
C
C f f = C
1 de
dt
e = I ddtf
Elemento e
I
I f
f = 1I edt
Fuente de e
S e e = S e
Esfuerzo f
e1 e2 e1 = ke 2
Transformador T F : k
f 1 f 2
f 1 = f k2
e1 e2 e1 = kf 2
Rotador GY : k
f 1 f 2
f 1 = ek2
13
OSCAR G. DUARTE
e2 f 2
Unión e1 e3 e1 = e 2 = e 3 = e 4
0
Tipo 0 f 1 f 3
f 1 = f 2 + f 3 + f 4
f 4 e4
e2 f 2
14
+
v(t)
−
Dominio Rotacional
Re L
k J −D/2
Rb
+
us
−
l
a
n
o
i
c
a
l
C e s
Dominio Eléctrico a
r
T
o
i
n
i
m m
o
D
mg
15
OSCAR G. DUARTE
e2 f 2 e6 f 6
S ..e e1 e3 GY
.. e5 e7 D
us f 1
1
f 3 k f 5
1
f 7
T F : −2
f 4 e4 f 8 e8
f 9 e9
R : Re R : R b
f 10
C : C el e10 0
f 11 e11
e13
S e : mg 1
f 13
f 12 e12
I:m
16
1.3.2. Causalidad
En las figuras 1.7 y 1.8 se observa que las relaciones entre esfuerzo y flujo
pueden escribirse de dos formas diferentes para algunos de los elementos:
17
OSCAR G. DUARTE
Ejemplo 1.2 Retomando el ejemplo 1.1, cuyo grafo de enlaces de potencia se mues-
tra en la figura 1.12, el procedimiento de asignación de causalidades permite obtener
el grafo causal de la figura 1.14
Ejemplo 1.3 Las ecuaciones del grafo causal de la figura 1.14 (Ejemplos 1.1 y 1.2)
se obtienen asi:
18
e2 f 2 e6 f 6
S ..e e1 e3 GY
.. e5 e7 D
us f 1
1
f 3 k f 5
1
f 7
T F : −2
f 4 e4 f 8 e8
f 9 e9
R : Re R : Rb
f 10
C : C el e10 0
f 11 e11
e13
S e : mg 1
f 13
f 12 e12
I:m
19
OSCAR G. DUARTE
Circuitos eléctricos
1. Crear una unión tipo 0 por cada nodo del circuito.
2. Para cada elemento del circuito crear una unión tipo 1, adicionarle a esa
unión un enlace que represente al elemento y enlazar la unión con las dos
uniones tipo 0 correspondientes a los nodos entre los que está conectado
el elemento.
3. Asignar las direcciones de potencia a los enlaces.
4. Si hay un nodo de referencia, eliminar la unión tipo 0 correspondiente y
los enlaces adyacentes.
5. Simplificar el grafo.
Sistemas traslacionales
1. Crear una unión tipo 1 para cada velocidad diferente (absolutas y relati-
vas).
2. Para cada fenómeno que genere una fuerza, crear una unión tipo 0, adicio-
narle a esa unión un enlace que represente al fenómeno y enlazar la unión
con las dos uniones tipo 1 correspondientes; considerar las inercias.
20
Capı́tulo 2
Preliminares matemáticos
21
OSCAR G. DUARTE
f 2 (k) = 2(2 ) = 2, 4, 8, ··· ya que f 2 (k + 1) = 2(2 +1 ) = 2f 2 (k)
k k
f 3 (k) = 3(2 ) = 3, 6, 12, ··· ya que f 2 (k + 1) = 3(2 +1 ) = 2f 3 (k)
k k
f (k), f (k + 1), f (k + 2), f (k + 3), · ·· , f (k + n) con k = 0
es decir
f (0), f (1), f (2), f (3), · ·· , f (n)
Por ejemplo, al establecer f (0) = 1 como condición adicional para la ecuación
(2.2), la única solución válida es f 1 (k) = 2 k
1 En general el problema surge al considerar que un mismo sistema puede describirse por
22
2. proporcionalidad: f (ax1 ) = af (x1 )
Las derivadas, las integrales y las diferencias finitas son operaciones lineales. La
función f (x) = ax + b no es una función lineal, a menos que b sea cero 2 .
E.D. lineales
Las ecuaciones diferenciales lineales son de la forma
dy n
an (t)
dtn
+ ··· + a1(t) dy
dt
+ a0 (t)y(t) =
dum
bm (t)
dtm
+ ··· + b1(t) du
dt
+ b0 (t)u(t) (2.3)
23
OSCAR G. DUARTE
P (λ) = λ 2 + 3λ + 2
P (λ) = (λ + 2)(λ + 1)
24
25
OSCAR G. DUARTE
Remplazamos en la E.D.:
26
c1 = 4 c2 = −3
Por lo tanto, la solución completa de la ecuación diferencial es:
f (t) : R →R
L
Existe una función denominada transformada de Laplace que toma como
argumento f (k) y produce una función F (s) de los complejos en los complejos.
F (s) : C →C
27
OSCAR G. DUARTE
f (t)
L F (s)
L−1
R →R C →C
Figura 2.1: Transformada de Laplace
Transformada Z
Dada una función f (t) de los enteros en los reales,
f (k) : Z →R
Z Z
Existe una función denominada transformada que toma como argumen-
to f (t) y produce una función F (s) de los complejos en los complejos.
F (s) : C →C
La función Z −1 denominada transformada inversa Z toma como argumento
F (z) y produce f (k), tal como se visualiza en la figura 2.2
La transformada se define4 como
Z
∞
.
F (z) = Z {f (k)} = f (k)z −k (2.16)
k=0
3 La integral que define la transformada de Laplace puede no converger para algunos valores
28
f (k)
Z F (z)
Z −1
Z →R C →C
Figura 2.2: Transformada Z
f (t)
L F (s) f (k)
Z F (z)
L−1 Z −1
R →R C →C Z →R C →C
La transformada de Laplace se defi- Z
La transformada se define como
ne como .
.
F (z) =
∞
Z{
f (k) }
L{
F (s) = f (t) } F (z) = k=0 f (k)z −k
∞
F (s) = 0 f (t)e−st dt
Transformada bilateral de Laplace : Transformada bilateral : Z
. .
L {
F b (s) = b f (t)
∞
}
F b (s) = −∞ f (t)e−st dt
Z { }
F b (z) = b f (k)
∞
F b (z) = k=−∞ f (k)z −k
29
OSCAR G. DUARTE
L{f 1(t) + f 2(t)} = F 1(s) + F 2(s) Z {f 1(k) + f 2(k)} = F 1 (z) + F 2 (z)
L{af (t)} = aF (s) Z {af (k)} = aF (z)
Diferenciación5 : Diferencia positiva:
L
df (t)
= sF (s) − f (0+) Z {f (k + 1)} = zF (z) − zf (0)
dt
i
5 El superı́ndice (i) indica la derivada de orden i: f (i) = ddtf
i
30
L
dn f (t)
dtn
= sn F (s) Z {f (k +−n)1 } = z F (z)
n
n
− n 1 n i 1 (i) +
− −− − =0 z − f (i)
i
n i
i=0 s f (0 )
dn F (s) Z {k n
}
f (k) =
L{ tn f (t) = ( 1)n
} − dsn
d
− z Z k (n−1) f (k)
dz
Teorema de valor inicial: Teorema de valor inicial:
t
lı́m f (t) = lı́m sF (s)
→∞ s →0 k
lı́m f (k) = lı́m (z
→∞ z →1
− 1)F (z)
Convolución: Convolución:
1. En cada uno de los casos de las tablas 2.5 y 2.6, las transformadas (de
31
OSCAR G. DUARTE
OSCAR G. DUARTE
× ×
× × ×
× ×
×
×
×
× × × × ×
×
×
×
34
OSCAR G. DUARTE
Ejemplo 2.5
2s2 + s + 2
F (s) =
s+1
= 2s − 1 + s +3 1
2. Identificar las raı́ces del polinomio del denominador ( pi ), y cuántas veces
se repite cada una de ellas (ri , o multiplicidad de la raiz).
N (s) N (s)
F (s) = = r1 (s r2 rk
D(s) (s − p1) − p2) ··· (s − p ) k
36
Ejemplo 2.6
F (s) =
− 3s + 1
=
A11
+
A21
(s + 2)(s + 4) s + 2 s + 4
A11 =
(s + 2)
− 3s + 1
=
−
3s + 1
=
7
(s + 2)(s + 4) (s + 4) 2
A21 =
(s + 4)
− 3s + 1
s= 2
−
=
−
3s + 1
s= 2
−
= − 132
(s + 2)(s + 4) s= 4
− (s + 2)
s= 4
−
F (s) =
− 3s + 1
=
7/2
+
13/2 −
(s + 2)(s + 4) s+2 s+4
Aij =
1 dri −j
(s { − p ) i
ri
F (s) }
(2.19)
(ri j)! dsri −j
− s= pi
Ejemplo 2.7
A13 =
1 d0
(s + 2)3
4s2 1 − = 4s2 −1
(0)! ds0 (s + 2)3 − = 15
s= 2
s= 2 −
A12 =
1 d 1
(s + 2)3
4s2
−
1
|
= 8s s=−2 = 8( 2) = − −16
(1)! ds1 (s + 2)3 s= 2 −
A11 =
1 d 2
(s + 2)3
4s2
−
1 1
|
= 8 s=−2 = 4
(2)! ds2 (s + 2)3 s= 2 − 2
4s2 1− 4 16 −
16
F (s) = = + +
(s + 2)3 (s + 2) (s + 2)2 (s + 2) 3
37
OSCAR G. DUARTE
Ejemplo 2.8
10 A11 A21 A31
F (s) = = + +
s(s2 + 4s + 13) − −−
s 0 s ( 2 + j3) s ( 2 j3) −−−
A11 =
(s)
10
=
10
=
10
s(s2 + 4s + 13)
s=0 (s2 + 4s + 13)
s=0 13
A21 =
(s − (−2 + j3)) s(s2 + 14s
10
+ 13)
s= 2+j 3−
A21 =
10
s(s − − − j3))
( 2 s= 2+j 3
−
10 10
A21 =
−
−
( 2 + j3)( 2 + j3 − (−2 − j3)) = (−2 + j3)( j6) = −0.38 + j0.26
10
A31 = (s − (−2 − j3)) 2
s(s + 14s + 13)
s= 2 j 3−−
A31 =
10
−−
s(s ( 2 + j3)) s= 2 j 3
−−
10 10
A31 =
− −
( 2 j3)( 2 j3 − − − (−2 − j3)) = (−2 − j3)(− j6) = −0.38 − j0.26
F (s) =
10
=
10/13
+
−
0.38 + j0.26
+
0.38 j0.26 − −
s(s2 + 4s + 13) s s ( 2 + j3) −− s ( 2 j3) −− −
Las fracciones complejas pueden sumarse (nótese que los numeradores y deno-
minadores de una fracción son los conjugados de la otra):
10 10/13
F (s) =
s(s2 + 4s + 13)
=
s
− s0.77s + 3.08
2 + 4s + 13
Otra estrategia
Existe otra posibilidad para obtener los coeficientes A ij . Consiste en efectuar
la suma de las fracciones parciales e igualar coeficientes.
También pueden combinarse las dos estrategias. Además, puede emplear-
se el hecho según el cual la suma de las fracciones debidas a polos complejos
conjugados serán de la forma
As + B
s2 + Cs + D
Ejemplo 2.9
F (s) =
− 3s + 1
=
A11
+
A21
(s + 2)(s + 4) s+2 s+4
38
F (s) =
− 3s + 1
=
A11 s + 4A11 + A21s + 2A21
(s + 2)(s + 4) (s + 2)(s + 4)
(A11 + A21 )s + (4A11 + 2A21 )
=
(s + 2)(s + 4)
Al igualar coeficientes se genera un sistema de dos ecuaciones lineales con dos
incógnitas:
A11 + A21 = −3 A11 = 7/2 A21 = −13/2
4A11 + 2A21 = 1
F (s) =
− 3s + 1
=
7/2
+
13/2 −
(s + 2)(s + 4) s+2 s+4
Ejemplo 2.10
10 A11 As + B
F (s) = = + 2
s(s2 + 4s + 13) s s + 4s + 13
Obtenemos el primer coeficiente con 2.18:
A11 =
(s)
10
=
10
=
10
s(s2 + 4s + 13) s=0 (s2 + 4s + 13)
s=0 13
Reescribimos la expansión e igualamos coeficientes:
10
13 As + B
F (s) = +
s s2 + 4s + 13
10 2 10 10
s + 4 13 s + 3 13 + As2 + Bs
F (s) = 13
s(s2 + 4s + 13)
10
13
+ A = 0
A = −10/13 B = −40/13
4 10
13 + B = 0
10
10 10/13 s 40 − −
F (s) = = + 2 13 13
s(s2 + 4s + 13) s s + 4s + 13
10 10/13 0.77s + 3.08
F (s) =
s(s2 + 4s + 13)
=
s
−
s2 + 4s + 13
39
OSCAR G. DUARTE
1. Aplicar la transformada (de Laplace o Z según sea el caso) a cada lado de
la Ecuación.
Para la aplicación del último paso, suele ser conveniente utilizar la expansión
en fracciones parciales.
z
z 2 Y (z) + z 2 − 2z) + 3 [zY (z) + z] + 2Y (z) = 5
−
z 1
Y (z) =
−z 3 + 6z = −z3 + 6z
(z − 1)(z 2 + 3z + 2) (z − 1)(z + 1)(z + 2)
40
Y (z)
=
−z 2 + 6 A11 A21 A31
z (z − 1)(z + 1)(z + 2) = z − 1 + z + 1 + z + 2
Los coeficientes se pueden calcular como
A11 =
− z2 + 6
=
5
(z + 1)(z + 2) z=1 6
A21 =
− z2 + 6
=
−5
−(z 1)(z + 2) z= 1 − 2
A31 =
− z2 +6
=
2
(z − 1)(z + 1)
z= 2 − 3
Por lo tanto
5 −5 2
Y (z)
=
−z 2 + 6 6 2 3
z (z − 1)(z + 1)(z + 2) = z − 1 + z + 1 + z + 2
5 −5 z 2
6z 2 3z
Y (z) =
z − 1 + z + 1 + z + 2
Z se puede obtener ahora en forma directa:
La transformada inversa
5 −5
y(k) = Z −1 {Y (z)} = µ(k) + (−1) + (−2)
2 k k
6 2 3
41
OSCAR G. DUARTE
42
Capı́tulo 3
u(t) Sistema
y(t)
dn y dm u
an
dtn
+ ··· + a1 dy
dt
+ a0 y(t) = b m
dtm
+ ··· + b1 du
dt
+ b0 u(t) (3.1)
43
OSCAR G. DUARTE
o en forma resumida:
n m
ai y (i) (t) = bi u(i) (t)
i=0 i=0
L L n m
ai y (i) (t) = bi u(i) (t)
i=0 i=0
−
n
ai si Y (s)
i 1
−
si−k−1 y (k) (0+ ) =
i=0 k=0
− m
bi si U (s)
i 1
−
si−k−1 u(k) (0+ )
i=0 k=0
−
n
ai si Y (s)
n i 1
−
si−k−1 y (k) (0+ ) =
i=0 i=0 k=0
− m
bi si U (s)
m i 1
−
si−k−1 u(k) (0+ )
i=0 i=0 k=0
n m
ai si Y (s) = bi si U (s)+
i=0 i=0
n i 1
−
si−k−1 y (k) (0+ )
−
m i 1
−
si−k−1 u(k) (0+ )
i=0 k=0 i=0 k=0
Y (s) =
m i
i=0 bi s U (s)
n +
i
i=0 i s
a
n
i=0
i 1 i k 1 (k) +
−
k=0 s
−−
y (0 )
m
i=0
i 1 i k 1 (k ) +
−
k=0 s
−− u (0 )
n i
− n i
i=0 ai s i=0 ai s
o de otra forma:
44
Y (s) =
m
i=0 bi s
n
i
U (s)+
a s i
i=0 i
n
i=0
i 1 i k 1 (k) +
k=0 s
− −−
y (0 )
− m
i=0
i 1 i k 1 (k ) +
−
k=0 s
−−u (0 )
n i
(3.2)
i=0 ai s
u(k) Sistema
y(k)
45
OSCAR G. DUARTE
n Z{ } m
ai Z {y(k + i)} = bi u(k + i)
i=0 i=0
−
n
ai z i Y (z)
i 1
−
z i−j y( j) =
− m
bi z i U (z)
i 1
−
z i−j u( j)
i=0 j =0 i=0 j =0
−
n
ai z i Y (z)
n i 1
−
z i−j y( j) =
−
m
bi z i U (z)
m i 1
−
z i−j u( j)
i=0 i=0 j =0 i=0 i=0 k=0
n
ai z i Y (z) =
m
bi z i U (z) +
n i 1
−
z i−k y( j)
− m i 1
−
z i−k u( j)
i=0 i=0 i=0 j =0 i=0 j =0
Y (z) =
m i
i=0 bi z U (z)
n +
i
i=0 ai z
n
i=0
i 1 i k 1 (k) +
−
k=0 s
−− y (0 )
m
i=0
i 1 i k 1 (k ) +
−
k=0 s
−− u (0 )
n
ai z i
− n
a i z i
i=0 i=0
o de otra forma:
Y (z) =
m
i=0 bi z
n
i
U (s)+
i
i=0 ai z
n
i=0
i 1 i k
−
j =0 j
−
y( j)
− m
i=0
i 1 i k
−
j =0 z
−
u( j)
n i
(3.4)
i=0 ai z
46
F (s) =
Y (s)
F (z) =
Y (z)
U (s) C .I.=0 U (z) C .I.=0
F (s) = m
i=0 bi s
m
i=0 ai s
i
i
F (z) =
m
i=0 bi z
m
i=0 ai z
i
Las expresiones
sólo son válidas si las condiciones iniciales son nulas. En este caso, es posible
representar gráficamente la relación entrada-salida del sistema mediante dos
tipos de diagramas:
U (s) F (s)
Y (s)
U (z) F (z)
Y (z)
F (s)
F (z)
U (s) Y (s) U (z) Y (z)
Figura 3.4: Diagrama de flujo de señal mı́n imo
47
OSCAR G. DUARTE
Efectuamos una reducción del bloque en cascada resultante (ver figura 3.7(d))
48
OSCAR G. DUARTE
b2
b1 + +
+ + +
1/s
1/s
− − a1
a0
Ganancia de lazo cerrado Producto de las ganancias de las ramas que for-
man un lazo.
Camino directo Las figuras 3.9(b) y 3.9(c) muestran los caminos directos. 3.2
50
OSCAR G. DUARTE
Nodos y Ramas
Y (s)
Suma de Se˜
nales
Lazo cerrado Las figuras 3.9(d) a 3.9(f) muestran los lazos del ejemplo.
Lazos adyacentes Los lazos mostrados en las figuras 3.9(e) y 3.9(f) son adya-
centes.
Lazos no adyacentes Los lazos mostrados en las figuras 3.9(d) y 3.9(e) son no
adyacentes.
F (s) =
Y (s)
=
p
k=1 T k ∆k
X (s) ∆
Donde:
52
G11 (s)
G9 (s) G8 (s)
G10 (s) G7 (s)
G12 (s)
G13 (s)
(a) Ejemplo
53
OSCAR G. DUARTE
H 3 (s)
∆= 1
- (Suma de ganancias de lazos cerrados)
+ (Suma de ganancias de lazos no adyacentes tomados de a 2)
- (Suma de ganancias de lazos no adyacentes tomados de a 3)
+ (Suma de ganancias de lazos no adyacentes tomados de a 4)
−···
∆k :∆ para el diagrama eliminando los lazos que tocan el camino número
k
Ejemplo 3.3 Para el sistema de la figura 3.10 la aplicación de la regla de Mason
es como sigue:
Sólo existe un camino directo ( p = 1), cuya ganancia es:
T 1 = G1 G2 G3 G4 G5
54
Al eliminar los lazos que tocan el único camino directo sólo subsiste el lazo
L3 . Por lo tanto resulta:
∆1 = 1 (G6 H 3 )−
Dado que sólo hay un camino directo, la función de transferencia se calcula
como: p
Y (s) T k ∆k T 1 ∆1
F (s) = = k=1 =
X (s) ∆ ∆
G1 G2 G3 G4 G5 (1 (G6 H 3 ))−
F (s) = 1−(G H +G H +G H +G G G G H G H )
2 1 4 2 6 3 2 3 4 5 4 6 5
+(G2 H 1 G4 H 2 +G2 H 1 G6 H 3 +G4 H 2 G6 H 3 )
−(G2 H 1 G4 H 2 G6 H 3 )
para el discreto, en esta sección se ha hecho una excepción, debido a que el caso discreto es
notablemente más fácil de presentar que el continuo.
55
OSCAR G. DUARTE
−3 −2 −1 1 2 3
δ (k) =
1 k = 0
0 k=0
Una de las caracterı́sticas importantes de la función δ (k) es que su transfor-
Z
mada es 1, tal como se muestra a continuación:
∞
Z{δ (k)} = δ (k)z −k = δ (0)z −0 = 1
k=−∞
Supóngase un sistema discreto con condiciones iniciales nulas, con función
de transferencia F (z), que se excita con el impulso unitario (figura 3.12). La
respuesta del sistema, en el dominio de la frecuencia z será el producto de la
entrada por la función de transferencia:
Z{δ (k)} = 1
F (z) H (z)
56
Z
Respuesta al Impulso Función de Transferencia
Z −1
Convolución
Una señal discreta cualquiera x(k) es un conjunto de valores en el tiempo,
que puede representarse como la suma de infinitos impulsos individuales y i , tal
como se muestra en la figura 3.15.
Además, cada uno de los pulsos individuales wi puede representarse como
un impulso aplicado en el instante de tiempo i, cuya amplitud es justamente
x(i) Dicho de otra forma, cualquier señal puede escribirse como:
OSCAR G. DUARTE
δ (k) h(k)
1 1
F (z )
−1 1 2 3 4 5 −1 1 2 3 4 5
F (z )
−1 1 2 3 4 5 −1 1 2 3 4 5
58
∞
y(k) = x(i)h(k − i) = x(k) ∗ h(k)
i= −∞
Esta última sumatoria corresponde a la convoluci´
on discreta de las señales
x(k) y h(k), representada por el operador ∗
El resultado anterior no debe sorprender, ya que al aplicar transformada Z
a cada lado de la igualdad se tiene:
d∆ (t) =
∈
1/∆ t [0, ∆]
∆ > 0
∈
0 t / [0, ∆]
59
OSCAR G. DUARTE
x(k)1
=
−3 −2 −1 1 2 3
..
.
+
w−1
1
−3 −2 −1 1 2 3
+
w0
1
−3 −2 −1 1 2 3
+
w1
1
−3 −2 −1 1 2 3
+
..
.
60
d∆ (t)
1/∆
δ (t)
lı́m
∞ 1
f (t)d∆ (t − τ )dt = ∆f (τ ) = f (τ )
∆→0 −∞ ∆
El lı́mite puede introducirse en la integral, con lo que se obtiene
∞
f (t) lı́m d∆ (t − τ )dt =
∞
f (t)δ (t − τ )dt = f (τ ) (3.5)
−∞ ∆ →0 −∞
Es posible demostrar que la transformada de Laplace del impulso es 1, es
decir que ∞
L{δ (t)} = e−st δ (t)dt = 1
0
Para ello, puede aplicarse directamente el resultado de la ecuación 3.5 o consi-
derar la propiedad de la transformada de Laplace según la cual
L
t
x(t)dt =
L {x(t) } = X (s)
0− s s
61
OSCAR G. DUARTE
f (t)
1/∆
f (t)d∆ (t)
t t
τ τ + ∆ τ τ + ∆
L{δ (t)} = 1
Respuesta al impulso
Este hecho pone de manifiesto la relación que existe entre la respuesta al im-
pulso y la función de transferencia (ver figura 3.20):La funci´
on de transferencia
es la transformada de Laplace de la respuesta al impulso
L{δ (t)} = 1
F (s) H (s)
L
Respuesta al Impulso Función de Transferencia
L−1
Convolución
La ecuación 3.5 muestra que una señal cualquiera x(t) puede representarse
como la convoluci´
on contı́nua entre x(t) y δ (t) identificada con el operador ∗
(se han intercambiado las variables t y τ , lo que no altera el resultado):
x(t) =
∞
x(τ )δ (t − τ )dτ = x(t) ∗ δ (t)
−∞
La integral es la suma de infinitos términos (términos infinitesimales), y por
tanto podemos emplear el principio de superposición para obtener la respuesta
del sistema y(t) cuando la entrada es x(t) como la suma debida a cada uno de
los términos infinitesimales (suponiendo condiciones iniciales nulas), es decir:
y(t) =
∞
x(τ )h(t − τ )dτ = x(t) ∗ h(t)
−∞
Al igual que en al caso discreto, la respuesta del sistema a una entrada
cualquiera x(t) se puede obtener como la convolución (contı́nua) de esa entrada
con la respuesta al impulso.
Este resultado concuerda con una afirmación previa, ya que al aplicar trans-
formada de Laplace a cada lado de la igualdad se tiene:
63
OSCAR G. DUARTE
64
Capı́tulo 4
65
OSCAR G. DUARTE
y(t) y(t)
2 a = 2 2 a = 3
1 1
1 2 3 4
t 1 2 3 4
t
y(t) y(t)
2 a = −1 2 a = 1
1 1
1 2 3 4
t 1 2 3 4
t
Y (s) = F (s)U (s) =
1 1 1/a
= +
1/a −
(s + a) s s s+a
1
y(t) = −1 Y (s) = µ(t)
L { a
} − 1a e−
at
µ(t) =
1
a
(1 − e− at
)µ(t)
1
y(t) =
a
(1 − e− at
)µ(t) (4.2)
La expresión (4.2) muestra que la respuesta del sistema dependerá del valor
de a. Este hecho se constata en la figura 4.1, que muestra las gr´aficas de y(t)
para distintos valores de a.
Al cambiar el valor de a tambien cambia el valor del único polo de la función
−
de transferencia (4.1), que es a. Para cualquier valor real positivo de a el polo
−
es un real negativo a, y viceversa. Cuando el polo es positivo, la respuesta
del sistema tiende a infinito, y se dice que el sistema es inestable . La figura 4.2
muestra cuales son las regiones de estabilidad e inestabilidad con referencia a la
recta real, es decir, en qué lugares debe estar ubicado el polo de la función de
transferencia para que el sistema sea, respectivamente, estable o inestable.
66
y(t)
y = t
1/a
67 %
1/a t
−
Para un polo negativo cualquiera a, la respuesta es como la que se muestra
en la figura 4.3. El valor a determina qué tan empinada es la respuesta (y cuál
será el valor final de la respuesta); para valores grandes de a, la respuesta es
más empinada, debido a que la respuesta natural e −at se extingue más rápido.
Para medir qué tan rápido decae una respuesta natural, podemos definir el
tiempo de asentamiento o tiempo de estabilizaci´
on , como el tiempo a partir del
cual la respuesta natural (su valor absoluto) no supera un porcentaje de su valor
máximo, por ejemplo el 5 %. Para el caso del sistema continuo de primer orden,
este tiempo t as satisface:
67
OSCAR G. DUARTE
tas ≤ 3/a
−a 0
1 z z/(1 + a) z /(1 + a)
Y (z) = F (z)U (z) =
(z + a) (z 1)
=
− (z 1) − − z + a
y(k) = Z −1{Y (z)} = 1 +1 a µ(k) − 1 +1 a (−a) µ(k) = (1 +1 a) (1 − (−a) )µ(k)
k k
1 k
y(k) =
(1 + a)
(1 − (−a) )µ(k) (4.4)
La expresión (4.4) muestra que la respuesta del sistema dependerá del valor de
a. Este hecho se constata en la figura 4.1, que muestra las gráficas de y(k) para
distintos valores de a.
Al cambiar el valor de a tambien cambia el valor de el único polo de la función
−
de transferencia (4.3), que es a. Para cualquier valor real positivo de a el polo
−
es un real negativo a, y viceversa. Cuando el polo es negativo, la respuesta del
sistema es de signo alternante (P.ej. ( 1/2)k = 0, 1/2, 1/4, 1/8, ); por el
− − − ···
contrario, si el polo es positivo la respuesta siempre será del mismo signo.
Por otra parte, si el valor absoluto de a es mayor que 1, el valor absoluto
de la respuesta tiende a infinito, y se dice que el sistema es inestable . La figura
4.6 muestra cuales son las regiones de estabilidad e inestabilidad con referencia
a la recta real, es decir, en qué lugares debe estar ubicado el polo de la función
de transferencia para que el sistema sea, respectivamente, estable o inestable;
también se muestra en la misma figura cuando la respuesta es alternante o no.
Para medir qué tan rápido decae una respuesta natural en los sistemas esta-
bles podemos definir el tiempo de asentamiento o tiempo de estabilizaci´ on , como
el tiempo a partir del cual la respuesta natural (su valor absoluto) no supera
68
y(k) y(k)
2 2
a = 0.5 a = 1.5
1 1
1 2 3 4
k 1
2 3 4
k
−1 −1
−2 −2
y(k)
y(k)
2 2
a = −1.5
1 1
a = −0.5
1 2 3 4
k 1 2 3 4
k
−1 −1
−2 −2
−1 0 1
Alternante No Alternante
69
OSCAR G. DUARTE
a
−1−a 0 1
kas ≤ lnln(0.05
|a|) kas ≤ −3/ ln(|a|)
En general, al alejar el polo del origen (al acercarlo a 1 o 1) aumenta el −
tiempo de asentamiento, es decir, la respuesta es más lenta. Esto nos permite
definir una regi´
on de tiempo de asentamiento m´ aximo, como la que se muestra
en la figura 4.7. Si el polo de la función de transferencia (4.3) cae en esa región
podemos asegurar que su tiempo de asentamiento satisface k as 3/ ln( a ). ≤ ||
Al igual que en el caso continuo, en el caso discreto la región de tiempo de
asentamiento máximo está contenida dentro de la región de estabilidad.
p1,2 =
−2ξω ± n
4ξ 2 ωn2 4ωn2
− = ω n
− ± −
ξ ξ 2 1
2
| |
En caso de que ξ < 1, el radical es negativo, y los polos resultan ser com-
plejos conjugados: −
p1,2 = ξω n jω n 1 ξ 2
− ±
La figura 4.8 muestra la ubicación de los polos complejos. Nótese que la
distancia de los polos al origen (la magnitud del complejo) es justamente ωn :
d =
(ξω n )2 + ωn2 (1 − ξ 2) = ω n
70
Im(s)
× jω n
− 1 ξ 2
ω
n
φ Re(s)
−ξω n
ω n
× − jω n
− 1 ξ 2
Figura 4.8: Ubicación de los polos de un sistema continuo de segundo orden, con
polos complejos
donde,
φ = cos−1 ξ
Las figuras 4.9 a 4.11 muestran la gráfica de (4.6) en varias condiciones: en
la figura 4.9 se ha fijado ω n = 1, y se ha variado ξ . En la figura 4.10 se ha fijado
ξ = 0.5 y se ha variado ωn . La figura 4.11 muestra la forma genérica de (4.6)
∈
con ξ (0, 1).
71
OSCAR G. DUARTE
y(t)
: ξ = 0.1
2 : ξ = 0.5
: ξ = 0.9
1
t
1 2 3 4 5 6 7 8 9
y(t)
: ω n = 1
2 : ω n = 0.5
: ω n = 2
1
t
1 2 3 4 5 6 7 8 9
y(t)
ymax
yfinal
tc t
72
Im(s)
Estabilidad Inestabilidad
Re(s)
deben ubicarse los polos para que el sistema sea estable, resulta ser el semiplano
izquierdo. Esto se muestra en la figura 4.12
−
Debido a que ξω n es la parte real de los polos de (4.5) , tal como se muestra
en la figura 4.8, la región de tiempo de asentamiento máximo es la que se muestra
en la figura 4.13
73
OSCAR G. DUARTE
Im(s)
tas ≤ 3
a
tas > a3
Re(s)
−a
Im(s)
w > w∗
jw ∗
w ≤ w∗
Re(s)
− jw ∗
w > w∗
74
sp =
−
ymax yfinal
∗ 100%
yfinal
donde y max es el valor máximo, y y final el valor final (estacionario) de y (t).
Para calcular el sobrepico máximo, primero derivamos y(t) e igualamos a
cero para obtener los instantes t c en los que suceden los máximos y mı́nimos de
y(t):
dy −1
√ 1− −
dt = 2
ξω n e−ξω n t sin ωn 1 ξ 2 t + φ +
−
ξ
ω 1 − ξ 2 e−
n cos ω ξωn t
1 − ξ 2 t + φ =0
n
ξω n sin
ωn 1 − ξ 2 t + φ = ω 1 − ξ 2 cos ω
n 1 − ξ 2 t + φ n
1 − ξ 2
= tan ω
1 − ξ 2 t + φ n
ξ
− ωn 1
ξ 2 −
ξ 2 t + φ = tan−1
1
ξ
Para obtener el valor de la arcotangente en la ecuación anterior, obsérvese en la
figura (4.8) el valor de tan φ:
tan φ =
ωn
− −
1 ξ 2
=
1 ξ 2
ξω n ξ
La función tan−1 (x) es periódica, de periodo π, por lo tanto
−
ωn 1 ξ 2 t + φ = tan−1
− 1 ξ 2
= φ + nπ
ξ
nπ
− t =
ωn 1 ξ 2
n = 0, 1, 2, ···
Existen infinitos instantes en los que la derivada de y(t) es nula, que correspon-
den a los máximos y mı́nimos locales que se observan en la figura 4.11. Para
n = 0 resulta t = 0, por lo tanto la respuesta y(t) es prácticamente horizontal
en su inicio. El sobrepico máximo sucede en t c , que corresponde a n = 1:
π
tc = −
ωn 1 ξ 2
El valor de y (t) en t c es el valor máximo de y (t), es decir y max = y(tc )
75
OSCAR G. DUARTE
sp( %)
100
80
60
40
20
ξ
0
0 0.2 0.4 0.6 0.8 1.0
1 √ −ξπ
ymax = 1 − − 1 ξ 2
e 1−ξ 2 sin(π + φ)
76
sp( %)
100
80
60
40
20
φ
0
0 18 36 54 72 90
Im(s)
sp ≤ e−
πcotφ
φ sp > e−πcotφ
Re(s)
77
OSCAR G. DUARTE
Im(s)
jw ∗
φ Re(s)
−a
− jw ∗
el sistema es estable
p1,2 =
2b cos a ± √ 4b2 cos2 a − 4b2 = b ±
cos a cos2 a −1
2
El término del radical será menor o igual que cero; en caso de que sea menor,
los dos polos serán los complejos conjugados:
p1,2 = b cos a j ±
−
1 cos2 a = b (cos a j sin a)
±
La figura 4.19 muestra la ubicación de los polos en el plano complejo.
78
Im(z)
jb sin a ×
b
a Re(z)
a b cos a
b
−b sin a ×
Figura 4.19: Ubicación de los polos de un sistema discreto de segundo orden, con
polos complejos
Y (z) = F (z)U (z) =
1 − 2b cos a + b2 z
z2 − 2bz cos a + b2 z 1 −
Y (z) A Bz + C
= +
z z 1 z 2 2bz cos a + b2
− −
sumando e igualando coeficientes se obtiene
y(k) = Z −1{Y (z)} = 1 − Cb k
sin(ak + φ) µ(k)
(4.8)
donde
√ 1 + b2 − 2b cos a 1
b sin a
C = = φ = tan−1
b sin a sin φ −
1 b cos a
79
OSCAR G. DUARTE
y(k)
2
1
k
1 2 3 4 5 6 7 8 9
La figura 4.20 muestra la gráfica de y(k) para unos valores especı́ficos de a
y b. Aunque y(k) sólo tiene sentido en los valores enteros de k, se ha trazado
también en punteado la curva que se obtendrı́a para valores reales de k.
Podrı́a plantearse que para estudiar la secuencia y(k) (los puntos en la figura
4.20) serı́a válido analizar el sistema continuo que la genera ((la curva punteada
en la figura 4.20)); sin embargo, en ocasiones los resultados pueden ser muy
engañosos: considérese el caso en que a = 3 y b = 0.7, que se grafica en la figura
4.21; si se analiza la curva contı́nua, se concluye que el máximo valor (absoluto)
de y(k) será cercano a 14, pero al ver la secuencia de puntos observamos que
ésta nunca supera (en valor absoluto) a 4.
No obstante, dado que un análisis de la curva contı́nua arrojará valores ma-
yores o iguales que la secuencia, puede utilizarse para establecer cotas superiores
de los valores de la secuencia, y asi establecer regiones de diseño.
80
y(k)
10
5
k
1 2 3 4 5 6 7 8 9
− 5
−10
Im(z)
j
Inestabilidad
Estabilidad
Re(z)
−1 1
− j
81
OSCAR G. DUARTE
Im(z)
1
jb
− jb
−1
caso del sistema discreto de segundo orden, este tiempo kas satisface:
Im(z)
a
frec ≤a
Re(z)
a
aξ
− √
b = e −a cot φ = e 1−ξ 2 (4.9)
La ecuación 4.9 permite definir, para el caso discreto, curvas análogas a las
que generan la región de sobrepico máximo de los sistemas continuos (figura
4.17). La figura 4.25 muestra las curvas generadas por la ecuación (4.9) para
distintos valores de ξ .
Por su parte, la figura 4.26) muestra la región definida por (4.9) al fijar un
valor de ξ (o de φ), es decir, al establecer un factor de amortiguamiento. Esta
región no es la región de sobrepico máximo, sino la regi´
on de amortiguamiento
mı́nimo. El sobrepico máximo es más difı́cil de obtener debido a que el tiempo
es discreto.
83
OSCAR G. DUARTE
Im(z)
: ξ = 0.1
j
: ξ = 0.5
: ξ = 0.9
Re(z)
−1 1
− j
Im(z)
j
Re(z)
−1 1
− j
84
Im(z)
j
Re(z)
−1 1
− j
La figura 4.28 muestra la gráfica de (4.11), para tres valores distintos de a,
con unos valores fijos de b = 1 y ω = 1; es decir, lo que se está modificando
es la posición del cero de la función de transferencia. Alli puede verse que la
ubicación del cero afecta directamente la forma de la respuesta.
Es importante resaltar que las regiones de diseño de las figuras 4.18 y 4.27
fueron desarrolladas para sistemas prototipo de segundo orden, sin ceros. Estas
regiones pueden emplearse para el análisis y control de sistemas de segundo
orden con ceros, pero sólo como una guı́a de carácter general.
Más importante aún es resaltar que para ceros en el semiplano derecho (este
−
es el caso a = 1 en la figura 4.28) la respuesta al escalón presenta en sus
inicios valores de signo contrario a los de la respuesta de estado estacionario;
este fenómeno, conocido como subpico (en inglés undershoot ) puede llegar a ser
muy peligroso en algunos sistemas fı́sicos, y constituye una gran dificultad para
su control.
Los sistemas que no poseen ceros en el semiplano derecho, se conocen como
sistemas de fase mı́nima , o simplemente minifase 2 .
2 Esta denominación está relacionada con la respuesta de frecuencia del sistema
85
OSCAR G. DUARTE
y(t)
: a == 0.5
: a = 1
−
: a = 1
1
t
1 2 3 4
Figura 4.28: Respuesta al paso de un sistema continuo de segundo orden, con cero
real b = ω = 1
(s + a)
F (s) = (4.12)
(s + b)(s + c)
Y (s) =
(s + a) a/(b + c) (a
+
− b)/(c − b)(− b) + (a − c)/(c − b)(c)
s(s + b)(s + c) s (s + b) (s + c)
y(t) =
a
+
−
(a b)
e−bt +
(a c) −ct
e µ(t)
−
− −
bc (c b)( b) (c b)(c) −
El signo de la derivada de y(t) evaluada en t = 0 nos indica si la respuesta
crece o decrece en ese momento:
dy
=
a − b a − c c − b
dt t=0 c − b = c − b = c − b = 1
La derivada siempre es positiva, por lo tanto, para valores cercanos a t = 0,
y(t) será siempre positiva. Por otra parte, la respuesta de estado estacionario
de y(t) será a/bc; para sistemas estables, tanto b como c son positivos, y por lo
tanto el signo de la respuesta estacionaria es el mismo signo de a.
En conclusión, para valores negativos de a (ceros positivos), la respuesta en
sus inicios tendrá un signo diferente al de la respuesta de estado estacionario y
sucederá el subpico.
3 Para otro tipo de sistemas la demostración es más complicada, y se omite aqui
86
: 0.25e−10t
1 1 : 0.5e−t cos 2t
t t
1 2 3 4 1 2 3 4
y(t) : y(t)
1 2 3 4
1 0.25
Y (s) =
s
− (s + − 0.25 − − (s 0.5(s
10) (s + 15)
+ 1)
2 + 2s + 5)
y(t) =
1 − 0.25e−10 − 0.25e−15 − 0.5e− cos2t µ(t)
t t t
(4.13)
La figura 4.29(a) muestra la gráfica de y(t), mientras que la figura 4.29(b)
muestra por separado los tres componentes de la respuesta natural, 0.25e −10t, −
− 0.25e−15t y 0.5e−t cos2t.
−
En la figura 4.29(b) se observa que el aporte a la respuesta natural debido
− −
a los polos p1 = 10 y p2 = 15 es considerablemente más pequeño que el
87
OSCAR G. DUARTE
−±
debido a los polos p 3,4 = 1 j2. Lo anterior se debe a que los aportes de p 1 y
p2 decaen mucho más rápidamente que el aporte de p3,4 , ya que e−10t y e−15t
decaen más rápidamente que e −t .
Se dice entonces que los polos p 3,4 dominan el comportamiento del sistema,
o simplemente que son los polos dominantes . La figura 4.29(c) compara la res-
puesta exacta y(t) calculada según (4.13) y una respuesta aproximada y aprox(t)
que se obtendrı́a eliminando de y (t) los aportes de los polos p 1 y p 2 , es decir:
y(t) = 1
−
0.5e−t cos2t µ(t)
88
Capı́tulo 5
Y (s) KG(s)
F (s) = = (5.1)
U (s) 1 + KG(s)H (s)
y en el discreto:
Y (z) KG(z)
F (z) = = (5.2)
U (z) 1 + KG(z)H (z)
89
OSCAR G. DUARTE
E (s) 1
F E (s) = = (5.3)
U (s) 1 + KG(s)H (s)
y en el discreto:
E (z) 1
F E (z) = = (5.4)
U (z) 1 + KG(z)H (z)
Además, a los productos G(s)H (s) y G(z)H (z) se les denomina ganancia de
lazo abierto.
Si escribimos G y H como dos fracción de polinomios N G /DG y N H /DH
respectivamente, las expresiones (5.1), (5.2), (5.3) y (5.4) se convierten en:
Función de transferencia del sistema realimentado, caso continuo:
G (s)
Y (s) K N
DG (s) KN G (s)DH (s)
F (s) = = N G (s) N H (s)
=
U (s) 1 + K DG (s) DH (s) DG (s)DH (s) + KN G (s)N H (s)
(5.5)
Función de transferencia del sistema realimentado, caso discreto:
N G (z )
Y (z) K D G (z ) KN G (z)DH (z)
F (z) = = G (z ) N H (z )
=
U (z) 1 + K N
DG (z ) DH (z)
DG (z)DH (z) + KN G (z)N H (z)
(5.6)
Función de transferencia del error, caso continuo:
E (s) 1 DG (s)DH (s)
F E (s) = = =
G (s) N H (s)
U (s) 1 + K N
DG (s) DH (s)
DG (s)DH (s) + KN G (s)N H (s)
(5.7)
Función de transferencia del error, caso discreto:
E (z) 1 DG (z)DH (z)
F E (z) = = G (z ) N H (z )
=
U (z) 1 + K N
DG (z ) DH (z)
DG (z)DH (z) + KN G (z)N H (z)
(5.8)
90
→0 { }
eee = lı́m sF E (s)U (s) (5.11)
s
(s+4) 1
Ejemplo 5.1 Sea F E (s) = (s+3)(s+5) y U (s) = (s2 +4) . Según (5.11) el error de
estado estacionario será
eee = lı́m s
(s + 4) 1
= 0
(0 + 4) 1
= 0
s →0 (s + 3)(s + 5) (s2 + 4) (0 + 3)(0 + 5) (02 + 4)
(s+4) 1
Ejemplo 5.2 Sea F E (s) = (s+3)(s+5) y U (s) = s . Según (5.11) el error de estado
estacionario será
eee = lı́m s
(s + 4) 1
= lı́m
(s + 4)
=
(0 + 4)
=
4
s→0 (s + 3)(s + 5) s s→0 (s + 3)(s + 5) (0 + 3)(0 + 5) 15
1 La determinación de la estabilidad de los sistemas realimentados continuos se estudia en
la sección 5.2
91
OSCAR G. DUARTE
s(s+4) 1
Ejemplo 5.3 Sea F E (s) = (s+3)( s+5) y U (s) = s3 . Según (5.11) el error de estado
estacionario será
s(s + 4) 1
eee = lı́m s
s →0 (s + 3)(s + 5) s3
eee = lı́m
(s + 4) 1
=
(0 + 4) 1 4
= = ∞
→0
s (s + 3)(s + 5) s (0 + 3)(0 + 5) 0 0
92
.. .. .. .. ..
. . . . .
o lo que es igual,
sistemas lineales todas ellas son equivalentes y podemos adoptar indistintamente cualquiera
de ellas.
93
OSCAR G. DUARTE
Si las raı́c es α son todas negativas, los términos −α serán todos positivos,
i i
y en general el producto (s − α1 )(s − α2 ) ··· (s − α ) tendrá todos los coeficientes
n
positivos. De esta forma, los coeficientes de (5.15) serán todos positivos o todos
negativos, dependiendo del signo de A en (5.16). Por esta razón, si p(s) tiene
coeficientes de signos diferentes o cero, necesariamente al menos un término α i −
debe ser negativo, lo que implicarı́a que tendrı́a al menos una raiz positiva (en
el semiplano derecho).
Ahora supóngase que (5.15) tiene dos raı́ces complejas conjugadas:
El producto de los términos que tienen que ver con las raı́ces complejas es:
Si δ < 0, es decir si las raı́ces están en el semiplano izquierdo, ( 5.18) tendrá
sólo coeficientes positivos, y por tanto (5.15) tendrá todos sus coeficentes del
mismo signo (positivos si A es positiva y negativos si A es negativa).
94
sn an an−2 ··· a1
sn−1 an−1 an−3 ··· a0
sn−2
..
.
s1
s0
..
.
si+2 a1 a2 a3 ···
si+1 b 1 b2 b3 ···
si c1 c2 c3 ···
..
.
Cada nueva lı́nea se construye con información de las dos lı́neas inmedia-
tamente anteriores.
−
Para calcular el término j ésimo de una lı́nea (cj en la figura 5.4) se
efectúa la operación
a1 aj+1
b1 bj +1
cj = −b1
(5.19)
95
OSCAR G. DUARTE
s5 1 3 16
s4 1 9 10
s3 c1 c2 c3
s2 d1 d2 d3
s1 e1 e2 e3
s0 f 1 f 2 f 3
Figura 5.5: Arreglo de Routh del ejemplo 5.4. Primeras dos lı́neas
s5 1 3 16
s4 1 9 10
s3 −6 6
s2 10 10
s1 12
s0 10
La figura 5.5 muestra las dos primeras lı́neas del arreglo de routh para (5.20)
Los valores de la lı́nea correspondiente a s 3 se calculan asi:
1 3
1 16
1 9 1 10
c1 = − 1
= −6 c2 = − 1
=6
No es necesario calcular c3 , porque ya no hay más columnas en las dos primeras
lı́neas, y por lo tanto el resultado será 0.
Para la lı́nea correspondiente a s2 se tiene:
1 9
1 10
d1 = −− 6 6
−6
= 10 d2 = −− 6 0
−6
= 10
96
s2 1 K + 2
s1 3
s0 K + 2
Criterio de Routh-Hurwitz
El criterio de Routh-Hurtwiz puede expresarse asi:
Criterio de Routh-Hurwitz
El número de raı́ces de (5.15) en el semiplano derecho es igual al número
de cambios de signo que se suceden en la primera columna del arreglo
de Routh de dicho polinomio.
97
OSCAR G. DUARTE
s3 1 11
s2 6 6 + K
60 K
−
s1 6
s0 6 + K
Para que todas las raı́ces estén en el semiplano izquierdo, y por lo tanto el
sistema sea estable, se necesita que todos los signos de la primera columna sean
iguales, y por lo tanto:
K + 2 > 0 K > 2 −
−
Podemos concluir que para cualquier valor de k superior a 2 el sistema será
−
estable, y para cualquier valor menor que 2 será inestable. Justo cuando k = 2 −
el sistema tendrá estabilidad Marginal.
El arreglo de Routh para el polinomio del denominador s 3 + 6s2 + 11s +(6+ K )
se muestra en la figura 5.8.
Para que todas las raı́ces estén en el semiplano izquierdo, y por lo tanto el
sistema sea estable, se necesita que todos los signos de la primera columna sean
iguales, y por lo tanto:
60 − K > 0 y 6 + K > 0
−
Podemos concluir que para cualquier valor de K en el intervalo ( 6, 60) el
sistema será estable, y para cualquier valor por fuera de ese intervalo será inestable.
−
Justo cuando K = 6 o K = 60 el sistema tendrá estabilidad Marginal.
Ejemplo 5.7 Supóngase que existe un sistema dinámico continuo cuya función de
transferencia tiene el siguiente denominador
98
s3 1 K + 2
s2 3K 4
2
3K +6K 4 −
s1 3K
s0 4
4
s 1 2 3
s3 1 2
s2 0 3
s1
s0
Figura 5.10: Arreglo de Routh con cero en la primera columna. Arreglo incompleto
99
OSCAR G. DUARTE
s4 1 2 3
s3 1 2
s2 ε 3
s1 2 − 3 ε
s0 3
s4 1 2 3
s3 1 2
s2 0+ 3
s1 −∞
s0 3
Figura 5.12: Arreglo de Routh con cero en la primera columna. Arreglo completo
Este polinomio resulta ser un divisor exacto de p(s) (puede comprobarse que
p(s) = p(s)(s +
ˆ 1)). El arreglo de Routh lo continuamos remplazando la fila de
ceros por los coeficientes de la derivada de p(s):
ˆ
dˆ
p(s)
= 4s3 + 10s
ds
s5 1 5 4
s4 1 5 4
s3 0 0
s2
s1
s0
100
s5 1 5 4
s4 1 5 4
s3 4 10
s2 2.5 4
s1 3.6
s0 4
p1,2 =
−4 ± −
16 4(3 + K )
= −2 ± √ 1 − K (5.23)
2
La tabla 5.3 muestra el valor de p 1,2 para diversos valores positivos de K , según
(5.23). La figura 5.15 muestra cómo varı́a la ubicación de los polos de (5.22): en
∞
rojo se muestra qué sucede al variar K de 0 a es decir, lo que corresponde al
root-locus; en azul se muestra el efecto de variar K de menos infinito a cero, lo que
corresponde al root-locus complementario.
Determinación de la estabilidad
Si nos referimos a la ecuación (5.5), encontramos que la condición para los
polos de F (s) será
N G (s)N H (s)
DG (s)DH (s)
= − 1K G(s)H (s) = − 1K (5.24)
101
OSCAR G. DUARTE
K p1 p2
−8 −5 1
−3 −4 0
0 −3 −1
0.75 −2.5 −1.5
1 −2 −2
2 −2 + j −2 − j
5 −2 + 2 j −2 − 2 j
Im(s)
1
Re(s)
−5 −4 −3 −2 −1 1 2 3 4
−1
−2
Figura 5.15: Root-ocus (en rojo) y root-locus complementario (en azul) del ejemplo
5.8
102
De acuerdo con (5.25), si un valor s0 forma parte del root-locus, entonces
arg[G(s0 )H (s0 )] = 180o; además, podemos saber cuál es el valor de K que
±
hace que la rama del root-locus pase justamente por s 0 , pues K = |G (s0 )1H (s0 )| ;
| |
como K es positiva (estamos suponiendo que s 0 está en el root-locus) entonces
K = |G (s0 )1H (s0 )| .
Si por el contrario, s 0 forma parte del root-locus complementario, entonces.
arg[G(s0 )H (s0 )] = 0o ; el valor de K que hace que la rama del root-locus pase
justamente por s0 , será tal que pues K = |G (s0 )1H (s0 )| ; como K es negativa
| |
(estamos suponiendo que s0 está en el root-locus complementario) entonces K =
1
− |G(s0 )H (s0 )| .
Ejemplo 5.9 Si tomamos el ejemplo de la figura 5.15, podemos conocer cuál es el
valor de K que hace que la rama del root-locus complementario que viene desde ∞
llegue a 0. Este valor será justamente:
De esta manera, podemos concluir que para valores de K menores que 3 −
siempre habrá un polo en el semiplano derecho, y por lo tanto el sistema será
−
inestable. Para valores K mayores que 3 todas las ramas del root-locus están en
el semiplano izquierdo, y por lo tanto el sistema será estable.
1 1
G(s) = H (s) = (5.26)
(s + 1)(s + 2) (s + 3)
103
OSCAR G. DUARTE
0 + j 3.316
3
× × × 0 + j 0
0
× × ×
−1
−2
−3
0 − j3.316
−4 Real axis
−4 −3 −2 −1 0 1 2
closed−loop poles loci
root locus
×
open loop
asymptotic
open
asymptoticpoles
loopdirections
poles
directions
×
104
|G(s)H (s)| = |K 1 | = |(0 + j0 + 1)(0 + j01 + 2)(0 + j0 + 3)| = 61 (5.27)
|K | = 6 (5.28)
La ecuación (5.28) establece cuál es el valor absoluto de K que hace que la
rama del root-locus complementario pase del semiplano derecho al izquierdo. Como
sabemos que se trata de valores negativos de K podemos establecer que para K <
− −
6 el sistema realimentado es inestable, mientras que para 6 < K 0 es estable. ≤
Si observamos ahora el diagrama de root-locus (en rojo) observamos que existen
dos ramas (simétricas respecto al eje horizontal) que nacen en el semiplano izquierdo
y pasan al semiplano derecho. Esto significa que para valores pequeños de K el
sistema realimentado es estable, pero a partir de algún valor positivo de K se torna
en inestable.
Las dos ramas cruzan el eje imaginario simultaneamente, asi que para determinar
el momento en el que sucede la transición basta con estudiar una de ellas. Tomemos
por ejemplo la rama superior, que cruza el eje imaginario en 0 + j3.316. El valor de
K en el que esto sucede puede determinarse empleando 5.25:
1 1 1
|K | = |(0 + j3.316 + 1)(0 + j3.316 + 2)(0 + j3.316 + 3)| = 60 (5.29)
|K | = 60 (5.30)
Según la ecuación (5.30) para 0 ≤ K < 60 el sistema retroalimentado es estable,
y para K > 60 es inestable.
Combinando esta información con la que se obtuvo al analizar el root-locus
complementario puede concluirse que el sistema realimentado es estable si y sólo si
∈ −
K ( 6, 60)
105
OSCAR G. DUARTE
106
σ =
− −
((0) + ( 4) + ( 1 + j) + ( 1 − − j) − (−1) = −5
4 1− 3
Podemos calcular los ángulos de esas rectas siguiendo la regla R 6 (figura 5.17(d))
i RL RLC
0 θ0 = 24i−+11
180 = 60
o o
θ0 = 42−i1 180 = 0
o o
1 θ1 = 24i−+1
1 180 = 180
o o
θ1 = 42−i1 180 = 120
o o
2 θ2 = 24i−+1
1 180 = 300
o o
θ2 = 42−i1 180 = 240
o o
Con esta información podriamos trazar parte de las ramas que van o vienen al
infinito (figura 5.17(e)), pero serı́a necesario emplear otras reglas, o programas de
simulación, para obtener los diagramas completos (figura 5.17(f))
OSCAR G. DUARTE
Im (s) Im(s)
× Re(s)
× Re(s)
× × × ×
× ×
Im (s) Im(s)
× Re(s)
× Re(s)
× × × ×
× ×
Im (s) Im(s)
× Re(s)
× Re(s)
× × × ×
× ×
Figura 5.17: Root-locus (en rojo) y root-locus complementario (en azul) del ejemplo
5.11
108
{
arg G( jω)H ( jω) = }
± 180o
(5.31)
0o
Para encontrar cuáles son los valores de ω que satisfacen (5.31) pueden tra-
zarse los diagramas de bode 5 de G(s)H (s) y buscar gráficamente en el diagrama
de fase cuáles son los puntos en donde el ángulo de G( jω)H ( jω) vale 180 o o ±
0o , tal como se muestra en la figura 5.18 6.
Para determinar los valores de K en los cuales la rama del root-locus atra-
viesa el eje imaginario, puede emplearse nuevamente
(5.25):
1
|
G( jω)H ( jω) = | | |
K
(5.32)
| |
El valor de G( jω)H ( jω) puede leerse (en decibeles) en el diagrama de bode
de magnitud, tal como se muestra en la figura 5.18. A partir de ese valor, y
empleando (5.32) puede determinarse los valores de K para los cuales una rama
del root-locus atraviesa el eje imaginario (K c en la figura 5.18).
Márgenes de estabilidad
Las ecuaciones (5.31) y (5.32) establecen dos condiciones que deben cumplir
los puntos jω del plano complejo para formar parte del root-locus o del root-
locus complementario; una de las condiciones hace referencia a la gananacia de
G(s)H (s) y la otra a su fase . La idea de los m´
argenes de estabilidad consiste en
suponer que k = 1, y explorar qué margen se tiene cuando se cumple una de
esas condiciones:
Margen de fase: El margen de fase consiste en el menor valor que se le debe
sumar al ángulo de G(s)H (s) cuando se satisface la condición (5.32), para
que simultáneamente se cumpla la condición (5.31)
5 ver apéndice B
6 Existe un método gráfico caido en desuso para calcular F ( jω) a partir de G( jω) cuando
K = H (s) = 1. Ese método se basa en las cartas de Nichols, presentadas en el apéndice C
109
OSCAR G. DUARTE
1
j ω̂ |K c |
j ω̄ ω
0o
j ω̄ j ω̂
180o
Para el caso en que K > 0, el margen de fase puede leerse en los diagramas
de bode como 180 o φ, donde φ es el ángulo a la frecuencia en la que la
−
ganancia es de 0db.
Para el caso en que K < 0, el margen de fase puede leerse en los diagramas
−
de bode como φ, donde φ es el ángulo a la frecuencia en la que la ganancia
es de 0db.
110
Magnitude
db
10
−15.56db
−35.56db −30
−70
−110
−150
−190
Hz
−230
−3 −2 −1 0 1 2 3
10 10 10 10 10 10 10
0.528Hz
Phase
degrees
20
−20
−60
−100
−140
−180o−180
−220
−260
Hz
−300
−3 −2 −1 0 1 2 3
10 10 10 10 10 10 10
111
OSCAR G. DUARTE
como K > 0 (hemos encontrado una rama del root locus) entonces K = 60.
También debemos buscar los puntos para los cuales el ángulo de G( jω)H ( jω)
es 0 . En la figura 5.19 se observa que el diagrama de fase es asintótico a 0 , es
o o
−
de G( jω)H ( jω) es asintótico a 15.56db, lo que significa que la magnitud de K ,
en decibeles, para la cual una rama del Root-Locus complementario atraviesa el eje
imaginario es tal que | K |1 = 15.56, lo que equivale a:
en db
−
1 |K|
en db |K|en db −15.56
| | K
= 10 20 |K | = 10− 20 |K | = 10− 20 =6
como K < 0 (hemos encontrado una rama del root locus complementario) entonces
K = 6. −
Hemos encontrado los valores de K para los cuales un polo cruza el eje ima-
−
ginario, y han resultado ser 6 y 60. Esto significa que al variar K desde −∞
∞
hasta , la estabilidad del sistema realimentado sólo puede cambiar en 6 y 60. −
En consecuencia, podemos definir tres intervalos para K en los cuales la estabilidad
es constante; para conocer la estabilidad de cada intervalo basta con determinar la
de uno de sus puntos:
K ( ∈ −∞ −
, 6): Seleccionamos K = −10 de tal manera que el denominador
de (5.21) se convierte en
s3 + 6s2 + 11s −4
Como el denominador tiene coeficientes de signos diferentes al menos tiene
una raiz en el semiplano derecho, y en consecuencia el sistema realimentado
es inestable.
∈ −
K ( 6, 60): Seleccionamos K = 0 de tal manera que el denominador de
(5.21) se convierte en
s3 + 6s2 + 11s + 6 = (s + 1)(s + 2)(s + 3)
112
c1
( s0 −
c
1 )
p1 c
s0
×
1
s 0
p3
×
p2×
c2
F (s) = A
(s − c1)(s − c2) ··· (s − c m)
(5.35)
(s − p1)(s − p2) ··· (s − p n)
F (s0 ) = A
(s0 − c1)(s0 − c2) ··· (s0 − c m)
(5.36)
(s0 − p1)(s0 − p2) ··· (s0 − p n)
|F (s0 )| = |A|
m
n
Magnitudes de los vectores que van de ceros a s 0
(5.37)
Magnitudes de los vectores que van de polos a s 0
113
OSCAR G. DUARTE
Plano s Plano F
2 2
s0 F (s) F (s0 )
1
1
−2 −1 1 2 −2 −1 1 2
−1 −1
−2 −2
F (s) = s + 1 (5.39)
−
es decir, tiene un único cero en s = 1 y no tiene polos. Supongamos también
que deseamos calcular F (s0 ), para s 0 = 1 + j.
La figura 5.21 muestra dos planos complejos: en el primero de ello se ha
dibujado el diagrama de polos y ceros de (5.39); este plano lo denominaremos
plano s . En el segundo plano se ha dibujado el resultado de calcular F (s 0 ), y
por eso lo denominaremos plano F . Para obtener F (s0 ) y poder graficarlo en el
plano F se ha empleado el método gráfico en el plano s, y el resultado se ha
trasladado, tal como se señala en la figura 5.21.
Si ahora quisieramos calcular F (s) no en un único punto s 0 sino en todos los
puntos de una trayectoria cerrada del plano s, podriamos repetir el procedimien-
to anterior en cada uno de los puntos de la trayectoria. Las figuras 5.22 y 5.23
muestran los resultados para dos trayectorias diferentes que se han recorrido en
el sentido horario. En ambos casos se produce en el plano F otra trayectoria
cerrada en sentido horario.
114
Plano s Plano F
2 2
1 1
F (s)
−2 −1 1
2 −2 −1 1 2
−1
−1
−2 −2
Figura 5.22: Plano s y Plano F en una trayectoria cerrada que no encierra el cero
Las figuras 5.24 y 5.25 muestran cuál habrı́a sido el resultado si F (s) tuviera
−
un polo en s = 1 en lugar de un cero, es decir si F (s) = 1/(s + 1). En el plano
F aparecen trayectorias cerradas que sólo encierran al origen si la trayectoria
del plano s encierra al polo. Sin embargo, debe resaltarse que el sentido de la
trayectoria que encierra al origen es antihorario, lo que se explica observando
que en la ecuación (5.38) el ángulo de los vectores que van de polos a s0 tiene
signo negativo.
115
OSCAR G. DUARTE
Plano s Plano F
2 2
1 1
F (s)
−2 −1
1 2 −2 −1 1
2
−1 −1
−2 −2
Figura 5.23: Plano s y Plano F en una trayectoria cerrada que encierra el cero
Plano s Plano F
2 2
1 1
F (s)
×
−2 − 1 1
2 −2 −1
1 2
−1
−1
−2 −2
Figura 5.24: Plano s y Plano F en una trayectoria cerrada que no encierra el polo
116
Plano s Plano F
2 1
1
F (s)
×
−2 −1
1 2 −1 1
−1
−2 −1
Figura 5.25: Plano s y Plano F en una trayectoria cerrada que encierra el polo
Trayectoria de Nyquist
La trayectoria de Nyquist para un sistema continuo realimentado como el
de la figura 5.1 es una curva cerrada Γ que abarca todo el semiplano derecho, y
que no contiene ningún polo de G(s)H (s). La figura 5.26 muestra la trayectoria
de nyquist Γ para el caso general.
Nótese que la trayectoria de Nyquist recorre todo el eje emaginario y regresa
∞
por una semicircunferencia de radio , abarcando todo el semiplano derecho.
Para el caso especial en que G(s)H (s) tiene polos en el eje imaginario es ne-
cesario modificar la trayectoria, tal como se muestra en la figura 5.26, mediante
pequeñas semicircunferencias de radio arbitrariamente pequeño ε
Diagrama de Nyquist
Para un sistema continuo como el de la figura 5.1, el diagrama de Nyquist
es la trayectoria orientada que resulta de calcular G(s)H (s) a través de la tra-
117
OSCAR G. DUARTE
∞
=
r
Γ
× ∞
=
r
ε
×
118
Criterio de Nyquist
Para el sistema continuo realimentado de la figura 5.1, con K = 1 definamos
la función
Los polos de R(s) son los mismos polos de G(s)H (s), como se puede
verificar en (5.41)
Los ceros de R(s) son los mismos polos del sistema realimentado (con
K = 1) como puede verse al comparar (5.41) con (5.5)
119
OSCAR G. DUARTE
Número de polos
Número de veces Número de polos de
del sistema reali-
que Υ encierra al =
mentado en el semi-
− G(s)H (s) en el se- (5.43)
origen miplano derecho
plano derecho
Criterio de Nyquist
El número de polos en el semiplano derecho que tiene un sistema continuo
realimentado como el de la figura 5.1 , con K = 1 puede determinarse a
partir de la ecuación
Número de veces
Número de polos
que el diagrama Número de polos de
del sistema reali-
de Nyquist de =
mentado en el semi-
−
G(s)H (s) en el se- (5.44)
G(s)H (s) encierra miplano derecho
plano derecho
−
al punto ( 1, 0)
Para que el sistema realimentado sea estable debe tener cero polos en el
semiplano derecho.
120
Nyquist plot
Im(h(2i*pi*f))
0.15
−0.132 −0.093
0.11
−0.059
−0.190
0.07
−0.024
0.03
−1000
−0.01
− 60
1 1
6
−0.05
0.229 0.034
−0.09
0.151 0.068
Re(h(2i*pi*f))
0.103
−0.13
−0.05 −0.01 0.03 0.07 0.11 0.15 0.19
En esa figura se han destacado los puntos en los que el Diagrama de Nyquist
−
cruza el eje real ( 1/60 y 1/6). El número de polos que G(s)H (s) tiene en el
semiplano derecho es cero, de acuerdo con (5.45). De esta forma, el criterio de
Nyquist, ecuación (5.44), establece que:
Número de polos del
sistema realimenta-
0=
do en el semiplano
0 (5.46) −
derecho
y por lo tanto el sistema realimentado es estable para K = 1. Además, en el
diagrama de Nyquist se observa que éste se puede amplificar hasta 60 veces sin que
cambie el número de veces que encierra al punto ( 1, 0), lo que significa que para −
0 < k < 60 el sistema sigue siendo estable. Si se amplifica por un valor superior
−
a 60 el punto ( 1, 0) resulta encerrado dos veces por el diagrama, y por lo tanto
el sistema realimentado tendrá dos polos en el semiplano derecho, es decir, será
inestable.
Evaluamos ahora la estabilidad para valores negativos de K Remitiéndonos nue-
vamente a la figura 5.29, observamos que podemos amplificar 6 veces el diagrama
sin que cambie el número de veces que encierra al punto (1, 0), lo que significa que
−
para 6 > K > 0 el sistema sigue siendo estable. Si se amplifica por un valor mayor
a 6 el punto (1, 0) resulta encerrado una vez por el diagrama, y por lo tanto el sis-
tema realimentado tendrá un polo en el semiplano derecho, es decir, será inestable.
En resumen, el sistema será estable para K ( 6, 60). ∈ −
121
OSCAR G. DUARTE
r =
1 + cos φ + j sin φ
=
− −
(1 + cos φ + j sin φ) ( 1 + cos φ j sin φ)
− 1 + cos φ + j sin φ − − −
( 1 + cos φ + j sin φ) ( 1 + cos φ j sin φ)
Al efectuar las operaciones se obtiene que r es un imaginario puro:
r =
− j2sin φ = j sin φ (5.49)
2 − 2cos φ cos φ − 1
122
z r
1 + j0 indefinido
0.707+ j0.707 −
0 j2.4142
0 + j1 −
0 j1
−0.707+ j0.707 −
0 j0.4142
− 1 + j0 0 + j0
− −
0.707 j0.707 0 + j0.4142
−
0 j1 0 + j1
−
0.707 j0.707 0 + j2.4142
Plano z Plano r
2 +1 2
r = zz− 1
1 1
−2 −1
1 2 −2 −1
1 2
−1
−1
−2 −2
123
OSCAR G. DUARTE
Los valores de K que hacen que todas las raı́ces de F (z) estén dentro del cı́r culo
unitario en el plano z son los mismos valores que hacen que todas las raı́ces de F̂ (r)
estén en el semiplano izquierdo del plano r. Estos últimos pueden determinarse por
medio del criterio de Routh Hurwitz. El arreglo correspondiente se muestra en la
figura 5.31 de donde se deduce que las condiciones para que el sistema del ejemplo
sea estable son:
O lo que es equivalente:
−0.21 < K < 0.79 (5.53)
en donde los coeficientes ai son reales y an es positivo, es posible construir el
Arreglo de Jury de p(z) a partir de los coeficientes ai que aparecen en (5.54).
Para ello, inicialmente se construye el arreglo que se muestra en la figura 5.32: la
primera lı́nea contiene los coeficientes de p(z) en orden, desde a 0 hasta a n , y en
la segunda lı́nea en orden inverso. En general, cada lı́nea par contiene los mismos
coeficientes que la lı́nea inmediatamente anterior pero en el orden inverso.
Los elementos de las lı́neas impares se construyen asi:
bk =
a0 an−k
ck =
b0 bn−1−k
dk =
c0 cn−2−k
··· (5.55)
an ak bn−1 bk cn−2 ck
124
Fila z0
z1 z2 ··· z n−k ··· z n−2 z n−1 z n
1 a0 a1 a2 ··· an−k ··· an−2 an−1 an
2 an an−1 an−2 ··· ak ··· a2 a1 a0
3 b0 b1 b2 ··· bn−k ··· bn−2 bn−1
4 bn−1 bn−2 bn−3 ··· bk−1 ··· b1 b0
5 c0 c1 c2 ··· cn−k ··· cn−2
6 cn−2 cn−3 cn−4 ··· ck−2 ··· c0
.. .. .. ..
. . . . ···
2n − 5 p0 p1 p2 p3
2n − 4 p3 p2 p1 p0
2n − 3 q 0 q 1 q 2
Las primeras dos lı́neas del arreglo de Jury para p(z) se muestran en la figura
5.33. Sólo es necesario construir 5 lı́neas, porque n = 4 y 2n 3 = 5. −
La tercera lı́nea se construye asi:
b0 =
1 5
=
−24 b1 =
1 4
=
−18
5 1 5 2
b2 =
1 3
=
−12 b3 =
1 2
=
−6
5 3 5 4
El arreglo con las cuatro primeras lı́neas su muestra en la figura 5.34.La quinta
lı́nea se construye asi:
c0 =
− −
24 6
= 504 c1 =
− −
24 12
= 360
− −
6 24 − − 6 18
c2 =
− −
24 18
= 180
− −
6 12
Criterio de Jury
El Criterio de Jury puede expresarse asi:
125
OSCAR G. DUARTE
Fila z0 z1 z2 z3 z4
1 1 2 3 4 5
2 5 4 3 2 1
3 b0 b1 b2 b3
4 b3 b2 b1 b0
5 c0 c1 c2
Figura 5.33: Arreglo de Jury del ejemplo 5.15. Primeras dos lı́neas
Fila z 0 z1 z2 z3 z4
1 1 2 3 4 5
2 5 4 3 2 1
3 − − − −
24 18 12 6
4 − − − −
6 12 18 24
5 c0 c1 c2
Figura 5.34: Arreglo de Jury del ejemplo 5.15. Primeras cuatro lı́neas
Fila z 0 z1 z2 z3 z4
1 1 2 3 4 5
2 5 4 3 2 1
3 − − − −
24 18 12 6
4 − − − −
6 12 18 24
5 504 360 180
126
Criterio de Jury
Las condiciones necesarias y suficientes para que p(z) en (5.54) tenga
todas sus raı́ces en el interior del cı́rculo unitario del plano z son:
p(1) > 0 (5.57a)
−
p( 1)
> 0 si n es par
(5.57b)
< 0 si n es impar
|a0 | < an
|b0| > | |
bn−1
|c0| > | | −
cn−2 n 1 condiciones (5.57c)
..
.
| |
q 0 > | |
q 2
Nótese que este criterio se reduce a unas condiciones muy simples para el
caso de polinomios de segundo orden (n = 2):
p(1) > 0 (5.58a)
−
p( 1) > 0 (5.58b)
|a0| < a2 (5.58c)
Ejemplo 5.17 Supóngase ahora un sistema como el del ejemplo 5.14, es decir un
sistema realimentado como el de la figura 5.2 con
1 1
G(z) = H (z) = (5.60)
z + 0.3 z + 0.7
127
OSCAR G. DUARTE
−
p( 1) = 1− 1 + (0.21 + K ) > 0 (5.62b)
|0.21 + K | = |a0| < a 2 = 1 (5.62c)
Estas condiciones se convierten en
Ejemplo 5.18 Tomemos el mismo sistema analizado en los ejemplos 5.14 y 5.17.
Se trata de un sistema realimentado como el de la figura 5.2 con
1 1
G(z) = H (z) = (5.65)
z + 0.3 z + 0.7
128
K c1 =
1
= 0.79
(5.66)
− −
( 0.5 + j0.86 + 0.3)( 0.5 + j0.86 + 0.7)
−
El root-locus complementario cruza el cı́rculo unitario en 1 y en 1.Estos puntos
corresponden a unas ganancias K c2 y K c3 negativa tales que
K c2 =
− (−1 + 0.3)(1 −1 + 0.7)
= −0.21 (5.67)
K c3 = −
1
= −2.21 (5.68)
(1 + 0.3)(1 + 0.7)
De las ecuaciones (5.66), (5.67) y (5.68) se desprenden las condiciones para que
el root-locus y el root locus complementario estén en el interior del cı́rculo unitario:
Para el root-locus se necesita que K < 0.79 y para el root-locus complementario
− −
que K > 0.21 y K > 2.21. Estas condiciones se pueden resumir en una sóla
129
OSCAR G. DUARTE
Im(z)
1.5
1.0
0.5
Re(z)
−1.5 −1.0× ×
−0.5 0.5 1.0 1.5
−0.5
−1.0
−1.5
Figura 5.36: root-locus (en rojo) y root-locus complementario (en azul) para el
ejemplo 5.18
130
1
ejω̄ ej ω̂ |K c |
ω
0o
ejω̄ ejω̂
180o
Figura 5.37: Relación entre el root-locus y los diagramas de Bode para el caso
discreto
| | K c1
= 10 20 |K 1| = 10−
c 20
2.04
|K 1| = 10 −
c 20 = 0.79 K c1 = 0.79 (5.72)
Para estudiar los cruces por la circunferencia unitaria de ramas del root-locus
complementario, observamos que el diagrama de fase es asintótico a 0 , es decir o
que para ω = 0 el ángulo de G(ejω )H (ejω ) es 0 . También se observa que para
o
una frecuencia de 12 Hz, es decir ω = π el ángulo es de 360 , que es igual a 0 .
− o o
Lo anterior significa que dos ramas del root locus complementario cruzan la
circunferencia unitaria en K c2 y K c3 que se pueden calcular como:
−6.89
|K 2| = 10−
c 20 = 2.21 K c2 = −2.21 (5.73)
13.555
|K 3| = 10−
c 20 = 0.21 K c3 = −0.21 (5.74)
Los resultados de las ecuaciones (5.72) a (5.74) son coherentes con los obtenidos
en (5.53), (5.64) y (5.69).
131
OSCAR G. DUARTE
Magnitude
db
17
13.555db 13
5
2.04db
1
−3
Hz
−6.89db −7
−3 −2 −1 0
10 10 10 10
0.3338Hz
Phase
degrees
0
−40
−80
−120
−160
−180o
−200
−240
−280
−320 Hz
−360
−3 −2 −1 0
10 10 10 10
132
∞
1
133
OSCAR G. DUARTE
∞
×
1
Para que el sistema realimentado sea estable debe tener cero polos por
fuera del cı́rculo unitario.
Ejemplo 5.20 Retomemos el mismo sistema analizado en los ejemplos 5.14, 5.17,
5.18 y 5.19. Se trata de un sistema realimentado como el de la figura 5.2 con
1 1
G(z) = H (z) = (5.76)
z + 0.3 z + 0.7
134
punto (1, 0).
En la figura 5.41 se observa que el número de veces que el diagrama de Nyquist
puede encerrar al punto (1, 0) es 0, 1 o 2 en las siguientes condiciones:
Si se amplifica por una cantidad menor que 0.21 lo encierra 0 veces.
Si se amplifica por una cantidad mayor que 0.21 y menor que 2.21 lo encierra
1 vez.
Si se amplifica por una cantidad mayor que 2.21 lo encierra 2 veces.
Por lo tanto, para que el sistema realimentado sea estable con valores negativos
−
de K , se necesita que 0.21 < K < 0
Al combinar los resultados obtenidos para valores positivos y negativos de K se
tiene que
− 0.21 < K < 0.79 (5.78)
que coincide con (5.53), (5.64), (5.69) y (5.72).
135
OSCAR G. DUARTE
Nyquist plot
Im(h(exp(2i*pi*f*dt)))
4
0.451 0.466
3
0.479
2
0.4
1
−0.135
−0.5
0
−1
− 0 .179 1
2.21
1
0.21
−0.388
−0.488
−2
−0.425
−0.476
−3
−0.447 −0.463 Re(h(exp(
2i*pi*f*dt)))
−4
−2 −1 0 1 2 3 4 5
136
Capı́tulo 6
Representación en variables de
estado
6.1. Introducción
En los capı́tulos anteriores se han presentado distintas estrategias para mo-
delar el comportamiento de sistemas dinámicos continuos y discretos, entre ellas:
Funciones de transferencia
Respuestas al impulso
Diagramas de bloque
137
OSCAR G. DUARTE
u1 (t) y1 (t)
u2 (t) Sistema y2 (t)
.. Dinámico ..
. .
u p (t) yq (t)
u1 (k) y1 (k)
u2 (k) Sistema y2 (k)
.. Dinámico ..
. .
u p (k) yq (k)
Vale la pena aclarar que si bien las ecuaciones que se emplean son de primer
orden, éstas operan sobre vectores. Refiriéndonos a las figuras 6.1 y 6.2, si se
trata de un sistema continuo serán:
En las ecuaciones (6.1) y (6.2) u es un vector que contiene cada una de las
p entradas al sistema, y es un vector que contiene cada una de las q salidas del
sistema, x es un vector que contiene cada una de las n variables de estado del
138
6.1. INTRODUCCIÓN
sistema, es decir:
u1
y1
x1
u2 y2 x2
u = . y = . x = .. (6.3)
.. .. .
u p p 1× yq q 1× xn n 1 ×
Las ecuaciones vectoriales (6.1) y (6.2) son en realidad un conjunto de ecua-
ciones. Por ejemplo, las ecuaciones (6.1) corresponden a algo de la forma:
ẋ1 (t) = f 1 (t) (x1 (t), x2 (t), ··· , x n (t), u1 (t), u2 (t), ··· , u (t), t) p
ẋ2 (t) = f 2 (t) (x1 (t), x2 (t), ··· , x n (t), u1 (t), u2 (t), ··· , u (t), t) p
..
.
ẋn (t) = f n (t) (x1 (t), x2 (t), ··· , xn (t), u1 (t), u2 (t), ··· , u (t), t) p
ẏ1 (t) = g 1 (t) (x1 (t), x2 (t), ··· , x n (t), u1 (t), u2 (t), ··· , u (t), t)
p
ẏ1 (t) = g 2 (t) (x1 (t), x2 (t), ··· , x n (t), u1 (t), u2 (t), ··· , u (t), t)
p
..
.
ẏq (t) = g q (t) (x1 (t), x2 (t), ··· , xn (t), u1 (t), u2 (t), ··· , u (t), t)
p
139
OSCAR G. DUARTE
Ejemplo 6.1 Uno de los espacios vectoriales más conocidos, y que servirá para
futuros ejemplos en este capı́tulo es el formado por R2 sobre el campo R con las
operaciones usuales. En general, Cn sobre el campo C con las operaciones usuales
forma un espacio vectorial.
Ejemplo 6.2 El conjunto de todos los polinomios sobre el campo R con las opera-
ciones usuales entre polinomios forma un espacio vectorial.
Ejemplo 6.3 El conjunto de todas las funciones continuas a trozos sobre el campo
C con la operación + definida como la suma punto a punto forma un espacio
vectorial.
140
×
Ejemplo 6.4 El conjunto de todas las matrices de tamaño fijo m n sobre el campo
C con las operaciones usuales entre matrices forma un espacio vectorial.
n
α1 x1 + α2 x2 + ··· + α n xn = αi xi
i=1
Los coeficientes α i de esa combinación lineal son las coordenadas de x en
la base B .
Cambios de base: Un mismo vector tendrá diferentes coordenadas en dos ba-
{ ··· } {
ses diferentes. Sean A = a1 , a2 , , an y B = b1 , b2 , , bn dos bases··· }
del mismo espacio vectorial V de dimensión n. Definimos las matrices A y
B como las matrices que tienen en sus columnas cada uno de los elementos
de las bases A y B respectivamente:
A = a1 a2 ··· a n
B =
b1 b2 ··· bn
141
OSCAR G. DUARTE
Las expresiones que permiten encontrar las coordenadas de x en una base
a partir de sus coordenadas en la otra son las siguientes:
A =
0 1
−1 0
α1 =1
γ 1 =1
α2 =3
β 2 =2 γ 2 =-2
β 1 =-1
: base : vector x
Ejemplo 6.6 En R2 puede definirse una base con cualquier pareja de vectores no
{ } {
paralelos. Definamos por ejemplo A = (1, 0), (0, 1) , B = (3, 1), (2, 2) y C = }
{− − − }
( 1, 1)( 1, 1) (vectores rojos en la figura 6.3).
Consideremos ahora el vector x en la figura 6.3. Sus coordenadas en la base
estándar A serán
α 1
α = 1 =
α2 3
Para obtener las coordenadas de x en las bases B y C construimos las matrices
B y C y empleamos (6.9)
B =
3 2
− −
C =
1 1
1 2 − 1 1
β =
β 1
= B −1 α =
− −
1/2 1/2 1
=
1
γ =
β 2
γ 1
= C −1 α =
−−
1/4
1/2 1/2
3/4 3
1
=
1
2
Ejemplo 6.7 En el ejemplo 6.5 se mostró que la rotación de 90 en sentido horario o
Tα =
0 1
−1 0
{
La misma transformación se representará en la base B = (3, 1), (2, 2) por la }
matriz
Tβ = B −1 Tα B
143
OSCAR G. DUARTE
Tβ =
1/2 −1/2
0 1 3 2
=
2 2
− 1/4 3/4 − 1 0 1 2 − − 2.5 2
Supóngase ahora el vector x, cuyas coordenadas en la base estándar son α x =
−
(1, 3) y en la base B son β x = ( 1, 2) (ejemplo 6.6). Al efectuar la rotación de 90 o
αy =
0 1 1
=
3
αy =
2 2
−
1
=
2
− 1 0 3 −
1 − −2.5 2 2 −1.5
Av = λv (6.11)
det(λI − A) = 0 (6.12)
distinguirlos de los valores y vectores propios por izquierda , que deben satisfacer v t A = λ vt .
En este texto sólo se consideran los primeros, y por tanto se hace referencia a ellos simplemente
como valores y vectores propios.
144
A =
4 1
−2 1
− −
Construimos la matriz B = (λI A) y hallamos su determinante:
λ1 = 2 λ2 = 3
Av1 = λ 1 v1
4 1 v11 v
= 2 11
4v11 + v21
=
2v11
− 2 1 −
v21 v21 2v11 + v21 2v21
Se crea entonces un sistema de ecuaciones con infinitas soluciones:
4v11 + v21 = 2v11
−2v11 + v21 = 2v21
Para obtener un vector propio asociado a λ1 = 2 podemos escoger arbitraria-
mente un valor para v 11 o para v 21 . Por ejemplo, si escogemos v 11 = 1 obtenemos
−
v21 = 2. En consecuencia, un vector propio asociado a λ 1 = 2 será
v1 =
1
en general v1 =
a
−2 −2a
Los vectores propios asociados a λ 2 = 3 también deben cumplir (6.11):
Av2 = λ 1 v2
4 1 v12 v
= 3 12
4v12 + v22
=
3v12
− 2 1 −
v22 v22 2v12 + v22 3v22
Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones:
4v12 + v22 = 3v12
−2v12 + v22 = 3v22
Para obtener un vector propio asociado a λ2 = 3 podemos escoger arbitraria-
mente un valor para v 12 o para v 22 . Por ejemplo, si escogemos v 12 = 1 obtenemos
−
v22 = 1. En consecuencia, un vector propio asociado a λ 2 = 3 será
v2 =
1
en general v2 =
a
− 1 −a
145
OSCAR G. DUARTE
A =
2 1
−1 2
(λ − 2) −1
0 1 −1 2 = 1 (λ − 2)
∆(λ) = det(B) = (λ − 2)2 + 1 = λ 2 − 4λ + 5
Los valores propios de A serán las raı́c es de ∆(λ)
λ1,2 = 2 ± j
Al aplicar (6.11) para λ1 y λ2 se obtienen dos sistemas de ecuaciones con infinitas
soluciones
2v11 + v21 = (2 + j)v11
2v12 + v22 = (2 − j)v12
− v11 + 2v21 = (2 + j)v21 −v12 + 2v22 = (2 − j)v22
Seleccionando arbitrariamente v 11 = 1 y v 12 = 1 se obtiene
v1 =
1
v2 =
1
j −
j
o en general
a a
v1 = v2 =
ja − ja
Λ = M −1 AM (6.13)
146
M = v1 v2
··· v n
Esta afirmación puede demostrarse facilmente al comprobar que MΛ = AM:
λ1 0 ···
0
0 λ2
···
0
MΛ = v1 v2 ··· vn .. .. . . .. = λ1 v1 λ2 v2
. .
··· λn vn
. .
0 0 ···
λn
AM = A v1 v2 ··· v n
= Av1 Av2 ··· Av
n
Como Avi = λi vi entonces las ecuaciones anteriores se reducen a MΛ =
AM o lo que es igual
Λ = M −1 AM
A =
4 1
−2 1
cuyos valores propios son (Ejemplo 6.8) λ1 = 2, λ2 = 3 con vectores propios v1 ,
v2 :
1 1
v1 = v2 =
2 − 1 −
{ }
Tiene una representación en la base v1 v 2 dada por la matriz diagonal
Λ = M −1 AM =
− −
1 1 4 1 1 1
=
2 0 λ 0
= 1
2 1 −2 1 −2 −1 0 3 0 λ2
A =
2 1
−1 2
v1 =
1
v2 =
±
j con vectores propios v 1 , v 2 :
1
j − j
{ }
Tiene una representación en la base v1 v 2 dada por la matriz diagonal
Λ = M −1 AM
Λ =
j/2 − j/2
2 1 1 1
=
2 + j 0 λ 0
= 1
j/2 j/2 − 1 2 j − j 0 2 j 0 λ2 −
147
OSCAR G. DUARTE
di = n − ρ(λ I − A)
i
A =
1 2
−2 5
1 2 −
=
(λ 1) 2 −
0 1 − 2 5 − 2 (λ 5)
λ1 = λ 2 = λ = 3
d1 = 2 − ρ(3I − A)
d1 = 2 −ρ
−3 1 −2 = 2 −ρ
−
2 2
= 2 −1 = 1
2 3−5 2 −2
Lo anterior significa que aunque λ tiene multiplicidad 2, sólo es posible encontrar
un vector linealmente independiente. Este se obtiene empleando (6.11), y resulta
ser
1 a
v1 = en general v1 =
1 a
No es posible construir una base para el espacio de dimensión 2 con un sólo
vector, por lo tanto no es posible diagonalizar A
148
Construimos (λI − A):
−(λ 3) 0 1
λI − A = − 1
1 (λ − 2)
0 (λ
1
− 3)
Su polinomio caracterı́stico resulta ser
d1 = n − ρ(λI − A) d1 = 3 −1 = 2
Lo anterior significa que existen dos vectores propios linealmente independientes
asociados a λ 1 = λ 2 = 2. Estos dos vectores junto con el vector propio asociado a
λ3 = 4 pueden formar una base y por tanto es posible diagonalizar A. Para obtener
los tres vectores propios empleamos (6.11):
3 0 −1 −
a a 3 0 1 d d
− 1 2 −1 − −
b = 2 b 1 2 1 e = 4 e
1 0 3 c c 1 0 3 f f
Que se convierten en
a = c d = e = −f
Podemos construir dos vectores linealmente independientes v1 , v2 que satisfacen
1 1
−
a = c y un tercero v 3 que satisface d = e = f , por ejemplo
1
v1 = 0 v2 = 1 v3 = − 1
1 1 1
149
OSCAR G. DUARTE
{ }
En la base v1 v 2 v3 la transformación A se representa por Λ:
1 −1 0
3 0 −1 1 1 1
Λ = M −1 AM = − 1/2 1 1/2 −1 2 −1 0 1 1
1/2
2 0
−
0 1/2
0
1 0
λ1 0 0
3 1
1 −1
Λ = M−1 AM = 0 2 0 = 0 λ2 0
0 0 4 0 0 λ3
¿De qué tamaño es cada uno de los bloques de Jordan asociados a cada
valor propio no repetido de la matriz A?
ν̂ ×
r ×
··· ··· ···
ν̂ 2 × ··· ×
ν̂ 1 × ··· × ×
Figura 6.4: Diagrama de Matthew vacio simple
i
··· , ν , en donde ν = n − ρ(B ).
3. Se calculan las nulidades ν 0 , ν 1 , ν 2 , r i
151
OSCAR G. DUARTE
λj 1 0 ··· 0
0 λj 1
··· 0
. .. . .
Jji = .. . . ··· 0
..
0 0 0 . 1
0 0 0 ··· λ j hij ×hij
Ejemplo 6.14 Sea A la matriz2
3
− 1 1 1 0
0
1
0
− − 1
0 2
1
0
1 0
1
0
1
A =
0 − 0 0 2 1 −1
0 0 0 0 1 1
0 0 0 0 1 1
Para calcular los valores propios de A hacemos
det(A − λI) = [(3 − λ)(1 − λ) + 1](λ − 2)2[(1 − λ)2 − 1] = (λ − 2)5λ = 0
Es decir, A tiene un valor propio 2 de multiplicidad 5 y un valor propio 0 de
multiplicidad 1. Nos proponemos encontrar el diagrama de Matthew de los vectores
propios asociados a λ 1 = 2.
Para ello definimos B = (A 2I) y calculamos B 0 , B1 , B2 , B3 , , sus rangos
− ···
y nulidades
B0 = I ρ(A 2I)0 = 6 ν 0 = 6 6 = 0
1
− − 1 1 1 0 0
−
1
0
− − −
0
1
0
1 0
1 0
1
0
1 −
ρ(A 2I) = 4
B =
0 0 − −
0 0 1 1 −
ν 1 = 6 4 = 2
0 0 −
0 0 1 1
0 0 0 − 0 1 1
0
0 2
2 0 0
0 0 2 2 0 0
0 0 0 0 0 0 ρ(A 2I)2 = 2−
B2 =
0 0 0 0 0 0 ν 2 = 6 2 = 4 −
0 0 0 − 0 2 2
0 −
0 0 0 2 2
0
0 0
0 0 0
0 0 0 0 0 0
0 0 0 0 0 0 ρ(A 2I)3 = 1−
B3 =
0 0 0 0
0 0 ν 3 = 6 1 = 5 −
0 −
0 0 0 4 4
0 0 0 − 0 4 4
2 adaptado de [5, pp.: 43]
152
×
× ×
× ×
De donde se deduce que q = 2, h1 = 3 y h2 = 2; en otras palabras, el valor
×
propio 2 tendrá 2 bloques de Jordan, uno de tamaño 3 3 y otro de tamaño 2 2. ×
Adicionalmente, el valor propio 0 tendrá un único bloque de Jordan de tamaño 1 1, ×
por ser un valor propio de multiplicidad 1. En consecuencia la forma canónica de
Jordan de la matriz A será
2 1 0 0 0 0
2 1 0 0 0 0
0 2 1 0 0 0 0
2 1 0 0 0
0 0 2 0 0 0 0 0 2 0 0 0
J = M−1 AM =
0 0 0 2 1 0
=
0
0 0 2 1 0
0 0 0 0 2 0 0 0 0 0 2 0
0 0 0 0 0 0
0 0 0 0 0 0
Ji =
a b
−b a
0
0.5
0
A = 0 0 − 2
1 1 − 2
153
OSCAR G. DUARTE
154
f (A) = a 0 I + a1 A + a2 A2 + ··· + a nA
n
A =
0 b
−b 0
calculamos los primeros términos A 1 , A2 , A 3 , A4 , A 5 y A 6 :
A1 =
−
0 b
A2 =
b2 0
A3 =
0 −b3
b2 b3
4
A =
− −
b4 0
b 0
A =5 0 b5
0
A = 6
− b6
0
0
0 b4 − b5 0 0 −b6
Observando la secuencia se puede inferir que
− k
( 1) 2 bk 0
k si k es par
− 0 ( 1) 2 bk
k
A =
− 0
k+1
k−1
( 1) 2 bk
si k es impar
( 1) 2 bk
− 0
f (σ) =
∞ σk dk f (σ) (6.17)
k! dσk σ
k=0
155
OSCAR G. DUARTE
Empleando (6.17) se puede expresar f (σ) como un polinomio de σ. Si A es
una matriz cuadrada, puede calcularse f (A) empleando ese polinomio.
Las siguientes son las expansiones de algunas funciones comunes:
σt σ 2 t2 σ3 tk σ 4 tk
eσt = 1 + + + + + ··· (6.18)
1! 2! 3! 4!
2 2 4 4 6 6 8 8
cos σt = 1 − σ2!t + σ4!t − σ6!t + σ8!t + ··· (6.19)
3 3 5 5 7 7
σt
sin σt = − σ3!t + σ5!t − σ7!t + ···
1!
(6.20)
Ejemplo 6.18 Sea A una matriz diagonal como la del ejemplo 6.16. Para calcular
eAt podemos emplear (6.18)
At A 2 t2 A 3 tk A4 tk
eAt = I + + + + + ···
1! 2! 3! 4!
que de acuerdo con los resultados del ejemplo 6.16 se calculará asi:
1 0 ··· 0 λ1 0
0 ···λ21 0
2
0
···
0
1 ··· 0 t 0 λ2 0 ···
t 2 0 λ2 0 ···
eAt = . .. . . .. + . .. . . .. + . + ···
..
. . . 1! .. . . . 2! .. ... . . . ...
0 0 ··· 1 0 0 λn ···0 0 λ2n ···
g1 (t) 0 0 ···
At
0 g2 (t)
0 ···
e = .. .. . . ..
. . . .
0 0 gn (t) ···
λ i t λ2i t2 λ 3i t3
gi (t) = (1 +
1!
+
2!
+
3!
+ ) ···
Cada uno de los términos de la diagonal, gi (t), corresponde a la expansión en
series de Taylor de una exponencial como las de (6.18), por lo tanto e At será:
eλ1 t 0 0 ···
0 eλ2 t
0 ···
eAt = ..
.
... . . . ...
0 0 eλn t
···
Ejemplo 6.19 Sea A una matriz con la forma de los bloques reales de Jordan para
el caso en que los valores propios son imaginarios puros, como la del ejemplo 6.17.
Para calcular e At podemos emplear (6.18)
At A 2 t2 A 3 tk A4 tk
eAt = I + + + + + ···
1! 2! 3! 4!
156
que de acuerdo con los resultados del ejemplo 6.17 se calculará asi:
eAt =
−
1 0
+
t 0 b t2
+
b2 0
+
t3 0 −b3
+
t4 b4 0
+ ···
b2 3! b3 4! 0 b4
0 1
−−1! −
···
b 0
−
2!
2 2 4 4
(1 t 2!b + t 2!b +
0
) ( tb t 3 b3
0
t5 b5
···
3! + 45!4 +
)
eAt = 3 3
t5 b5
1!
t2 b2
( tb
− 1!
+ t 3!b − 5!
+ ···
) (1 − 2!
t b
+ 2! + ··· )
Cada uno de los términos de la matriz corresponde a la expansión de Taylor de una
sinusoide como las de (6.19) y (6.20), por lo tanto e At puede calcularse como
eAt =
cos(bt) sin(bt)
− sin(bt) cos(bt)
Ejemplo 6.20 Sea A una matriz con la forma de los bloques reales de Jordan
A =
a b
−b a
A =
a b
= B + C =
a 0
+
0 b
−b a 0 a b 0 −
At Bt Ct
De tal manera que e = e e . Empleando los resultados de los ejemplos 6.18 y
6.19 se tiene que
eBt =
eat 0
eCt =
cos(bt) sin(bt)
0 eat − sin(bt) cos(bt)
y por lo tanto
eAt =
eat 0
cos(bt) sin(bt)
=
e at cos(bt) eat sin(bt)
0 eat − sin(bt) cos(bt) eat sin(bt) eat cos(bt)
−
157
OSCAR G. DUARTE
+
u(s) + sx(s) x(s) + y(s)
B 1/s C
+
158
+
u(z) + zx(z) x(z) + y(z)
B 1/z C
+
De acuerdo con la definición 6.1, las variables de estado serán variables que
muestran cómo evoluciona el estado del sistema, es decir, serán variables que
contienen la información necesaria para predecir la evolución del comportamien-
to del sistema en forma única.
También suelen definirse las variables de estado como cualquier conjunto
de variables que describa el comportamiento del sistema, siempre y cuando ese
conjunto sea del menor tamaño posible.
159
OSCAR G. DUARTE
R L
+
+ vR (t) − iL (t)
+
v(t) −
C vC (t)
−
Figura 6.7: Circuito RLC serie
160
A =
− −
R/L 1/L
B =
1/L
C =
R 0
D = 0
1/C 0 0 1 0
Ejemplo 6.22 Supóngase un motor eléctrico de corriente continua controlado por
campo, como el que se muestra en la figura 6.8, con corriente de armadura cons-
tante, que mueva una carga de momento de inercia J , con coeficiente de fricción
viscosa B a una velocodad angular ω (t).
Rf Lf
J, B
+
vs (t) −
if (t) ω(t)
161
OSCAR G. DUARTE
>>< x (k + 1) 4 ..
n
.. .. .. 5
x (k )
4 .. .. . . .. 5 u (k)
n n
0 0 ··· 0 0 0 ··· 0
>>
x (k)
>> 2 3 1
>> ˆy(k)˜ = ˆ1 1 · · · 1˜ 666 x (. k)777 2
>> 4 .. 5
x (k)
: n
163
OSCAR G. DUARTE
164
dx
= ax(t)
dt
cuya solución es
x(t) = e at x(0) (6.37)
165
OSCAR G. DUARTE
debido a que
d eat
= ae at ea0 x(0) = x(0) (6.38)
dt
Resulta entonces natural preguntarse si al reemplazar el escalar a por la
matriz A, y la variable x por el vector de variables x se mantienen las relaciones
(6.38) y asi encontrar una solución de (6.36) similar a (6.37).
Es posible demostrar que
d eAt
= AeAt eA0 x(0) = x(0) (6.39)
dt
Para ello, empleamos la expansión en series de Taylor (6.18)
d eAt A2 t A 3 t2 A 4 t3 A 5 t4
dt
= 0 + A +
1!
+
2!
+
3!
+
4!
+ ···
d eAt
= A I +
At A 2 t2 A 3 t3 A 4 t4
+ + + + ···
dt 1! 2! 3! 4!
d eAt
= AeAt
dt
De esta forma hemos demostrado (6.39), y por lo tanto también hemos de-
mostrado que la solución de (6.36) es
166
J = M −1 AM A = MJM −1
La ventaja de emplear (6.42) radica en que J es una matriz diagonal por
bloques, y por lo tanto eJt es más fácil de calcular, especialmente si J es
completamente diagonal
L{ẋ} = L{Ax}
sx(s) − x(0) = Ax(s)
167
OSCAR G. DUARTE
eAt = −1 (sI
L − A)−1
=
2t
e 0
0 e−1t 0
0
0 0 e3t
por lo tanto la solución de la ecuación diferencial será
At
e2t 0
0
2
x(t) = e x(0) = 0 e−1t 0
1
−
0 0 e3t 1
x1 (t)
2e2t
x(t) = x2 (t) =
− e−t
x3 (t) e3t
En un caso como este en el que la matriz A es diagonal, realmente la ecuación
diferencial matricial representa un conjunto de ecuaciones diferenciales sencillas en
el que las variables están desacopladas ; La ecuación matricial y las condiciones
iniciales pueden escribirse como:
ẋ1 (t) = 2x1 (t) x1 (0) = 2
−
ẋ2 (t) = 1x2 (t) x2 (0) = 1
ẋ3 (t) = 3x3 (t) x3 (0) = 1 −
cuyas soluciones son x1 (t) = 2e2t
x2 (t) = e −t
x3 (t) = et −
168
Λ = M −1 AM
M =
1 1
Λ =
2 0
−2 −1 0 3
lo que permite calcular e At :
eAt =
1 1
e2t 0
− − −
1 1
=
( e2t + 2e3t ) ( e2t + e3t ) −
−2 −1 0 e3t 2 1 (2e2t 2e3t ) (2e2t e3t )
− −
También podemos obtener este resultado mediante la Transformada de Laplace:
sI
− A = s −2 4 s−−11
(sI − A)−1 = s2 − 5s
1 (s − 1)
1
+6 −2 (s − 4)
s 1
−
(s 2)(s 3)
− −
1
(s 2)(s 3)
− −
− 1 2
(s 2) + (s 3)
− −
− 1 1
(s 2) + (s 3)
− −
(sI − A)−1 = − 2 s 4
− =
2 2 −
2 1 −
(s 2)(s 3)
− − (s 2)(s 3)
− − (s 2) + (s 3)
− − (s 2) + (s 3)
− −
x(t) =
− −
x1 (t)
=
( e2t t
−
+ 2e3 )x10 + ( −e2 t
x20
+ e3t )x20
(2e2t 3 2
2e t)x10 + (2e t
e3t )x20
x(t) =
−− −
x2 (t)
x1 (t) e2t ( x10 x20 ) + e3t (2x10 + x20 )
= 2t
−
x2 (t) e (2x10 + 2x20 ) + e3t( 2x10 x20 ) − −
Ejemplo 6.26 Obtener la solución de la ecuación
−
ẋ1 (t)
=
1 4 x1 (t)
ẋ2 (t) −1 −1 x2 (t)
169
OSCAR G. DUARTE
son
Los valores propios de A son λ 1,2 =
v1 =
− − ±
j2
1
v2 =
j2, y dos vectores propios asociados
j2
1 1
Debido a que los valores propios son complejos, es conveniente encontrar la forma
canónica real de Jordan de A.
1
JR = M −
R AMR
MR =
−
0 2
JR =
− 1 2
1 0 −2 −1
lo que permite calcular e At :
eAt =
−
0 2 e −t cos2t e−t sin2t
0 1
e−t sin2t e−t cos2t
1
−
0
eAt =
e−t cos2t 2e−t sin2t
− 1/2 0
− 12 e− sin2t
t
e−t cos2t
También podemos obtener este resultado mediante la Transformada de Laplace:
sI − A =
s+1 4 − (sI − A)−1 = s2 + 2s
1 (s + 1)
4
1 s+1 +5 −1 (s + 4)
s+1
(s+1)2 +22
4
(s+1)2 +22
(sI − A)−1 = 1− s+1
(s+1)2 +22 (s+1)2 +22
eAt = −1 (sI
L − A)−1 − =
e−t cos2t 2e−t sin2t
1 −t
sin2t e−t cos2t
2e
por lo tanto la solución de la ecuación diferencial será
x(t) = e Atx(0) =
e−t cos2t 2e−t sin2t
1 −t
x10
sin2t e−t cos2t
x(t) =
−
x1 (t)
=
2e
170
−
Los valores propios de A son λ1 = λ 2 = 1. Además se puede comprobar que no
es posible diagonalizar A. En consecuencia, la forma canónica de Jordan de A será
un único bloque de tamaño 2. La obtención de los vectores propios generalizados
con los que se obtiene la forma canónica de Jordan escapa al alcance de este texto.
No obstante, vamos a suponer que se han encontrado las matrices M y J:
J = M −1 AM
M =
−
2 1
J =
− 1 1
−1 0 0 −1
de tal manera que se puede calcular e At :
eAt = MeJtM−1
−
eJt = −1 (sI
L J)−1 =
e−t te−t
0 e−t
Retomando el cálculo de e At
eAt =
− 2 1 e−t te−t
−
0 1
=
e−t − 2te− t
4te−t
−1 0 0 e−t 1 −2 −te− t
e−t + 2te−t
sI − A =
s+3 4
−
− −
(sI
A)−1 =
1 (s 1) 4
−
1 s 1
−
1 2 −
(s+1) + (s+1)2
(s + 1)2
4
(s+1)2
1 (s + 3)
(sI − A)−1 =
−
1 1 2
(s+1)2 (s+1) + (s+1)2
L −
eAt = −1 (sI
−
A)−1 =
e−t 2te−t 4te−t
− te−t e−t + 2te−t
por lo tanto la solución de la ecuación diferencial será
−
x(t) = e Atx(0) =
e−t 2te−t 4te−t x10
te−t e−t + 2te−t
x(t) =
−−
x1 (t)
=
(e−t 2te−t)x10 + 4x20 te−t
x20
−
x2 (t) x10 te−t + (e−t + 2te−t )x20
x(t) =
x1 (t)
=
−
(x10 )e−t + ( 2x10 + 4x20 )te−t
x2 (t) (x20 )e−t + ( x10 + 2x20)te−t
−
171
OSCAR G. DUARTE
sujeta a las condiciones iniciales x 1 (0) = 0 y x 2 (0) = 2 es (Ejemplo 6.26)
x(t) =
x1 (t)
=
4e−t sin2t
x2 (t) 2e−t cos2t
La figura 6.9 muestra las gráficas de x 1 (t) vs t, x 2 (t) vs t, a partir de las cuales
se ha trazado x1 vs x2 tomando para cada tiempo τ el valor de x1 (τ ) y x2 (τ ) y
trasladándolos al plano de fase. La curva resultante es una trayectoria de la ecuación
diferencial.La flecha roja indica el sentido en el que se recorre la trayectoria cuando
el tiempo avanza.
Se ha repetido el procedimiento para varios juegos de condiciones iniciales, con
el fin de obtener el retrato de fase que se muestra en la figura 6.10. Las condiciones
iniciales seleccionadas han sido:
xa (0) =
0
xb (0) =
0
xc (0) =
−
2
xd (0) =
2
2 − 2 1.5 −1.5
La figura 6.11 muestra los retratos de fase tı́picos de sistemas lineales es-
tables 4 , mientras que la figura 6.12 muestra los retratos de fase tı́picos de los
sistemas lineales inestables . Debemos resaltar que la forma de estos retratos
depende de cómo son los valores propios de la matriz A.
En general, un sistema lineal como (6.45) tendrá un retrato de fase semejante
a alguno de los que se muestran en las figuras6.11 y 6.12. No obstante, el retrato
de fase no necesariamente será idéntico. La semejanza a la que nos referimos aqui
consiste en una equivalencia de forma (serán topol´
ogicamente equivalentes ).
4 el centro se considera como un sistema marginalmente estable
172
x2 (t) x1 (τ )x1
τ t
x2
x1
173
OSCAR G. DUARTE
Reales Negativos
A =
−
1 0
0 −2
Estable
x1 (t) = x 10 e−t
x2 (t) = x 20 e−2t
174
175
OSCAR G. DUARTE
Ejemplo 6.29 La figura 6.13 muestra los retratos de fase de varios ejemplos. En
cada caso se ha anotado la matriz A y su formacanonica de Jordan J. Nótese la
semejanza de forma con los ejemplos tı́picos de las figuras 6.11 y 6.12.
En las figuras 6.11 y 6.12 se observa que el origen del plano de fase juega
un papel importante, atrayendo o repeliendo todas las trayectorias (o siendo el
centro de ellas en el caso especial en el que los valores propios son imaginarios
puros).
El origen del plano de fase es el punto de equilibrio de (6.45), que definimos
a continuación.
Teorema 6.1 Dada una ecuación de la forma (6.36), el conjunto de todas las
soluciones forma un espacio vectorial Σ sobre el campo C con las operaciones
usuales.
176
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 .
0 .
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
-1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0 -1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0
„ 0 1
« „−1 0
« „ 0 1
« „1 0«
A = J = A = J =
−2 −3 0 −2 −2 3 0 2
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
. .
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
-1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0 -1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0
„ 0 1
« „ −0.5 0.87
« „ 0 1
« „ 0.5 0.87
«
A = J = A = J =
−1 −1 −0.87 −0.5 −1 1 −0.87 0 .5
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 .
0 .
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
-1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0 -1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0
„0 −1« „j 0
« „0 1
« „1 0
«
A = J = A = J =
1 0 0 −j 2 − 1 0 − 2
177
OSCAR G. DUARTE
v1 =
1
v2 =
1
1 − 1
de tal manera que la forma canónica de Jordan y la matriz modal son
J =
−
1 0
M =
1 1
0 −2 1 −1
178
La matriz e At es la siguiente:
eAt =
(0.5e−t + 0.5e−2t ) (0.5e−t 0.5e−2t)
−
(0.5e−t 0.5e−2t ) (0.5e−t + 0.5e−2t)
−
y por lo tanto la solución de la ecuación diferencial, para unas condiciones iniciales
x10 y x 20 es
x(t) =
(0.5e−t + 0.5e−2t)x10 + (0.5e−t 0.5e−2t)x20
−
(0.5e−t 0.5e−2t)x10 + (0.5e−t + 0.5e−2t)x20
−
e−t (0.5x10 + 0.5x20 ) + e−2t (0.5x10 − 0.5x20)
x(t) = −t
e (0.5x10 + 0.5x20 ) + e−2t (−0.5x10 + 0.5x20 )
El retrato de fase del sistema se muestra en la figura 6.14. Cada trayectoria
del retrato de fase es una solución de la ecuación diferencial para unas ciertas
condiciones iniciales. De esas trayectorias se destacan 2 que corresponden a lı́neas
rectas. No es casualidad que esas trayectorias rectas coincidan con los vectores
propios v 1 y v 2 . Veamos:
Si seleccionamos como condiciones iniciales las mismas coordenadas del vector
propio v 1 , es decir, si hacemos x 10 = 1 y x 20 = 1 la solución de la ecuación será
ψ1 (t) =
x1 (t) e−t (0.5 + 0.5) + e−2t (0.5 0.5)
= −t
− = −t
e−t
x2 (t) e (0.5 + 0.5) + e−2t ( 0.5 + 0.5)
− e
Es decir, se encuentra que x1 (t) = x 2 (t) lo que corresponde a una recta en el
plano de fase. Además, la dinámica del sistema sólo depende de términos e −t , es
decir, sólo depende del valor propio λ 1 al cual está asociado v 1 . Al seleccionar como
condición inicial un punto del primer vector propio, toda la dinámica del sistema
depende exclusivamente del primer valor propio.
Un resultado similar obtendremos si seleccionamos como condiciones iniciales las
mismas coordenadas del vector propio v 2 , es decir, si hacemos x 10 = 1 y x 20 = 1. −
La solución de la ecuación será
ψ2 (t) =
x1 (t) e−t(0.5 0.5) + e−2t (0.5 + 0.5)
= −t
− =
e−2t
x2 (t) e (0.5 0.5) + e−2t ( 0.5 0.5)
− − − e−2t
−
Es decir, se encuentra que x 1 (t) = −x2 (t) lo que corresponde a otra recta en el
−2
plano de fase. Además, la dinámica del sistema sólo depende de términos e t , es
decir, sólo depende del valor propio λ 2 al cual está asociado v 2 . Al seleccionar como
condición inicial un punto del segundo vector propio, toda la dinámica del sistema
depende exclusivamente del segundo valor propio.
Hay otra forma de comprender estos resultado: Supóngase que en algún instante
(por ejemplo en t = 0) el vector de estado x es un vector propio del primer valor
propio λ1 ; su derivada podrá calcularse como ẋ = Ax, pero como es un vector
propio, entonces ẋ = Ax = λ 1 x. En otras palabras, la derivada será un vector con
la misma dirección de x y por lo tanto el sistema evolucionará en esa dirección, que
es justamente la del vector propio.
179
OSCAR G. DUARTE
1.0
0.8
0.6
0.4
0.2
0
.
−0.2
−0.4
−0.6
−0.8
−1.0
−1.0 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1.0
Las dos soluciones que se han obtenido ψ 1 (t) y ψ 2 (t) son linealmente indepen-
dientes, y por lo tanto sirven como base del espacio de estado Σ. Construimos la
matriz fundamental
Ψ(t) = ψ1 (t) ψ2 (t) =
e−t
e−t −e−2
e−2t
t
Lo que se ha hecho es equivalente a efectuar un cambio de base en el plano
de fase, tomando como nueva base la formada por los vectores propios. El nuevo
retrato de fase se muestra en la figura 6.15
180
1.0
0.8
0.6
0.4
0.2
0
.
−0.2
−0.4
−0.6
−0.8
−1.0
−1.0 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1.0
x(k + 1) = ax(k)
cuya solución es
x(k) = x(0)ak (6.49)
181
OSCAR G. DUARTE
debido a que
ak+1 = aa k x(0)a0 = x(0) (6.50)
Al igual que en el caso continuo, nos preguntamos si al reemplazar el escalar
a por lamatriz A, y la variable x por el vector de variables x se mantienen las
relaciones (6.50) y asi encontrar una solución de (6.48) similar a (6.49).
Evidentemente
Ak+1 = AA k x(0)A0 = x(0) (6.51)
En consecuencia la solución de (6.48) es
x(k) = A k x(0) (6.52)
En (6.52) x(0) es el vector que contiene las condiciones iniciales de x(k). Por
otra parte, es posible calcular Ak por diversos métodos, de los cuales destacamos
los siguientes
Definición: Podemos emplear la definición de A k directamente:
Ak = AAA ··· A k veces (6.53)
Este método no es práctico, debido a la dificultad de calcular Ak ; sin
embargo, en algunos casos especiales este cálculo es sencillo (matrices dia-
gonales)
Forma canónica de Jordan: Si se ha obtenido la Forma canónica de Jordan
de la matriz A, entonces se tienen dos matrices J y M tales que
J = M −1 AM A = MJM −1
k
y por lo tanto A puede calcularse asi:
Ak = MJ k M−1 (6.54)
La ventaja de emplear (6.54) radica en que J es una matriz diagonal por
bloques, y por lo tanto Jk es más fácil de calcular, especialmente si J es
completamente diagonal
Z
Transformada : Podemos obtener la solución de (6.48) empleando la trans-
formada , y asi deducir el valor de Ak .
Z
Z {x(k + 1)} = Z {Ax(k)} =
zx(z) − zx(0) = Ax(z)
zx(z) − Ax(z) = zx(0)
(zI − A)x(z) = zx(0)
x(z) = z(zI − A)−1 x(0)
x(k) = Z −1 {x(z)} = Z −1 z(zI − A)−1 x(0)
x(k) = Z −1 z(zI − A)−1 x(0) = A x(0) k
k
A = Z −1 z(zI − A)−1
(6.55)
182
183
OSCAR G. DUARTE
184
En este caso especial, la entrada u j (s) sólo afecta la salida yj (s). Se dice entonces
que el sistema es desacoplado.
−
y(z) = Cz(zI A)−1 x(0) + C(zI
Rta de entrada cero
− A)−1B + D
Rta de estado cero
u(z) (6.67)
185
OSCAR G. DUARTE
La ecuación (6.63) y (6.69) son análogas; sin embargo, es más fácil de analizar
(6.69). Para ello, vamos a expandir la sumatoria:
x(k) = Φ(k, 0)x(0) + Φ(k, 1)Bu(0) + Φ(k, 2)Bu(1) + ··· + Φ(k, k)Bu(k − 1)
x(k) = Φ(k, 0)x(0) + Φ(k, 1)Bu(0) + Φ(k, 2)Bu(1) + ··· + Bu(k − 1) (6.70)
La ecuación (6.70) muestra que x(k) esta formada por aportes de las condi-
ciones iniciales x(0), y de las entradas u(k). Además muestra cuál es el aporte
exacto del valor de la entrada en un instante de tiempo especı́fico: por ejemplo,
la entrada en k = 1, que es u(1) aporta a la construcción de x(k) justamente
Φ(k, 2)Bu(1).
Un análisis similar podrı́a hacerse para el caso continuo con la ecuación
−
(6.63); para ello debe emplearse la función impulso δ (t τ ). Debido a que este
análisis no aporta ningún concepto nuevo, se ha omitido en este texto.
187
OSCAR G. DUARTE
r + u y
Sistema
+
x
+ y(s)
r(s)+ + sx(s) x(s) +
B 1/s C
u(s)
+ +
188
+ y(z)
r(z)+ + zx(z) x(z) +
B 1/z C
u(z)
+ +
189
OSCAR G. DUARTE
1. ¿Pueden asignarse con total libertad los valores propios de Ā?, es decir,
dado un conjunto de valores propios deseados, ¿existirá siempre una matriz
K que permita asignarle a Ā dichos valores propios?
6.8.1. Controlabilidad
La noción de controlabilidad de un sistema está asociada con la posibilidad
de hacer que sus variables de estado tomen cualquier valor deseado, no importa
cuales sean las condiciones iniciales, en un tiempo finito.
La definición 6.3 no brinda por sı́ sóla un mecanismo fácil para determinar
si un sistema es controlable o no. No obstante, podemos aplicar un test de
controlabilidad para determinar si un sistema dinámico lineal invariante en el
tiempo es o no controlable.
Test de controlabilidad
Para determinar si un sistema como (6.21) o como (6.22) es o no controlable,
× ×
con A una matriz n n y B una matriz n p, se construye la matriz de
190
1Ω 1Ω
+
1F
v(t) −
1Ω 1Ω
6.8.2. Observabilidad
Al observar la estrategia de control por Realimentación de Variable de Estado
sugerida en la figura 6.16 surge la cuestión de cómo medir las variables de estado
x, ya que es posible que estas no tengan sentido fı́sico, o que no sean medibles.
8 Se supone en esta afirmación que los valores propios deseados complejos aparecen en
parejas conjugadas.
191
OSCAR G. DUARTE
r + u y
Sistema
+
Observador
x̂
K
La definición 6.4 no brinda por sı́ sóla un mecanismo fácil para determinar
si un sistema es observable o no. No obstante, podemos aplicar un test de obser-
vabilidad para determinar si un sistema dinámico lineal invariante en el tiempo
es o no observable.
Test de observabilidad
Para determinar si un sistema como (6.21) o como (6.22) es o no observable,
× ×
con A una matriz n n y C una matriz q n, se construye la matriz de
192
Ejemplo 6.33 Tomemos nuevamente el circuito de la figura 6.19. Para escribir las
ecuaciones que rigen el sistema, nótese que el equivalente Thévenin del circuito visto
por el condensador es una resitencia de valor R, de tal manera que:
d 1
dt
vC (t) = − RC v C (t)
vx (t) = v(t)
−
Es decir, es un sistema como (6.21) con A = 1/RC , B = 0, C = 0, y D = 1.
Las matrices de controlabilidad y observabilidad definidas en (6.74) y (6.75) son:
193
OSCAR G. DUARTE
194
Capı́tulo 7
Para ello, hacemos inicialmente una distinción entre dos tipos de funciones
no lineales:
No linealidades estáticas: Se trata de sistemas no lineales sin memoria , es
decir, aquellos cuyas salidas y(t) sólo dependen de las entradas en ese
mismo instante u(t). La figura 7.1 resume algunas de las no linealidades
estáticas más frecuentes. Algunos de los elementos que se pueden modelar
con este tipo de no linealidades estáticas son:
Válvulas de apertura gradual.
Transformadores y motores en regiones de saturación magnética.
Materiales ferromagnéticos en general.
Huelgos en engranajes.
Cilindros hidraúlicos y neumáticos con cambio de dirección.
Linealizaciones de elementos eléctricos y electrónicos.
195
OSCAR G. DUARTE
Saturaciones Relés
196
Ejemplo 7.1 Consideremos un sistema continuo descrito por la ecuación (7.1) que
no es lineal debido al término x 2
En la figura 7.2 se muestra el comportamiento del sistema con ε = 1 y condi-
ciones iniciales nulas ante dos entradas diferentes:
Nótese que aunque se ha multiplicado por 4 la entrada, la salida no está multi-
plicada por 4; de hecho, el valor estacionario tan sólo se ha duplicado, con lo que
se demuestra que el sistema no tiene la propiedad de proporcionalidad.
Ahora trabajamos con el sistema suponiendo ε = 0.1 (es decir, haciendo más pe-
queño el efecto no lineal) y manteniendo condiciones iniciales nulas. Se ha simulado
el comportamiento del sistema en tres condiciones diferentes:
La figura 7.3 muestra y3 (t), y4 (t), y3 (t) + y 4 (t) y y5 (t). Se destaca como la
suma y3 (t) + y 4 (t) es diferente de la salida que se obtiene cuando la entrada es
u3(t) + u 4 (t), con lo que se demuestra que el sistema no tiene la propiedad de
superposición.
197
OSCAR G. DUARTE
3.0
2.5
2.0
y2 (t)
1.5
y1 (t)
1.0
0.5
0.0
0 1 2 3 4 5 6 7 8 9 10
4
y3 (t) + y4 (t)
2
y3 (t) y5(t)
y4 (t)
−1
0 1 2 3 4 5 6 7 8 9 10
Figura 7.3: Sistema No Lineal con una entrada escalón y una sinusoide
198
Ejemplo 7.2 Tomemos como ejemplo un péndulo simple de barra rı́gida como el
de la figura 7.4 cuyas ecuaciones dinámicas son
ẋ1 = x 2
(7.2)
−
ẋ2 = a sin(x1 ) − bx2
en donde
a = g/l, b = k/m
Para que ẋ1 y ẋ2 sean cero en (7.2) se necesita que x2 = 0 y sin(x1 ) = 0, es
decir que los puntos de equilibrio son:
± ± ± ···
0
,
π
,
2π
,
3π
,
0 0 0 0
199
OSCAR G. DUARTE
l
x 1
2.0
1.6
1.2
0.8
0.4
0
.
−0.4
−0.8
−1.2
−1.6
−2.0
−1 1 3 5 7 9 11
200
Ejemplo 7.3 Considéremos de nuevo el caso del péndulo simple descrito por (7.2)
y cuyo retrato de fase se muestra en la figura 7.5. Para conocer el comportamiento
del sistema en todos los puntos de equilibrio basta con analizarlo en dos de ellos
xa =
±
(un ángulo θ es igual a un ángulo θ 2nπ):
0
xb =
π
0 0
La figura 7.6 muestra una ampliación del retrato de fase de la figura 7.5 cerca
al punto de equilibrio xa . El retrato de fase resultante es similar al de un sif´
on de
un sistema lineal, por lo tanto diremos que xa es un punto de equilibrio del tipo
sifón, y por lo tanto estable.
Por otra parte, la figura 7.7 muestra una ampliación del retrato de fase de la
figura 7.5 cerca al punto de equilibrio x b . El retrato de fase resultante es similar al
de un punto de silla de un sistema lineal, por lo tanto diremos que x b es un punto
de equilibrio del tipo punto de silla, es decir, es inestable.
ẋ1 = −
x1 + x1 x2
ẋ2 = x2 x1 x2 − (7.3)
201
OSCAR G. DUARTE
0.7
0.5
0.3
0.1
−0.1
−0.3
−0.5
−0.7
4.8 5.2 5.6 6.0 6.4 6.8 7.2 7.6 8.0
Figura 7.6: Retrato de Fase del péndulo simple alrededor de un punto de equilibrio
del tipo sifón
0.7
0.5
0.3
0.1
−0.1
−0.3
−0.5
−0.7
2.1 2.5 2.9 3.3 3.7 4.1 4.5
Figura 7.7: Retrato de Fase del péndulo simple alrededor de un punto de equilibrio
del tipo punto de silla
202
0
.
−1
−1 0 1 2 3 4 5
miembros de una especie con los de la otra, que se supone que es proporcional al
producto x 1 x2 .
La figura 7.8 muestra el retrato de fase del sistema descrito por (7.3). Se nota
un punto de equilibrio en (1, 1) que es un centro, y otro punto de equilibrio en (0, 0)
que es un punto de silla. Además, se destacan infinitas soluciones periódicas que no
tienen forma de elipse ni están centradas en (0, 0)
ẋ1 = x2
ẋ2 = µ(1 − x21 )x2 − x2 (7.4)
203
OSCAR G. DUARTE
0
.
−1
−2
−3
−4
−3 −2 −1 0 1 2 3
Figura 7.9: Retrato de Fase del Oscilador de Van der Pol con µ = 1
La figura 7.9 muestra el retrato de fase del sistema descrito por (7.4) con µ = 1.
Nótese que todas las trayectorias tienden a formar una órbita cerrada (marcada en
rojo); está órbita corresponde a un ciclo lı́m ite del sistema.
204
7.7. BIFURCACIONES
2.0
1.6
1.2
0.8
0.4
0
.
−0.4
−0.8
−1.2
−1.6
−2.0
−2.0 −1.6 −1.2 −0.8 −0.4 0 0.4 0.8 1.2 1.6 2.0
La figura 7.10 muestra el retrato de fase del sistema descrito por (7.5) con
k = 0 (sin amortiguamiento). El sistema tiene tres puntos de equilibrio: en (1, 0)
−
y en ( 1, 0) hay unos puntos de equilbrio del tipo centro; en (0, 0) hay un punto
de equilibrio del tipo punto de silla. En este punto hay dos trayectorias especiales
(en rojo): una de ellas inicia en la dirección (1, 1) y despues de dar una vuelta hacia
−
la derecha regresa al punto (0, 0) desde la dirección (1, 1); la otra inicia en la
− −
dirección ( 1, 1) y despues de dar una vuelta hacia la izquierda regresa al punto
−
(0, 0) desde la dirección ( 1, 1). Estas dos trayectorias son ´
orbitas homoclı́nicas del
sistema.
7.7. Bifurcaciones
205
OSCAR G. DUARTE
Ejemplo 7.8 Consideremos el sistema discreto de primer orden descrito por la ecua-
ción:
−
(2 x)/4 x ∈ [0, 18/41)
x(k + 1) = f (x(k)) f (x) =
−
10x 4 x ∈ [18/41, 1/2) (7.7)
−
10x 5 x
∈ [1/2, 23/41)
−
(3 x)/4 x ∈ [23/41, 1]
f (x) se muestra en la figura 7.11. En la figura 7.12 se muestra el comportamiento
del sistema para tres condiciones iniciales muy cercanas: xa (0) = 0.445 + 1E −
−
11 (en negro), xb (0) = 0.445 + 3E 11 (en azul) y xc (0) = 0.445 + 5E 11 −
(en rojo). Nótese cómo a partir de k = 35 el comportamiento del sistema difiere
notablemente aun cuando las tres condiciones iniciales se asemejan mucho. Este
tipo de comportamiento es ca´ otico .
206
1.00
0.75
0.50
0.25
0
0 0.25 0.50 0.75 1.00
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50
(rojo)
207
OSCAR G. DUARTE
208
Apéndice A
Demostraciones de las
Transformadas de Laplace y Z
F (s) = L{f (t)} =
∞
f (t)e−st dt (A.1)
0
Sean f (t), f 1 (t), f 2 (t) tres funciones cuyas Transformadas de Laplace son,
respectivamente F (s), F 1 (s), F 2 (s), y a un escalar (real o complejo). Se cumplen
las siguientes propiedades:
A.1.1. Linealidad:
L{f 1(t) + f 2(t)} =
∞
[f 1 (t) + f 2 (t)]e−st dt
0
209
OSCAR G. DUARTE
L{f 1(t) + f 2(t)} =
∞
f 1 (t)e−st dt +
∞
f 2 (t)e−st dt
0 0
Las dos integrales corresponden a las transformadas de Laplace de f 1 (t) y f 2 (t),
respectivamente, con lo que queda demostrada (A.2)
L{af (t)} =
∞
[af (t)]e−st dt = a
∞
f (t)e−st dt = aF (s)
0 0
A.1.2. Diferenciación:
− L df (t)
= sF (s) f (0+) (A.4)
dt
− n 1
−
dn f (t)
L = s n F (s) sn−i−1 f (i) (0+) (A.5)
dtn i=0
L
df (t) −
∞
= f (t)e−st 0
∞
( s)e−st f (t)dt
−
dt 0
L
df (t) ∞
= f (t)e−st 0 + s
∞ ∞
e−st f (t(dt = f (t)e−st 0 + sF (s)
dt 0
L
df (t)
= lı́m f (t)e−st − f (0+)e− 0 + sF (s)
s
dt t→∞
El valor del lı́mite no está determinado, hasta tanto no se conozca f (t). Sin em-
bargo, para todas aquellas funciones que decrezcan, sean constantes, o que crezcan
210
más lentamente que e st el valor del lı́m ite será 0. Este tipo de funciones son las que
empleamos en Análisis de Sistemas Dinámicos, y en consecuencia podemos escribir
L
df (t)
= −f (0+) + sF (s)
dt
Esto concluye la demostración de (A.4).
Para demostrar (A.5), hacemos notar que para n = 1 se reduce a (A.4), y por
tanto podemos emplear el método de inducción para la demostración: Calculemos
(k+1)
la transformada de ddt(k+1)f empleando (A.4):
L
L L −
d(k+1) f
=
d df k
= s
df k df k
dt(k+1) d dtk dtk dtk t=0+
L
−
d(k+1) f
= s sk F (s)
−
k 1
−
sk−i−1 f (i) (0+ )
df k
=
dt(k+1) i=0
dtk t=0
L
−
d(k+1) f
= s(k+1) F (s)
−
k 1
−
s(k+1)−i−1 f (i) (0+ ) f (k) (0)
dt(k+1) i=0
El término f k (0) puede escribirse como s((k+1)−i−1) f (k) (0) cuando i = k, e
incorporarlo en la sumatoria
L
d(k+1) f
= s(k+1) F (s) −
k
s(k+1)−i−1 f (i) (0+ )
dt(k+1) i=0
L
d(k+1)
f
= s(k+1) F (s) −
(k+1) 1
−
s(k+1)−i−1 f (i) (0+ )
dt(k+1) i=0
L
eat f (t) = F (s − a) (A.6)
L
eat f (t) =
∞
e−st [eat f (t)]dt =
∞
e−(s−a)t f (t)dt
0 0
L
eat f (t) = F (s − a)
211
OSCAR G. DUARTE
L{tf (t)} = − dF (s)
ds
(A.7)
n dn F (s)
L{t f (t) = ( 1)n
} − (A.8)
dsn
Demostración A.4 Para demostrar (A.7) calculamos la derivada de F (s) respecto
a s ∞
dF (s) d
= e−st f (t)dt
ds ds 0
La derivada se hace respecto a s y la integral respecto a t, por lo tanto la
derivada puede incorporarse dentro de la integral
dF (s)
=
∞ d
e−st f (t) dt
ds 0 ds
Como la derivada es respecto a s, t y f (t) son constantes:
dF (s)
=
−
∞
tf (t)e−st dt = −
∞
[tf (t)]e−st dt
ds 0 0
La integral corresponde a la Transformada de Laplace de tf (t), lo que completa
la demostración de (A.7).
Para demostrar (A.8) resaltamos que cuando n = 1 se convierte en (A.7), y
por tanto podemos emplear el método de inducción. Al evaluar (A.8) en n = k se
obtiene
dk F (s)
L tk f (t) = ( 1)k
− dsk
La derivada k + 1 de F (s) respecto a s es
d(k+1) F (s) d
=
dk f
ds(k+1) ds dsk
d(k+1) F (s) d
=
L
1
tk f (t)
ds(k+1) ( 1)k
d(k+1) F (s)
=
ds
1 d
−
∞
e−st tk f (t) dt
ds(k+1) ( 1)k ds
− 0
Como la integral es respecto a t y la derivada respecto a s se tiene
d(k+1) F (s)
=
1
∞ d
e−st tk f (t) dt
ds(k+1) ( 1)k 0 ds
−
d(k+1) F (s)
=
1 ∞
tk f (t)
d −st
e dt
ds(k+1) ( 1)k 0
− ds
212
d(k+1) F (s)
=
1 ∞
t(k+1) f (t)e−st dt
ds(k+1) ( 1)(k+1) 0 −
La integral corresponde a la transformada de Laplace de t (k+1) f (t), es decir
d(k+1) F (s)
= L t(k+1) f (t)
ds(k+1)
Esta expresión resulta ser igual a (A.8) evaluada en n = k + 1 con lo que se
completa la demostración.
L − → ∞
diferenciacion (A.4) y calculemos el lı́mite cuando s
df (t)
a cada lado de la igualdad:
= sF (s) f (0+)
dt
L −
lı́m
df (t)
= lı́m sF (s) f (0+)
s→∞ dt s→∞
lı́m
−
∞
e−st
df (t)
dt = lı́m sF (s) f (0+)
s→∞ 0 dt s→∞
L − →
diferenciacion (A.4) y calculemos el lı́mite cuando s
df (t)
0 a cada lado de la igualdad:
= sF (s) f (0+)
dt
lı́m
L −
df (t)
= lı́m sF (s) f (0+)
→0
s dt s→0
213
OSCAR G. DUARTE
lı́m
∞
e−st
df (t)
dt = lı́m sF (s) − f (0+)
s→0 0 dt s→0
Cuando s
→ 0 la integral se simplifica
∞ df (t)
dt = lı́m f (t) − f (0+) = lı́m sF (s) − f (0+)
0 dt t →∞ →0 s
A.1.7. Convolución:
L{f 1(t) ∗ f 2(t)} = L
− ∞
f 1 (t
τ )f 2 (τ )dτ =
0
L{f 1(t) ∗ f 2(t) }
−
=
∞ ∞
f 1 (t
τ )f 2 (τ )dτ e−st dt
0 0
L{f 1(t) ∗ f 2(t) }
−
=
∞ ∞
f 1 (t τ )e−st f 2(τ )dτdt
0 0
Podemos interambiar el orden de integración y reagrupar:
L{f 1(t) ∗ f 2(t) }
−
=
∞ ∞
f 1 (t τ )e−st f 2(τ )dtdτ
0 0
L{f 1(t) ∗ f 2(t) }
=
∞
f 2 (τ )
∞
f 1 (t − τ )e− st
dt dτ
0 0
Ahora efectuamos un cambio de variable ξ = t − τ de tal manera que dξ = dt
y t = ξ + τ
L{f 1(t) ∗ f 2(t)} =
∞
f 2 (τ )
∞
f 1 (ξ )e−s(ξ+τ ) dξ dτ
0 −τ
L{f 1(t) ∗ f 2(t)} =
∞ f 2 (τ )e−sτ
∞
f 1 (ξ )e−sξ dξ dτ
0 −τ
Como ξ es independiente de τ podemos sacar la integral
L{f 1(t) ∗ f 2(t)} =
∞
f 1 (ξ )e−sξ dξ
∞
f 2 (τ )e−sτ dτ
−τ 0
214
Además, consideramos de f 1 (t) vale cero para valores negativos de t, y por tanto
podemos modificar los lı́mites de la integral, completando asi la demostración
L{f 1(t) ∗ f 2(t)} =
∞
f 1 (ξ )e− dξ sξ
f 2(τ )e−
∞
sτ
dτ
0 0
L{f (t − T )} =
∞
f (τ )e−s(τ +T ) dτ =
∞
f (τ )e−sτ e−sT dτ
−T −T
Como la intergal es respecto a τ y T es constante, puede sacarse de la integral
el término e −sT ∞
L{f (t − T )} = e− sT
f (τ )e−sτ dτ
−T
Si asumimos que f (t) vale cero para todo valor negativo de t, entonces los
lı́mites de la integral pueden modificarse asi:
Sean f (k), f 1 (k), f 2 (k) tres funciones cuyas Transformadas son, respec- Z
tivamente F (z), F 1 (z), F 2 (z) y a un escalar (real o complejo). Se cumplen las
siguientes propiedades:
215
OSCAR G. DUARTE
A.2.1. Linealidad:
Las dos integrales corresponden a las transformadas Z de f 1(k) y f 2(k), res-
pectivamente, con lo que queda demostrada (A.14)
n 1
−
Z {f (k + n)} = z n
F (z) − z n−i f (i) (A.17)
i=0
∞
Z {f (k + 1)} = z −k f (k + 1) = z −0 f (1) + z −1 f (2) + z −2 f (3) + ···
k=0
216
z −1
Z {f (k + 1)} = F (z) − f (0)
Z {f (k + 1)} = zF (z) − zf (0)
Esto concluye la demostración de (A.16).
Para demostrar (A.17) calculamos la Transformada Z de f (k + n)
∞
Z {f (k + n)} = z −k f (k + n) = z −0 f (n) + z −1 f (n + 1) + z −2 f (n + 2) + ···
k=0
∞
= z −k f (k)
k=0
−1 n
Z {f (k + n)} = z F (z) − z − f (i)
n n i
i=0
Esto concluye la demostración de (A.17).
217
OSCAR G. DUARTE
k
Z a f (t) = F (z/a) (A.18)
k
Demostración A.11 La Transformada Z de a f (k) es
∞ ∞
z −k
Z ak f (k) = z −k [ak f (k)]dt =
a
f (k)
k=0 k=0
Z {k n
} −z dzd Z
f (k) =
k(n−1) f (k)
(A.20)
dF (z)
∞
−
= ( k)z −k−1 f (k)
dz
k=0
Multiplicando por z a cada lado de la ecuación se tiene
dF (z) ∞
z = − z −k kf (k)
dz
k=0
Z
La sumatoria corresponde a la Transformada de kf (k), lo que completa la
demostración de (A.19)
Para demostrar (A.20) definamos una función g (k) = k (n−1) f (k) y apliquemos
(A.19)
d
Z{ kg(k) = z } − {
dz
G(z) }
Z
k[k (n−1) f (k)] = z
d
Z{ k n f (k)] = z
} − d
dz
−Z {Z { }}
g(k)
k (n−1) f (k)
dz
Lo que completa la demostración de (A.20)
218
k
lı́m f (k) = lı́m (z
→∞ z →1
− 1)F (z) (A.22)
∞
Z {f (k + 1) − f (k)} = [f (k + 1) − f (k)] z− k
k=0
j
zF (z) − zf (0) − F (z) = lı́m
j →∞ k=0
[f (k + 1) − f (k)] z − k
j
(z − 1)F (z) − zf (0) = lı́m
j →∞ k=0
[f (k + 1) − f (k)] z − k
z
lı́m (z
→1
− 1)F (z) − f (0) = lı́m
j →∞ k=0
[f (k + 1) − f (k)]
z
lı́m (z
→1
− 1)F (z) − f (0) =
lı́m [f (1)
j →∞
− f (0) + f (2) − f (1) + ··· + f ( j) − f ( j − 1) + f ( j + 1) − f ( j)]
219
OSCAR G. DUARTE
lı́m (z
z →1
− 1)F (z) − f (0) = j →∞
−
lı́m [ f (0) + f ( j + 1)]
Como f (0) es independiente de j puede salir del lı́mite, con lo que se completa
la demostración
z
lı́m (z
→1
− 1)F (z) − f (0) = −f (0) + lı́→∞
m f ( j + 1)
j
A.2.7. Convolución:
Z{ ∗
}
f 1 (k) f 2 (k) = F 1 (z)F 2 (z)
∞ (A.23)
∗
f 1 (k) f 2 (k) = k=0 f 1 (k)f 2 (h k) −
Demostración A.15 Para demostrar (A.23) calculemos la transformada Z de la
convolución entre f 1 (k) y f 2 (k):
∞
Z {f 1(k) ∗ f 2(k)} Z = f 1 (k)f 2 (h − k)
k=0
Z {f 1(k) ∗ f 2(k) }
=
∞ ∞
f 1 (k)f 2 (h − k)
z −h
h=0 k=0
Podemos intercambiar el orden de las sumatorias y reagrupar los términos:
∞ ∞
Z {f 1(k) ∗ f 2(k)} = f 1 (k) f 2 (h − k)z − h
k=0 h=0
L{µ(t)} =
∞
e−st µ(t)dt =
∞
e−st dt =
e−st
∞ e−s∞ e −s0
0 0 s− 0
=
− − −s
s
1 1
L{µ(t)} = 0 − − ( )=
s s
(A.24)
A.3.2. Exponenciales
Sea f 2 (t) = e at µ(t). Para obtener la transformada de Laplace de f 2 (t) apli-
camos la propiedad de desplazamiento en la frecuencia (A.6) a la transformada
del escalón (A.24)
L
eat µ(t) = L{µ(t)} − = 1s
=
1
(A.25)
s a
−
s a −
s a
A.3.3. Sinusoides
Seno
Sea f 3 (t) = sin(ωt)µ(t). Para obtener la transformada de Laplace de f 3 (t)
empleamos la Fórmula de Euler para reescribir la función:
2 j
Al aplicar la transformada de Laplace a cada lado de la igualdad resulta
L{sin(ωt)µ(t)} = L
ejωt − e− jωt
L − L
µ(t) =
1
ejωt µ(t) e−jωt µ(t)
2 j 2 j
Cada una de las dos transformadas de Laplace pueden obtenerse empleando
A.25: −
1 1 1
L{
sin(ωt)µ(t) = }
2 j s jω − s + jω
Al efectuar la suma se obtiene
L{sin(ωt)µ(t)} = 2 j1
−
s + jω s + jω
=
1 2 jω
s2 + ω 2 2 j s2 + ω 2
221
OSCAR G. DUARTE
Coseno
Sea f 4 (t) = cos ωt. Para obtener la transformada de Laplace de f 4 (t) podria-
mos emplear la fórmula de Euler; sin embargo, optamos por otra posibilidad:
empleamos la propiedad de diferenciciación (A.4) y la aplicamos a la transfor-
mada de sin ωt, (A.26):
1 d
f 4 (t) = cos ωt = sin ωt
ω dt
L{cos(ωt)µ(t)} = ω1 L
d
sin(ωt)µ(t)
dt
L{cos(ωt)µ(t)} = ω1
s
ω
− sin ω0
s2 + ω 2
L{f 7(t) = t n
µ(t) = ( 1)n
} − dn 1
n!
= n+1 (A.30)
dsn s s
n
Para los casos particulares en que n = 1 y n = 2, la función t µ(t) se
convierte en las funciones rampa y parábola unitarias, respectivamente:
2
L f 9 (t) = t 2 µ(t) = (A.32)
s3
222
L
teat sin(ωt)µ(t) =
ω(s a) − (A.36)
((s a)2 + ω 2 )2
−
Sea f 14 (t) = te at cos(ωt)µ(t). Para calcular la Transformada de Laplace de
f 14 (t) aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la
transformada de t cos(ωt)µ(t) (A.35)
(s a)2 ω 2
− −
L teat cos(ωt)µ(t) = (A.37)
((s a)2 + ω 2 )2
−
223
OSCAR G. DUARTE
k
Z a µ(k) = Z {µ(k)} z
z/a z
z/a = = = (A.39)
z 1 − z/a −
z/a 1 z a −
A.4.3. Sinusoides
Seno
Sea f 3 (k) = sin (ak)µ(k). Para obtener la transformada Z de f 3(k) emplea-
mos la Fórmula de Euler para reescribir la función:
Z {sin(ak)µ(a)} = 2 j1
z 2 ze −ja z 2 + ze ja
− − =
z 2 ze −ja ze ja + eja e−ja
− −
224
ja
z e −2je
−ja
Z {sin(ak)µ(a)} = z2 − 2z eja +e−ja
+1
2
Z {sin(ak)µ(a)} = z 2 − 2z
z sin a
cos a + 1
(A.40)
Coseno
Z {cos(ak)µ(k)} = 21 Z (e
ja k
) µ(k) +
Z (e−ja )k µ(k)
Cada una de las dos transformadas Z pueden obtenerse empleando A.39:
Z {cos(ak)µ(a)} = 12 z −ze
+
z
ja z e−ja
−
Al efectuar la suma se obtiene
Z {cos(ak)µ(a)} = 21
z s ze −ja + z 2 ze ja
− =
−
z 2 ze −ja ze ja + eja e−ja
− −
z2 −z eja +e−ja
2
Z {cos(ak)µ(a)} = z2 − 2z eja +e−ja
2 +1
2
Z {cos(ak)µ(a)} = z 2 z− 2z− zcoscosa a+ 1 (A.41)
225
OSCAR G. DUARTE
z
b sin a zb sin a
Z b k
sin(ak)µ(k) =
( zb )2 −2 z
cos a+1
=
z2 − 2b cos a + b2 (A.42)
b
Z b k
cos(ak)µ(k) =
− −
z 2
(b)
z 2
b
z
z
b cos a
2 b cos a + 1
=
z 2 zb cos a
−
z 2 2b cos a + b2
− (A.43)
Z {kµ(k)} = −z dzd z −z 1
= −z (z(z−−1)1)−2 z
k
Z ka µ(k) =
−z dzd z −z a = −z (z(z−−a)a)−2 z
226
Z {k sin(ak)µ(k)} = −z dzd
sin a
=
z2 − 2z cos a + 1
Z {k sin(ak)µ(k)} =
2
− z (z − 2z cos a(z+2 1)− sin a − z sin a(2z − 2cos a)
2z cos a + 1) 2
Z {k sin(ak)µ(k)} =
2
a + sin a − 2z 2 sin a + 2z sin a cos a
− z z sin a − 2z cos a sin
(z 2 − 2z cos a + 1) 2
3
Z {k sin(ak)µ(k)} = (z z2 −sin2zacos
+ z sin a
a + 1) 2
(A.46)
n
Para obtener la transformada Z de k sin(ak)µ(k) es necesario aplicar en
forma iterativa la propiedad de multiplicación por el tiempo (A.19).
Coseno
Z
Sea f 10 (k) = k sin(ak)µ(k). Para calcular la transformada de f 10 (k) apli-
camos la propiedad de multiplicación por el tiempo (A.19) a la transformada de
coseno (A.41).
Z {k cos(ak)µ(k)} = −z dzd
z 2 z cos a
− =
z 2 2z cos a + 1
−
Z {k cos(ak)µ(k)} =
2
− z (z − 2z cos a + 1)(2z(z2−−cos)a − (z 2 − z cos a)(2z − 2cos a)
2z cos a + 1) 2
Z {k cos(ak)µ(k)} =
2z 3 − z 2 cos a − 4z 2 cos a + 2z cos2 a + 2z − cos a
−z −2z3 + 2z2 cos a + 2z 2 cos a − 2z cos2 a
(z 2 − 2z cos a + 1) 2
227
OSCAR G. DUARTE
2
Z {k cos(ak)µ(k)} = −z ((z−2z −−2z1)cos a + 2z
cos a + 1)2
3 a − 2z 2
Z {k cos(ak)µ(k)} = (z(z2 +− z)cos
2z cos a + 1) 2
(A.47)
n
Para obtener la transformada Z de k cos(ak)µ(k) es necesario aplicar en
forma iterativa la propiedad de multiplicación por el tiempo (A.19).
k
((z/b)3 + (z/b))cos a 2(z/b)2
−
Z kb cos(ak)µ(k) =
((z/b)2 2(z/b)cos a + 1)2
−
k
(bz 3 + b3 z)cos a 2b2 z 2
−
Z kb cos(ak)µ(k) =
(z 2 2bz cos a + b2 )2
− (A.49)
n k n k
Z
Para obtener las transformadas de k b sin(ak)µ(k) y k b cos(ak)µ(k)es
necesario aplicar en forma iterativa la propiedad de multiplicación por el tiempo
(A.19).
228
Apéndice B
B.1. Definición
El valor de una función de transferencia F (s), para un s especı́fico, es un
| | {
número complejo cuya amplitud es F (s) y cuyo ángulo es arg F (s) . Los }
diagramas de Bode para sistemas continuos muestran cómo varı́a la amplitud y
el ángulo de ese número complejo, cuando s toma todos los posibles valores del
∈ ∞
eje imaginario positivo (s = jω; w (0, )). Especı́ficamente se definen los
siguientes diagramas:
Diagrama de magnitud:
229
OSCAR G. DUARTE
230
π
2
K > 0
π
−2
π
K < 0
−π
π
20db/dc 2
s
1 π
−2
π
2
1 1
s
π
−20db/dc −2
π
20db/dc 2
s+a
a a > 0 a a a 10a
π
−2 10
π
2 a
a
a > 0 a 10 a 10a
s+a
π
−20db/dc − 2
π
20db/dc 2 a
−
s a 10 a 10a
− a > 0
a a π
− 2
π
2
− a > 0
a a
−
s a
π
a a 10a
−20db/dc −2 10
231
OSCAR G. DUARTE
π
π
2 ωn
2
ωn 10 ωn 10ωn
s2 +2ξω n s+ωn
2
ωn − π
2
ξω n > 0
−40db/dc −π
π
π
2 2
ωn
s2 +2ξω n s+ωn
2
ωn π
ωn ωn 10ωn
−2 10
ξω n < 0
−40db/dc −π
40db/dc
π
π
ωn 2
s2 +2ξω n s+ωn
2
2
ωn
π
ωn ωn 10ωn
−2 10
ξω n > 0 −π
40db/dc
π
π
2 2
ωn 2 ωn
ωn 10ωn
s +2ξω n s+ωn 10
2
ωn π
− 2
ξω n < 0 −π
232
10
−10
−20
: ξ = 0.01
: ξ = 0.1
: ξ = 0.3
−30
: ξ = 0.5
: ξ = 1.0 w/wn
−40
−1 0 1
10 10 10
0.01 0.5
0.1 1.0
0.3
233
OSCAR G. DUARTE
−30
−60
−90
−120
: ξ = 0.01
: ξ = 0.1
: ξ = 0.3
−150
: ξ = 0.5
: ξ = 1.0 w/wn
−180
−1 0 1
10 10 10
0.01 0.5
0.1 1.0
0.3
Figura B.4: Diagrama de Bode de fase para un sistema continuo de segundo orden
con distintos factores de amortiguamiento
234
Apéndice C
Carta de Nichols
G( jω)
F ( jω) = (C.2)
1 + G( jω)
Podemos calcular la magnitud y el ángulo de F ( jω), a partir de la parte real
y la parte imaginaria de G( jω):
|
M = F ( jω) = | √ X 2 + Y 2
(1 + X )2 + Y 2
(C.5)
235
OSCAR G. DUARTE
C.1. M -circunferencias
C.2. N -circunferencias
A − tan B
tan A − B = 1tan
+ tan A tan B
la ecuación (C.7) se convierte en
236
Y Y
N = X − 1+X
Y Y
1 + X 1+X
que puede reescribirse como
Y +XY XY
−
N =
X (1+X )
=
−
Y + XY XY
X +X 2 +Y 2 X + X 2 + Y 2
X (1+X )
1
X 2 + X + + Y 2
− Y N + 1
2
1
= +
1
2
=
N 2 + 1
(C.13)
4 2N 4 2N 4N 2
−
X +
1
2
+ Y
1
2
=
N 2 + 1
(C.14)
2 2N 4N 2
237
OSCAR G. DUARTE
3.0
Im{G( jω )}
2.4
30o
1.8
1.2
60o
−0.6 −90o
−60o
−1.2
−1.8
−30o
−2.4
Re{G( jω )}
−3.0
−4.80 −3.84 −2.88 −1.92 −0.96 0.00 0.96 1.92 2.88 3.84 4.80
20
|G( jω )|en db
16
2db
12 −2db
3db
8
−3db 5db
4
−5db
−4
−8
−12
−16
arg{G( jω )}
:|F ( jω )|en db :arg{F ( jω )}
238
Apéndice D
239
OSCAR G. DUARTE
240
Ejemplo D.5 El conjunto de todos los polinomios sobre el campo R con las ope-
raciones usuales entre polinomios forma un espacio vectorial.
Ejemplo D.6 El conjunto de todas las funciones contı́nuas a trozos sobre el campo
C con la operación + definida como la suma punto a punto forma un espacio
vectorial.
241
OSCAR G. DUARTE
·
Teorema D.1 Sea V : (Γ, +, , F) un espacio vectorial sobre F; sea Ω un subcon-
· ·
junto de Γ. W : (Ω, +, , F) es un subespacio de V si y sólo si +, son cerradas en
Ω.
·
Demostración D.1 Si +, son cerradas en Ω se satisfacen V.1 y V.6. Las demás
propiedades contenidas en la definición D.7 se satisfacen porque V : (Γ, +, , F) es ·
·
un espacio vectorial; por lo tanto W (Ω, +, , F) es un Espacio vectorial y de acuerdo
con la definición D.8, es un subespacio de V .
Ejemplo D.8 (R2 , R) es un subespacio de (R3 , R), ya que la suma y el producto
por escalar son operaciones cerradas en R2 . En general si n m se tiene que ≤
(Rn , R) es un subespacio de ( Rm , R)
Ejemplo D.9 Una lı́nea recta que cruce por el origen es un subsepacio de ( R 2 , R),
ya que: i) la suma de dos vectores que estén sobre una misma recta da otro vector
sobre esa recta y ii) el producto por escalar de un vector da otro vector sobre la
misma recta.
D.1.3. Bases
Definición D.9 Combinación lineal
···
Sea V : (Γ, F) un espacio vectorial. Sean x1 , x2 , , xn cualesquiera vectores y
···
α1 , α2 , , αn cualesquiera escalares de F denominados coeficientes . Una combi-
···
on lineal de x1 , x2 , , xn es la operación
naci´
n
α1 x1 + α2 x2 + ··· + α n xn = αi xi
i=1
242
es decir, que existe una combinación lineal de los elementos de A cuyo resultado es
x, y por lo tanto A genera el espacio vectorial V .
Definición D.14 Coordenadas de un vector
{ ··· }
Sea x un elemento del espacio vectorial V , y B = b 1 , b2 , , bn una base de
···
V . Si x = α 1 b1 + α2 b2 + + αn bn se dice que las coordenadas de x en la base
agrupan en un vector
α1
{ ··· }
B son los coeficientes de esa combinación lineal α 1 , α2 , , αn . Usualmente se
α2
α = .
..
αn
243
OSCAR G. DUARTE
Teorema D.3 Todo elemento x de un espacio vectorial V tiene unas únicas coor-
{
denadas en una determinada base B = b1 , b2 , , bn ··· }
Demostración D.3 Según la definición D.14 B genera a V y por lo tanto existe al
menos una combinación lineal de los elementos de B cuyo resultado es x, es decir,
existen al menos unas coordenadas de x en la base B .
Para demostrar que estas coordenadas son únicas, supongamos que existen dos
{ ··· } { ···
juegos de coordenadas diferentes α1 , α2 , , αn y β 1 , β 2 , , β n . Según la }
definición D.14 se tiene
α1 b1 + α2 b2 + ··· + α b n n = x
β 1 b1 + β 2 b2 + ··· + β b n n = x
Al restar estas dos expresiones se obtiene
Teorema D.4 Al aumentar los elementos de una base el conjunto resultante es
linealmente dependiente.
{ ··· }
Demostración D.4 Sea B = b1 , b2 , , bn una base de V y sea x un elemento
cualquiera de V . Debido a que B genera a V es posible encontrar α i tales que
x = α1 b1 + α2 b2 + ··· + α n bn
α1 b1 + α2 b2 + ··· + α b − x = 0
n n
Esta es una combinación lineal nula con coeficientes no nulos (al menos el coeficiente
− { ··· }
de x es 1) y por tanto el conjunto b1 , b2 , , bn , x es linealmente dependiente.
Teorema D.5 Todas las bases de un mismo espacio vectorial tienen el mismo nú-
mero de elementos que coincide con la dimensión del espacio vectorial.
Demostración D.5 Por el teorema D.2 sabemos que pueden existir bases de tama-
ño igual a la dimensión. Según las definiciones D.11 y D.13 no puede haber bases
con un número mayor de elementos, debido a que este conjunto serı́a linealmente
dependiente, por lo tanto sólo es necesario probar que no puede haber bases con un
número de elementos inferior a la dimensión del espacio.
Sea V un espacio vectorial de dimensión n. Supongamos dos bases B y A:
{
B = b1 , b2 , ··· , b }
n {
A = a1 , a2 , ··· , a }
r
244
{
con r < n. Según el teorema D.4 el conjunto C 1 = b1 , a1 , a2 , , ar es lineal- ··· }
mente dependiente y alguno de los elementos ai es una combinación lineal de los
otros elementos de C 1 ; supongamos que este a i es justamente a r , (en caso de que
no lo sea, reorganizamos el conjunto y cambiamos los subı́ndices).
El espacio cubierto por C 1 es el mismo espacio cubierto por A y por b 1 , a 1 , a 2 , {
··· } {
, a r−1 , por lo tanto el conjunto C 2 = b2 , b 1 , a 1 , a 2 , ···
, a r−1 es linealmente }
dependiente; de nuevo podemos argumentar que alguno de los elementos a i es
una combinación lineal de los otros elementos de C 2 ; supongamos que este ai es
justamente a r−1 .
Efectuando este procedimiento podemos construir en forma consecutiva C 3 , C 4 ,
··· , C r , todos los cuales serán conjuntos linealmente dependientes. Sin embargo,
C r es
{ ···
C r = br , br−1 , , b2 , b1 }
que es un subconjunto de la base B y por lo tanto no puede ser linealmente de-
pendiente. De esta forma demostramos que r < n es una contradicción. Como
consecuencia, todas las bases del espacio vectorial deben tener el mismo tamaño,
que coincide con la dimensión del espacio.
Ejemplo D.12 El conjunto formado por los polinomios 1, t , t2, t3 forma una base { }
del espacio vectorial de los polinomios de orden 3.
Ejemplo D.13 El espacio vectorial de todos los polinomios tiene dimensión infinita.
Una base de ese espacio es la formada por los polinomios 1, t , t 2 , t3 , { ···}
D.1.4. Cambio de base
{ ··· } { ··· }
Sean A = a1 , a2 , , an y B = b1 , b2 , , bn dos bases del mismo espacio
vectorial V de dimensión n. Definimos las matrices A y B como las matrices
que tienen en sus columnas cada uno de los elementos de las bases A y B
respectivamente:
A = a1 a2 an ···
B = b1
b2 ··· bn
Un vector x tendrá coordenadas αi en la base A y β i en la base B, de tal manera
que
x = α1 a1 + α2 a2 + + αn an ··· (D.4)
x = β 1 b1 + β 2 b2 + + β n bn ···
Definimos los vectores columna α y β que contienen las coordenadas:
α1
β 1
α2 β 2
α = .. β = ..
. .
αn β n
245
OSCAR G. DUARTE
Ejemplo D.14 En R2 puede definirse una base con cualquier pareja de vectores
{ }
no paralelos. Definamos por ejemplo A = (1, 0), (0, 1) , B = (3, 1), (2, 2) y { }
{− − − }
C = ( 1, 1)( 1, 1) (vectores rojos en la figura D.1).
Consideremos ahora el vector x en la figura D.1. Sus coordenadas en la base
estándar A serán
α 1
α = 1 =
α2 3
Para obtener las coordenadas de x en las bases B y C construimos las matrices
B y C y empleamos (D.6)
B =
3 2
− −
C =
1 1
1 2 − 1 1
β =
β 1
= B −1 α =
− −
1/2 1/2 1
=
1
γ =
β 2
γ 1
= C −1 α =
−−
1/4
1/2
3/4
1/2
3
1
=
1
2
246
α1 =1
γ 1 =1
α2 =3
β 2 =2 γ 2 =-2
β 1 =-1
: base : vector
→ W
T : V y = T (x) x ∈ V y ∈ W
Si T satisface las condiciones de linealidad se dice que T es una transformación
Lineal. T debe satisfacer:
247
OSCAR G. DUARTE
{ ··· }
Sea B = b1 , b2 , , bn una base sobre la cual x tiene coordenadas β 1 , β 2 ··· , β ,
n
es decir, x puede escribirse como
x = β 1 b1 + β 2 b2 + ··· + β b n n
y = Tx =
0 1 1
=
3
−1 0 3 1 −
D.2.1. Transformaciones y cambios de base
El teorema D.6 permite efectuar transformaciones lineales mediante produc-
tos matriciales. Al cambiar de base, la matriz T que representa la transformación
lineal sufre unos cambios, según se presenta a continuación.
Teorema D.7 Sea T una transformación lineal, que en la base estándar se repre-
senta por la matriz Tα . La misma transformación se representará en otra base
B = b1 , b2 , , bn por T β = B −1 Tα B en donde B = [b1 b2
{ ··· } b n ] · ··
248
T
: base : vector
Demostración D.7 Supóngase que el vector x se transforma en el vector y me-
diante la transformación T . Sean α x y β x las coordenadas de x en la base estándar
y en la base B, respectivamente. Sean también αy y β y las coordenadas de y en
esas mismas bases. De acuerdo con el teorema D.6 T podrá representarse en cada
una de esas bases como
αy = T α αx β y = T β β x
Las coordenadas en la base B pueden escribirse en función de las coordenadas de
la base estándar empleando (D.6)
β y = B −1 αy β x = B −1 αx
y por tanto
B−1 αy = T β B−1 αx
αy = BT β B−1 αx
de donde se deduce que
Tα = BT β B−1 Tβ = B −1 Tα B (D.12)
Teorema D.8 Sea T una transformación lineal, que en la base estandar se re-
presenta por Tα . La misma transformación se representará en otra base B =
{ ··· }
b1 , b2 , , bn por la matriz T β . La misma transformación se representará en otra
base C = c1 , c2 , , cn por T γ = C −1 BTβ B−1 C en donde B = [b1 b2
{ ··· } · ··
b n ]
· ··
y C = [c1 c2 c n ]
Demostración D.8 Empleando D.12 podemos escribir T α como
Tα = BT β B−1 Tα = CT γ C−1
Igualando se tiene
BTβ B−1 = CT γ C−1
249
OSCAR G. DUARTE
Ejemplo D.19 En el ejemplo D.18 se mostró que la rotación de 90 texto en sentido
horario estaba representada en la base estándar por la matriz
Tα =
0 1
−1 0
{
La misma transformación se representará en la base B = (3, 1), (2, 2) por la }
matriz
Tβ = B −1 Tα B
Tβ =
1/2 −1/2
0 1 3 2
=
2 2
−1/4 3/4 −1 0 1 2 −2.5 −2
Supóngase ahora el vector x, cuyas coordenadas en la base estándar son α x =
−
(1, 3) y en la base B son β x = ( 1, 2) (ejemplo D.14). Al efectuar la rotación de
90texto en sentido horario se obtendrá un vector y cuyas coordenadas en la base
estándar serán α y y en la base B serán β y :
αy =
0 1 1
=
3
β y =
2 2
−
1
=
2
−1 0 3 1− −2.5 −2 2 −1.5
Ejemplo D.20 El producto escalar usual es un producto interno. Se define como
n
x, y = xi yi
i=1
250
N.2 x = 0 si y sólo si x = 0
N.3 ∀x ∈ Γ ∀α ∈ F αx = |α| ⊗ x
N.4 ∀x1 , x2 ∈ Γ x1 + x2 ≤ x1 ⊕ x2
Ejemplo D.21 Sea V : (Γ, +, ·, F) un espacio vectorial sobre F, y sea P (x1 , x2 )
un producto interno de ese espacio. Si la cantidad
x = +
P (x, x)
es una función de norma se dice que es una norma inducida por el producto interno
P . El signo + resalta que se trata de la raiz positiva del producto interno de x
consigo mismo.
···
Ejemplo D.22 Sea V un espacio vectorial de dimensión n, y sean x 1 , x2 , , xn las
coordenadas del vector x. En esas condiciones, las siguientes funciones son funciones
de normas:
1.
x1 = =1 |x | n
i i
2. x2 =
=1 x
2 n
i i
3. x =
p
p
=1 x
n
i
p
i
4. x∞ = máx x i i
251
OSCAR G. DUARTE
· 1 · 2 · ∞
Ejemplo D.23 La figura D.3 muestra las bolas unitarias para tres funciones de
distancia diferentes, originadas las siguientes normas x 1 , x 2 y x ∞ definidas
en el Ejemplo D.22, para el espacio vectorial R2 . Como se trata de un espacio de
dimensión 2 se emplea el término circunferencia unitaria en lugar de bola unitaria
Definición D.21 Ángulo entre vectores
·
Sea V : (Γ, +, , F) un espacio vectorial sobre F, sea P (x1 , x2 ) un producto interno
definido en ese espacio, y · la norma inducida por P . Se define el ángulo θ entre
los vectores x 1 y x 2 mediante cos θ asi:
P (x1 , x2 )
cos θ =
x1 x2
Definición D.22 Vectores ortogonales
···
Un conjunto de vectores x 1 , x2 , , xk es ortogonal si
= 0 si i = j
P (xi , xj )
= 0 si i = j
252
x1
y1 =
x1
x2 − P (x2 , y1 )y1
y2 =
x2 − P (x2, y1)y1
x3 − P (x3 , y1 )y1 − P (x3 , y2 )y2
y3 =
x3 − P (x3, y1)y1 − P (x3, y2)y2
....
..
yk =
−xk
j =1 k − 1P (x , y )y
k j j
−xk j =1 k − 1P (x , y )y
k j j
A =
2 1
0 3
253
OSCAR G. DUARTE
Para calcular A 1 aplicamos la transformación A a la circunferencia unitaria
de la norma ·
1 , tal como se muestra en la figura D.4.
La mayor distancia al origen que resulta es, según la norma ·
1 , la correspon-
− −
diente a los puntos (1, 3) y ( 1, 3), por lo tanto
A =
2 1
0 3
Para calcular A 2 aplicamos la transformación A a la circunferencia unitaria
de la norma ·
2 , tal como se muestra en la figura D.5.
La mayor distancia al origen que resulta es, según la norma ·
2 , la marcada
en la figura D.5 como d. Es un ejercicio interesante demostrar que esta distancia
corrresponde a los puntos (1.536, 2.871) y ( 1.536, 2.871) por lo tanto 1
− −
A 2 = 1.5362 + 2.8712 = 3.256
También puede demostrarse que
√
A 2 = 13 + 7 = 3.256
A =
2 1
0 3
1 Un punto de (cos φ, sin φ) de la circunferencia unitaria se transforma en (2 cosφ +
sin φ, 3sin φ); su distancia al origen r es tal que r 2 = (2cos φ + sin φ)2 + (3sin φ)2 , que puede
escribirse como r 2 = 2 sin2φ − 3cos2φ + 7. Los puntos crı́ticos corresponden a dr 2 /dφ = 0,
es decir a φ = 21 tan 1 (− 23 ); el máximo corresponde a φ = 73.15t exto
−
254
A d
Para calcular A ∞ aplicamos la transformación A a la circunferencia unitaria
de la norma · ∞ , tal como se muestra en la figura D.6.
La mayor distancia al origen que resulta es, según la norma ·
∞, la correspon-
−
diente a cualquiera de los puntos cuya segunda coordenada es 3 o 3, por ejemplo
(1, 3), por lo tanto
{ }
A ∞ = máx 1, 3 = 3
255
OSCAR G. DUARTE
y1 = Ax1 y2 = Ax2
Gracias a la linealidad de A cualquier combinación lineal de y 1 , y 2 puede escri-
birse como
es decir, para cualquier combinación lineal de y1 , y2 es posible encontrar un ele-
∈
mento x V tal que y = Ax y por lo tanto según el teorema D.1 (A) es un R
subespacio de W.
256
R
ρ(A) = dim( (A))
−
Demostración D.11 Si denotamos la i ésima columna de A como a i , es decir
A = [a1 a2 ···
an ] la ecuación D.14 puede escribirse como
y = x 1 a1 + x2 a2 + ··· + x n an
es decir, y es una combinación lineal de las columnas de A cuyos coeficientes son
···
x1 , x2 , , xn . El codominio de A será entonces el conjunto de todas las posibles
R { ···
combinaciones lineales de las columnas de A, es decir (A) = span a1 , a2 , , an ; }
R
por lo tanto la dimensión de (A), que es ρ(A), será igual al número de elementos
{ ··· }
linealmente independientes en el conjunto a1 , a2 , , an .
A =
1 1
0 0
y =
1 1 x1
=
(x1 + x2 )
0 0 x2 0
R
El codominio de A, que denotamos por (A) resulta ser el eje horizontal,
es decir, un subespacio de R2 . La dimensión de (A), que es el rango de A,
R
denotado por ρ(A) es entonces 1. Nótese que el número de columnas linealmente
independientes de A también es 1.
A =
1 2
1 2
257
OSCAR G. DUARTE
}
ρ(A) = 1
}
ρ(A) = 1
y =
1 2 x1
=
(x1 + 2x2 )
1 2 x2 (x1 + 2x2 )
R
El codominio de A, que denotamos por (A) resulta ser la recta identidad,
es decir, un subespacio de R2 . La dimensión de (A), que es el rango de A,
R
denotado por ρ(A) es entonces 1. Nótese que el número de columnas linealmente
independientes de A también es 1.
258
A
N
ν (A) = dim( (A)) ρ(A) = dim( (A)) R
Figura D.10: Codominio, espacio nulo, rango y nulidad de un operador lineal
259
OSCAR G. DUARTE
x1 a1 + x2 a2 + x3 a3 + x4 a4 + x5 a5 = 0
−
0 1 1 0 1 0
x1 2 + x2 1 + x3 3 + x4 4 + x5
1 = 0 (D.18)
1 0 1 2 1 0
Empleando (D.17) la ecuación (D.18) se convierte en
0 1 0
−
(x1 + x3 + 2x4 + x5 ) 2 + (x2 + x3 x5 ) 1 = 0 (D.19)
1 0 0
260
×
Teorema D.14 Sea A una matriz m n y C, D dos matrices no singulares cua-
× ×
lesquiera n n y m m respectivamente. En esas condiciones se tiene que
ρ(AC) = ρ(A) ρ(DA) = ρ(A)
Demostración D.14 La demostración se apoya en la desigualdad de Sylvester, que
× ×
establece que si existen dos matrices A y B de dimensiones q n y n p entonces
ρ(A) + ρ(B) − n ≥ ρ(AB) ≥ mı́n(ρ(A), ρ(B)) (D.22)
Al aplicar (D.22) a AC y DA se tiene que
ρ(A) + ρ(C) − n ≥ ρ(AC) ≥ mı́n(ρ(A), ρ(C))
ρ(D) + ρ(A) − m ≥ ρ(DA) ≥ mı́n(ρ(D), ρ(A))
como C y D son no singulares, sus rangos son n y m respectivamente:
− n ≥ ρ(AC) ≥ mı́n(ρ(A), n)
ρ(A) + n
− m ≥ ρ(DA) ≥ mı́n(m, ρ(A))
m + ρ(A)
Por (D.15) se sabe que ρ(A) ≤ mı́n (m, n), por lo tanto
ρ(A) ≥ ρ(AC) ≥ ρ(A)
ρ(A) ≥ ρ(DA) ≥ ρ(A)
Las desigualdades sólo pueden cumplirse simultáneamente si se tiene que
ρ(A) = ρ(AC) ρ(A) = ρ(DA)
261
OSCAR G. DUARTE
Teorema D.15 λ es un valor propio de A si y sólo si satisface la ecuación
det(λI − A) = 0 (D.24)
Demostración D.15 Si λ es un valor propio de A entonces existe un vector v tal
que
Av = λv −
Av λv = 0
El término λv puede escribirse como λIv para facilitar la factorización de v
Av − λIv = 0 (A − λI)v = 0
De acuerdo con el teorema D.13 esta ecuación tiene solución no trivial (existe un
vector propio v) si y sólo si
−
det(A λI) = 0
Como el determinante de una matriz no se afecta al multilpicar ésta por un escalar
no nulo, podemos escribir
det(λI A) = 0−
El teorema D.15 brinda una posibilidad para calcular los valores propios
−
de A: podemos construir el polinomio caracterı́stico ∆(λ) = det(λI A) y
encontrar sus raices. Cada raiz de ∆(λ) será un valor propio de A. Los vectores
propios pueden obtenerse directamente de (D.23).
Debido a que los valores propios resultan ser las raices del polinomio carac-
terı́stico, éstos pueden ser reales o complejos, diferentes o repetidos.
A =
4 1
−2 1
1 0
A) y hallamos su determinante:
4 1
=
−−
(λ 4) 1
0 1 − 2 1 2− (λ 1)
2
∆(A) = det(B) = (λ − 4)(λ − 1) + 2 = λ − 5λ + 6 = (λ − 2)(λ − 3)
Los valores propios de A serán las raices de ∆(A)
λ1 = 2 λ2 = 3
Av1 = λ1 v1
262
4 1 v11 v
= 2 11
4v11 + v21
=
2v11
− 2 1 −
v21 v21 2v11 + v21 2v21
Se crea entonces un sistema de ecuaciones con infinitas soluciones:
4v11 + v21 = 2v11
−2v11 + v21 = 2v21
Para obtener un vector propio asociado a λ 1 = 2 podemos escoger arbitrariamente
un valor para v 11 o para v 21 . Por ejemplo, si escogemos v 11 = 1 obtenemos v 21 =
−2. En consecuencia, un vector propio asociado a λ 1 = 2 será
v1 =
1
en general v1 =
a
− 2 −2a
Los vectores propios asociados a λ 2 = 3 también deben cumplir (D.23):
Av2 = λ 1 v2
4 1 v12 v
= 3 12
4v12 + v22
=
3v12
− 2 1 −
v22 v22 2v12 + v22 3v22
Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones:
4v12 + v22 = 3v12
−2v12 + v22 = 3v22
Para obtener un vector propio asociado a λ 2 = 3 podemos escoger arbitrariamente
un valor para v 12 o para v 22 . Por ejemplo, si escogemos v 12 = 1 obtenemos v 22 =
−1. En consecuencia, un vector propio asociado a λ 2 = 3 será
v2 =
1
en general v2 =
a
−1 −a
Ejemplo D.31 Obtener los valores y vectores propios de la matriz
A =
2 1
−1 2
Construimos la matriz B = (λI
OSCAR G. DUARTE
v1 =
1
v2 =
1
j −
j
o en general
a a
v1 = v2 =
ja − ja
D.5.1. Valores propios diferentes
Teorema D.16 Sea A una transformación lineal con valores propios no repetidos,
y sea v i un vector propio de A asociado al valor propio λ i . En esas condiciones v i
es directamente proporcional a cualquier columna no nula de adj(λ i I A) −
Demostración D.16 La demostración se basa en que para una matriz P se tiene
que
PadjP = det (P)I (D.25)
Al aplicar (D.25) a la matriz (λi I− A) se tiene
(λ I − A)adj(λ I − A) = det(λ I − A)I
i i i
− A) = adj(2I − A) = adj −22 −11
1 1
a
adj(λ1 I =
−2 −2 ⇒ v1 = −2a
adj(λ2 I
− A) = adj(3I − A) = adj −21 −21
=
2 1
⇒
v2 =
a
− −
2 1 −a
···
Teorema D.17 Sean λ1 , λ2 , , λr valores caracterı́sticos diferentes de A, y sea
···
vi un vector caracterı́sitico asociado a λi con i = 1, 2, , r. El conjunto v1 , v 2 , {
··· }
, v r es linealmente independiente.
264
Suponemos que α 1 = 0, (si es necesario reordenamos los vectores) y multiplicamos
−
r
a cada lado de la ecuación por j=2 (A λj I)
r
− r
(A λj I) αi vi = 0 (D.28)
j =2 i=0
(λ − λ )v
i j i si i = j
(A − λ I)v =
j i
0 si i = j
Por hipótesis, todos los λi son diferentes y v 1 es no nulo (es un vector propio), lo
que significa que α 1 = 0. Con esta contradicción se concluye la demostración.
∆ = M −1 AM M = v1 v2
··· v n
(D.29)
Demostración D.19 El teorema D.7 permite obtener la representación de A en la
nueva base. Si denotamos esta representación por  tendremos
 = M −1 AM
M = v1 v2
··· v n
265
OSCAR G. DUARTE
AM = A v1 v2
··· v n
= Av1 Av2 ··· Av n
(D.31)
Como Avi = λ i vi entonces las ecuaciones (D.30) y (D.31) se reducen a M Â =
AM o lo que es igual
 = ∆ = M−1 AM
Ejemplo D.33 La transformación lineal representada por la matriz
A =
4 1
−2 1
cuyos valores propios son (Ejemplo D.30) λ 1 = 2, λ 2 = 3 con vectores propios v 1
v2 :
1 1
v1 = v2 =
−2 − 1
{ }
Tiene una representación en la base v1 v 2 por la matriz diagonal
∆ = M −1 AM =
− −
1 1 4 1 1 1
=
2 0 λ 0
= 1
2 − − 1 2 1 2 1 0 3 0 λ2
Ejemplo D.34 La transformación lineal representada por la matriz
A =
2 1
− 1 2
±
cuyos valores propios son (Ejemplo D.31) λ 1,2 = 2 j con vectores propios v 1 v2 :
v1 =
1
v2 =
1
j − j
{ }
Tiene una representación en la base v1 v 2 por la matriz diagonal
∆ = M −1 AM =
j/2 −
j/2
2 1 1 1
=
2 + j 0 λ 0
= 1
j/2 j/2 − 1 2 j − j 0 2 j −
0 λ2
266
di = n − ρ(λ I − A)
i (D.32)
di = ν (λi I − A)
Podemos emplear (D.16) para escribir
di = n − ρ(λ I − A)
i
Ejemplo D.35 Obtener los valores y vectores propios de la matriz A y diagonali-
zarla
1 2
A =
− 2 5
− A) y hallamos su determinante:
Construimos la matriz B = (λI
λ1 = λ2 = λ 1,2 = 3
d1 = 2 − ρ(3I − A)
267
OSCAR G. DUARTE
d1 = 2 −ρ
−3 1 −2 = 2 −ρ
−
2 2
= 2 −1 = 1
2 3−5 2 −2
Lo anterior significa que aunque λ tiene multiplicidad 2, sólo es posible encontrar
un vector linealmente independiente. Este se obtiene empleando (D.23), y resulta
ser
1 a
v1 = en general v1 =
1 a
No es posible construir una base para el espacio de dimensión 2 con un sólo
vector, por lo tanto no es posible diagonalizar A.
Ejemplo D.36 Obtener los valores y vectores propios de la matriz A y diagonali-
zarla
3 0 1 −
A = 1 2 1 − −
1 0 3
Construimos (λI − A):
−
(λ 3) 0 1
λI − A = − 1
1 (λ − 2)
0 (λ
1
− 3)
Su polinomio caracterı́stico resulta ser
d1 = n − ρ(λI − A) d1 = 3 −1=2
Lo anterior significa que existen dos vectores propios linealmente independientes
asociados a λ1 = λ 2 = 2. Estos dos vectores junto con el vector propio asociado a
λ3 = 4 pueden formar una base y por tanto es posible diagonalizar A. Para obtener
los tres vectores propios empleamos (D.23):
3 0 −1 −
a a 3 0 1 d d
− 1 2 −1 − −
b = 2 b 1 2 1 e = 2 e
1 0 3 c c 1 0 3 f f
268
Que se convierten en
a = c d = e = −f
Podemos construir dos vectores linealmente independientes v1 , v2 que satisfacen
−
a = c y un tercero v 3 que satisface d = e = f , por ejemplo
1 1 1
v1 = 0 v2 = 1
− v3 = 1
1 1 1
{ }
En la base v1 v 2 v 3 la transformación A se representa por Λ:
− −
1 1 0 3 0 1 1 1 1
Λ = M−1 AM = − − − −
1/2 1 1/2 1 2 1 0 1 1
1/2 0 1/2 1 0 3 1 1 −1
2 0
0 λ1 0 0
Λ = M −1 AM == 0 2
0 = 0 λ2 0
0 0 4 0 0 λ3
(A λI)k v = 0
− (D.33)
(A λI)k−1 v = 0
−
Nótese que para k = 1 la ecuación (D.33) se reduce a (A − λI) = 0 con
v = 0, que coincide con la definición D.30 de vector propio.
vk = v
vk−1 = −
(A λI)v = (A λI)vk −
vk−2 = (A λI)2 v = (A λI)vk−1
− − (D.34)
.. ..
. .
v1 = − λI) −1 v = (A − λI)v2
(A k
i
Teorema D.21 Sea N el espacio nulo de (A − λI) . N es un subespacio de N +1 .
i i i
269
OSCAR G. DUARTE
..
.
vi
vi−1
..
.
N −1 N N +1
i i i
Teorema D.22 Sea i el espacio nulo de (A λI)i . Sea v i el i ésimo vector de
N − −
una cadena como las definidas en (D.34). El vector v i está en i pero no en i−1 . N N
i
Demostración D.22 La demostración se obtiene calculando (A − λI) v y (A −
i
λI)i−1 vi y utilizando (D.34) y (D.33):
Teorema D.23 Los vectores de una cadena de vectores propios generalizados como
los de la definición D.34 son linealmente independientes.
A =
× 1
2
2
−2 5
270
que tiene un valor propio repetido λ = 3 Para encontrar los espacios nulos N 1 y N 2
construimos las matrices B y B 2 :
N
El espacio nulo 1 es el conjunto de los vectores v1 tales que Bv1 = 0, mientras
que el espacio nulo 2 es el conjunto de los vectores v2 tales que B2 v2 = 0.
N
Claramente se ve que
v1 =
a
v2 =
b
a c
N
Es decir, el espacio nulo 1 es la recta de pendiente 1, mientras que el espacio
nulo 2 corresponde a R2 , tal como se muestra en la figura D.12.
N
N
Un vector propio generalizado de orden 2 debe estar en 2 , pero no en 1 , por N
ejemplo
v =
1
0
v2 = v
v1 = −
(A λI)v2
v2 =
1
v1 =
− ∈ N
2
1
0 −2
×
Teorema D.24 Sea A una transformación lineal n n con un único valor propio
···
repetido, λ1 = λ2 = = λn = λ. Sea v un vector propio generalizado de
orden n asociado a λ. En esas condiciones, se cumple que J = M −1 AM en donde
M es la matriz modal formada por los vectores de la cadena de vectores propios
×
generalizados creada por v y J es una matriz n n casi-diagonal que tiene a λ en
la diagonal, 1 encima de la diagonal, y 0 en cualquier otro lugar. Es decir
λ 1 0 ···
0
0 λ 1
···
0
0 0 λ ···
0
J = . . . . .
.. .. .. . . ..
0 0 0
···
1
0 0 0 ···
λ
= v1 v2 ··· v n
−1 A v v
1 2 ··· v
n
(D.35)
271
OSCAR G. DUARTE
B
0
} 0
(A − λI)1 v1 = 0
y por lo tanto Av 1 = λv1 , lo que concluye la demostración.
272
× ×
N ···
r
·· · · ·· ··· ν r
N N {
2
× ··· × ν 2
1 × · ·· × × } ν 1
Figura D.13: Diagrama de Matthew vacı́o
A =
× 1
2
2
−2 5
que tiene un valor propio repetido λ = 3 y una cadena de vectores propios genera-
lizados (ejemplo D.37): −
2 1
v1 = v2 =
2 − 0
M−1 AM =
− −
2 1
−1 1 2 2 1
=
3 1
−2 0 −2 5 −2 0 0 3
273
OSCAR G. DUARTE
ν̂ ×
r ×
··· ··· ···
ν̂ 2 × ··· ×
ν̂ 1 × ··· × ×
Figura D.14: Diagrama de Matthew vacı́o simple
ν̂ r v1 v2
ν̂ r−1 Bv1 Bv2
.. .. ..
. . .
r1 −2
ν̂ 2 B v1 Br2 −2 v2 ··· vq−1
ν̂ 1 Br1 −1 v1 Br1 −1 v2 ··· Bvq−1 vq
Para llenar el diagrama de Matthew deben buscarse q vectores propios ge-
··· ···
neralizados v1 , v2 , , vq de orden h1 , h2 , , hq respectivamente. Cada uno
de estos vectores estará ubicado en la primera celda de las columnas, es decir
xi,1 = vi . Cada columna se completa con la cadena de vectores propios gene-
ralizados creada por el primer elemento de la columna. La forma que adopta el
diagrama de Matthew se muestra en la figura D.15.
274
275
OSCAR G. DUARTE
v1
Bv1 v2
B2 v1 Bv2
1. c = 1.
7. Sea d la siguiente columna con hd < hc . Hacer c = d y repetir desde 4
hasta terminar las columnas
Ejemplo D.41 Para obtener los vectores v1 y v2 del ejemplo D.40 identificamos
q = 2, h 1 = 3, h 2 = 2, y empleamos el algoritmo siguiendo los siguientes pasos
1. Para c = 1 se tiene que h c = 3, por lo tanto buscamos N 3 una base para N 3,
es decir buscamos los vectores x tales que B 3 x = 0:
0
0 0 1 0
0 0 1 0 0
0 1 0 0 0
N3 =
1 0 0 0 0
0 0 0 0 0.707
0 0 0 0 0.707
2. Construimos Q = B2 N3
2
2 0 0 0
2 2 0 0 0
0 0 0 0 0
Q =
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
276
1.414 −
0
0
0
0 0 0 0 0.707
0 0 0 0 0.707
277
OSCAR G. DUARTE
J11 0 ··· 0
0 J12 ··· 0
.. .. . . ..
. . . . 0
0 0 ··· J1q1
J = .. (D.37)
.
Jm1 0 ···
0
0 Jm2 0 ···
.. .. . . ..
0 . . . .
···
0 0 Jmqm
λj
1 0 ··· 0
0 λ 1 ··· 0
j
. .. . .
Jji = .. . . ··· 0 (D.38)
..
0 0 0 . 1
0 0 0 ··· λ j hij ×hij
M = v11 v12 ··· v1 ··· v
r1 m1 vm2 ··· v mrm
(D.39)
J es conocida como la forma can´ onica de Jordan de A. La ecuación D.37
muestra que la matriz J es diagonal por bloques , es decir, está formada por
bloques organizados en la diagonal. Por fuera de estos bloques sólo hay ceros
en la matriz. M es la matriz modal , y está formada por los vectores propios
generalizados de A. La matriz modal no es única.
Los bloques J ji que forman J tienen las siguientes propiedades:
Cada valor propio diferente λ j tendrá asociados uno o varios bloques J ji .
El número de bloques asociados a λ j será igual al número de columnas de
su diagrama de matthew, q j .
Los bloques J ji son cuadrados, y el tamaño del bloque (el número de filas
o de columnas) es igual a la altura de la columna correspondiente en el
diagrama de Matthew, h ij .
278
En el caso sencillo en que ningún valor propio se repita J será una matriz
diagonal que tendrá en la diagonal a los valores propios λ 1 , λ2 , , λn . ···
Ejemplo D.42 Para obtener la forma canónica de Jordan de la matriz A del ejem-
plo D.40, se necesita construir la matriz modal M con todos los vectores propios
generalizados. En el ejemplo D.41 se calcularon los vectores asociados a λ 1 = 2. En
vector propio asociado a λ 2 = 0 será:
0
0
0
v = − 0
0.707
0.707
2
1 0 0 0 0
2
0
− 0
1 0
0
0
1.414
0
0
0
0
M =
0 0 1 −1.414 0 0
0 0 0 0 0.707 − 0.707
0 0 0 0 0.707 0.707
279
OSCAR G. DUARTE
M =
··· vk vk+1 ···
La forma canónica real de Jordan remplaza los dos bloques de tamaño 1 por
uno de tamaño 2 de la forma
a b
b a −
Es decir, la forma canónica real de Jordan de A será
..
.
JR = M − 1
a b
R AMR = −b a
..
.
La matriz modal real MR se obtiene remplazando en M los vectores com-
plejos conjugados v k y v k+1 por dos vectores reales con la parte real y la parte
imaginaria de v, es decir
MR =
··· Re(vk ) Im(vk ) ···
Ejemplo D.43 Sea la matriz A
0 0.5
0
A = 0 0 − 2
1 1 − 2
280
Otra alternativa
dado un bloque
a + jb 0
Ji =
0 a jb −
existe una matriz N tal que NAN−1 es real, con la forma canónica real de
Jordan:
N =
−
(1 j) (1 + j)
NAN−1 =
a b
(1 + j) (1 j) − b a −
Una interpretación
Un bloque real de jordan J r asociado a un valor propio a + jb puede reescri-
birse de la siguente forma:
Ji =
a b
=
a 0
+
0 b
= aI + bL
−b a 0 a b 0 −
En donde I es la matriz identidad, y L es una matriz que cumple un papel
−
similar a j = ( 1), ya que
J =
0 1
J2 = −I
−1 0
De esta manera, un bloque de real de Jordan puede interpretarse como un
número complejo matricial.
281
OSCAR G. DUARTE
282
A =
0 b
−b 0
calculamos los primeros términos A 1 , A2 , A 3 , A4 , A 5 y A 6 :
A1 =
−
0 b
A2 =
b2 0
A3 =
0 −b3
b2 b3
A4 =
− −
b 0
b4 0
A5 =
0
0 b5
A6 =
− b6
0
0
0 b4 − b5 0 0 −b6
Observando la secuencia se puede inferir que
−
( 1) 2 bk
k
0
k si k es par
− 0 ( 1) 2 bk
k
A = k−1
− 0 ( 1) 2 bk
k+1 si k es impar
( 1) 2 bk
− 0
283
OSCAR G. DUARTE
Ejemplo D.46 Calcular Ak cuando A es una matriz con la forma de los bloques
de Jordan; para ilustrar este caso supongamos una matriz de tamaño 5 5 ×
λ 1 0 0 0
0 λ 1 0
0
A = 0 0 λ 1 0
0 0 0 λ
1
0 0 0 0 λ
Puede verse que Ak es una matriz triangular superior, en la que los elementos
de la fila i son los mismos elementos de la fila i + 1 pero están desplazados una
casilla a la derecha.
Los términos de la diagonal son λk . Denotemos por aj un elemento que esté
desplazado j casillas de la diagonal en cualquier fila; a j será
aj =
k!
0
−
k j
si j < k
aj =
k
λk−j
j !(k j )! λ
− si j k ≥ j
Este resultado se puede generalizar para una matriz n × n con la forma de los
bloques de Jordan:
λ 1 0
0 ···
0 λ 1 0 ···
A = ... ... . . . ... ..
.
0 0 ··· λ 1
0 0 ··· 0 λ
284
λk
k!
1!(k 1)! λ
−
k 1 − k!
2!(k 2)! λ
−
k 2 − ··· k!
(n 1)!(k n+1)! λ
−
k n+1
−
−
k k! k 1 − k! k n+2 −
0 λ 1!(k 1)!
− λ ··· (n 2)!(k n+2)!
− λ −
Ak = ... ..
.
..
.
... ..
. (D.44)
k! k 1 −
0 0 0 λk 1!(k 1)! λ
−
k
0 0 0 0 λ
En caso de que un exponente k − j sea negativo, el término correspondiente en
D.44 será 0
f (σ) =
∞ σk dk f (σ)
(D.45)
k! dσk σ
k=0
σt σ 2 t2 σ 3 tk σ 4 tk
eσt = 1 + + + + + ··· (D.46)
1! 2! 3! 4!
2 2 4 4 6 6 8 8
cos σt = 1 − σ2!t + σ4!t − σ6!t + σ8!t + ··· (D.47)
3 3 5 5 7 7
σt
sin σt =
1!
− σ3!t + σ5!t − σ7!t + ··· (D.48)
Ejemplo D.47 Sea A una matriz diagonal como la del ejemplo D.44. Para calcular
eAt podemos emplear (D.46)
285
OSCAR G. DUARTE
(1 + λ1!1 t +
λ21 t2
2! + ··· ) 0 ··· 0
λ22 t2
0 (1 + λ1!2 t + 2! + ··· ) ··· 0
eAt = .. ..
. .
..
. ...
0 0 ··· (1 + λ1!1 t + ··· )
Cada uno de los términos de la diagonal corresponde a la expansión de en series
de Taylor de una exponencial como las de (D.46), por lo tanto e At será:
eλ1 t 0 0 ···
0 eλ2 t
0 ···
eAt = .. .. . . ..
. . . .
0 0 eλn t ···
Ejemplo D.48 Sea A una matriz con la forma de los bloques reales de Jordan para
el caso en que los valores propios son imaginarios puros, como la del ejemplo D.45.
Para calcular e At podemos emplear (D.46)
At A 2 t2 A 3 tk A4 tk
eAt = I + + + + + ···
1! 2! 3! 4!
que de acuerdo con los resultados del ejemplo D.45 se calculará asi:
eAt =
−
1 0
+
t 0 b t2
+
b2 0
+
t3 0 −b3
+
t4 b4 0
+ ···
b2 3! b3 4! 0 b4
0 1
−−1! −
···
b 0
−
2!
2 2 4 4
(1 t 2!b + t 2!b + )
0
( tb t3 b3
0
t5 b5
3! + 45!4 + ···
)
eAt = t3 b3 t5 b5
1!
t 2 b2
( tb
− 1! + 3! − 5! + ) (1 ··· − t b
2! + 2! + ··· )
Cada uno de los términos de la matriz corresponde a la expansión de Taylor de una
sinusoide como las de (D.47) y (D.48), por lo tanto e At puede calcularse como
eAt =
cos(bt) sin(bt)
− sin(bt) cos(bt)
Ejemplo D.49 Sea A una matriz con la forma de los bloques de jordan como la
del ejemplo D.46. Para calcular e At podemos emplear (D.46)
At A 2 t2 A 3 tk A4 tk
eAt = I +
+ + + + ···
1! 2! 3! 4!
que de acuerdo con los resultados del ejemplo D.46 se calculará asi:
1 0 0
··· λ 1 0
t 0 λ 1
··· t
λ2 1
2! λ 1 ···
e At
= 0
1 0 ···
+ ··· + 0 λk 1!
2! λ ··· + ···
.. .. . . .. 1! .. .. . . .. 2! .. .. . . .
..
. . . . . . . . . . .
∞
k=0
k k
λ t
k!
∞ λ t k−1 k
k=1 1!(k−1)!
∞ λ t
k=2 2!(k−2)!
k−2 k
···
eAt =
0
∞ λk t k
k=0 k!
∞ λk−1 tk
k=1 1!(k−1)! ···
.. .. .. ...
. . .
286
eAt
=
∞
k=0
0
λk tk
k!
t
1!
∞ λk−1 tk−1
k=1 (k−1)!
∞ λk tk
k=0 k!
t2
2!
t
1!
∞ λk−2 tk−2
k=2 (k−2)!
∞ λk−1 tk−1
k=1 (k−1)!
···
···
.. .. .. .
. . . ..
Efectuando el cambio de variable m = k − j se tiene
eAt =
∞
k=0
0
k k
λ t
k!
t
1!
∞ λm tm
m=0 (m)!
∞ λk tk
k=0 k!
t2
2!
t
1!
∞ λm tm
m=0 (m)!
∞ λm t m
m=0 (m)!
···
···
.. .. .. ...
. . .
Ejemplo D.50 Sea A una matriz con la forma de los bloques reales de Jordan
A =
a b
−b a
A =
a b
= B + C =
a 0
+
0 b
−b a b 0 b 0 − −
De tal manera que e At = e Bt eCt . Empleando los resultados de los ejemplos D.47 y
D.48 se tiene que
eBt =
eat 0
eCt =
cos(bt) sin(bt)
0 eat − sin(bt) cos(bt)
y por lo tanto
eAt =
eat 0
cos(bt) sin(bt)
=
e at cos(bt) eat sin(bt)
0 eat − sin(bt) cos(bt) eat sin(bt) eat cos(bt) −
Teorema D.25 El polinomio mı́nimo de una matriz cuadrada A es el mismo poli-
nomio mı́nimo de su representación canónica de Jordan J.
287
OSCAR G. DUARTE
m
n̄j
ψ(λ) = (λ −λ ) j (D.50)
j =1
Demostración D.26 De acuerdo con el teorema D.25, basta con demostrar que
(D.50) es el polinomio mı́nimo de J, la forma canónica de Jordan de A.
Consideremos primero la matriz J j con los bloques de Jordan asociados al valor
propio λ j :
Jj 1 0 0 ···
0 Jj 2
0 ···
Jj = . .. . . ..
..
. . .
···
0 0 Jjqj
n̄j
El polinomio mı́nimo de J es ψ (λ) = (λ − λ ) como puede comprobarse al
j j j
hij
calcular (J − λ I) :
ji j
0 1 0 ··· 0 0
0 0 1 ··· 0 0
0 0 0 ··· 0 0
(J − λ I) = . . . . . .
ji j
.. .. .. . . .. ..
0 0 0 ··· 0 1
0 0 0 ··· 0 0 × hij hij
0 0 1 0 ··· 0
0 0 0
0 ··· 0
0 0 0 0 ··· 0
(Jji − λj I)2 = . . . . .
..
.. .. .. . . .. .
0 0 0
0 ··· 0
0 0 0 0 ··· 0 ×
hij hij
288
0 0 0
··· 1 0
0 0 0 ··· 0 1
hij −2
0 0 0 ··· 0 0
(Jji − λj I) = . . .. .
.. .. . .. .. ..
. .
0 0 0 ··· 0 0
0 0 0 ··· 0 0 ×
hij hij
0 0
0 ··· 0 1
0 0 0 ··· 0 0
0 0 0 ··· 0 0
hij −1
(Jji − λj I) = . . . . .
.. .. ..
. . .. ..
.
0 0 0 0 ··· 0
0 0 0 0 ··· 0 ×
hij hij
hij
(Jji − λ I)
j = 0
De acuerdo con la definición D.36 n̄j es el tamaño del bloque de Jordan asociado
a λ j más grande, es claro que (Jji λj I)n̄j = 0 para todos los bloques de Jordan
−
asociados a λ j . Como Jj es diagonal por bloques, y sus bloques son Jji se desprende
que (Jj λj I)n̄j = 0 es decir, que el polinomio mı́nimo de J j es (λ λj )n̄j .
− −
Siguiendo un argumento similar, como J es diagonal por bloques, y sus bloques
son J j , se tiene que el polinomio mı́nimo de J es
m
n̄j
ψ(λ) = (λ −λ )j
i=j
que están en la forma canónica de Jordan, tienen todas el mismo polinomio carac-
terı́s tico ∆(λ) = (λ a)3 (λ b). Sin embargo, el polinomio mı́nimo de cada una
− −
de ellas es diferente, debido a que el ı́ndice de a es diferente:
289
OSCAR G. DUARTE
···
Teorema D.28 Sean λ1 , λ2 , , λm , los valores propios de una matriz A con ı́n -
···
dices n̄1 , n̄2 , , n̄m respectivamente. Sea ψ el polinomio mı́nimo de A y sean f
y g dos polinomios cualesquiera. En esas condiciones cualquiera de las siguientes
afirmaciones es equivalente
1. f (A) = g(A)
2. Una de dos condiciones se cumple: o bien f = h 1 ψ + g ó g = h 2 ψ + f para
algunos polinomios h 1 , h 2 .
3. Los valores de f y de g en el espectro de A son iguales f (l) (λi ) = g (l) (λi )
··· −
para l = 0, 1, 2, , n̄i 1; i = 1, 2, , m. ···
Demostración D.28 Dado que ψ(A) = 0 es evidente la equivalencia de las afir-
maciones 1 y 2. Para demostrar la equivalencia entre 2 y 3 basta recordar que
m
ψ(λ) = j=1 (λ λj )n̄j y calcular las derivadas f (l) (λi ) y g (l) (λi ).
−
Definición D.38 Funciones de matrices cuadradas
Sea f (λ) una función, no necesariamente un polinomio, definida en el espectro
de A. Si g(λ) es un polinomio que tiene los mismos valores en el espectro de A
entonces se define f (A) = g(A).
La definición D.38 brinda una posibilidad para extender a las matrices cua-
dradas una función f (λ) definida para escalares. Es decir, permite calcular f (A)
buscando un polinomio adecuado g y calculando g(A). El procedimiento com-
pleto puede resumirse asi:
×
Sea f (λ) una función, y sea A una matriz n n. Para calcular f (A) deben
seguirse los siguientes pasos
290
m
ni
∆λ = (λ −λ ) i
i=1
···
en donde α 0 , , αn−1 son desconocidas. Cualquier otro polinomio de or-
−
den n 1 es igualmente válido.
3. Plantear n ecuaciones igualando los valores de f y g en el espectro de A
f (l) (λi ) = g (l) (λi ) para l = 0, 1, 2,
··· , n̄ − 1; i = 1, 2, ··· , m
i
A =
1 3
0 1
∆λ = (λ − 1)2
2. Definimos el polinomio
g(λ) = α0 + α1 λ
4. obtenemos α 0 y α1 :
α0 + α1 = 1
α0 = 49 −
α1 = 50
⇒ α1 = 50
291
OSCAR G. DUARTE
5. Calculamos f (A) = g(A)
1. El polinomio caracterı́stico es
δ (λ) = (λ − λ1 )4
2. Definimos un polinomio de orden 3
5. Calculamos f (A) = g(A)
1
0 0 0
0 1 0
0
0 1 0 0 f (1) (λ1 ) 0
0 1 0
f (A) = f (λ1 ) + +
0 0 1 0 1! 0 0 0 1
0 0 0 1 0 0 0 0
292
0 0 1 0
0 0 0
1
f (2) (λ1 ) 0 0 0 1 f (3) (λ1 )
0 0 0 0
+
2! 0 0 0 0 3! 0 0 0 0
0 0 0 0 0 0 0 0
f (λ1 ) f (1) (λ1 )
1!
f (2) (λ1 )
2!
f (3) (λ1 )
3!
f (1) (λ1 ) f (2) (λ1 )
f (A) = 0 f (λ1 ) 1! 2!
f (1) (λ1 )
0 0 f (λ1 ) 1!
0 0 0 f (λ1 )
Nótese que las derivadas en (D.51) son respecto a λ. Vale la pena comparar los
resultados (D.49) y (D.52)
293
OSCAR G. DUARTE
294
Bibliograf ́ıa
[4] Thomas J. Cavicchi. Digital Signal Processing . John Wiley and Sons, 2000.
[5] Chi-Tsong Chen. Linear System Theory and Design . Oxford Press.
[6] Chi-Tsong Chen. Analog and Digital Control System Design . Saunders
College Pubkishing, 1993.
[9] CloseÑ. Frederick. The Control Handbook , chapter Graphical Modeles, pa-
ges 85–98. CRC Press and IEEE Press, 1996.
[11] G.H. Hostetter, C.J. Savant, y R.T. Stefani. Sistemas de Control . Intera-
mericana, 1987.
[14] William S. Levine. The Control Handbook . CRC Press and IEEE Press,
1996.
295
OSCAR G. DUARTE
296
Índice analı́tico
297
OSCAR G. DUARTE
298
ÍNDICE ANALÍTICO
299
OSCAR G. DUARTE
300
ÍNDICE ANALÍTICO
301
OSCAR G. DUARTE
302
ÍNDICE ANALÍTICO
303
OSCAR G. DUARTE
304