5.espacios Vectoriales
5.espacios Vectoriales
Supongamos que tenemos ˛x “ px1 , . . . , xn q P Rn y que se nos pide demostrar que 0 ¨ ˛x “ ˛0, donde ˛0 “
p0, . . . , 0q. Usando la definición de producto por escalares en Rn , podemos utilizar el siguiente argumento:
donde la última igualdad se debe a que el número real cero multiplicado por cualquier otro número real
da cero. De esta manera, queda demostrado que 0 ¨ ˛x “ ˛0.
Ahora, pensemos en otra demostración para 0 ¨ ˛x “ ˛0. Sabemos de la aritmética en R que 0 “ 0 ` 0.
Luego, podemos multiplicar la igualad anterior por ˛x y obtener la siguiente cadena de argumentos:
0“0`0
0 ¨ ˛x “ p0 ` 0q ¨ ˛x
0 ¨ ˛x “ 0 ¨ ˛x ` 0 ¨ ˛x (propiedad distributiva en Rn )
0 ¨ ˛x ` r´p0 ¨ ˛xqs “ p0 ¨ ˛x ` 0 ¨ ˛xq ` r´p0 ¨ ˛xqs (propiedad del elemento opuesto en Rn )
˛0 “ 0 ¨ ˛x ` r0 ¨ ˛x ` r´p0 ¨ ˛xqss (propiedad del elemento opuesto y asociativa)
˛0 “ 0 ¨ ˛x ` ˛0 (propiedad del elemento opuesto)
˛0 “ 0 ¨ ˛x. (propiedad del elemento neutro)
58
5.1. Definición y ejemplos de espacios vectoriales
Definición 5.1
` : V ˆ V ›Ñ V ¨ : K ˆ V ›Ñ V
pv1 , v2 q fiÑ v1 ` v2 p–, vq fiÑ – ¨ v
a las cuales nos referiremos como suma y producto por escalares. Diremos que la cuaterna
pV, K, `, ¨q es un espacio vectorial sobre K (o un K-espacio vectorial) si se satisfacen las
siguiente propiedades:
propiedad conmutativa de la suma: Para todo v1 , v2 P V , se cumple que
v1 ` v2 “ v2 ` v1 .
v1 ` pv2 ` v3 q “ pv1 ` v2 q ` v3 .
0V ` v “ v
para todo v P V .
existencia de opuestos: Para cada v P V , existe w P V tal que
v ` w “ 0V .
elemento neutro del producto por escalares: Para todo v P V , se cumple que
1 ¨ v “ v.
propiedad distributiva del producto por escalares respecto a la suma de vectores: Para
todo – P K y v1 , v2 P V , se cumple que
– ¨ pv1 ` v2 q “ – ¨ v1 ` – ¨ v2 .
propiedad distributiva del producto por escalares respecto a la suma de escalares: Para
todo –, — P K y v P V se cumple que
p– ` —q ¨ v “ – ¨ v ` — ¨ v.
59
No debe confundirse la palabra “suma” en la definición anterior con lo que habitualmente
entendemos por sumar. En el contexto de espacios vectoriales, una suma es simplemente una
operación binaria en el conjunto V , es decir, una función V ˆV ›Ñ V que a cada par de elementos
v1 , v2 P V le asigna un elemento de V , denotado como v1 ` v2 . La razón por la cual se usa la
notación “`” es porque la suma habitual de números que ya conocemos representa un ejemplo
particular para ciertas elecciones de V . Comentarios similares valen también para la operación de
producto por escalares.
Ejemplo 28.
1. En conjunto de n-uplas Rn con las operaciones habituales de suma y multiplicación por escalares
` : Rn ˆ Rn ›Ñ Rn ¨ : R ˆ Rn ›Ñ Rn
ppx1 , . . . , xn q, py1 , . . . , yn qq fiÑ px1 ` y1 , . . . , xn ` yn q p–, px1 , . . . , xn qq fiÑ p– x1 , . . . , – xn q,
En una estructura de espacio vectorial, cada uno de los elementos que conforma la cuaterna
pV, K, `, ¨q es de suma importancia. Es decir, alterar uno de ellos puede romper la estructura.
Por ejemplo, cuando pensamos en R2 como espacio vectorial real, lo hacemos considerando las
operaciones usuales de suma y producto por escalares; pero si cambiamos una de estas operaciones
por otra, en general R2 no tiene por qué seguir siendo un espacio vectorial:
Si consideramos pR2 , R, `. , ¨q, donde ¨ es el producto por escalares usual, y `. se define como
para todo px1 , x2 q, py1 , y2 q P R2 , se tiene que pR2 , R, `. , ¨q no es un espacio vectorial (la
operación `. no es conmutativa).
2. El conjunto C de los números complejos es un espacio vectorial sobre R. Recuerde que z P C si
z “ a ` i b,
donde a, b P R e i es la unidad imaginaria (es decir, i¨i “ ´1). Para la estructura de espacio vectorial,
se consideran las operaciones
pa ` i bq ` pc ` i dq :“ pa ` cq ` i pb ` dq y – ¨ pa ` i bq :“ p–aq ` i p–bq,
Cambiar el cuerpo K puede dar lugar a un cambio de la estructura de espacio vectorial. Dentro de
este mismo ejemplo, consideremos K “ C y la operación ¨C : C ˆ C ›Ñ C dada por
60
Es decir, ¨C es la multiplicación usual de números complejos. Se tiene que pC, C, `, ¨C q es también
un espacio vectorial.
Cn “ tpz1 , . . . , zn q : z1 , . . . , zn P Cu
Las operaciones que definen un espacio vectorial deben ser cerradas, es decir, que sus resultados
sean elementos dentro del espacio vectorial. En este ejemplo, sabemos que la suma de funciones
continuas es continua, y que una función continua multiplicada por un escalar da lugar a una
función continua, por lo que las operaciones definidas son cerradas. Más aún, se tiene que
pC 0 ra, bs, R, `, ¨q es un espacio vectorial.
5. Sea Prxs el conjunto de polinomios (de cualquier grado) con coeficientes en R, es decir, ppxq P Prxs
si
ppxq “ a0 ` a1 x ` a2 x2 ` ¨ ¨ ¨ ` an xn ,
donde n P N, a0 , a1 , a2 , . . . , an P R. Si ppxq “ a0 ` a1 x ` a2 x2 ` ¨ ¨ ¨ ` an xn y qpxq “ b0 ` b1 x `
b2 x2 ` ¨ ¨ ¨ ` bm xm son dos polinomios (supongamos n § m sin pérdida de generalidad), entonces
se define la suma ppxq ` qpxq como
Es decir, para sumar dos polinomios, sumamos los coeficientes correspondientes a cada grado.
Dado un escalar – P R, se define el polinomio – ppxq como
61
Proposición 5.1
Sea pV, K, `, ¨q un espacio vectorial sobre K. Entonces, las siguientes propiedades se cumplen:
1. El elemento neutro 0V P V es único.
Idea de la demostración: En general, probar este tipo de propiedades sencillas tiene que ver con
valernos casi exclusivamente de las propiedades de la definición de espacio vectorial. Cualquier
argumento o cálculo a realizar debe estar justificado y ser válido dentro de V o K.
Demostración:
01V ` 0v “ 0v ,
0V ` 01v “ 01v .
0V ` 01V “ 01V ` 0v .
v ` w “ 0V
w ` pv ` wq “ w1 ` 0V
1
62
3. Sabemos que en K se cumple que 0 ` 0 “ 0. Multiplicando ambos lados de la igualdad por v, se
tiene que:
p0 ` 0q ¨ v “ 0 ¨ v
0¨v`0¨v “0¨v (propiedad distributiva)
p0 ¨ v ` 0 ¨ vq ` r´p0 ¨ vqs “ 0 ¨ v ` r´p0 ¨ vqs
0 ¨ v ` r0 ¨ v ` r´p0 ¨ vqss “ 0V (propiedad asociativa y del opuesto)
0 ¨ v ` 0V “ 0V (propiedad del opuesto)
0 ¨ v “ 0V . (propiedad del neutro)
Definición 5.2
63
Observación 5.1
Obtenemos así un criterio para probar que un subconjunto W no es un subespacio de pV, K, `, ¨q,
a saber:
Si 0V R W , entonces W no es un subespacio de pV, K, `, ¨q.
Antes de ver ejemplos de subespacios vectoriales, probaremos una propiedad que permite una
verificación más rápida de que un subconjunto de un espacio vectorial es subespacio.
Proposición 5.2
– ¨ w1 ` w2 P W
para todo – P K y w1 , w2 P W .
1. Dado un espacio vectorial pV, K, `, ¨q, se tiene que t0V u y V son subespacios de V , conocidos como
subespacios triviales.
2. Toda recta en R3 que pasa por el origen es un subespacio de R3 . En efecto, sea r la recta en R3 dada
por
px, y, zq “ ⁄ ˛u,
donde ˛u “ pu1 , u2 , u3 q ‰ p0, 0, 0q. Es decir,
Para empezar, es claro que r ‰ H, pues ˛0 “ 0 ¨ ˛u P r. Por otro lado, sean – P R y ⁄1 ˛u, ⁄2 ˛u P r.
Tenemos que
⁄1 ˛u ` ⁄2 ˛u “ p⁄1 ` ⁄2 q˛u P r.
Por la Proposición 5.2, se tiene que r es un subespacio de R3 .
Si una recta no pasa por el origen, entonces no es un subespacio de R3 (ver la Observación 5.2).
3. Todo plano en R3 que pase por el origen es un subespacio vectorial de R3 . En efecto, consideremos
el plano
fi “ tpx, y, zq P R3 : px, y, zq “ ⁄ ˛u ` µ ˛v u,
64
donde ˛u, ˛v P R3 son no nulos y no colineales. Claramente, ˛0 P fi, ya que
˛0 “ 0 ¨ ˛v ` 0 ¨ ˛v .
Sea pV, K, `, ¨q un espacio vectorial sobre K, y sea tWn unPN una familia de subespacios de V
(es decir, Wn es un subespacio de V para todo n P N). Entonces, las siguientes afirmaciones se
cumplen:
£
1. Wn es un subespacio de V . Es decir, la intersección de una cantidad arbitraria de
nPN
subespacios es un subespacio.
§
2. Si Wn Ñ Wn`1 para todo n P N, entonces Wn es un subespacio de V . Es decir, la unión
nPN
“encajada” de una cantidad arbitraria de subespacios es un subespacio.
65
Demostración:
£ £
1. Como 0V P Wn para todo n P N, se tiene que 0V P Wn , de donde Wn ‰ H. Ahora,
£ nPN nPN
supongamos que w1 , w2 P Wn y que – P R. En particular, para cada n P N, se tiene que
nPN
– w1 ` w2 P Wn , ya que cada
£ Wn es un subespacio £ de V . Luego, por definición de intersección,
tenemos que – w1 ` w2 P Wn . Por lo tanto, Wn es un subespacio de V por la Proposición
nPN nPN
5.2.
§ §
2. De forma análoga a la parte anterior, podemos notar que 0V P Wn . Ahora, sean w1 , w2 P Wn
nPN nPN
y – P R. Luego, existen n1 , n2 P N tales que w1 P Wn1 y w2 P Wn2 (por definición de unión de
conjuntos). Si tomamos m “ máxtn1 , n2 u, tendremos que W1 Ñ Wm y W2 Ñ Wm , de donde
w
§ 1 , w2 P Wm . Al ser Wm subespacio
§ de V , se tiene que – w1 ` w2 P Wm . Por lo tanto, – w1 ` w2 P
Wn . Concluimos que Wn es un subespacio de V por la Proposición 5.2.
nPN nPN
En general, la unión de subespacios vectoriales de un espacio V no tiene por qué ser un subespacio de
V , como muestra el siguiente ejemplo.
Ejemplo 30. Considere R2 con las operaciones usuales, y los subespacios
W1 “ tpx, 0q : x P Ru,
W2 “ tp0, yq : y P Ru.
Note que W1 y W2 corresponden con los ejes X e Y de R2 , respectivamente, y en particular son rectas
que pasan por el origen. En este caso, W1 Y W2 no es un subespacio de R2 , ya que p1, 0q P W1 Y W2 (pues
p1, 0q P W1 ) y p0, 1q P W1 YW2 (pues p0, 1q P W2 ) pero p1, 0q`p0, 1q “ p1, 1q R W1 YW2 (pues p1, 1q R W1
y p1, 1q R W2 ).
Definición 5.3
Sea pV, K, `, ¨q un espacio vectorial y tv1 , . . . , vk u Ñ V un subconjunto finito (puede ser vacío).
Una combinación lineal de tv1 , . . . , vk u es cualquier vector v P V de la forma
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –k ¨ vk ,
3. Determinar si p2, ´1, 10q combinación lineal de tp1, 0, 0q, p1, 1, 0q, p1, 1, 1qu.
Para responder a esto, planteamos el problema según la definición de combinación lineal, es decir:
¿existen –1 , –2 , –3 P R tales que
Por lo tanto, p2, ´1, 10q es combinación lineal de tp1, 0, 0q, p1, 1, 0q, p1, 1, 1qu.
Note que si planteamos el sistema de forma matricial, se obtiene la matriz ampliada
¨ ˛
1 1 1 2
pA|bq “ ˝ 0 1 1 ´1 ‚,
0 0 1 10
es decir, pA|bq se obtiene colgando los vectores de tp1, 0, 0q, p1, 1, 0q, p1, 1, 1qu y p2, ´1, 10q como
columnas.
4. Determinar si ´2x2 ` 8x ´ 5 P P2 rxs es combinación lineal de tx2 ` 1, x ´ 1, 2x ` 2u.
Luego, trabajando el segundo lado de la igualdad según las operaciones de suma y producto por
escalares de P2 rxs, se obtiene
Definición 5.4
Otra notación alternativa es rv1 , . . . , vk s. Para el caso donde A “ H, se tiene que rHs “ t0V u. Al
conjunto A se le llama generador de rAs.
Proposición 5.4
0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vk .
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –k ¨ vk ,
v 1 “ –11 ¨ v1 ` ¨ ¨ ¨ ` –k1 ¨ vk .
Luego,
Por lo tanto, se tiene que rAs es un subespacio vectorial de V por la Proposición 5.2.
68
Ejemplo 32. Encontremos conjuntos generadores para algunos subespacios conocidos:
1. Sea r la recta en R3 que pasa por el origen y de dirección ˛u ‰ ˛0. Entonces, podemos notar que
r “ r˛us.
2x ´ 3y ` z “ 0.
Determinamos a partir de la ecuación anterior tres puntos del plano que no estén alineados, como
por ejemplo A “ p1, 1, 1q, B “ p2, 0, ´4q y C “ p0, 0, 0q. Luego, un par de direcciones para el plano
fi pueden ser
˛u “ A ´ C “ p1, 1, 1q,
˛v “ B ´ C “ p2, 0, ´4q.
Por lo tanto,
fi “ rp1, 1, 1q, p2, 0, ´4qs.
Tenga en cuenta que existe más de una posibilidad para calcular los vectores de dirección de fi.
Por lo tanto, fi puede tener más de un conjunto generador. En general, un subespacio generado
puede tener más de un conjunto generador. Para apreciar esto último en el caso de fi, procedamos de
otra manera. Tenga en cuenta que fi es el subconjunto de R3 formado por todos los puntos px, y, zq
cuyas coordenadas satisfacen la ecuación 2x ´ 3y ` z “ 0. En otras palabras, los puntos de fi son
todos aquéllos de la forma px, y, 3y ´ 2xq (despejamos z de la ecuación reducida del plano). Luego,
podemos hacer una descomposición de px, y, 3y ´ 2xq de la siguiente manera:
px, y, 3y ´ 2xq “ px, 0, ´2xq ` p0, y, 3yq “ x ¨ p1, 0, ´2q ` y ¨ p0, 1, 3q.
Entonces, vemos que un conjunto generador del plano fi viene dado por tp1, 0, ´2q, p0, 1, 3qu, es
decir,
fi “ rp1, 0, ´2q, p0, 1, 3qs.
3. Consideremos el subespacio S Ñ M2ˆ2 pRq formado por las matrices simétricas de tamaño 2 ˆ 2 y
con coeficientes reales. Hallemos un conjunto generador de S.
Para este tipo de problemas, es muy importante tener el cuenta cómo son los vectores en el
subespacio en cuestión. Tomemos entonces una matriz A P S arbitraria, es decir,
ˆ ˙
–1 –2
A“ , donde –1 , –2 , –3 P R.
–2 –3
Notamos que
ˆ ˙ ˆ ˙ ˆ ˙
–1 0 0 –2 0 0
A“ ` `
0 0 –2 0 0 –3
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
A “ –1 ¨ ` –2 ¨ ` –3 ¨ .
0 0 1 0 0 1
69
„ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
Luego, A P , , para toda A P S, es decir,
0 0 1 0 0 1
„ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
SÑ , , .
0 0 1 0 0 1
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
Por otro lado, , , P S, por lo que cualquier combinación lineal de
0 0 1 0 0 1
las matrices anteriores también pertenece a S, ya que S es un subespacio vectorial de M2ˆ2 pRq.
Por lo tanto, „ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
, , Ñ S.
0 0 1 0 0 1
Se tiene entonces que „ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
S“ , , .
0 0 1 0 0 1
Un error común a la hora de declarar algún conjunto generador para un determinado espacio o
subespacio vectorial en el siguiente. Considere los ejemplos 2. y 3. anteriores. No es correcto decir
que fi o S están generados por los subconjuntos
"ˆ ˙ ˆ ˙ ˆ ˙*
–1 0 0 –2 0 0
tpx, 0, ´2xq ` p0, y, 3yqu y , , ,
0 0 –2 0 0 –3
70
2. Por otro lado, los vectores en S se pueden escribir
"ˆ de˙varias
ˆ maneras
˙ ˆ(no necesariamente
˙ ˆ ˙*única)
1 0 0 1 0 0 0 1
como combinación lineal de los vectores de , , , . Por
0 0 1 0 0 1 1 1
ejemplo,
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 1 1 0 0 1 0 0 0 1
“1¨ `1¨ `1¨ `0¨
1 1 0 0 1 0 0 1 1 1
y
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
0 1 1 0 0 1 0 0 0 1
“1¨ `0¨ `0¨ `1¨ .
1 1 0 0 1 0 0 1 1 1
En álgebra lineal, nos interesa describir espacios o subespacios generados W a partir de la menor cantidad
posible de información, es decir, hallando un conjunto generador A con la cantidad mínima de vectores
necesarios. Esto se traduce en que si W “ rAs, entonces todo vector de W se escribe de forma única
como combinación lineal de vectores de A. Esta última propiedad tiene que ver con el concepto de
independencia lineal, que desarrollaremos en esta sección.
Definición 5.5
–1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn “ 0V
–1 “ 0, . . . , –n “ 0.
Observación 5.2
–1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn “ 0V .
71
Veamos algunos ejemplos concretos y cómo probar si un conjunto dado es linealmente independiente
o no.
Ejemplo 33.
1. tp1, 0q, p0, 1qu es un conjunto linealmente independiente en R2 . En efecto, si suponemos que
A “ tp1, 1, 2, 4q, p2, ´1, ´5, 2q, p1, ´1, ´4, 0q, p2, 1, 1, 6qu
–1 ¨ p1, 1, 2, 4q ` –2 p2, ´1, ´5, 2q ` –3 p1, ´1, ´4, 0q ` –4 p2, 1, 1, 6q “ p0, 0, 0, 0q.
Entonces, usando las operaciones de suma y producto por escalares en R4 , tenemos que
p–1 ` 2–2 ` –3 ` 2–4 , –1 ´ –2 ´ –3 ` –4 , 2–2 ´ 5–2 ´ 4–3 ` –4 , 4–1 ` 2–2 ` 6–4 q “ p0, 0, 0, 0q.
Resolvemos el sistema anterior escalerizando la matriz asociada de pSq (que también se obtiene
colgando los vectores de A como columnas):
¨ ˛ ¨ ˛
1 2 1 2 1 0 ´1{3 4{3
˚ 1 ´1 ´1 1 ‹ escalerización ˚ 0 1 2{3 1{3 ‹
A“˚ ‹
˝ 2 ´5 ´4 1 ‚ ›››››››Ñ ˝ 0 0
˚ ‹.
0 0 ‚
4 2 0 6 0 0 0 0
Tenemos entonces que pSq es un sistema compatible indeterminado (infinitas soluciones), por lo
cual A es un conjunto linealmente dependiente. Para entender por qué se concluye esto al saber
qué tipo de sistema es pSq, recordemos que un conjunto es linealmente dependiente si el elemento
neutro se puede escribir de varias maneras como combinación lineal de los vectores de dicho
conjunto. En este ejemplo, tenemos que
" *
4 1 4 2 1
SolpSq “ p–1 , –2 , –3 , –4 q P R / –1 “ –3 ´ –4 y –2 “ ´ –3 ´ –4 .
3 3 3 3
Luego,
ˆ ˙ ˆ ˙
1 4 2 1
–3 ´ –4 ¨p1, 1, 2, 4q` ´ –3 ´ –4 p2, ´1, ´5, 2q`–3 p1, ´1, ´4, 0q`–4 p2, 1, 1, 6q “ p0, 0, 0, 0q.
3 3 3 3
72
Haciendo –3 “ –4 “ 0, obtenemos la combinación lineal trivial para p0, 0, 0, 0q. Pero si hacemos
–3 “ 1 y –4 “ ´1, también nos queda que
ˆ ˙ ˆ ˙
1 4 2 1
p0, 0, 0, 0q “ ` ¨ p1, 1, 2, 4q ` ´ ` p2, ´1, ´5, 2q ` p1, ´1, ´4, 0q ´ p2, 1, 1, 6q
3 3 3 3
5 1
“ ¨ p1, 1, 2, 4q ´ p2, ´1, ´5, 2q ` p1, ´1, ´4, 0q ´ p2, 1, 1, 6q,
3 3
teniendo así dos maneras diferentes (de hecho, infinitas) de representar a p0, 0, 0, 0q como
combinación lineal de A.
Luego, ˆ ˙ ˆ ˙
–1 –3 0 0
“ ,
–3 –2 0 0
de donde claramente se tiene que –1 “ 0, –2 “ 0 y –3 “ 0. Por lo tanto, A es linealmente
independiente.
73
Observación 5.3
0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vi´1 ` 1 ¨ 0V ` 0 ¨ vi`1 ` ¨ ¨ ¨ ` 0 ¨ vn .
Proposición 5.5
Demostración: Supongamos primero que A es linealmente independiente. Sea v P rAs. Luego, por
definición de subespacio generado por A, existen –1 , . . . , –n P K tales que
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .
–1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn “ v “ —1 ¨ v1 ` ¨ ¨ ¨ ` —n ¨ vn .
0V “ p–1 ´ —1 q ¨ v1 ` ¨ ¨ ¨ ` p–n ´ —n q ¨ vn .
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn
es única.
74
Ahora, supongamos que todo elemento de rAs se puede escribir de forma única como combinación
lineal de vectores en A. Sean –1 , . . . , –n P K tales que
0V “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .
0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vn ,
recordemos que ¨ ˛
a1j
˚ a2j ‹
` ˘ ˚ ‹
Fi “ ai1 ai2 ¨¨¨ ai n´1 ain
˚
y Cj “ ˚ .. ‹
. ‹
˚ ‹
˝ am´1 j ‚
amj
denotan la i-ésima fila y j-ésima columna de A, y que pueden considerarse como vectores de Rn y Rm ,
respectivamente. Teniendo esta notación repasada, presentamos la siguiente definición.
Definición 5.6
Sea A P Mmˆn pRq. Se define el rango por filas de A, denotado como rgf pAq, como la mayor
cantidad de filas Fi que forman un subconjunto linealmente independiente de Rn . Por otro lado,
se define el rango por columnas de A, denotado como rgc pAq, como la mayor cantidad de
columnas Cj que forman un subconjunto linealmente independiente de Rm .
Enunciaremos el siguiente teorema sin demostración, aunque sí veremos como aplicarlo para calcular
el rango de una matriz.
Teorema 5.1
75
Ejemplo 34. Calcule el rango, el rango por filas, y el rango por columnas de
¨ ˛
1 1 0 2
A “ ˝ 0 1 3 1 ‚.
1 3 6 4
Primero, escalerizamos para calcular rgpAq:
¨ ˛
1 0 ´3 1
AÑ˝ 0 1 3 1 ‚.
0 0 0 0
La cantidad de escalones de la forma escalerizada reducida de A es 2, de donde
rgpAq “ 2.
Para calcular el rango por filas de A, consideramos su conjunto de filas de A
F “ tF1 , F2 , F3 u.
Vemos que F3 “ 1 ¨ F1 ` 2 ¨ F2 . Luego, F es linealmente dependiente. Si descartamos F3 , nos queda el
subconjunto tF1 , F2 u Ñ F. Claramente, F2 no es múltiplo escalar de F1 , ni viceversa, por lo cual tF1 , F2 u
es linealmente independiente. Vemos entonces que
rgf pAq “ 2.
Ahora calculemos el rango por columnas de A. Consideremos el conjunto de columnas de A:
C “ tC1 , C2 , C3 , C4 u.
Vemos que C3 “ ´3 ¨ C1 ` 3 ¨ C2 y C4 “ 1 ¨ C1 ` 1 ¨ C2 , por lo cual C es linealmente dependiente.
Descartamos entonces C3 y C4 , obteniendo el subconjunto tC1 , C2 u Ñ C, el cual claramente es
linealmente independiente. Tenemos entonces que
rgc pAq “ 2.
Como corolario del teorema anterior, tenemos el siguiente resultado.
Corolario 5.1
Las siguiente condiciones son equivalente para toda matriz (cuadrada) A P Mnˆn pRq:
(a) A es invertible.
(b) Las filas de A forman un conjunto linealmente independiente de Rn .
(c) Las columnas de A forman un conjunto linealmente independiente de Rn .
Demostración: Recuerde que A P Mnˆn pRq es invertible si, y sólo si, rgpAq “ n. Por otro lado, del
teorema anterior se tiene que rgf pAq “ rgpAq. Si A es invertible, se tiene que rgf pAq “ n, es decir, que la
mayor cantidad de filas de A que forman un conjunto linealmente independiente de Rn es n. Por lo tanto,
las filas de A forman un conjunto linealmente independiente de Rn . Recíprocamente, si todas las filas de
A forman un conjunto linealmente independiente de Rn , se tiene que rgpAq “ rgf pAq “ n, por lo cual A
es invertible.
Análogamente, se tiene que A es invertible si, y sólo si, sus columnas forman un conjunto linealmente
independiente de Rn .
76
5.5. Bases y dimensión de un espacio vectorial
Trabajaremos ahora con un concepto que engloba las nociones de generador y de independencia lineal
de manera simultánea. Antes de presentarlo, haremos una distinción entre los dos tipos de espacios
vectoriales que existen, según su cantidad de generadores.
Definición 5.7
1. El conjunto de todas las funciones f : R Ñ R, con la suma y producto por escalares usuales de
funciones.
2. El espacio vectorial Prxs de todos los polinomios (cualquier grado), con las operaciones usuales.
Ejemplo 36. Los siguientes son ejemplos de espacios vectoriales finito-dimensionales.
Por ejemplo, es fácil notar que R2 es finito-dimensional, ya que está generador por
ei “ p0, . . . , 0, 1, 0, . . . , 0q,
77
Observación 5.4
Definición 5.8
2. V “ rBs.
Observación 5.5
Por la Proposición 5.4, tenemos que B “ tv1 , . . . , vn u es una base de V si, y sólo si, para cada v P V
existen –1 , . . . , –n P K únicos tales que
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .
A los escalares –i dentro de la combinación lineal anterior se les conoce como coordenadas de v
en la base B, y se indican mediante la notación
¨ ˛
–1
coordB pvq “ ˝ ... ‚ P Mnˆ1 pKq.
˚ ‹
–n
Ejemplo 37.
1. Los conjuntos generadores mencionados en el Ejemplo 36 son además conjuntos linealmente
independientes (la prueba de esto se la dejamos al lector). Por lo tanto, los conjuntos
son bases de Rn , Pn rxs y Mmˆn pRq, respectivamente, y se conocen como bases canónicas.
Para el espacio vectorial R2 con la base B “ tp1, 0q, p0, 1qu, se tiene por ejemplo que
ˆ ˙
3
coordB pp3, 2qq “ ,
2
78
El orden de los vectores que forman una base es importante, ya que éste influye en las
coordenadas de cualquier vector. Por ejemplo, si consideramos la base B 1 “ tp0, 1q, p1, 0qu,
entonces ˆ ˙
2
coordB1 pp3, 2qq “ ,
3
ya que p3, 2q “ 2 ¨ p0, 1q ` 3 ¨ p1, 0q.
Si bien B y B 1 son iguales como conjuntos, son considerados como bases distintas, ya
que el orden influye en el cálculo de coordenadas y en otro tipo de construcciones (que
detallaremos en el siguiente capítulo).
ˆ ˙
3
Acabamos de ver que coordB pp3, 2qq “ , es decir, que las coordenadas de p3, 2q en la
2
base canónica coinciden con lo que entendemos como coordenadas de un punto en el plano
R2 . Sin embargo, esta coincidencia no siempre se da. Por ejemplo, si consideramos la base
B 2 “ tp1, 1q, p0, ´1qu, tenemos entonces que p3, 2q “ 3 ¨ p1, 1q ` 1 ¨ p0, ´1q, de donde
ˆ ˙
3
coordB2 pp3, 2qq “ .
1
Para el espacio vectorial P2 rxs con la base canónica B “ t1, x, x2 u, las coordenadas de cualquier
polinomio ppxq “ a ` bx ` cx2 en dicha base vienen dadas por
¨ ˛
a
coordB pppxqq “ ˝ b ‚.
c
De manera similar, para el espacio vectorial M2ˆ2 pRq con la base canónica
"ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 0 0 1 0 0 0 0
B“ , , , ,
0 0 0 0 1 0 0 1
ˆ ˙
a b
tenemos que las coordenadas de A “ en esta base vienen dadas por
c d
¨ ˛
a
˚ b ‹
coordB pAq “ ˚˝ c ‚.
‹
2. Hallar una base del plano fi cuya ecuación reducida viene dada por 2x ´ y ` 3z “ 0. Para la base
calculada, determine las coordenadas del punto p1, ´1, ´1q P fi.
Sea px, y, zq P fi arbitrario. Luego, debe cumplirse que 2x ´ y ` 3z “ 0. Despejando y, se tiene que
y “ 2x ` 3z. Por lo tanto, el punto px, y, zq en fi pasa a tener la forma
79
Vemos así que B “ tp1, 2, 0q, p0, 3, 1qu es un conjunto generador de fi, que además claramente es
linealmente independiente. Por lo tanto, B es una base de fi. Para el punto p1, ´1, ´1q, se tiene en
particular que
p1, ´1, ´1q “ 1 ¨ p1, 2, 0q ` p´1q ¨ p0, 3, 1q,
por lo cual ˆ ˙
1
coordB pp1, ´1, ´1qq “ .
´1
¨ ˛
1
Note que ˝ ´1 ‚son las coordenadas de p1, ´1, ´1q en el espacio R3 respecto a la base canónica,
´1 ˆ ˙
1
pero sus coordenadas en el plano fi respecto a la base B son .
´1
Como p3, 1, 0, 0, 0q, p0, 0, 7, 1, 0q, p0, 0, 0, 0, 1q P W , la contención contraria también se cumple. Por
lo tanto, W es el subespacio generado por B “ tp3, 1, 0, 0, 0q, p0, 0, 7, 1, 0q, p0, 0, 0, 0, 1qu. El conjunto
anterior además es linealmente independiente, por lo que forma una base de W . Para verificar la
independencia lineal, podemos por ejemplo aplicar el Teorema 5.4. En efecto, B es linealmente
independiente si la matriz ¨ ˛
3 0 0
˚ 1 0 0 ‹
˚ ‹
A“˚ ˚ 0 7 0 ‹
‹
˝ 0 1 0 ‚
0 0 1
obtenida al colgar los vectores de B como columnas, tiene rango igual a 3. Lo anterior es fácil de
verificar.
4. Demostrar que B “ t1`2x`3x2 , 4`x2 , 3´x´5x2 u es una base de P2 rxs, y hallar las coordenadas
de cualquier polinomio ppxq “ a ` bx ` cx2 en B.
Se puede hacer la verificación de que B es linealmente independiente y que genera a todo el espacio
P2 rxs de manera simultánea. En efecto, recuerde que B es una base de P2 rxs si, y solo si, para cada
ppxq “ a ` bx ` cx2 en P2 rxs existen –1 , –2 , –3 P R únicos tales que
Es decir,
Observación 5.6
Teorema 5.2
Idea de la demostración: Se propone un algoritmo para detectar aquéllos vectores de A que son
combinación lineal del resto de vectores de A. Se hace esto de manera inductiva, hasta obtener B Ñ A
linealmente independiente. Debido al procedimiento a utilizar, resultará además que V “ rBs.
81
Demostración: Si A es linealmente independiente, no hay nada que demostrar. Basta con tomar B “ A.
Entonces, supongamos que A es linealmente dependiente. Por la Observación 5.4, tenemos que existe
i P t1, . . . , mu tal que
vi P rv1 , . . . , vi´1 , vi`1 , . . . , vm s.
Sin pérdida de generalidad, supongamos que i “ m. Luego,
vm P rv1 , . . . , vm´1 s.
Veamos ahora que V “ rv1 , . . . , vm´1 s. Sea v P V “ rv1 , . . . , vm s. Entonces, existen –1 , . . . , –m P K tales
que
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –m ¨ vm . (5.3)
Por otro lado, como vm P rv1 , . . . , vm´1 s, existen —1 , . . . , —m´1 P K tales que
Proposición 5.6
cardpAq § n,
donde cardpAq denota el cardinal (o la cardinalidad) de A (es decir, el número de elementos del
conjunto A).
–1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm “ 0V (5.5)
82
del elemento neutro donde no todos los escalares –1 , . . . , –n P K son cero.
Como V “ rv1 , . . . , vn s, para cada wj P A existen escalares a1j , . . . , anj P K tales que
Por otro lado, como tv1 , . . . , vn u es linealmente independiente, los escalares de la combinación lineal
anterior son todos nulos. En otras palabras, obtenemos el sistema de ecuaciones homogéneo
$
& a11 –1 ` ¨ ¨ ¨ ` a1m –m “ 0,
’
pSq : ..
’ .
%
an1 –1 ` ¨ ¨ ¨ ` anm –m “ 0.
Al ser m ° n (más incógnitas que ecuaciones), por un corolario del Teorema de Rouché-Frobenius se
tiene que pSq es un sistema compatible indeterminado. En conclusión, existen –1 , . . . , –m P K, no todos
nulos, tales que se cumple (5.5).
Corolario 5.2
n § m.
m § n.
Por lo tanto,
cardpB1 q “ n “ m “ cardpB2 q.
83
Definición 5.9
dimK pV q “ cardpBq,
Observación 5.7
Si bien nos estamos concentrando en espacios vectoriales reales (con K “ R), la dimensión de
un espacio vectorial puede depender de cual cuerpo K consideremos. Por ejemplo, el conjunto
V “ C de números complejos tiene estructura de espacio vectorial sobre R y sobre C. En el primer
caso, la multiplicación por escalares R ˆ C Ñ C se define como
– ¨ pa ` i bq “ p–aq ` i p–bq.
Si consideramos a C como espacio vectorial real, tenemos que t1, iu es una base de pC, R, `, ¨q.
Por otro lado, t1u es base de pC, C, `, ¨q. Tenemos entonces que
Como aplicación adicional de la Proposición 5.5, podemos notar que cualquier subconjunto finito
linealmente independiente de un espacio vectorial, cuya cardinalidad sea estrictamente menor a la
dimensión del espacio, no alcanza para generar a dicho espacio.
Corolario 5.3
Demostración: En efecto, en caso de cumplirse que V “ rAs, se tendría que A es una base de V ,
por ser además linealmente independiente. De donde cardpAq “ cardpBq “ dimK pV q, lo cual es una
contradicción.
En el Teorema 5.5 estudiamos cómo extraer una base de un espacio vectorial a partir de un conjunto
generador de dicho espacio. Presentamos a continuación el procedimiento complementario, es decir,
cómo completar un conjunto linealmente independiente de un espacio vectorial a una base del mismo.
84
Teorema 5.3
Idea de la demostración: La idea es agregar al conjunto A, de uno en uno, vectores hasta completar
a un conjunto generador del espacio que siga siendo linealmente independiente. Para garantizar la
independencia lineal, partimos del subespacio rAs, y el primer vector a agregar v se escoge fuera de rAs
para garantizar que AYtvu es linealmente independiente. Se repite este procedimiento tantas veces como
sea necesario hasta completar una base de V .
Demostración: Supongamos que A “ tv1 , . . . , vm u Ñ V es un conjunto linealmente independiente. Si
A genera a V , entonces A es base de V y no habría nada que demostrar (se toma B “ A).
Ahora, trabajemos el caso en el cual A no genera a V , es decir, rAs à V . Entonces existe vm`1 P V
tal que vm`1 R rAs. Veamos que A Y tvm`1 u “ tv1 , . . . , vm , vm`1 u es linealmente independiente.
Supongamos que tenemos una combinación lineal
donde –1 , . . . , –m , –m`1 P K. Podemos notar que –m`1 tiene que valer 0. De lo contrario, si –m`1 ‰ 0,
podemos despejar vm`1 de la combinación lineal anterior como
–1 –m
vm`1 “ ´ ¨ v1 ´ ¨ ¨ ¨ ´ ¨ vm P rAs.
–m`1 –m`1
Lo anterior es una contradicción, pues estamos tomando vm`1 fuera del subespacio generado por A. Por
lo tanto, –m`1 “ 0, y la combinación lineal (5.7) pasa a ser
–1 ¨ v1 ` ¨ ¨ ¨ ` –m ¨ vm “ 0V .
Por otro lado, recordemos que A “ tv1 , . . . , vm u es un conjunto linealmente independiente, por lo cual
–1 “ ¨ ¨ ¨ “ –m “ 0. Por lo tanto, todos los escalares presentes en la combinación lineal (5.7) son todos
nulos, de donde concluimos que A Y tvm`1 u es un conjunto linealmente independiente.
Si V “ rA Y tvm`1 us, tenemos que A Y tvm`1 u es una base de V y la demostración concluye tomando
B “ A Y tvm`1 u. De lo contrario, repetimos el procedimiento anterior tomando vm`2 R rA Y tvm`1 us.
Después de un número finito de repeticiones, encontraremos B Ö A linealmente independiente tal que
V “ rBs. Este proceso se detiene cuando la cantidad de vectores de B (a saber, la cardinalidad de A más
los vectores que hayamos agregado) alcance la dimensión de V .
Miremos algunos ejemplos de cómo aplicar los Teoremas 5.5 y 5.5.
Ejemplo 38.
"ˆ ˙ ˆ ˙ ˆ ˙*
0 1 0 0 1 0
1. A partir de A “ , , hallar una base de M2ˆ2 pRq.
0 0 1 0 0 ´1
Lo primero a verificar es que A sea un conjunto linealmente independiente. Si
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
0 1 0 0 1 0 0 0
–1 ¨ ` –2 ¨ ` –3 ¨ “ ,
0 0 1 0 0 ´1 0 0
entonces ˆ ˙ ˆ ˙
–3 –1 0 0
“ .
–2 ´–3 0 0
85
Lo anterior claramente implica que –1 “ –2 “ –3 “ 0. Tenemos así que A es un subconjunto
de M2ˆ2 pRq linealmente independiente y de tres vectores. Como dimR pM2ˆ2 pRqq “ 4, solamente
necesitamos agregar a A un vector para completar a una base de M2ˆ2 pRq.
Notamos que
" ˆ ˙ ˆ ˙ ˆ ˙ *
0 1 0 0 1 0
rAs “ –1 ¨ ` –2 ¨ ` –3 ¨ { –1 , –2 , –3 P R
0 0 1 0 0 ´1
es el subespacioˆvectorial˙formado por las matrices de M2ˆ2 pRq que tienen traza cero. Podemos
1 0
entonces tomar R rAs, y obtener así la base de M2ˆ2 pRq dada por
0 0
"ˆ ˙* "ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 0 0 1 0 0 1 0 1 0
AY “ , , , .
0 0 0 0 1 0 0 ´1 0 0
Note que también se puede despejar p1, 2, 1q o p0, 3, 1q en función del resto de los vectores
de A, y por lo tanto tp0, 3, 1q, p2, 1, 1qu y tp1, 2, 1q, p2, 1, 1qu también son bases de W .
¿Si W “ rAs, se puede entonces descartar cualquier vector de A con el fin de hallar una
base de W ? Si bien esto funcionó en el ejemplo que acabamos de hacer, no siempre es el
caso, como veremos en el siguiente ejemplo.
86
3. A partir de
"ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 1 0 0 0 0 0 0 0 1
A“ , , , , ,
0 0 1 0 1 ´1 0 1 1 0
Note que B es linealmente independiente, por lo cual B es una base de M2ˆ2 pRq.
ˆ ˙ ˆ ˙
1 1 0 1
Note que no se pueden descartar de A los vectores y , ya que estos no se
0 0 1 0
pueden despejar (es decir, expresar como combinación lineal) en función del resto de los vectores
en A.
Cerramos esta sección dando un resumen de la parte operatoria a ejecutar a la hora de determinar si
cierto conjunto dado de vectores es una base de un espacio vectorial.
87
5.6. Sumas directas
En álgebra, es común construir estructuras nuevas a partir de otras ya conocidas. Comencemos a
explicar esto con un ejemplo concreto, a saber, la construcción de R2 “ R ˆ R a partir de R. Sabemos
que los elementos de R2 son pares ordenados px, yq, donde x, y P R. Tenemos así que R2 se construye
“pegando” dos copias de R. Más aún, a R2 se le puede dar estructura de espacio vectorial a partir del
mismo tipo de estructura en R. Por ejemplo, si queremos sumar px, yq y px1 , y 1 q en R2 , hacemos la
operación
px, yq ` px1 , y 1 q “ px ` x1 , y ` y 1 q,
donde x ` x1 e y ` y 1 son justamente la suma en R. La idea es que para operar en R2 con la suma anterior,
todo se hace a nivel de cada coordenada una vez sabemos cómo operar en R. Más aún, todo par ordenado
px, yq P R2 podemos pensarlo como la siguiente suma:
px, yq “ px, 0q ` p0, yq,
donde px, 0q P R ˆ t0u y p0, yq P t0u ˆ R. Entonces R2 también puede interpretarse como el espacio
formado por sumas de elementos en R ˆ t0u y en t0u ˆ R, donde estos dos últimos conjuntos son
subespacios de R2 que están en biyección con R. Permitiendo cierta informalidad, podemos representar
a R2 simbólicamente como R ` R.
El propósito de esta sección es llevar la idea anterior de trabajar a nivel de coordenadas a la teoría de
espacios y subespacios vectoriales. Esto se hará a través del concepto de suma directa.
Definición 5.10
W1 ` W2 :“ tw1 ` w2 { w1 P W1 y w2 P W2 u.
88
El conjunto W1 ` W2 tiene además estructura de espacio vectorial. Para empezar, claramente es no
vacío, ya que al ser 0V un vector tanto en W1 como en W2 (pues ambos son subespacios de V ), se tiene
que 0V “ 0V `0V pertenece a W1 `W2 . Por otro lado, para sumar dos vectores w1 `w2 , w11 `w21 P W1 `W2 ,
aprovechando las propiedades conmutativas y asociativas de la suma en V , tenemos que
pw1 ` w2 q ` pw11 ` w21 q “ pw1 ` w11 q ` pw2 ` w21 q,
donde w1 `w11 P W1 y w2 `w21 P W2 , ya que tanto W1 como W2 son subespacios de V . De manera similar,
para ⁄ P K tenemos que
⁄ ¨ pw1 ` w2 q “ p⁄w1 q ` p⁄w2 q
donde ⁄w1 P W1 y ⁄w2 P W2 . Por lo tanto, las operaciones de suma y producto por escalares son cerradas
en W1 ` W2 . Tenemos así el siguiente resultado.
Proposición 5.7
2. Sea FpRq el espacio vectorial real de todas las funciones f : R Ñ R. Recordemos que una función
p P FpRq se dice par si
ppxq “ pp´xq, para todo x P R.
Por ejemplo, las funciones 0, |x|, x2 (o de manera más general, xn con n par) y cospxq son ejemplos
de funciones pares. Por otro lado, una función i P FpRq se dice impar si
ipxq “ ´ip´xq, para todo x P R.
Como ejemplos de funciones impares, tenemos 0, x, x3 (o de manera más general, xn con n impar)
y sinpxq.
Hay que tener cierto cuidado con la terminología que acabamos de introducir. El significado
de función par o impar no coincide con el concepto de número par o impar. Note por
ejemplo que 0, como número, es par pero no impar; sin embargo, como función, 0 es tanto
par como impar.
Toda f P FpRq da lugar a una función par y a una impar. En efecto, si a partir de f construimos la
función p : R Ñ R dada por
f pxq ` f p´xq
ppxq “ ,
2
tenemos que p es una función par (¡verifíquelo!). Similarmente, la función i : R Ñ R dada por
f pxq ´ f p´xq
ipxq “
2
89
es una función impar. Más aún, es claro que
En otras palabras, toda función de R en R puede escribirse como suma de una función par más
una función impar. Entonces, si P y I denotan los subconjuntos de FpRq formados por todas las
funciones pares e impares, respectivamente, entonces
FpRq “ P ` I.
S “ tA P Mnˆn pRq { A “ At u,
A “ tA P Mnˆn pRq { A “ ´At u.
Entonces,
Mnˆn pRq “ S ` A.
Para comprobar esto, se puede adaptar la idea del ejemplo anterior. A saber, primero notemos que
toda matriz A P Mnˆn pRq da lugar a una matriz simétrica y a una anti-simétrica, a saber,
A ` At A ´ At
y ,
2 2
respectivamente. Como ˆ ˙ ˆ ˙
A ` At A ´ At
A“ ` ,
2 2
se tiene entonces que Mnˆn pRq “ S ` A.
Observación 5.8
Con los ejemplos que hemos visto anteriormente, vale la pena preguntarse si la construcción W1 `
W2 es una buena generalización de la interpretación de R2 comentada al principio de esta sección.
La respuesta es no. El plano R2 tiene una propiedad de unicidad sobre sus elementos que W1 `W2
no necesariamente tiene. A saber, todo elemento px, yq de R2 está unívocamente determinado por
el valor de sus coordenadas. Sin embargo, puede darse el caso en donde un mismo vector v de
W1 ` W2 pueda representarse de dos maneras distintas, es decir w1 ` w2 “ v “ w11 ` w21 , donde
w1 , w11 P W1 , w2 , w21 P W2 , y w1 ‰ w11 o w2 ‰ w21 . Veamos a continuación un ejemplo de esto
último.
A modo de ejercicio, demuestre que W1 y W2 son subespacios de M2ˆ2 pRq. Veamos que
M2ˆ2 pRq “ W1 ` W2 .
90
ˆ ˙
a b
Podemos escribir cada P M2ˆ2 pRq como
c d
ˆ ˙ ˆ ˙ ˆ ˙
a b a ` c ´a ´ c ´c a ` b ` c
“ ` ,
c d 0 d c 0
ˆ ˙ ˆ ˙
a ` c ´a ´ c ´c a ` b ` c
donde P W1 y P W2 . Posteriormente, veremos en el Ejemplo 41
0 d c 0
una forma más corta de notar que M2ˆ2 pRq “ W1 ` W2 .
La suma M2ˆ2 pRq “ W1 ` W2 no es directa. Considere por ejemplo la matriz identidad I2ˆ2 . Podemos
notar que ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 ´1 0 1 2 ´2 ´1 2
` “ I2ˆ2 “ ` .
0 2 0 ´1 ´1 0 1 1
Existe un tipo de suma de subespacios W1 ` W2 para el cual si es posible escribir cada v P W1 ` W2 de
forma única como v “ w1 ` w2 con w1 P W1 y w2 P W2 . Lo definimos a continuación.
Definición 5.11
W1 ‘ W2 .
Verificar la condición de la definición anterior para probar si una suma de subespacios es directa o no,
puede resultar poco práctico. Afortunadamente, existe el siguiente criterio para establecer cuándo una
suma de subespacios es directa o no.
Proposición 5.8
Idea de la demostración: Para demostrar la igualdad enunciada, la idea es construir una base de W1 `
W2 convenientemente y contar sus elementos. Específicamente, a partir de una base de W1 X W2 , se
obtienen pases de W1 y de W2 por extensión. La unión de estas dos bases será una base de W1 ` W2 .
Demostración: Sea
B12 “ tw1 , . . . , wm u
una base de W1 X W2 , de donde dimK pW1 X W2 q “ m. Como B12 es un subconjunto linealmente
independiente de W1 , existe una base
B1 “ tw1 , . . . , wm , u1 , . . . , uk u
de W1 que contiene a B12 , donde dimK pW1 q “ m ` k. De manera similar, existe una base
B2 “ tw1 , . . . , wm , v1 , . . . , vl u
B “ B1 Y B2 “ tw1 , . . . , wm , u1 , . . . , uk , v1 , . . . , vl u
es una base de W1 ` W2 . Note que después de demostrar esto, la igualdad en el enunciado será una
consecuencia inmediata.
–1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm ` —1 ¨ u1 ` ¨ ¨ ¨ ` —k ¨ uk ` “1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl “ 0V . (5.8)
Luego,
“1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl “ ´–1 ¨ w1 ´ ¨ ¨ ¨ ´ –m ¨ wm ´ —1 ¨ u1 ´ ¨ ¨ ¨ ´ —k ¨ uk .
Por un lado, “1 ¨v1 `¨ ¨ ¨`“l ¨vl P W2 . Por otro lado, ´–1 ¨w1 ´¨ ¨ ¨´–m ¨wm ´—1 ¨u1 ´¨ ¨ ¨´—k ¨uk P W1 .
Por lo tanto,
“1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl P W1 X W2 .
Luego, existen ”1 , . . . , ”m P K tales que
“1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl “ ”1 ¨ w1 ` ¨ ¨ ¨ ` ”m ¨ wm ,
es decir,
”1 ¨ w1 ` ¨ ¨ ¨ ` ”m ¨ wm ` p´“1 q ¨ v1 ` ¨ ¨ ¨ ` p´“l q ¨ vl “ 0V .
92
Como B2 “ tw1 , . . . , wm , v1 , . . . , vl u es linealmente independiente, tenemos que
”1 “ ¨ ¨ ¨ “ ”m “ “1 “ ¨ ¨ ¨ “ “l “ 0.
Entonces, la combinación lineal (5.8) pasa a ser:
–1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm ` —1 ¨ u1 ` ¨ ¨ ¨ ` —k ¨ uk “ 0V .
Ahora, recuerde que B1 “ tw1 , . . . , wm , u1 , . . . , uk u es linealmente independiente. De esto se sigue
que –1 “ ¨ ¨ ¨ “ –m “ —1 “ ¨ ¨ ¨ “ —k “ 0. Por lo tanto, todos los escalares en la combinación lineal
(5.8) son cero, por lo cual B “ B1 Y B2 es linealmente independiente.
B genera a W1 ` W2 : Sea v “ w1 ` w2 P W1 ` W2 , es decir, w1 P W1 y w2 P W2 . Como B1 es base
de W1 , existen –1 , . . . , –m , –m`1 , . . . , –m`k P K tal que
w1 “ –1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm ` –m`1 ¨ u1 ` ¨ ¨ ¨ ` –m`k ¨ uk .
De manera similar, existen —1 , . . . , —m , —m`1 , . . . , —m`l P K tales que
w2 “ —1 ¨ w1 ` ¨ ¨ ¨ ` —m ¨ wm ` —m`1 ¨ v1 ` ¨ ¨ ¨ ` —m`l ¨ vl .
Luego,
v “ w1 `w2 “ p–1 `—1 q¨w1 `¨ ¨ ¨`p–m `—m q¨wm `–m`1 ¨u1 `¨ ¨ ¨`–m`k ¨uk `—m`1 ¨v1 `¨ ¨ ¨`—m`l ¨vl .
Por lo tanto, B genera a W1 ` W2 .
Ejemplo 41. Volviendo al Ejemplo 40, calculemos la dimensión de W1 ` W2 obviando el hecho de que
conocemos que M2ˆ2 pRq “ W1 ` W2 . Por el teorema anterior, necesitamos conocer las dimensiones de
W1 , W2 y W1 X W2 . Por un lado, podemos notar que
„ˆ ˙ ˆ ˙ ˆ ˙⇢ „ˆ ˙ ˆ ˙ ˆ ˙⇢
1 ´1 0 0 0 0 1 0 0 1 0 0
W1 “ , , y W2 “ , , ,
0 0 1 0 0 1 ´1 0 0 0 0 1
"ˆ ˙ ˆ ˙ ˆ ˙* "ˆ ˙ ˆ ˙ ˆ ˙*
1 ´1 0 0 0 0 1 0 0 1 0 0
donde B1 “ , , y B2 “ , , son
0 0 1 0 0 1 ´1 0 0 0 0 1
bases de W1 y W2 , respectivamente. Por otro lado,
"ˆ ˙ * „ˆ ˙ ˆ ˙⇢
a ´a 1 ´1 0 0
W1 X W2 “ { a, b P R “ , ,
´a b ´1 0 0 1
"ˆ ˙ ˆ ˙*
1 ´1 0 0
donde B12 “ , es una base de W1 X W2 . Por lo tanto,
´1 0 0 1
93