[go: up one dir, main page]

0% encontró este documento útil (0 votos)
14 vistas36 páginas

5.espacios Vectoriales

Cargado por

Nicole Luz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
14 vistas36 páginas

5.espacios Vectoriales

Cargado por

Nicole Luz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 36

5 ESPACIOS VECTORIALES

Supongamos que tenemos ˛x “ px1 , . . . , xn q P Rn y que se nos pide demostrar que 0 ¨ ˛x “ ˛0, donde ˛0 “
p0, . . . , 0q. Usando la definición de producto por escalares en Rn , podemos utilizar el siguiente argumento:

0 ¨ ˛x “ 0 ¨ px1 , . . . , xn q “ p0 ¨ x1 , . . . , 0 ¨ xn q “ p0, . . . , 0q,

donde la última igualdad se debe a que el número real cero multiplicado por cualquier otro número real
da cero. De esta manera, queda demostrado que 0 ¨ ˛x “ ˛0.
Ahora, pensemos en otra demostración para 0 ¨ ˛x “ ˛0. Sabemos de la aritmética en R que 0 “ 0 ` 0.
Luego, podemos multiplicar la igualad anterior por ˛x y obtener la siguiente cadena de argumentos:

0“0`0
0 ¨ ˛x “ p0 ` 0q ¨ ˛x
0 ¨ ˛x “ 0 ¨ ˛x ` 0 ¨ ˛x (propiedad distributiva en Rn )
0 ¨ ˛x ` r´p0 ¨ ˛xqs “ p0 ¨ ˛x ` 0 ¨ ˛xq ` r´p0 ¨ ˛xqs (propiedad del elemento opuesto en Rn )
˛0 “ 0 ¨ ˛x ` r0 ¨ ˛x ` r´p0 ¨ ˛xqss (propiedad del elemento opuesto y asociativa)
˛0 “ 0 ¨ ˛x ` ˛0 (propiedad del elemento opuesto)
˛0 “ 0 ¨ ˛x. (propiedad del elemento neutro)

Note que en la demostración anterior no usamos la estructura de ˛x ni la definición de la multiplicación por


escalares en Rn . Únicamente importaron las propiedades asociativas, distributivas, del elemento neutro
y del opuesto. Entonces, se pueden replicar los argumentos anteriores en cualquier conjunto V equipado
con operaciones de suma y de producto por escalares en donde sabemos que se cumplen las propiedades
mencionadas, como por ejemplo en V “ Mmˆn pRq.
Lo anterior ocurre también en las demostraciones de otro tipo de propiedades. Es decir, que para ciertos
resultados conocidos en conjuntos como Rn y Mmˆn pRq no hace falta usar las descripciones intrínsecas
de sus elementos y operaciones, sino una serie de propiedades en común. Entonces, para no estar
repitiendo las mismas demostraciones en Rn y Mmˆn pRq (y en otro tipo de conjuntos que estudiaremos
más adelante), surge la necesitad de tener un lenguaje unificador para escribir estas demostraciones.
Dicha necesidad queda cubierta gracias a la teoría de espacios vectoriales, que desarrollaremos en este
capítulo.

58
5.1. Definición y ejemplos de espacios vectoriales

Definición 5.1

Sea V un conjunto no vacío (a cuyos elementos llamaremos vectores) y K un cuerpo (usualmente


K “ R y C, y a cuyos elementos llamaremos escalares). Consideremos además un par de
operaciones

` : V ˆ V ›Ñ V ¨ : K ˆ V ›Ñ V
pv1 , v2 q fiÑ v1 ` v2 p–, vq fiÑ – ¨ v

a las cuales nos referiremos como suma y producto por escalares. Diremos que la cuaterna
pV, K, `, ¨q es un espacio vectorial sobre K (o un K-espacio vectorial) si se satisfacen las
siguiente propiedades:
propiedad conmutativa de la suma: Para todo v1 , v2 P V , se cumple que

v1 ` v2 “ v2 ` v1 .

propiedad asociativa de la suma: Para todo v1 , v2 , v3 P V , se cumple que

v1 ` pv2 ` v3 q “ pv1 ` v2 q ` v3 .

existencia del elemento neutro: Existe 0V P V tal que

0V ` v “ v

para todo v P V .
existencia de opuestos: Para cada v P V , existe w P V tal que

v ` w “ 0V .

elemento neutro del producto por escalares: Para todo v P V , se cumple que

1 ¨ v “ v.

propiedad asociativa del producto por escalares: Para todo –, — P K y todo v P V , se


cumple que
p–—q ¨ v “ – ¨ p— ¨ vq.

propiedad distributiva del producto por escalares respecto a la suma de vectores: Para
todo – P K y v1 , v2 P V , se cumple que

– ¨ pv1 ` v2 q “ – ¨ v1 ` – ¨ v2 .

propiedad distributiva del producto por escalares respecto a la suma de escalares: Para
todo –, — P K y v P V se cumple que

p– ` —q ¨ v “ – ¨ v ` — ¨ v.

59
No debe confundirse la palabra “suma” en la definición anterior con lo que habitualmente
entendemos por sumar. En el contexto de espacios vectoriales, una suma es simplemente una
operación binaria en el conjunto V , es decir, una función V ˆV ›Ñ V que a cada par de elementos
v1 , v2 P V le asigna un elemento de V , denotado como v1 ` v2 . La razón por la cual se usa la
notación “`” es porque la suma habitual de números que ya conocemos representa un ejemplo
particular para ciertas elecciones de V . Comentarios similares valen también para la operación de
producto por escalares.

Ejemplo 28.

1. En conjunto de n-uplas Rn con las operaciones habituales de suma y multiplicación por escalares

` : Rn ˆ Rn ›Ñ Rn ¨ : R ˆ Rn ›Ñ Rn
ppx1 , . . . , xn q, py1 , . . . , yn qq fiÑ px1 ` y1 , . . . , xn ` yn q p–, px1 , . . . , xn qq fiÑ p– x1 , . . . , – xn q,

es un espacio vectorial real pRn , R, `, ¨q.

Lo anterior es válido para todo número natural n • 1. En particular, R “ R1 es un espacio vectorial


sobre sí mismo (con la suma y multiplicación usual de números reales).

En una estructura de espacio vectorial, cada uno de los elementos que conforma la cuaterna
pV, K, `, ¨q es de suma importancia. Es decir, alterar uno de ellos puede romper la estructura.
Por ejemplo, cuando pensamos en R2 como espacio vectorial real, lo hacemos considerando las
operaciones usuales de suma y producto por escalares; pero si cambiamos una de estas operaciones
por otra, en general R2 no tiene por qué seguir siendo un espacio vectorial:
Si consideramos pR2 , R, `. , ¨q, donde ¨ es el producto por escalares usual, y `. se define como

px1 , x2 q `. py1 , y2 q :“ px1 , x2 q

para todo px1 , x2 q, py1 , y2 q P R2 , se tiene que pR2 , R, `. , ¨q no es un espacio vectorial (la
operación `. no es conmutativa).
2. El conjunto C de los números complejos es un espacio vectorial sobre R. Recuerde que z P C si

z “ a ` i b,

donde a, b P R e i es la unidad imaginaria (es decir, i¨i “ ´1). Para la estructura de espacio vectorial,
se consideran las operaciones

pa ` i bq ` pc ` i dq :“ pa ` cq ` i pb ` dq y – ¨ pa ` i bq :“ p–aq ` i p–bq,

donde a ` i b, c ` i d P C y – P R. Es decir, pC, R, `, ¨q es un espacio vectorial.

Cambiar el cuerpo K puede dar lugar a un cambio de la estructura de espacio vectorial. Dentro de
este mismo ejemplo, consideremos K “ C y la operación ¨C : C ˆ C ›Ñ C dada por

p– ` i —q ¨C pa ` i bq :“ p–a ´ —bq ` ip–b ` —aq.

60
Es decir, ¨C es la multiplicación usual de números complejos. Se tiene que pC, C, `, ¨C q es también
un espacio vectorial.

Generalizando lo anterior, el conjunto de n-uplas complejas

Cn “ tpz1 , . . . , zn q : z1 , . . . , zn P Cu

es un espacio vectorial sobre R y sobre C, con las operaciones heredadas de pC, R, `, ¨q y


pC, C, `, ¨C q, respectivamente.
3. El conjunto Mmˆn pRq de matrices m ˆ n con coeficientes reales, con la suma y producto por
escalares que conocemos, es un espacio vectorial real. Haciendo un análisis parecido al del ejemplo
anterior, el conjunto Mmˆn pCq de matrices m ˆ n con coeficientes en C también es un espacio
vectorial sobre R y sobre C, con las operaciones esperadas. Tenga en cuenta que A “ paij q P
Mmˆn pCq si aij P C para todo i P t1, . . . , mu y j P t1, . . . , nu.
4. Sea C 0 ra, bs el conjunto de todas las funciones continuas con dominio ra, bs y valores en R. Dadas
dos funciones continuas f, g : ra, bs Ñ R y – P R, se define la suma f ` g : ra, bs Ñ R como la
función dada por
pf ` gqpxq :“ f pxq ` gpxq, para todo x P ra, bs,
y la función – ¨ f : ra, bs Ñ R como

p– ¨ f qpxq :“ – f pxq, para todo x P ra, bs.

Las operaciones que definen un espacio vectorial deben ser cerradas, es decir, que sus resultados
sean elementos dentro del espacio vectorial. En este ejemplo, sabemos que la suma de funciones
continuas es continua, y que una función continua multiplicada por un escalar da lugar a una
función continua, por lo que las operaciones definidas son cerradas. Más aún, se tiene que
pC 0 ra, bs, R, `, ¨q es un espacio vectorial.
5. Sea Prxs el conjunto de polinomios (de cualquier grado) con coeficientes en R, es decir, ppxq P Prxs
si
ppxq “ a0 ` a1 x ` a2 x2 ` ¨ ¨ ¨ ` an xn ,
donde n P N, a0 , a1 , a2 , . . . , an P R. Si ppxq “ a0 ` a1 x ` a2 x2 ` ¨ ¨ ¨ ` an xn y qpxq “ b0 ` b1 x `
b2 x2 ` ¨ ¨ ¨ ` bm xm son dos polinomios (supongamos n § m sin pérdida de generalidad), entonces
se define la suma ppxq ` qpxq como

ppxq ` qpxq :“ pa0 ` b0 q ` pa1 ` b1 q x ` pa2 ` b2 q x2 ` ¨ ¨ ¨ ` pan ` bn q xn ` bn`1 xn`1 ` ¨ ¨ ¨ ` bm xm .

Es decir, para sumar dos polinomios, sumamos los coeficientes correspondientes a cada grado.
Dado un escalar – P R, se define el polinomio – ppxq como

– ppxq :“ p–a0 q ` p–a1 q x ` p–a2 q x2 ` ¨ ¨ ¨ ` p–an q xn .

Se tiene entonces que pPrxs, R, `, ¨q es un espacio vectorial.


Cerramos esta sección demostrando algunas propiedades que se cumplen dentro de todo espacio
vectorial (y en particular, dentro de los ejemplos que acabamos de ver). Cuando en un resultado no se
especifique quién es el cuerpo K a considerar, se entiende que el resultado es válido para cualquier K.

61
Proposición 5.1

Sea pV, K, `, ¨q un espacio vectorial sobre K. Entonces, las siguientes propiedades se cumplen:
1. El elemento neutro 0V P V es único.

2. Para cada v P V , existe un único w P V tal que v ` w “ 0V . Tal w lo denotaremos como


w “ ´v. Es decir, el opuesto de cada vector en V es único.
3. 0 ¨ v “ 0V , para todo v P V .
4. – ¨ 0V “ 0V , para todo – P K.

5. – ¨ v “ 0V si, y sólo si, – “ 0 o v “ 0V .


6. p´1q ¨ v “ ´v.

Idea de la demostración: En general, probar este tipo de propiedades sencillas tiene que ver con
valernos casi exclusivamente de las propiedades de la definición de espacio vectorial. Cualquier
argumento o cálculo a realizar debe estar justificado y ser válido dentro de V o K.
Demostración:

1. Supongamos que existe otro vector 01V P V tal que

01V ` v “ v para todo v P V. (5.1)

Por otro lado, también sabemos que

0V ` v “ v para todo v P V. (5.2)

Haciendo v “ 0V en (5.1) se tiene que

01V ` 0v “ 0v ,

y haciendo v “ 01V en (5.2) se tiene que

0V ` 01v “ 01v .

Por la propiedad conmutativa de la suma en V , se tiene que

0V ` 01V “ 01V ` 0v .

Conectando las tres igualdades anteriores, se tiene que 0V “ 01V .


2. Supongamos que existen w, w1 P V tales que v ` w “ 0V “ v ` w1 . Sumamos w1 a la igualdad
v ` w “ 0V , obteniendo:

v ` w “ 0V
w ` pv ` wq “ w1 ` 0V
1

pw1 ` vq ` w “ w1 (por la propiedad asociativa y del elemento neutro)


pv ` w1 q ` w “ w1 (por la propiedad conmutativa)
0V ` w “ w 1
(ya que 0V “ v ` w1 )
w “ w1 . (por la propiedad el elemento neutro)

62
3. Sabemos que en K se cumple que 0 ` 0 “ 0. Multiplicando ambos lados de la igualdad por v, se
tiene que:
p0 ` 0q ¨ v “ 0 ¨ v
0¨v`0¨v “0¨v (propiedad distributiva)
p0 ¨ v ` 0 ¨ vq ` r´p0 ¨ vqs “ 0 ¨ v ` r´p0 ¨ vqs
0 ¨ v ` r0 ¨ v ` r´p0 ¨ vqss “ 0V (propiedad asociativa y del opuesto)
0 ¨ v ` 0V “ 0V (propiedad del opuesto)
0 ¨ v “ 0V . (propiedad del neutro)

4. La prueba es análoga a la anterior, partiendo de que 0V ` 0V “ 0V .


5. La implicación (ù) es consecuencia de las partes 3. y 4. Ahora, para probar (ùñ) supongamos que
– ¨ v “ 0V . Hagamos un análisis por casos:
Si – “ 0, no hay nada que demostrar.
Podemos suponer entonces que – ‰ 0. Como en un cuerpo, todo elemento no nulo posee
inverso multiplicativo, podemos considerar –´1 P K. Entonces, si multiplicamos la igualdad
– ¨ v “ 0V por –´1 , obtenemos:
–´1 ¨ p– ¨ vq “ –´1 ¨ 0V
p–´1 –q ¨ v “ –´1 ¨ 0V (por la propiedad asociativa del producto por escalares)
1 ¨ v “ 0V (por la parte 4.)
v “ 0V . (ya que 1 es el elemento neutro del producto por escalares)
6. Sabemos que 0 ¨ v “ 0V por la parte 3. Por otro lado, podemos escribir 0 como 0 “ 1 ` p´1q.
Entonces,
p1 ` p´1qq ¨ v “ 0V
1 ¨ v ` p´1q ¨ v “ 0V (por la propiedad distributiva)
v ` p´1q ¨ v “ 0V . (ya que 1 es el elemento neutro del producto por escalares)
Por la unicidad del elemento opuesto de v, concluimos que p´1qv “ ´v.

5.2. Subespacios vectoriales


Dado un espacio vectorial pV, K, `, ¨q, es interesante preguntarse cuáles son los subconjuntos de V que
retienen la estructura de espacio vectorial de V . Esto se representa en el siguiente concepto.

Definición 5.2

Sea pV, K, `, ¨q un espacio vectorial sobre K y W Ñ V un subconjunto no vacío de V . Diremos que


W es un subespacio vectorial de V si se cumplen las siguientes dos condiciones:
1. Para todo w1 , w2 P W , se tiene que w1 ` w2 P W . En otras palabras, la operación suma `
de V es cerrada sobre el subconjunto W .
2. Para todo w P W y todo – P K, se tiene que – ¨ w P W . Es decir, la operación de producto
por escalares es cerrada sobre el subconjunto W .

63
Observación 5.1

Si W es un subespacio vectorial de pV, K, `, ¨q, entonces 0V P W . En efecto, como W es distinto


del conjunto vacío, podemos encontrar w P W . Por un lado, 0 ¨ w P W ya que W es un subespacio
de V . Por otro lado, 0 ¨ w “ 0V por la proposición anterior. Por lo tanto, 0V P W .

Obtenemos así un criterio para probar que un subconjunto W no es un subespacio de pV, K, `, ¨q,
a saber:
Si 0V R W , entonces W no es un subespacio de pV, K, `, ¨q.

Antes de ver ejemplos de subespacios vectoriales, probaremos una propiedad que permite una
verificación más rápida de que un subconjunto de un espacio vectorial es subespacio.

Proposición 5.2

Sea pV, K, `, ¨q un espacio vectorial sobre K, y W Ñ V un subconjunto no vacío de V . Entonces,


W es un subespacio vectorial de V si, y sólo si,

– ¨ w1 ` w2 P W

para todo – P K y w1 , w2 P W .

Demostración: La implicación (ùñ) es consecuencia directa de la definición de subespacio vectorial.


Ahora, para probar (ù) (es decir, las propiedades 1. y 2. de la definición anterior), basta con hacer – “ 1
y w2 “ 0V (ver la observación anterior), respectivamente.
Ejemplo 29.

1. Dado un espacio vectorial pV, K, `, ¨q, se tiene que t0V u y V son subespacios de V , conocidos como
subespacios triviales.
2. Toda recta en R3 que pasa por el origen es un subespacio de R3 . En efecto, sea r la recta en R3 dada
por
px, y, zq “ ⁄ ˛u,
donde ˛u “ pu1 , u2 , u3 q ‰ p0, 0, 0q. Es decir,

r “ tpx, y, zq P R3 : px, y, zq “ ⁄ ˛uu.

Para empezar, es claro que r ‰ H, pues ˛0 “ 0 ¨ ˛u P r. Por otro lado, sean – P R y ⁄1 ˛u, ⁄2 ˛u P r.
Tenemos que
⁄1 ˛u ` ⁄2 ˛u “ p⁄1 ` ⁄2 q˛u P r.
Por la Proposición 5.2, se tiene que r es un subespacio de R3 .

Si una recta no pasa por el origen, entonces no es un subespacio de R3 (ver la Observación 5.2).
3. Todo plano en R3 que pase por el origen es un subespacio vectorial de R3 . En efecto, consideremos
el plano
fi “ tpx, y, zq P R3 : px, y, zq “ ⁄ ˛u ` µ ˛v u,

64
donde ˛u, ˛v P R3 son no nulos y no colineales. Claramente, ˛0 P fi, ya que
˛0 “ 0 ¨ ˛v ` 0 ¨ ˛v .

Por otro lado, dados ⁄1 ˛u ` µ1 ˛v y ⁄2 ˛u ` µ2 ˛v elementos arbitrarios en fi, se tiene que


p⁄1 ˛u ` µ1 ˛v q ` p⁄2 ˛u ` µ2 ˛v q “ p⁄1 ` ⁄2 q˛u ` pµ1 ` µ2 q˛v P fi.
Por la Proposición 5.2, se tiene que fi es un subespacio de R3 .
4. Considere el espacio vectorial pMnˆn pRq, R, `, ¨q, junto con los subconjuntos
S “ tA P Mnˆn pRq : A “ At u,
A “ tA P Mnˆn pRq : A “ ´At u,
es decir, S es el subconjunto de todas las matrices simétricas, y A el subconjunto de todas las
matrices anti-simétricas. Respecto a S, la matriz nula es claramente simétrica. Por otro lado, si A y
B son dos matrices simétricas (de tamaño n ˆ n) y – P R, entonces
p– A ` Bqt “ p– Aqt ` B t “ – At ` B t “ – A ` B.
Es decir, – A ` B también es simétrica. Por lo tanto, S es un subespacio de Mnˆn pRq. De manera
similar, se puede ver que A también es un subespacio de Mnˆn pRq.
5. Dentro del espacio vectorial pC 0 ra, bs, R, `, ¨q, considere el subconjunto
Dra, bs “ tf P C 0 ra, bs : f es derivable en pa, bqu.
Entonces, Dra, bs es un subespacio de C 0 ra, bs. Dejamos los detalles como ejercicio.
6. Sea pSq un sistema homogéneo de m ecuaciones y n incógnitas. Entonces, SolpSq es un subespacio
vectorial de Rn (con las operaciones habituales). En efecto, supongamos que pSq viene dado de
forma matricial por
A ¨ X “ 0mˆ1 ,
donde A P Mmˆn pRq y X P Mnˆ1 pRq. Claramente 0nˆ1 P SolpSq (los sistemas homogéneos
siempre tienen solución trivial). Por otro lado, si X1 , X2 P SolpSq (es decir, A¨X1 “ 0mˆ1 y A¨X2 “
0mˆ1 ) y – P R, entonces
A ¨ p– X1 ` X2 q “ – A ¨ X1 ` A ¨ X2 “ – ¨ 0mˆ1 ` 0mˆ1 “ 0mˆ1 .
Por lo tanto, – X1 ` X2 P SolpSq.
Cerramos esta sección con el siguiente resultado.

Proposición 5.3: construcción de subespacios nuevos a partir de subespacios dados

Sea pV, K, `, ¨q un espacio vectorial sobre K, y sea tWn unPN una familia de subespacios de V
(es decir, Wn es un subespacio de V para todo n P N). Entonces, las siguientes afirmaciones se
cumplen:
£
1. Wn es un subespacio de V . Es decir, la intersección de una cantidad arbitraria de
nPN
subespacios es un subespacio.
§
2. Si Wn Ñ Wn`1 para todo n P N, entonces Wn es un subespacio de V . Es decir, la unión
nPN
“encajada” de una cantidad arbitraria de subespacios es un subespacio.

65
Demostración:
£ £
1. Como 0V P Wn para todo n P N, se tiene que 0V P Wn , de donde Wn ‰ H. Ahora,
£ nPN nPN
supongamos que w1 , w2 P Wn y que – P R. En particular, para cada n P N, se tiene que
nPN
– w1 ` w2 P Wn , ya que cada
£ Wn es un subespacio £ de V . Luego, por definición de intersección,
tenemos que – w1 ` w2 P Wn . Por lo tanto, Wn es un subespacio de V por la Proposición
nPN nPN
5.2.
§ §
2. De forma análoga a la parte anterior, podemos notar que 0V P Wn . Ahora, sean w1 , w2 P Wn
nPN nPN
y – P R. Luego, existen n1 , n2 P N tales que w1 P Wn1 y w2 P Wn2 (por definición de unión de
conjuntos). Si tomamos m “ máxtn1 , n2 u, tendremos que W1 Ñ Wm y W2 Ñ Wm , de donde
w
§ 1 , w2 P Wm . Al ser Wm subespacio
§ de V , se tiene que – w1 ` w2 P Wm . Por lo tanto, – w1 ` w2 P
Wn . Concluimos que Wn es un subespacio de V por la Proposición 5.2.
nPN nPN

En general, la unión de subespacios vectoriales de un espacio V no tiene por qué ser un subespacio de
V , como muestra el siguiente ejemplo.
Ejemplo 30. Considere R2 con las operaciones usuales, y los subespacios

W1 “ tpx, 0q : x P Ru,
W2 “ tp0, yq : y P Ru.

Note que W1 y W2 corresponden con los ejes X e Y de R2 , respectivamente, y en particular son rectas
que pasan por el origen. En este caso, W1 Y W2 no es un subespacio de R2 , ya que p1, 0q P W1 Y W2 (pues
p1, 0q P W1 ) y p0, 1q P W1 YW2 (pues p0, 1q P W2 ) pero p1, 0q`p0, 1q “ p1, 1q R W1 YW2 (pues p1, 1q R W1
y p1, 1q R W2 ).

5.3. Subespacios generados


En esta sección nos vamos a concentrar en un tipo particular de subespacio vectorial, que se construye
a partir del concepto de combinación lineal. Tales subespacios se conocen como subespacios generados.
En la práctica, la mayoría de los subespacios que estudiaremos son de este tipo.

Definición 5.3

Sea pV, K, `, ¨q un espacio vectorial y tv1 , . . . , vk u Ñ V un subconjunto finito (puede ser vacío).
Una combinación lineal de tv1 , . . . , vk u es cualquier vector v P V de la forma

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –k ¨ vk ,

donde –1 , . . . , –k P K. Por convención, diremos que v P V es combinación lineal de H si, y sólo


si, v “ 0V .

Un problema importante relacionado al concepto anterior es determinar cuándo un vector es


combinación lineal de un conjunto finito dado de vectores. Trabajemos esto en los siguientes ejemplos.
66
Ejemplo 31.
1. El vector p1, 3, 0q P R3 es combinación lineal de tp1, 0, 0q, p0, 1, 0qu, ya que

p1, 3, 0q “ 1 ¨ p1, 0, 0q ` 3 ¨ p0, 1, 0q.


ˆ ˙ "ˆ ˙ ˆ ˙*
4 ´2 1 0 0 1
2. La matriz P M2ˆ2 pRq es combinación lineal de , , ya que
0 ´2 0 0 0 1
ˆ ˙ ˆ ˙ ˆ ˙
4 ´2 1 0 0 1
“4¨ ´2¨ .
0 ´2 0 0 0 1

3. Determinar si p2, ´1, 10q combinación lineal de tp1, 0, 0q, p1, 1, 0q, p1, 1, 1qu.

Para responder a esto, planteamos el problema según la definición de combinación lineal, es decir:
¿existen –1 , –2 , –3 P R tales que

p2, ´1, 10q “ –1 ¨ p1, 0, 0q ` –2 ¨ p1, 1, 0q ` –3 ¨ p1, 1, 1q ?

La igualdad anterior arrojará condiciones sobre –1 , –2 y –3 dentro de un sistema de ecuaciones


lineales. En efecto, de dicha igualdad se desprende que

p2, ´1, 10q “ p–1 ` –2 ` –3 , –2 ` –3 , –3 q,

y usando la relación de igualdad en R3 , se tiene el sistema


$
& –1 ` –2 ` –3 “ 2,
pSq : –2 ` –3 “ ´1,
%
–3 “ 10.

Al resolver este sistema, se obtiene –1 “ 3, –2 “ ´11 y –3 “ 10, es decir,

p2, ´1, 10q “ 3 ¨ p1, 0, 0q ´ 11 ¨ p1, 1, 0q ` 10 ¨ p1, 1, 1q.

Por lo tanto, p2, ´1, 10q es combinación lineal de tp1, 0, 0q, p1, 1, 0q, p1, 1, 1qu.
Note que si planteamos el sistema de forma matricial, se obtiene la matriz ampliada
¨ ˛
1 1 1 2
pA|bq “ ˝ 0 1 1 ´1 ‚,
0 0 1 10

es decir, pA|bq se obtiene colgando los vectores de tp1, 0, 0q, p1, 1, 0q, p1, 1, 1qu y p2, ´1, 10q como
columnas.
4. Determinar si ´2x2 ` 8x ´ 5 P P2 rxs es combinación lineal de tx2 ` 1, x ´ 1, 2x ` 2u.

Procedemos de manera similar al ejemplo anterior, es decir, planteamos la igualdad

´2x2 ` 8x ´ 5 “ –1 ¨ px2 ` 1q ` –2 px ´ 1q ` –3 p2x ` 2q.

Luego, trabajando el segundo lado de la igualdad según las operaciones de suma y producto por
escalares de P2 rxs, se obtiene

´2x2 ` 8x ´ 5 “ –1 x2 ` p–2 ` 2–3 qx ` p–1 ´ –2 ` 2–3 q.


67
Finalmente, a partir de la relación de igualdad en P2 rxs, tenemos el sistema de ecuaciones lineales
$
& –1 ´ –2 ` 2–3 “ ´5,
pSq : –2 ` 2–3 “ 8,
%
–1 “ ´2.

Al resolver el sistema anterior, se obtiene –1 “ ´2, –2 “ 11{2 y –3 “ 5{4. Por lo tanto,


11 5
´2x2 ` 8x ´ 5 “ ´2 ¨ px2 ` 1q ` ¨ px ´ 1q ` ¨ p2x ` 2q,
2 4
y ´2x2 ` 8x ´ 5 es combinación lineal de tx2 ` 1, x ´ 1, 2x ` 2u.
Pasemos ahora a considerar el conjunto de todas las posibles combinaciones lineales que se pueden
obtener a partir de un conjunto finito dado de vectores.

Definición 5.4

Sea A “ tv1 , . . . , vk u Ñ V un subconjunto finito (puede ser vacío) de un espacio vectorial


pV, K, `, ¨q. Se define el conjunto generado por A como

rAs :“ tv P V / v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –k ¨ vk , con –1 , . . . , –k P Ku.

Otra notación alternativa es rv1 , . . . , vk s. Para el caso donde A “ H, se tiene que rHs “ t0V u. Al
conjunto A se le llama generador de rAs.

Proposición 5.4

El conjunto rAs es un subespacio vectorial de V .

Demostración: Trabajaremos el caso donde A “ tv1 , . . . , vk u ‰ H, ya que para A “ H tenemos que


rHs “ t0V u es claramente un subespacio de V .

Lo primero que notamos es que 0V P rAs, ya que

0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vk .

Ahora, sean v, v 1 P rAs y ⁄ P K. Tenemos entonces que

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –k ¨ vk ,
v 1 “ –11 ¨ v1 ` ¨ ¨ ¨ ` –k1 ¨ vk .

Luego,

⁄ ¨ v ` v 1 “ ⁄ ¨ p–1 ¨ v1 ` ¨ ¨ ¨ ` –k ¨ vk q ` p–11 ¨ v1 ` ¨ ¨ ¨ ` –k1 ¨ vk q


“ p⁄–1 ` –11 q ¨ v1 ` ¨ ¨ ¨ ` p⁄–k ` –k1 q ¨ vk P rAs.

Por lo tanto, se tiene que rAs es un subespacio vectorial de V por la Proposición 5.2.

68
Ejemplo 32. Encontremos conjuntos generadores para algunos subespacios conocidos:
1. Sea r la recta en R3 que pasa por el origen y de dirección ˛u ‰ ˛0. Entonces, podemos notar que

r “ r˛us.

2. Análogamente, si fi denota al plano de R3 que pasa por el origen y de direcciones ˛u, ˛v ‰ ˛0 no


colineales, entonces
fi “ r˛u, ˛v s.
¿Cómo podemos hallar un conjunto generador de un plano que pasa por el origen si no nos dan sus
vectores de dirección? Supongamos que fi es el plano dado por la ecuación reducida

2x ´ 3y ` z “ 0.

Determinamos a partir de la ecuación anterior tres puntos del plano que no estén alineados, como
por ejemplo A “ p1, 1, 1q, B “ p2, 0, ´4q y C “ p0, 0, 0q. Luego, un par de direcciones para el plano
fi pueden ser

˛u “ A ´ C “ p1, 1, 1q,
˛v “ B ´ C “ p2, 0, ´4q.

Por lo tanto,
fi “ rp1, 1, 1q, p2, 0, ´4qs.
Tenga en cuenta que existe más de una posibilidad para calcular los vectores de dirección de fi.
Por lo tanto, fi puede tener más de un conjunto generador. En general, un subespacio generado
puede tener más de un conjunto generador. Para apreciar esto último en el caso de fi, procedamos de
otra manera. Tenga en cuenta que fi es el subconjunto de R3 formado por todos los puntos px, y, zq
cuyas coordenadas satisfacen la ecuación 2x ´ 3y ` z “ 0. En otras palabras, los puntos de fi son
todos aquéllos de la forma px, y, 3y ´ 2xq (despejamos z de la ecuación reducida del plano). Luego,
podemos hacer una descomposición de px, y, 3y ´ 2xq de la siguiente manera:

px, y, 3y ´ 2xq “ px, 0, ´2xq ` p0, y, 3yq “ x ¨ p1, 0, ´2q ` y ¨ p0, 1, 3q.

Entonces, vemos que un conjunto generador del plano fi viene dado por tp1, 0, ´2q, p0, 1, 3qu, es
decir,
fi “ rp1, 0, ´2q, p0, 1, 3qs.

3. Consideremos el subespacio S Ñ M2ˆ2 pRq formado por las matrices simétricas de tamaño 2 ˆ 2 y
con coeficientes reales. Hallemos un conjunto generador de S.

Para este tipo de problemas, es muy importante tener el cuenta cómo son los vectores en el
subespacio en cuestión. Tomemos entonces una matriz A P S arbitraria, es decir,
ˆ ˙
–1 –2
A“ , donde –1 , –2 , –3 P R.
–2 –3

Notamos que
ˆ ˙ ˆ ˙ ˆ ˙
–1 0 0 –2 0 0
A“ ` `
0 0 –2 0 0 –3
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
A “ –1 ¨ ` –2 ¨ ` –3 ¨ .
0 0 1 0 0 1

69
„ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
Luego, A P , , para toda A P S, es decir,
0 0 1 0 0 1
„ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
SÑ , , .
0 0 1 0 0 1
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
Por otro lado, , , P S, por lo que cualquier combinación lineal de
0 0 1 0 0 1
las matrices anteriores también pertenece a S, ya que S es un subespacio vectorial de M2ˆ2 pRq.
Por lo tanto, „ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
, , Ñ S.
0 0 1 0 0 1
Se tiene entonces que „ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
S“ , , .
0 0 1 0 0 1

Un error común a la hora de declarar algún conjunto generador para un determinado espacio o
subespacio vectorial en el siguiente. Considere los ejemplos 2. y 3. anteriores. No es correcto decir
que fi o S están generados por los subconjuntos
"ˆ ˙ ˆ ˙ ˆ ˙*
–1 0 0 –2 0 0
tpx, 0, ´2xq ` p0, y, 3yqu y , , ,
0 0 –2 0 0 –3

respectivamente, ya que se da a entender que los valores de x e y en el primer conjunto, y de –1 ,


–2 y –3 en el segundo, pueden variar arbitrariamente dentro de R, dando lugar así a conjuntos
generadores con infinitos vectores.

5.4. Independencia lineal


Como mencionamos en el ejemplo anterior, un espacio o subespacio vectorial puede tener más de un
conjunto generador. Si vamos al caso del subespacio de M2ˆ2 pRq formado por las matrices simétricas,
„ˆ ˙ ˆ ˙ ˆ ˙⇢
1 0 0 1 0 0
S“ , , ,
0 0 1 0 0 1
"ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 0 0 1 0 0 0 1
vemos que , , , también es un conjunto generador de S.
0 0 1 0 0 1 1 1
Este último conjunto contiene “información redundante” a la hora de describir a los vectores de S, en el
siguiente sentido:
ˆ ˙
0 1
1. Por un lado, es combinación lineal del resto de los vectores del conjunto generador, ya
1 1
que ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
0 1 1 0 0 1 0 0
“0¨ `1¨ `1¨ .
1 1 0 0 1 0 0 1

70
2. Por otro lado, los vectores en S se pueden escribir
"ˆ de˙varias
ˆ maneras
˙ ˆ(no necesariamente
˙ ˆ ˙*única)
1 0 0 1 0 0 0 1
como combinación lineal de los vectores de , , , . Por
0 0 1 0 0 1 1 1
ejemplo,
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 1 1 0 0 1 0 0 0 1
“1¨ `1¨ `1¨ `0¨
1 1 0 0 1 0 0 1 1 1
y
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
0 1 1 0 0 1 0 0 0 1
“1¨ `0¨ `0¨ `1¨ .
1 1 0 0 1 0 0 1 1 1

En álgebra lineal, nos interesa describir espacios o subespacios generados W a partir de la menor cantidad
posible de información, es decir, hallando un conjunto generador A con la cantidad mínima de vectores
necesarios. Esto se traduce en que si W “ rAs, entonces todo vector de W se escribe de forma única
como combinación lineal de vectores de A. Esta última propiedad tiene que ver con el concepto de
independencia lineal, que desarrollaremos en esta sección.

Definición 5.5

Sea pV, K, `, ¨q un espacio vectorial y A “ tv1 , . . . , vn u un subconjunto finito de V . Al elemento


neutro 0V podemos escribirlo como combinación lineal de los vectores en A de la siguiente
manera:
0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vn .
A tal combinación lineal la llamaremos combinación lineal trivial. Diremos que A es
linealmente independiente si la única manera de escribir 0V como combinación lineal de A es
mediante la combinación lineal trivial. Dicho de otra manera, si

–1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn “ 0V

es una combinación lineal del elemento neutro (donde –1 , . . . , –n P K), entonces

–1 “ 0, . . . , –n “ 0.

Si A no es linealmente independiente, diremos que es linealmente dependiente.

Observación 5.2

Si A (como en la definición anterior) es linealmente dependiente, entonces existe –i P K, con


i P t1, . . . , nu, no nulo, tal que

–1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn “ 0V .

Esto implica que podemos despejar vi de la expresión anterior:


–1 –i´1 –i`1 –n
vi “ ´ ¨ v1 ´ ¨ ¨ ¨ ´ vi´1 ´ vi`1 ´ ¨ ¨ ¨ ´ ¨ vn .
–i –i –i –i
Luego, vi P rv1 , . . . , vi´1 , vi`1 , . . . , vn s.

71
Veamos algunos ejemplos concretos y cómo probar si un conjunto dado es linealmente independiente
o no.
Ejemplo 33.
1. tp1, 0q, p0, 1qu es un conjunto linealmente independiente en R2 . En efecto, si suponemos que

–1 ¨ p1, 0q ` –2 ¨ p0, 1q “ p0, 0q,

tendremos que p–1 , –2 q “ p0, 0q, lo cual implica que –1 “ –2 “ 0.


2. Determine si el conjunto

A “ tp1, 1, 2, 4q, p2, ´1, ´5, 2q, p1, ´1, ´4, 0q, p2, 1, 1, 6qu

es un conjunto linealmente independiente en R4 .


Supongamos que

–1 ¨ p1, 1, 2, 4q ` –2 p2, ´1, ´5, 2q ` –3 p1, ´1, ´4, 0q ` –4 p2, 1, 1, 6q “ p0, 0, 0, 0q.

Entonces, usando las operaciones de suma y producto por escalares en R4 , tenemos que

p–1 ` 2–2 ` –3 ` 2–4 , –1 ´ –2 ´ –3 ` –4 , 2–2 ´ 5–2 ´ 4–3 ` –4 , 4–1 ` 2–2 ` 6–4 q “ p0, 0, 0, 0q.

Ahora, usando la relación de igualdad de R4 , obtenemos el siguiente sistema de ecuaciones lineales


homogéneo a partir de la igualdad anterior (igualando componente-a-componente):
$
’ –1 ` 2–2 ` –3 ` 2–4 “ 0,

&
–1 ´ –2 ´ –3 ` –4 “ 0,
pSq :

’ 2– 2 ´ 5–2 ´ 4–3 ` –4 “ 0,
%
4–1 ` 2–2 ` 6–4 “ 0.

Resolvemos el sistema anterior escalerizando la matriz asociada de pSq (que también se obtiene
colgando los vectores de A como columnas):
¨ ˛ ¨ ˛
1 2 1 2 1 0 ´1{3 4{3
˚ 1 ´1 ´1 1 ‹ escalerización ˚ 0 1 2{3 1{3 ‹
A“˚ ‹
˝ 2 ´5 ´4 1 ‚ ›››››››Ñ ˝ 0 0
˚ ‹.
0 0 ‚
4 2 0 6 0 0 0 0

Tenemos entonces que pSq es un sistema compatible indeterminado (infinitas soluciones), por lo
cual A es un conjunto linealmente dependiente. Para entender por qué se concluye esto al saber
qué tipo de sistema es pSq, recordemos que un conjunto es linealmente dependiente si el elemento
neutro se puede escribir de varias maneras como combinación lineal de los vectores de dicho
conjunto. En este ejemplo, tenemos que
" *
4 1 4 2 1
SolpSq “ p–1 , –2 , –3 , –4 q P R / –1 “ –3 ´ –4 y –2 “ ´ –3 ´ –4 .
3 3 3 3
Luego,
ˆ ˙ ˆ ˙
1 4 2 1
–3 ´ –4 ¨p1, 1, 2, 4q` ´ –3 ´ –4 p2, ´1, ´5, 2q`–3 p1, ´1, ´4, 0q`–4 p2, 1, 1, 6q “ p0, 0, 0, 0q.
3 3 3 3

72
Haciendo –3 “ –4 “ 0, obtenemos la combinación lineal trivial para p0, 0, 0, 0q. Pero si hacemos
–3 “ 1 y –4 “ ´1, también nos queda que
ˆ ˙ ˆ ˙
1 4 2 1
p0, 0, 0, 0q “ ` ¨ p1, 1, 2, 4q ` ´ ` p2, ´1, ´5, 2q ` p1, ´1, ´4, 0q ´ p2, 1, 1, 6q
3 3 3 3
5 1
“ ¨ p1, 1, 2, 4q ´ p2, ´1, ´5, 2q ` p1, ´1, ´4, 0q ´ p2, 1, 1, 6q,
3 3
teniendo así dos maneras diferentes (de hecho, infinitas) de representar a p0, 0, 0, 0q como
combinación lineal de A.

3. Determine si el conjunto A “ tx2 ` 1, x ´ 1, 2x ` 2u del Ejemplo 31 - 4. es un conjunto linealmente


independiente de P2 pxq.
Supongamos que
–1 ¨ px2 ` 1q ` –2 ¨ px ´ 1q ` –3 ¨ p2x ` 2q “ 0.
Procediendo como en el citado ejemplo, obtenemos el siguiente sistema de ecuaciones homogéneo:
$
& –1 ´ –2 ` 2–3 “ 0,
pSq : –2 ` 2–3 “ 0,
%
–1 “ 0.

Al escalerizar su matriz asociada, se obtiene


¨ ˛ ¨ ˛
1 ´1 2 1 0 0
˝ 0 escalerización
1 2 ‚ ›››››››Ñ ˝ 0 1 0 ‚.
1 0 0 0 0 1

Entonces, pSq es un sistema compatible determinado, y por lo tanto A es un conjunto linealmente


independiente.
"ˆ ˙ ˆ ˙ ˆ ˙*
1 0 0 0 0 1
4. Determine si el conjunto A “ , , del Ejemplo 32 - 3. es un
0 0 0 1 1 0
conjunto linealmente independiente de M2ˆ2 pRq.
Supongamos que
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 0 0 1 0 0
–1 ¨ ` –2 ¨ ` –3 “ .
0 0 0 1 1 0 0 0

Luego, ˆ ˙ ˆ ˙
–1 –3 0 0
“ ,
–3 –2 0 0
de donde claramente se tiene que –1 “ 0, –2 “ 0 y –3 “ 0. Por lo tanto, A es linealmente
independiente.

Pasemos ahora a hacer algunas observaciones del concepto de independencia lineal.

73
Observación 5.3

1. Podemos incluir al conjunto vacío dentro de la definición de conjunto linealmente


independiente. Es decir, H es linealmente independiente dentro de cualquier espacio
vectorial. En efecto, de suponer lo contrario, es decir que H es linealmente dependiente,
se tendría que existe v P H que se puede escribir como combinación lineal no trivial de
vectores en H. La expresión v P H es una contradicción, pues no existen elementos en H.
2. Si A Ñ V es un subconjunto finito linealmente independiente y B Ñ A, entonces A también
es linealmente independiente.

3. Si A “ tv1 , . . . , vn u Ñ V es un subconjunto finito y 0V P A, entonces A es linealmente


dependiente. En efecto, si 0V “ vi P A para algún i P t1, . . . , nu, entonces podemos escribir
0V como combinación lineal no trivial de vectores en A:

0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vi´1 ` 1 ¨ 0V ` 0 ¨ vi`1 ` ¨ ¨ ¨ ` 0 ¨ vn .

4. Dado v P V , se tiene que tvu es linealmente independiente si, y sólo si, v “ 0V .

Probemos a continuación la propiedad de unicidad mencionada anteriormente para los conjuntos


generadores linealmente independientes.

Proposición 5.5

Sea A “ tv1 , . . . , vn u Ñ V un subconjunto finito y no vacío de un espacio vectorial pV, K, `, ¨q.


Entonces, A es linealmente independiente si, y sólo si, para cada v P rAs existen –1 , . . . , –n P K
únicos tales que
v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .

Demostración: Supongamos primero que A es linealmente independiente. Sea v P rAs. Luego, por
definición de subespacio generado por A, existen –1 , . . . , –n P K tales que

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .

Supongamos además que


v “ —1 ¨ v1 ` ¨ ¨ ¨ ` —n ¨ vn ,
donde —1 , . . . , —n P K. Luego,

–1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn “ v “ —1 ¨ v1 ` ¨ ¨ ¨ ` —n ¨ vn .

Tenemos entonces la siguiente combinación trivial del elemento neutro 0V :

0V “ p–1 ´ —1 q ¨ v1 ` ¨ ¨ ¨ ` p–n ´ —n q ¨ vn .

Como A es linealmente independiente, se tiene que –1 ´ —1 “ 0, . . . , –n ´ —n “ 0. Es decir, —1 “ –1 , . . . ,


—n “ –n . Se tiene entonces que la combinación lineal

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn

es única.
74
Ahora, supongamos que todo elemento de rAs se puede escribir de forma única como combinación
lineal de vectores en A. Sean –1 , . . . , –n P K tales que

0V “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .

Como 0V P rAs, la combinación lineal anterior es única. Por otro lado,

0V “ 0 ¨ v1 ` ¨ ¨ ¨ ` 0 ¨ vn ,

de donde –1 “ 0, . . . , –n “ 0. Por lo tanto, A es linealmente independiente.


Cerraremos esta sección con una aplicación del concepto de independencia lineal a la teoría de
matrices. Concretamente, veremos un par de formas equivalentes de calcular el rango de cualquier matriz.
Dada una matriz
¨ ˛
a11 a12 ¨¨¨ a1 n´1 a1n
˚ a21 a22 ¨¨¨ a2 n´1 a2n ‹
˚ ‹
A“˚
˚ .
.. .
.. . .. .
.. .. ‹
. ‹ P Mmˆn pRq,
˚ ‹
˝ am´1 1 am´1 2 ¨ ¨ ¨ am´1 n´1 am´1 n ‚
am1 am2 ¨¨¨ am n´1 amn

recordemos que ¨ ˛
a1j
˚ a2j ‹
` ˘ ˚ ‹
Fi “ ai1 ai2 ¨¨¨ ai n´1 ain
˚
y Cj “ ˚ .. ‹
. ‹
˚ ‹
˝ am´1 j ‚
amj
denotan la i-ésima fila y j-ésima columna de A, y que pueden considerarse como vectores de Rn y Rm ,
respectivamente. Teniendo esta notación repasada, presentamos la siguiente definición.

Definición 5.6

Sea A P Mmˆn pRq. Se define el rango por filas de A, denotado como rgf pAq, como la mayor
cantidad de filas Fi que forman un subconjunto linealmente independiente de Rn . Por otro lado,
se define el rango por columnas de A, denotado como rgc pAq, como la mayor cantidad de
columnas Cj que forman un subconjunto linealmente independiente de Rm .

Enunciaremos el siguiente teorema sin demostración, aunque sí veremos como aplicarlo para calcular
el rango de una matriz.

Teorema 5.1

Para cualquier matriz A P Mmˆn pRq, se tiene que

rgpAq “ rgf pAq “ rgc pAq.

75
Ejemplo 34. Calcule el rango, el rango por filas, y el rango por columnas de
¨ ˛
1 1 0 2
A “ ˝ 0 1 3 1 ‚.
1 3 6 4
Primero, escalerizamos para calcular rgpAq:
¨ ˛
1 0 ´3 1
AÑ˝ 0 1 3 1 ‚.
0 0 0 0
La cantidad de escalones de la forma escalerizada reducida de A es 2, de donde
rgpAq “ 2.
Para calcular el rango por filas de A, consideramos su conjunto de filas de A
F “ tF1 , F2 , F3 u.
Vemos que F3 “ 1 ¨ F1 ` 2 ¨ F2 . Luego, F es linealmente dependiente. Si descartamos F3 , nos queda el
subconjunto tF1 , F2 u Ñ F. Claramente, F2 no es múltiplo escalar de F1 , ni viceversa, por lo cual tF1 , F2 u
es linealmente independiente. Vemos entonces que
rgf pAq “ 2.
Ahora calculemos el rango por columnas de A. Consideremos el conjunto de columnas de A:
C “ tC1 , C2 , C3 , C4 u.
Vemos que C3 “ ´3 ¨ C1 ` 3 ¨ C2 y C4 “ 1 ¨ C1 ` 1 ¨ C2 , por lo cual C es linealmente dependiente.
Descartamos entonces C3 y C4 , obteniendo el subconjunto tC1 , C2 u Ñ C, el cual claramente es
linealmente independiente. Tenemos entonces que
rgc pAq “ 2.
Como corolario del teorema anterior, tenemos el siguiente resultado.

Corolario 5.1

Las siguiente condiciones son equivalente para toda matriz (cuadrada) A P Mnˆn pRq:

(a) A es invertible.
(b) Las filas de A forman un conjunto linealmente independiente de Rn .
(c) Las columnas de A forman un conjunto linealmente independiente de Rn .

Demostración: Recuerde que A P Mnˆn pRq es invertible si, y sólo si, rgpAq “ n. Por otro lado, del
teorema anterior se tiene que rgf pAq “ rgpAq. Si A es invertible, se tiene que rgf pAq “ n, es decir, que la
mayor cantidad de filas de A que forman un conjunto linealmente independiente de Rn es n. Por lo tanto,
las filas de A forman un conjunto linealmente independiente de Rn . Recíprocamente, si todas las filas de
A forman un conjunto linealmente independiente de Rn , se tiene que rgpAq “ rgf pAq “ n, por lo cual A
es invertible.
Análogamente, se tiene que A es invertible si, y sólo si, sus columnas forman un conjunto linealmente
independiente de Rn .
76
5.5. Bases y dimensión de un espacio vectorial
Trabajaremos ahora con un concepto que engloba las nociones de generador y de independencia lineal
de manera simultánea. Antes de presentarlo, haremos una distinción entre los dos tipos de espacios
vectoriales que existen, según su cantidad de generadores.

Definición 5.7

Un espacio vectorial pV, K, `, ¨q es finito-dimensional o de dimensión finita si existe un


subconjunto finito A Ñ V tal que V “ rAs. De no ocurrir esto último, diremos que V es infinito-
dimensional o de dimensión infinita.

Nos centraremos en el estudio de espacios vectoriales finito-dimensionales, ya que los conceptos de


conjunto generador e independencia lineal los hemos trabajado para conjuntos finitos. Sin embargo, estos
conceptos también existen en la teoría de espacios vectoriales de dimensión infinita. Veamos algunos
ejemplos de ambos tipos de espacios vectoriales.
Ejemplo 35. Los siguientes son ejemplos de espacios vectoriales infinito-dimensionales.

1. El conjunto de todas las funciones f : R Ñ R, con la suma y producto por escalares usuales de
funciones.
2. El espacio vectorial Prxs de todos los polinomios (cualquier grado), con las operaciones usuales.
Ejemplo 36. Los siguientes son ejemplos de espacios vectoriales finito-dimensionales.

1. El espacio de n-uplas Rn con las operaciones usuales.

Por ejemplo, es fácil notar que R2 es finito-dimensional, ya que está generador por

tp1, 0q, p0, 1qu.

En efecto, para todo px, yq P R2 se tiene que

px, yq “ x ¨ p1, 0q ` y ¨ p0, 1q.

Similarmente, R3 está generador por

tp1, 0, 0q, p0, 1, 0q, p0, 0, 1qu.

Y de manera más general, Rn está generado por el conjunto de vectores

ei “ p0, . . . , 0, 1, 0, . . . , 0q,

donde 1 aparece en la i-ésima entrada, y el resto de las entradas valen 0.


2. El conjunto t1, x, x2 , . . . , xn´1 , xn u genera al espacio vectorial Pn rxs de polinomios de grado menor
o igual que n y con coeficientes reales.
3. Sean m y n números naturales no nulos, i P t1, . . . , mu y j P t1, . . . , nu. Sea Eij la matriz donde
todas las entradas valen 0, con excepción de la entrada ij, que vale 1. Entonces, podemos notar que
el conjunto tEij { i “ 1, . . . , m y j “ 1, . . . , nu es un generador de Mmˆn pRq.

77
Observación 5.4

Si pV, K, `, ¨q es un espacio vectorial finito-dimensional, entonces todo subespacio de V también


lo es. Sin embargo, un espacio vectorial infinito-dimensional puede contener subespacios finito-
dimensionales, como por ejemplo Prxs, que contiene a Pn rxs como subespacio.

Por el resto de esta sección, pV, K, `, ¨q será un espacio vectorial finito-dimensional.

Definición 5.8

Una base de V es un subconjunto finito B “ tv1 , . . . , vn u Ñ V tal que:


1. B es linealmente independiente.

2. V “ rBs.

Observación 5.5

Por la Proposición 5.4, tenemos que B “ tv1 , . . . , vn u es una base de V si, y sólo si, para cada v P V
existen –1 , . . . , –n P K únicos tales que

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –n ¨ vn .

A los escalares –i dentro de la combinación lineal anterior se les conoce como coordenadas de v
en la base B, y se indican mediante la notación
¨ ˛
–1
coordB pvq “ ˝ ... ‚ P Mnˆ1 pKq.
˚ ‹

–n

Ejemplo 37.
1. Los conjuntos generadores mencionados en el Ejemplo 36 son además conjuntos linealmente
independientes (la prueba de esto se la dejamos al lector). Por lo tanto, los conjuntos

tei { i “ 1, . . . , nu, t1, x, x2 , . . . , xn u y tEij { i “ 1, . . . , m y j “ 1, . . . , nu

son bases de Rn , Pn rxs y Mmˆn pRq, respectivamente, y se conocen como bases canónicas.

Para el espacio vectorial R2 con la base B “ tp1, 0q, p0, 1qu, se tiene por ejemplo que
ˆ ˙
3
coordB pp3, 2qq “ ,
2

ya que p3, 2q “ 3 ¨ p1, 0q ` 2 ¨ p0, 1q.

78
El orden de los vectores que forman una base es importante, ya que éste influye en las
coordenadas de cualquier vector. Por ejemplo, si consideramos la base B 1 “ tp0, 1q, p1, 0qu,
entonces ˆ ˙
2
coordB1 pp3, 2qq “ ,
3
ya que p3, 2q “ 2 ¨ p0, 1q ` 3 ¨ p1, 0q.

Si bien B y B 1 son iguales como conjuntos, son considerados como bases distintas, ya
que el orden influye en el cálculo de coordenadas y en otro tipo de construcciones (que
detallaremos en el siguiente capítulo).

ˆ ˙
3
Acabamos de ver que coordB pp3, 2qq “ , es decir, que las coordenadas de p3, 2q en la
2
base canónica coinciden con lo que entendemos como coordenadas de un punto en el plano
R2 . Sin embargo, esta coincidencia no siempre se da. Por ejemplo, si consideramos la base
B 2 “ tp1, 1q, p0, ´1qu, tenemos entonces que p3, 2q “ 3 ¨ p1, 1q ` 1 ¨ p0, ´1q, de donde
ˆ ˙
3
coordB2 pp3, 2qq “ .
1

Para el espacio vectorial P2 rxs con la base canónica B “ t1, x, x2 u, las coordenadas de cualquier
polinomio ppxq “ a ` bx ` cx2 en dicha base vienen dadas por
¨ ˛
a
coordB pppxqq “ ˝ b ‚.
c

De manera similar, para el espacio vectorial M2ˆ2 pRq con la base canónica
"ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 0 0 1 0 0 0 0
B“ , , , ,
0 0 0 0 1 0 0 1
ˆ ˙
a b
tenemos que las coordenadas de A “ en esta base vienen dadas por
c d
¨ ˛
a
˚ b ‹
coordB pAq “ ˚˝ c ‚.

2. Hallar una base del plano fi cuya ecuación reducida viene dada por 2x ´ y ` 3z “ 0. Para la base
calculada, determine las coordenadas del punto p1, ´1, ´1q P fi.
Sea px, y, zq P fi arbitrario. Luego, debe cumplirse que 2x ´ y ` 3z “ 0. Despejando y, se tiene que
y “ 2x ` 3z. Por lo tanto, el punto px, y, zq en fi pasa a tener la forma

px, y, zq “ px, 2x ` 3z, zq “ x ¨ p1, 2, 0q ` z ¨ p0, 3, 1q.

79
Vemos así que B “ tp1, 2, 0q, p0, 3, 1qu es un conjunto generador de fi, que además claramente es
linealmente independiente. Por lo tanto, B es una base de fi. Para el punto p1, ´1, ´1q, se tiene en
particular que
p1, ´1, ´1q “ 1 ¨ p1, 2, 0q ` p´1q ¨ p0, 3, 1q,
por lo cual ˆ ˙
1
coordB pp1, ´1, ´1qq “ .
´1
¨ ˛
1
Note que ˝ ´1 ‚son las coordenadas de p1, ´1, ´1q en el espacio R3 respecto a la base canónica,
´1 ˆ ˙
1
pero sus coordenadas en el plano fi respecto a la base B son .
´1

3. Encuentre una base para el siguiente subespacio vectorial de R5 :

W “ tpx1 , x2 , x3 , x4 , x5 q P R5 { x1 “ 3x2 y x3 “ 7x4 u.

Procedemos de manera similar al ejemplo anterior. Para px1 , x2 , x3 , x4 , x5 q P W , tenemos que

px1 , x2 , x3 , x4 , x5 q “ p3x2 , x2 , 7x4 , x4 , x5 q “ x2 ¨ p3, 1, 0, 0, 0q ` x4 ¨ p0, 0, 7, 1, 0q ` x5 ¨ p0, 0, 0, 0, 1q.

Tenemos entonces que

W Ñ rp3, 1, 0, 0, 0q, p0, 0, 7, 1, 0q, p0, 0, 0, 0, 1qs.

Como p3, 1, 0, 0, 0q, p0, 0, 7, 1, 0q, p0, 0, 0, 0, 1q P W , la contención contraria también se cumple. Por
lo tanto, W es el subespacio generado por B “ tp3, 1, 0, 0, 0q, p0, 0, 7, 1, 0q, p0, 0, 0, 0, 1qu. El conjunto
anterior además es linealmente independiente, por lo que forma una base de W . Para verificar la
independencia lineal, podemos por ejemplo aplicar el Teorema 5.4. En efecto, B es linealmente
independiente si la matriz ¨ ˛
3 0 0
˚ 1 0 0 ‹
˚ ‹
A“˚ ˚ 0 7 0 ‹

˝ 0 1 0 ‚
0 0 1
obtenida al colgar los vectores de B como columnas, tiene rango igual a 3. Lo anterior es fácil de
verificar.
4. Demostrar que B “ t1`2x`3x2 , 4`x2 , 3´x´5x2 u es una base de P2 rxs, y hallar las coordenadas
de cualquier polinomio ppxq “ a ` bx ` cx2 en B.
Se puede hacer la verificación de que B es linealmente independiente y que genera a todo el espacio
P2 rxs de manera simultánea. En efecto, recuerde que B es una base de P2 rxs si, y solo si, para cada
ppxq “ a ` bx ` cx2 en P2 rxs existen –1 , –2 , –3 P R únicos tales que

a ` bx ` cx2 “ –1 ¨ p1 ` 2x ` 3x2 q ` –2 ¨ p4 ` x2 q ` –3 ¨ p3 ´ x ´ 5x2 q.

Es decir,

a ` bx ` cx2 “ p–1 ` 4–2 ` 3–3 q ` p2–1 ´ –3 qx ` p3–1 ` –2 ´ 5–3 qx2 .

De donde se obtiene el sistema de ecuaciones lineales


$
& –1 ` 4–2 ` 3–3 “ a,
pSq : 2–1 ´ –3 “ b,
%
3–1 ` –2 ´ 5–3 “ c.
80
Tenemos entonces que B es una base de P2 rxs si, y sólo si, para cada ppxq el sistema pSq es
compatible determinado. Procedemos entonces a escalerizar la matriz asociada a dicho sistema:
¨ ˛
a ` 23b ´ 4c
¨ ˛ 1 0 0
1 4 3 a ˚ 35 ‹
escalerización ˚ a ´ 2b ` c ‹
pA|bq “ ˝ 2 0 ´1 b ‚ ›››››››Ñ ˚ 0 1 0
˚ ‹

3 1 ´5 c ˝ 5
2a ` 11b ´ 8c ‚
0 0 1
35
Vemos entonces que rgpAq “ rgpA|bq “ 3. Por lo tanto, B es una base de P2 rxs. Además,
a ` 23b ´ 4c a ´ 2b ` c 2a ` 11b ´ 8c
–1 “ , –2 “ y –3 “ ,
35 5 35
de donde
pa ` 23b ´ 4cq pa ´ 2b ` cq p2a ` 11b ´ 8cq
a`bx`cx2 “ ¨p1`2x`3x2 q` ¨p4`x2 q` ¨p3´x´5x2 q,
35 5 35
es decir, ¨ ˛
pa ` 23b ´ 4cq
˚ 35 ‹
˚ pa ´ 2b ` cq ‹
coordB pa ` bx ` cx2 q “ ˚
˚
‹.

˝ 5 ‚
p2a ` 11b ´ 8cq
35
En particular, para el polinomio 1 ´ x ` 2x2 se tiene que
¨ ˛
´6{7
6 5
1 ´ x ` 2x2 “ ´ p1 ` 2x ` 3x2 q ` p4 ` x2 q ´ p3 ´ x ´ 5x2 q y coordB p1 ´ x ` 2x2 q “ ˝ 1 ‚.
7 7
´5{7

Dedicaremos el resto de esta sección a la presentación, demostración y aplicación de resultados


teóricos. Comenzaremos probando que todo espacio vectorial finito-dimensional tiene una base.

Observación 5.6

La afirmación anterior también es válida para espacios vectoriales infinito-dimensionales. En


otras palabras, todo espacio vectorial tiene una base. La demostración de este hecho para el caso
infinito-dimensional requiere de herramientas que escapan a los contenidos de este curso.

Teorema 5.2

Sea pV, K, `, ¨q un espacio vectorial, donde A “ tv1 , . . . , vm u Ñ V es un subconjunto finito de


V tal que V “ rAs. Entonces, existe un subconjunto B Ñ A linealmente independiente tal que
V “ rBs, es decir, B es una base de V contenida en A.

Idea de la demostración: Se propone un algoritmo para detectar aquéllos vectores de A que son
combinación lineal del resto de vectores de A. Se hace esto de manera inductiva, hasta obtener B Ñ A
linealmente independiente. Debido al procedimiento a utilizar, resultará además que V “ rBs.
81
Demostración: Si A es linealmente independiente, no hay nada que demostrar. Basta con tomar B “ A.
Entonces, supongamos que A es linealmente dependiente. Por la Observación 5.4, tenemos que existe
i P t1, . . . , mu tal que
vi P rv1 , . . . , vi´1 , vi`1 , . . . , vm s.
Sin pérdida de generalidad, supongamos que i “ m. Luego,

vm P rv1 , . . . , vm´1 s.

Veamos ahora que V “ rv1 , . . . , vm´1 s. Sea v P V “ rv1 , . . . , vm s. Entonces, existen –1 , . . . , –m P K tales
que

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –m ¨ vm . (5.3)

Por otro lado, como vm P rv1 , . . . , vm´1 s, existen —1 , . . . , —m´1 P K tales que

vm “ —1 ¨ v1 ` ¨ ¨ ¨ ` —m´1 ¨ vm´1 . (5.4)

Sustituyendo (5.4) en (5.3), se obtiene

v “ –1 ¨ v1 ` ¨ ¨ ¨ ` –m ¨ p—1 ¨ v1 ` ¨ ¨ ¨ ` —m´1 ¨ vm´1 q “ p–1 ` –m —1 q ¨ v1 ` ¨ ¨ ¨ ` p–m´1 ` –m —m´1 q ¨ vm´1 ,

es decir, v P rv1 , . . . , vm´1 s. Por lo tanto, V “ rv1 , . . . , vm´1 s.


Si tv1 , . . . , vm´1 u es linealmente independiente, entonces tomamos B “ tv1 , . . . , vm´1 u, concluyendo
así la demostración. Si no, repetimos el procedimiento anterior para V “ rv1 , . . . , vm´1 s, y el número de
veces que sea necesario. Tal número de veces es finito, ya que V es finito-dimensional. Por lo tanto, al final
de la iteración llegaremos a obtener B Ñ A linealmente independiente tal que V “ rBs.
Sabiendo ahora que todo espacio vectorial finito-dimensional tiene una base, nos concentraremos en
demostrar que cualquier base de un mismo espacio vectorial siempre tiene la misma cantidad de vectores.

Proposición 5.6

Sea pV, K, `, ¨q un espacio vectorial y B “ tv1 , . . . , vn u una base de V . Entonces, si A Ñ V es un


subconjunto linealmente independiente, se tiene que

cardpAq § n,

donde cardpAq denota el cardinal (o la cardinalidad) de A (es decir, el número de elementos del
conjunto A).

Idea de la demostración: Haremos la prueba de la afirmación contrarrecíproca, es decir, supondremos


que CardpAq ° n para probar que A es linealmente dependiente. La idea central es escribir cada vector
de A como combinación lineal de vectores en B, ya que V “ rBs. Por otro lado, consideraremos una
combinación lineal arbitraria de 0V . A partir de lo anterior, construiremos un sistema de ecuaciones
homogéneo, y aplicaremos el Teorema de Rouché-Frobenius para concluir que dicho sistema es
compatible indeterminado.

Demostración: Sea A “ tw1 , . . . , wm u con m ° n. Para demostrar que A es linealmente dependiente,


veremos que hay al menos una combinación lineal

–1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm “ 0V (5.5)

82
del elemento neutro donde no todos los escalares –1 , . . . , –n P K son cero.
Como V “ rv1 , . . . , vn s, para cada wj P A existen escalares a1j , . . . , anj P K tales que

wj “ a1j ¨ v1 ` ¨ ¨ ¨ ` anj ¨ vn . (5.6)

Sustituyendo cada (5.6) en (5.5), tenemos que

–1 ¨ pa11 ¨ v1 ` ¨ ¨ ¨ ` an1 ¨ vn q ` ¨ ¨ ¨ ` –m ¨ pa1m ¨ v1 ` ¨ ¨ ¨ ` anm ¨ vn q “ 0V


pa11 –1 ` ¨ ¨ ¨ ` a1m –m q ¨ v1 ` ¨ ¨ ¨ ` pan1 –1 ` ¨ ¨ ¨ ` anm –m q ¨ vn “ 0V .

Por otro lado, como tv1 , . . . , vn u es linealmente independiente, los escalares de la combinación lineal
anterior son todos nulos. En otras palabras, obtenemos el sistema de ecuaciones homogéneo
$
& a11 –1 ` ¨ ¨ ¨ ` a1m –m “ 0,

pSq : ..
’ .
%
an1 –1 ` ¨ ¨ ¨ ` anm –m “ 0.

La matriz asociada del sistema anterior viene dada por


¨ ˛
a11 ¨ ¨ ¨ a1m
˚ .. .. .. ‹ .
A“˝ . . . ‚
an1 ¨¨¨ anm

Al ser m ° n (más incógnitas que ecuaciones), por un corolario del Teorema de Rouché-Frobenius se
tiene que pSq es un sistema compatible indeterminado. En conclusión, existen –1 , . . . , –m P K, no todos
nulos, tales que se cumple (5.5).

Como aplicación del resultado anterior, tenemos lo siguiente.

Corolario 5.2

Si B1 y B2 son bases de un espacio pV, K, `, ¨q, entonces cardpB1 q “ cardpB2 q.

Demostración: Supongamos que B1 “ tv1 , . . . , vn u y B2 “ tw1 , . . . , wm u. Como B2 es una base de V y


B1 es un conjunto linealmente independiente, tenemos por la proposición anterior que

n § m.

De manera similar, intercambiando los roles de B1 y B2 , tenemos que

m § n.

Por lo tanto,
cardpB1 q “ n “ m “ cardpB2 q.

Gracias al corolario anterior, tenemos el concepto de dimensión de un espacio vectorial.

83
Definición 5.9

Se define la dimensión de un espacio vectorial pV, K, `, ¨q como

dimK pV q “ cardpBq,

donde B es cualquier base de V .

Observación 5.7

Si bien nos estamos concentrando en espacios vectoriales reales (con K “ R), la dimensión de
un espacio vectorial puede depender de cual cuerpo K consideremos. Por ejemplo, el conjunto
V “ C de números complejos tiene estructura de espacio vectorial sobre R y sobre C. En el primer
caso, la multiplicación por escalares R ˆ C Ñ C se define como

– ¨ pa ` i bq “ p–aq ` i p–bq.

En el segundo caso, C ˆ C Ñ C se define como

p– ` i —q ¨ pa ` i bq “ p–a ´ —bq ` i p–b ` a—q.

Si consideramos a C como espacio vectorial real, tenemos que t1, iu es una base de pC, R, `, ¨q.
Por otro lado, t1u es base de pC, C, `, ¨q. Tenemos entonces que

dimR pCq “ 2 y dimC pCq “ 1.

Como aplicación adicional de la Proposición 5.5, podemos notar que cualquier subconjunto finito
linealmente independiente de un espacio vectorial, cuya cardinalidad sea estrictamente menor a la
dimensión del espacio, no alcanza para generar a dicho espacio.

Corolario 5.3

Si B es una base de un espacio vectorial pV, K, `, ¨q y A Ñ V es un subconjunto linealmente


independiente con cardpAq † cardpBq, entonces A no es un conjunto generador de V .

Demostración: En efecto, en caso de cumplirse que V “ rAs, se tendría que A es una base de V ,
por ser además linealmente independiente. De donde cardpAq “ cardpBq “ dimK pV q, lo cual es una
contradicción.
En el Teorema 5.5 estudiamos cómo extraer una base de un espacio vectorial a partir de un conjunto
generador de dicho espacio. Presentamos a continuación el procedimiento complementario, es decir,
cómo completar un conjunto linealmente independiente de un espacio vectorial a una base del mismo.

84
Teorema 5.3

Sea pV, K, `, ¨q un espacio vectorial y A Ñ V un subconjunto linealmente independiente.


Entonces, existe un subconjunto finito B Ñ V linealmente independiente tal que A Ñ B y
V “ rBs. Es decir, B es una base de V que contiene a A.

Idea de la demostración: La idea es agregar al conjunto A, de uno en uno, vectores hasta completar
a un conjunto generador del espacio que siga siendo linealmente independiente. Para garantizar la
independencia lineal, partimos del subespacio rAs, y el primer vector a agregar v se escoge fuera de rAs
para garantizar que AYtvu es linealmente independiente. Se repite este procedimiento tantas veces como
sea necesario hasta completar una base de V .
Demostración: Supongamos que A “ tv1 , . . . , vm u Ñ V es un conjunto linealmente independiente. Si
A genera a V , entonces A es base de V y no habría nada que demostrar (se toma B “ A).
Ahora, trabajemos el caso en el cual A no genera a V , es decir, rAs à V . Entonces existe vm`1 P V
tal que vm`1 R rAs. Veamos que A Y tvm`1 u “ tv1 , . . . , vm , vm`1 u es linealmente independiente.
Supongamos que tenemos una combinación lineal

–1 ¨ v1 ` ¨ ¨ ¨ ` –m ¨ vm ` –m`1 ¨ vm`1 “ 0V , (5.7)

donde –1 , . . . , –m , –m`1 P K. Podemos notar que –m`1 tiene que valer 0. De lo contrario, si –m`1 ‰ 0,
podemos despejar vm`1 de la combinación lineal anterior como
–1 –m
vm`1 “ ´ ¨ v1 ´ ¨ ¨ ¨ ´ ¨ vm P rAs.
–m`1 –m`1

Lo anterior es una contradicción, pues estamos tomando vm`1 fuera del subespacio generado por A. Por
lo tanto, –m`1 “ 0, y la combinación lineal (5.7) pasa a ser

–1 ¨ v1 ` ¨ ¨ ¨ ` –m ¨ vm “ 0V .

Por otro lado, recordemos que A “ tv1 , . . . , vm u es un conjunto linealmente independiente, por lo cual
–1 “ ¨ ¨ ¨ “ –m “ 0. Por lo tanto, todos los escalares presentes en la combinación lineal (5.7) son todos
nulos, de donde concluimos que A Y tvm`1 u es un conjunto linealmente independiente.
Si V “ rA Y tvm`1 us, tenemos que A Y tvm`1 u es una base de V y la demostración concluye tomando
B “ A Y tvm`1 u. De lo contrario, repetimos el procedimiento anterior tomando vm`2 R rA Y tvm`1 us.
Después de un número finito de repeticiones, encontraremos B Ö A linealmente independiente tal que
V “ rBs. Este proceso se detiene cuando la cantidad de vectores de B (a saber, la cardinalidad de A más
los vectores que hayamos agregado) alcance la dimensión de V .
Miremos algunos ejemplos de cómo aplicar los Teoremas 5.5 y 5.5.
Ejemplo 38.
"ˆ ˙ ˆ ˙ ˆ ˙*
0 1 0 0 1 0
1. A partir de A “ , , hallar una base de M2ˆ2 pRq.
0 0 1 0 0 ´1
Lo primero a verificar es que A sea un conjunto linealmente independiente. Si
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
0 1 0 0 1 0 0 0
–1 ¨ ` –2 ¨ ` –3 ¨ “ ,
0 0 1 0 0 ´1 0 0

entonces ˆ ˙ ˆ ˙
–3 –1 0 0
“ .
–2 ´–3 0 0
85
Lo anterior claramente implica que –1 “ –2 “ –3 “ 0. Tenemos así que A es un subconjunto
de M2ˆ2 pRq linealmente independiente y de tres vectores. Como dimR pM2ˆ2 pRqq “ 4, solamente
necesitamos agregar a A un vector para completar a una base de M2ˆ2 pRq.
Notamos que
" ˆ ˙ ˆ ˙ ˆ ˙ *
0 1 0 0 1 0
rAs “ –1 ¨ ` –2 ¨ ` –3 ¨ { –1 , –2 , –3 P R
0 0 1 0 0 ´1
es el subespacioˆvectorial˙formado por las matrices de M2ˆ2 pRq que tienen traza cero. Podemos
1 0
entonces tomar R rAs, y obtener así la base de M2ˆ2 pRq dada por
0 0
"ˆ ˙* "ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 0 0 1 0 0 1 0 1 0
AY “ , , , .
0 0 0 0 1 0 0 ´1 0 0

2. Hallar una base del subespacio de R3 dado por


W “ rp1, 2, 1q, p0, 3, 1q, p2, 1, 1qs.
Tenemos claramente que W está generado por A “ tp1, 2, 1q, p0, 3, 1q, p2, 1, 1qu. Veamos ahora si
A es linealmente independiente o dependiente. De ocurrir lo último, debemos elegir en A algún
vector que sea combinación lineal del resto y descartarlo.
Supongamos entonces que
–1 ¨ p1, 2, 1q ` –2 ¨ p0, 3, 1q ` –3 ¨ p2, 1, 1q “ p0, 0, 0q.
Sabemos que lo anterior da lugar a un sistema de ecuaciones homogéneo que se resuelve
escalerizando la matriz A obtenida a partir de colgar los vectores de A como columnas:
¨ ˛ ¨ ˛
1 0 2 1 0 2
escalerización
A “ ˝ 2 3 1 ‚ ›››››››Ñ ˝ 0 1 ´1 ‚.
1 1 1 0 0 0
Tenemos entonces que el mencionado sistema es compatible indeterminado, cuyo conjunto de
soluciones p–1 , –2 , –3 q viene dado por –1 “ ´2–3 y –2 “ –3 , donde –3 P R. Luego, tenemos
que
´2–3 ¨ p1, 2, 1q ` –3 ¨ p0, 3, 1q ` –3 ¨ p2, 1, 1q “ p0, 0, 0q.
Haciendo –3 “ 1, podemos hacer el despeje
p2, 1, 1q “ 2 ¨ p1, 2, 1q ` p´1q ¨ p0, 3, 1q.
Descartando entonces de A el vector p2, 1, 1q, obtenemos B “ tp1, 2, 1q, p0, 3, 1qu tal que rAs “ rBs.
Tenemos además que B es linealmente independiente (verifíquelo). Por lo tanto, B es una base de
W.

Note que también se puede despejar p1, 2, 1q o p0, 3, 1q en función del resto de los vectores
de A, y por lo tanto tp0, 3, 1q, p2, 1, 1qu y tp1, 2, 1q, p2, 1, 1qu también son bases de W .

¿Si W “ rAs, se puede entonces descartar cualquier vector de A con el fin de hallar una
base de W ? Si bien esto funcionó en el ejemplo que acabamos de hacer, no siempre es el
caso, como veremos en el siguiente ejemplo.

86
3. A partir de
"ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 1 0 0 0 0 0 0 0 1
A“ , , , , ,
0 0 1 0 1 ´1 0 1 1 0

hallar una base de M2ˆ2 pRq.


Procedemos de manera similar al ejemplo anterior. Supongamos que tenemos una combinación
lineal
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 1 0 0 0 0 0 0 0 1 0 0
–1 ¨ ` –2 ¨ ` –3 ¨ ` –4 ¨ ` –5 ¨ “ .
0 0 1 0 1 ´1 0 1 1 0 0 0

De esta igualdad se desprende el sistema de ecuaciones


¨ ˛
¨ ˛ – ¨ ˛
1 0 0 0 0 ˚ 1 ‹ 0
˚ 1 0 0 0 1 ‹ ˚ –2 ‹ ˚ 0 ‹
˚ ‹ ˚ –3 ‹ “ ˚ ‹.
˝ 0 1 1 0 1 ‚˚ ‹ ˝ 0 ‚
˝ –4 ‚
0 0 ´1 1 0 0
–5

Escalerizamos la matriz asociada:


¨ ˛ ¨ ˛
1 0 0 0 0 1 0 0 0 0
˚ 1 0 0 0 1 ‹ escalerización ˚ 0 1 0 1 0 ‹
˚ ‹› ››››››Ñ ˚ ‹.
˝ 0 1 1 0 1 ‚ ˝ 0 0 1 ´1 0 ‚
0 0 ´1 1 0 0 0 0 0 1

Tenemos entonces que –1 “ –5 “ 0, –2 “ ´–4 y –3 “ –4 con –4 P R, de donde la combinación


lineal planteada se convierte en:
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
0 0 0 0 0 0 0 0
´–4 ¨ ` –4 ¨ ` –4 ¨ “ .
1 0 1 ´1 0 1 0 0

Haciendo –4 “ 1, tenemos que


ˆ ˙ ˆ ˙ ˆ ˙
0 0 0 0 0 0
“ ` .
1 0 1 ´1 0 1
ˆ ˙
0 0
Descartando el segundo vector de A, obtenemos
1 0
"ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙*
1 1 0 0 0 0 0 1
B“ , , , .
0 0 1 ´1 0 1 1 0

Note que B es linealmente independiente, por lo cual B es una base de M2ˆ2 pRq.
ˆ ˙ ˆ ˙
1 1 0 1
Note que no se pueden descartar de A los vectores y , ya que estos no se
0 0 1 0
pueden despejar (es decir, expresar como combinación lineal) en función del resto de los vectores
en A.

Cerramos esta sección dando un resumen de la parte operatoria a ejecutar a la hora de determinar si
cierto conjunto dado de vectores es una base de un espacio vectorial.

87
5.6. Sumas directas
En álgebra, es común construir estructuras nuevas a partir de otras ya conocidas. Comencemos a
explicar esto con un ejemplo concreto, a saber, la construcción de R2 “ R ˆ R a partir de R. Sabemos
que los elementos de R2 son pares ordenados px, yq, donde x, y P R. Tenemos así que R2 se construye
“pegando” dos copias de R. Más aún, a R2 se le puede dar estructura de espacio vectorial a partir del
mismo tipo de estructura en R. Por ejemplo, si queremos sumar px, yq y px1 , y 1 q en R2 , hacemos la
operación
px, yq ` px1 , y 1 q “ px ` x1 , y ` y 1 q,
donde x ` x1 e y ` y 1 son justamente la suma en R. La idea es que para operar en R2 con la suma anterior,
todo se hace a nivel de cada coordenada una vez sabemos cómo operar en R. Más aún, todo par ordenado
px, yq P R2 podemos pensarlo como la siguiente suma:
px, yq “ px, 0q ` p0, yq,
donde px, 0q P R ˆ t0u y p0, yq P t0u ˆ R. Entonces R2 también puede interpretarse como el espacio
formado por sumas de elementos en R ˆ t0u y en t0u ˆ R, donde estos dos últimos conjuntos son
subespacios de R2 que están en biyección con R. Permitiendo cierta informalidad, podemos representar
a R2 simbólicamente como R ` R.
El propósito de esta sección es llevar la idea anterior de trabajar a nivel de coordenadas a la teoría de
espacios y subespacios vectoriales. Esto se hará a través del concepto de suma directa.

Definición 5.10

Sea pV, K, `, ¨q un espacio vectorial y W1 , W2 Ñ V dos subespacios de V . Se define la suma de W1


y W2 como el conjunto

W1 ` W2 :“ tw1 ` w2 { w1 P W1 y w2 P W2 u.

88
El conjunto W1 ` W2 tiene además estructura de espacio vectorial. Para empezar, claramente es no
vacío, ya que al ser 0V un vector tanto en W1 como en W2 (pues ambos son subespacios de V ), se tiene
que 0V “ 0V `0V pertenece a W1 `W2 . Por otro lado, para sumar dos vectores w1 `w2 , w11 `w21 P W1 `W2 ,
aprovechando las propiedades conmutativas y asociativas de la suma en V , tenemos que
pw1 ` w2 q ` pw11 ` w21 q “ pw1 ` w11 q ` pw2 ` w21 q,
donde w1 `w11 P W1 y w2 `w21 P W2 , ya que tanto W1 como W2 son subespacios de V . De manera similar,
para ⁄ P K tenemos que
⁄ ¨ pw1 ` w2 q “ p⁄w1 q ` p⁄w2 q
donde ⁄w1 P W1 y ⁄w2 P W2 . Por lo tanto, las operaciones de suma y producto por escalares son cerradas
en W1 ` W2 . Tenemos así el siguiente resultado.

Proposición 5.7

La suma W1 ` W2 de los subespacios W1 y W2 es un subespacio vectorial de V .

Ejemplo 39. Veamos algunos ejemplos de sumas de subespacios.


1. Como vimos en la motivación de esta sección, tenemos que
R2 “ pR ˆ t0uq ` pt0u ˆ Rq.

2. Sea FpRq el espacio vectorial real de todas las funciones f : R Ñ R. Recordemos que una función
p P FpRq se dice par si
ppxq “ pp´xq, para todo x P R.
Por ejemplo, las funciones 0, |x|, x2 (o de manera más general, xn con n par) y cospxq son ejemplos
de funciones pares. Por otro lado, una función i P FpRq se dice impar si
ipxq “ ´ip´xq, para todo x P R.
Como ejemplos de funciones impares, tenemos 0, x, x3 (o de manera más general, xn con n impar)
y sinpxq.

Hay que tener cierto cuidado con la terminología que acabamos de introducir. El significado
de función par o impar no coincide con el concepto de número par o impar. Note por
ejemplo que 0, como número, es par pero no impar; sin embargo, como función, 0 es tanto
par como impar.

Toda f P FpRq da lugar a una función par y a una impar. En efecto, si a partir de f construimos la
función p : R Ñ R dada por
f pxq ` f p´xq
ppxq “ ,
2
tenemos que p es una función par (¡verifíquelo!). Similarmente, la función i : R Ñ R dada por
f pxq ´ f p´xq
ipxq “
2
89
es una función impar. Más aún, es claro que

f pxq “ ppxq ` ipxq, para todo x P R.

En otras palabras, toda función de R en R puede escribirse como suma de una función par más
una función impar. Entonces, si P y I denotan los subconjuntos de FpRq formados por todas las
funciones pares e impares, respectivamente, entonces

FpRq “ P ` I.

No olvide demostrar que tanto P como I son subespacios vectoriales de FpRq.


3. Considere el espacio vectorial Mnˆn pRq, junto con los subespacios formados por las matrices
simétricas y anti-simétricas:

S “ tA P Mnˆn pRq { A “ At u,
A “ tA P Mnˆn pRq { A “ ´At u.

Entonces,
Mnˆn pRq “ S ` A.
Para comprobar esto, se puede adaptar la idea del ejemplo anterior. A saber, primero notemos que
toda matriz A P Mnˆn pRq da lugar a una matriz simétrica y a una anti-simétrica, a saber,

A ` At A ´ At
y ,
2 2
respectivamente. Como ˆ ˙ ˆ ˙
A ` At A ´ At
A“ ` ,
2 2
se tiene entonces que Mnˆn pRq “ S ` A.

Observación 5.8

Con los ejemplos que hemos visto anteriormente, vale la pena preguntarse si la construcción W1 `
W2 es una buena generalización de la interpretación de R2 comentada al principio de esta sección.
La respuesta es no. El plano R2 tiene una propiedad de unicidad sobre sus elementos que W1 `W2
no necesariamente tiene. A saber, todo elemento px, yq de R2 está unívocamente determinado por
el valor de sus coordenadas. Sin embargo, puede darse el caso en donde un mismo vector v de
W1 ` W2 pueda representarse de dos maneras distintas, es decir w1 ` w2 “ v “ w11 ` w21 , donde
w1 , w11 P W1 , w2 , w21 P W2 , y w1 ‰ w11 o w2 ‰ w21 . Veamos a continuación un ejemplo de esto
último.

Ejemplo 40. Considere M2ˆ2 pRq con los siguientes subconjuntos:


"ˆ ˙ * "ˆ ˙ *
a ´a x y
W1 “ { a, b, c P R y W2 “ { x, y, z P R .
b c ´x z

A modo de ejercicio, demuestre que W1 y W2 son subespacios de M2ˆ2 pRq. Veamos que

M2ˆ2 pRq “ W1 ` W2 .

90
ˆ ˙
a b
Podemos escribir cada P M2ˆ2 pRq como
c d
ˆ ˙ ˆ ˙ ˆ ˙
a b a ` c ´a ´ c ´c a ` b ` c
“ ` ,
c d 0 d c 0
ˆ ˙ ˆ ˙
a ` c ´a ´ c ´c a ` b ` c
donde P W1 y P W2 . Posteriormente, veremos en el Ejemplo 41
0 d c 0
una forma más corta de notar que M2ˆ2 pRq “ W1 ` W2 .
La suma M2ˆ2 pRq “ W1 ` W2 no es directa. Considere por ejemplo la matriz identidad I2ˆ2 . Podemos
notar que ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 ´1 0 1 2 ´2 ´1 2
` “ I2ˆ2 “ ` .
0 2 0 ´1 ´1 0 1 1
Existe un tipo de suma de subespacios W1 ` W2 para el cual si es posible escribir cada v P W1 ` W2 de
forma única como v “ w1 ` w2 con w1 P W1 y w2 P W2 . Lo definimos a continuación.

Definición 5.11

Dados dos subespacios W1 y W2 de un espacio vectorial pV, K, `, ¨q, si para todo v P W1 ` W2


existen w1 P W1 y w2 P W2 únicos tales que v “ w1 ` w2 , entonces diremos que la suma W1 ` W2
es una suma directa, y la denotaremos por

W1 ‘ W2 .

Verificar la condición de la definición anterior para probar si una suma de subespacios es directa o no,
puede resultar poco práctico. Afortunadamente, existe el siguiente criterio para establecer cuándo una
suma de subespacios es directa o no.

Proposición 5.8

Sean W1 y W2 dos subespacios de un espacio vectorial pV, K, `, ¨q. Entonces, la suma W1 ` W2 es


directa si, y sólo si, W1 X W2 “ t0V u.

Demostración: Supongamos primero que la suma W1 ` W2 es directa, y consideremos w P W1 X W2 .


Notamos que w P W1 ` W2 . En efecto, como w P W1 , podemos representarlo como vector en W1 ` W2
al hacer
w “ w ` 0V ,
ya que 0V P W2 . Pero por otro lado, w “ 0V ` w con 0V P W1 y w P W2 . Entonces, para w tenemos dos
representaciones como vector en W1 ` W2 . Como W1 ` W2 es una suma directa, se trata de la misma
representación. Por lo tanto, w “ 0V .
Ahora supongamos que W1 X W2 “ t0V u y que v P W1 ` W2 posee dos representaciones de la forma
v “ w1 ` w2 y v “ w11 ` w21 donde w1 , w11 P W1 y w2 , w21 P W2 . Entonces,
w1 ` w2 “ w11 ` w21
w1 ´ w11 “ w21 ´ w2 .
Por un lado, w1 ´ w11 P W1 ya que W1 es un subespacio vectorial. De manera análoga, w21 ´ w2 P W2 .
Como w1 ´ w11 “ w21 ´ w2 , tenemos que w1 ´ w11 P W1 X W2 “ t0V u. Entonces, w1 ´ w11 “ 0V . De esto se
91
sigue que w1 “ w11 y w2 “ w21 . Por lo tanto, la representación v “ w1 ` w2 de v como vector en W1 ` W2
es única.
Pasemos ahora al cálculo de la dimensión de W1 ` W2 para el caso en el cual W1 y W2 son subespacios
de un espacio vectorial finito-dimensional pV, K, `, ¨q.

Teorema 5.4: un teorema de las dimensiones

Sea pV, K, `, ¨q un espacio vectorial finito-dimensional y W1 y W2 dos subespacios de V . Entonces,

dimK pW1 ` W2 q “ dimK pW1 q ` dimK pW2 q ´ dimK pW1 X W2 q.

Idea de la demostración: Para demostrar la igualdad enunciada, la idea es construir una base de W1 `
W2 convenientemente y contar sus elementos. Específicamente, a partir de una base de W1 X W2 , se
obtienen pases de W1 y de W2 por extensión. La unión de estas dos bases será una base de W1 ` W2 .
Demostración: Sea
B12 “ tw1 , . . . , wm u
una base de W1 X W2 , de donde dimK pW1 X W2 q “ m. Como B12 es un subconjunto linealmente
independiente de W1 , existe una base

B1 “ tw1 , . . . , wm , u1 , . . . , uk u

de W1 que contiene a B12 , donde dimK pW1 q “ m ` k. De manera similar, existe una base

B2 “ tw1 , . . . , wm , v1 , . . . , vl u

de W2 que contiene a B12 , donde dimK pW2 q “ m ` l. Veamos que

B “ B1 Y B2 “ tw1 , . . . , wm , u1 , . . . , uk , v1 , . . . , vl u

es una base de W1 ` W2 . Note que después de demostrar esto, la igualdad en el enunciado será una
consecuencia inmediata.

B es linealmente independiente: Supongamos que tenemos escalares –1 , . . . , –m , —1 , . . . , —k ,


“1 , . . . , “l P K tales que

–1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm ` —1 ¨ u1 ` ¨ ¨ ¨ ` —k ¨ uk ` “1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl “ 0V . (5.8)

Luego,
“1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl “ ´–1 ¨ w1 ´ ¨ ¨ ¨ ´ –m ¨ wm ´ —1 ¨ u1 ´ ¨ ¨ ¨ ´ —k ¨ uk .
Por un lado, “1 ¨v1 `¨ ¨ ¨`“l ¨vl P W2 . Por otro lado, ´–1 ¨w1 ´¨ ¨ ¨´–m ¨wm ´—1 ¨u1 ´¨ ¨ ¨´—k ¨uk P W1 .
Por lo tanto,
“1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl P W1 X W2 .
Luego, existen ”1 , . . . , ”m P K tales que

“1 ¨ v1 ` ¨ ¨ ¨ ` “l ¨ vl “ ”1 ¨ w1 ` ¨ ¨ ¨ ` ”m ¨ wm ,

es decir,
”1 ¨ w1 ` ¨ ¨ ¨ ` ”m ¨ wm ` p´“1 q ¨ v1 ` ¨ ¨ ¨ ` p´“l q ¨ vl “ 0V .

92
Como B2 “ tw1 , . . . , wm , v1 , . . . , vl u es linealmente independiente, tenemos que
”1 “ ¨ ¨ ¨ “ ”m “ “1 “ ¨ ¨ ¨ “ “l “ 0.
Entonces, la combinación lineal (5.8) pasa a ser:
–1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm ` —1 ¨ u1 ` ¨ ¨ ¨ ` —k ¨ uk “ 0V .
Ahora, recuerde que B1 “ tw1 , . . . , wm , u1 , . . . , uk u es linealmente independiente. De esto se sigue
que –1 “ ¨ ¨ ¨ “ –m “ —1 “ ¨ ¨ ¨ “ —k “ 0. Por lo tanto, todos los escalares en la combinación lineal
(5.8) son cero, por lo cual B “ B1 Y B2 es linealmente independiente.
B genera a W1 ` W2 : Sea v “ w1 ` w2 P W1 ` W2 , es decir, w1 P W1 y w2 P W2 . Como B1 es base
de W1 , existen –1 , . . . , –m , –m`1 , . . . , –m`k P K tal que
w1 “ –1 ¨ w1 ` ¨ ¨ ¨ ` –m ¨ wm ` –m`1 ¨ u1 ` ¨ ¨ ¨ ` –m`k ¨ uk .
De manera similar, existen —1 , . . . , —m , —m`1 , . . . , —m`l P K tales que
w2 “ —1 ¨ w1 ` ¨ ¨ ¨ ` —m ¨ wm ` —m`1 ¨ v1 ` ¨ ¨ ¨ ` —m`l ¨ vl .
Luego,
v “ w1 `w2 “ p–1 `—1 q¨w1 `¨ ¨ ¨`p–m `—m q¨wm `–m`1 ¨u1 `¨ ¨ ¨`–m`k ¨uk `—m`1 ¨v1 `¨ ¨ ¨`—m`l ¨vl .
Por lo tanto, B genera a W1 ` W2 .

Ejemplo 41. Volviendo al Ejemplo 40, calculemos la dimensión de W1 ` W2 obviando el hecho de que
conocemos que M2ˆ2 pRq “ W1 ` W2 . Por el teorema anterior, necesitamos conocer las dimensiones de
W1 , W2 y W1 X W2 . Por un lado, podemos notar que
„ˆ ˙ ˆ ˙ ˆ ˙⇢ „ˆ ˙ ˆ ˙ ˆ ˙⇢
1 ´1 0 0 0 0 1 0 0 1 0 0
W1 “ , , y W2 “ , , ,
0 0 1 0 0 1 ´1 0 0 0 0 1
"ˆ ˙ ˆ ˙ ˆ ˙* "ˆ ˙ ˆ ˙ ˆ ˙*
1 ´1 0 0 0 0 1 0 0 1 0 0
donde B1 “ , , y B2 “ , , son
0 0 1 0 0 1 ´1 0 0 0 0 1
bases de W1 y W2 , respectivamente. Por otro lado,
"ˆ ˙ * „ˆ ˙ ˆ ˙⇢
a ´a 1 ´1 0 0
W1 X W2 “ { a, b P R “ , ,
´a b ´1 0 0 1
"ˆ ˙ ˆ ˙*
1 ´1 0 0
donde B12 “ , es una base de W1 X W2 . Por lo tanto,
´1 0 0 1

dimR pW1 ` W2 q “ dimR pW1 q ` dimR pW2 q ` dimR pW1 X W2 q “ 3 ` 3 ´ 2 “ 4.


Tenemos así que W1 ` W2 es un subespacio de M2ˆ2 pRq de dimensión 4. Como dimR pM2ˆ2 pRqq “ 4,
concluimos que M2ˆ2 pRq “ W1 ` W2 .

Escrito en LATEX por:


Marco A. Pérez, Ph.D.
Profesor Adjunto Grado 3
Instituto de Matemática y Estadística “Prof. Ing. Rafael Laguardia”
Facultad de Ingeniería - Universidad de la República
Oficina 122
mperez@fing.edu.uy

93

También podría gustarte