[go: up one dir, main page]

0% encontró este documento útil (0 votos)
111 vistas64 páginas

Álgebra Lineal: Guía para Estudiantes

Este documento presenta los conceptos fundamentales del álgebra lineal, incluyendo sistemas de ecuaciones lineales, matrices, determinantes, vectores, espacios vectoriales, productos internos, transformaciones lineales y autovalores. El objetivo es estudiar estos temas en un entorno sencillo y concreto para comprender los fundamentos del álgebra lineal.

Cargado por

Baddy Akd
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
111 vistas64 páginas

Álgebra Lineal: Guía para Estudiantes

Este documento presenta los conceptos fundamentales del álgebra lineal, incluyendo sistemas de ecuaciones lineales, matrices, determinantes, vectores, espacios vectoriales, productos internos, transformaciones lineales y autovalores. El objetivo es estudiar estos temas en un entorno sencillo y concreto para comprender los fundamentos del álgebra lineal.

Cargado por

Baddy Akd
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 64

UNIVERSIDAD SALESIANA DE BOLIVIA

INGENIERIA DE SISTEMAS

“ALGEBRA LINEAL”
DOSSIER I/2016
DOCENTE: LIC. JAMES J. SARAVIA ZAMBRANA
SEMESTRE: TERCERO NOCHE

LA PAZ – BOLIVIA

Contenido
SISTEMAS DE ECUACIONES LINEALES.....................................................................................................................4
INTRODUCCION.-................................................................................................................................................4
METODO DE ELIMINACION.................................................................................................................................6
MATRICES...............................................................................................................................................................9
MATRICES: DEFINICIÓN, OPERACIONES Y PROPIEDADES BÁSICAS.....................................................................9
OPERACIONES CON MATRICES.........................................................................................................................10
METODO DE GAUSS JORDAN............................................................................................................................13
MATRICES Y SISTEMAS LINEALES......................................................................................................................16
DETERMINANTES..................................................................................................................................................18
DETERMINANTES: DEFINICIÓN Y PROPIEDADES...............................................................................................18
REGLA DE CRAMER...........................................................................................................................................21
RANGO.............................................................................................................................................................22
VECTORES.............................................................................................................................................................26
VECTOR: DEFINICIÓN, CONCEPTO....................................................................................................................26
OPERACIONES DE VECTORES............................................................................................................................27
ESPACIOS VECTORIALES.......................................................................................................................................33
INTRODUCCION................................................................................................................................................33
Subespacio.......................................................................................................................................................37
Combinaciones lineales. Dependencia e independencia de vectores..............................................................39
Sistema generador de un espacio vectorial......................................................................................................43
Envoltura lineal.................................................................................................................................................45
Base de un espacio vectorial............................................................................................................................45
PRODUCTO INTERIOR...........................................................................................................................................47
Introducción.....................................................................................................................................................47
Proyección........................................................................................................................................................49
Producto Vectorial............................................................................................................................................50
Productos Vectoriales en Términos de las Componentes.................................................................................52
Triple Producto Escalar.....................................................................................................................................52
TRANSFORMACIONES LINEALES...........................................................................................................................55
INTRODUCCION................................................................................................................................................55
COMPOSICIONES DE TRANSFORMACIONES LINEALES......................................................................................56
NUCLEO E IMAGEN...........................................................................................................................................57
LA MATRIZ DE UNA TRANSFORMACION LINEAL...............................................................................................59
AUTOVALORES.....................................................................................................................................................61
INTRODUCCION................................................................................................................................................61
El método de Leverrier.....................................................................................................................................62
POLINOMIO CARACTERÍSTICO..........................................................................................................................62
BIBLIOGRAFIA.......................................................................................................................................................64

ALGEBRA LINEAL
SISTEMAS DE ECUACIONES LINEALES

OBJETIVO.- “Estudiar los Sistemas de ecuaciones lineales, presentando conceptos centrales


del Álgebra lineal en un entorno sencillo y concreto.”

INTRODUCCION.-
Comenzaremos viendo un ejemplo del tipo de ecuaciones que vamos a estudiar:

2x + y = 5
x - y =1

Se trata de un sistema lineal de dos ecuaciones con dos incógnitas. Este sistema se puede
ver desde varias perspectivas:
- Desde el punto de vista geométrico, cada una de las dos ecuaciones representa una
recta en el plano. Resolver el sistema consiste en hallar (si los hay) los puntos de
corte de las dos rectas. Esa es la razón de que estos sistemas se llamen lineales.
- Desde el punto de vista algebraico, el problema consiste simplemente en hallar dos
números, x e y, que satisfagan las dos igualdades. Las ecuaciones son lineales
porque cada término (excepto los términos independientes) tiene grado 1.

Si nos quedamos en el marco algebraico, nada nos impide generalizar el concepto de


ecuación lineal a más de dos incógnitas, y el de sistema lineal a más de dos ecuaciones. Así,
tenemos las siguientes definiciones:

Ecuación lineal: Es una expresión de la forma


a1x1 + a2x2 + · · · + anxn = b, (1)
Donde a1, a2, . . . , an y b son números conocidos, y x1, x2, . . . , xn son incógnitas.
Una solución de la ecuación lineal (1) es una serie de números α 1, . . . , α n, que la
satisfagan, es decir, que verifiquen:
a1α1 + a2 α 2 + · · · + an α n = b.
Sistema lineal: Un sistema lineal de m ecuaciones con n incógnitas es una expresión de la
forma:
Donde cada fila es una ecuación lineal diferente, aunque las n incógnitas,
x1, . . . , xn, son las mismas para todas ellas.
Una solución del sistema lineal (2) es una serie de números α1, . . . , αn, que satisfagan las
m ecuaciones, es decir, tales que

Diremos que un sistema lineal es:

- compatible: si admite alguna solución,


- incompatible: si no la admite.

Dado un sistema compatible, diremos que es

- compatible determinado: si admite una única solución,


- compatible indeterminado: si admite más de una.

En este último caso veremos que admite infinitas soluciones.


Intersección de dos rectas en el plano. Tres casos posibles, según las rectas sean

1. Secantes Solución única.


2. Paralelas Ninguna solución.
3. Coincidentes Infinitas soluciones.

Intersección de dos o tres planos en el espacio (de dimensión 3).


Un caso especial importante de sistemas lineales es el siguiente:
Un sistema lineal se dice homogéneo si todos sus términos independientes son nulos. Es
decir, si es de la forma:
METODO DE ELIMINACION
Para resolver sistemas de ecuaciones de cualquier tipo, una de las estrategias más utilizadas
consiste en ir simplificando el sistema, de manera que sea cada vez más fácil de resolver,
pero que siga teniendo las mismas soluciones que el sistema original. Por tanto, debemos
usar el siguiente concepto:
Dos sistemas de ecuaciones lineales son equivalentes si toda solución de uno es también
solución del otro.
Algunas de las operaciones que se pueden aplicar a un sistema, de manera que se obtenga
un sistema equivalente, son las siguientes:
1. Intercambiar dos ecuaciones.
2. Multiplicar una ecuación por un escalar distinto de cero.
3. Anadir a una ecuación un múltiplo no nulo de otra.
Observemos como estas tres operaciones recuerdan mucho a las transformaciones
elementales que definimos para las filas de una matriz. En efecto, se trata esencialmente de
las mismas operaciones, puesto que a todo sistema lineal de m ecuaciones y n incógnitas, de
la forma

le podemos asociar su matriz de coeficientes:

y añadiéndole la columna de términos independientes, obtendremos la llamada matriz


ampliada:
Esta matriz contiene toda la información del sistema: cada fila corresponde a una ecuación.
Así, aplicar las operaciones arriba indicadas a un sistema, equivale a aplicar las
correspondientes transformaciones elementales de filas a su matriz ampliada.
El Método de eliminación de Gauss, para resolver un sistema lineal, consiste en aplicar al
sistema las tres operaciones básicas anteriores, de la siguiente forma:
Paso 1: Si es necesario, intercambiar la primera ecuación con otra, para que x1 aparezca en
la primera ecuación.
Paso 2: Eliminar x1 de cada ecuación (salvo la primera), sumándole un múltiplo adecuado de
la primera ecuación.
Paso 3: Ignorando temporalmente la primera ecuación, repetir todo el proceso con las
restantes ecuaciones, que forman un sistema de m−1 ecuaciones con menos de n
incógnitas.
Ejemplo 1.1 Resolver el sistema:

La última ecuación queda 0 = −4, por tanto este sistema es imposible de resolver:
El sistema no tiene solución.
Ejemplo 1.2 Resolver el sistema:

De la última ecuación se obtiene x3 = 2. Sustituyendo en la segunda ecuación, se tiene x2 =


2. Por último, sustituyendo estos dos valores en la primera ecuación, queda x1 = 1. Por tanto,
el sistema tiene solución única.
Ejemplo 1.3 Resolver el sistema:

La última ecuación, 0 = 0, se verifica siempre. La segunda ecuación nos dice que x2 =


5x3. Sustituyendo esto en la primera ecuación, obtenemos x1 = 1 − 4x3. Ya no quedan más
condiciones que imponer, por tanto, tenemos libertad para elegir el valor de x3. Si le damos,
por ejemplo, el valor x3 = 1, obtendremos la solución x1 = −3, x2 = 5, x3 = 1. Si le damos el
valor x3 = 0, obtendremos la solución x1 = 1, x2 = 0, x3 = 0. Y así podríamos seguir
indefinidamente. Es decir, tendremos una solución distinta para cada valor que le demos a
x3. Por tanto, el sistema tiene infinitas soluciones.

MATRICES
OBJETIVO.- “Estudiar las matrices como objeto matemático y su aplicación al estudio de los sistemas
de ecuaciones lineales.”

MATRICES: DEFINICIÓN, OPERACIONES Y PROPIEDADES BÁSICAS.


Una matriz m × n es una tabla de m filas y n columnas de escalares. Es decir, un objeto de la
forma

donde cada aij es un escalar.


Una vez vista la definición de matriz, fijaremos algunas notaciones:
Denotaremos Mm×n(K) al conjunto de matrices m×n, cuyo cuerpo de escalares es K. Si no
nos interesa especificar el cuerpo de escalares, escribiremos simplemente Mm×n.
Normalmente usaremos una letra mayúscula para denotar una matriz, y la misma letra en
minúscula, con los sub índices correspondientes, para denotar sus elementos o entradas.
Por ejemplo, escribiremos una matriz A ε Mm×n como sigue:

Si queremos especificar la letra que usaremos para los elementos de una matriz,
escribiremos A = (aij).
Comencemos a estudiar las propiedades de las matrices.
Diremos que dos matrices A y B son iguales si ambas tienen las mismas dimensiones (es
decir, A,B ε Mm×n), y además aij = bij para todo i, j 1 ≤ i ≤ m, 1 ≤ j ≤ n.
Dadas dos matrices A,B ε Mm×n, definimos su suma, A + B, como la matriz C ε Mm×n tal
que cij = aij + bij .
Dada una matriz A ε Mm×n(K) y un escalar α ε K, definimos su producto, αA, como la matriz
D ε Mm×n(K) tal que dij = α aij
Es decir, dos matrices de las mismas dimensiones se pueden sumar, termino a término,
dando lugar a otra matriz de la misma dimensión. Y también podemos multiplicar una matriz
por un escalar, dando lugar a otra matriz de las mismas dimensiones donde cada termino se
ha multiplicado por el escalar.

OPERACIONES CON MATRICES

Suma y resta de matrices

Para poder sumar o restar matrices, éstas deben tener el mismo número de filas y de
columnas. Es decir, si una matriz es de orden 3 X 2 y otra de 3 X 3, no se pueden sumar ni
restar. Esto es así ya que, tanto para la suma como para la resta, se suman o se restan los
términos que ocupan el mismo lugar en las matrices.

Ejemplo:

Para sumar o restar más de dos matrices se procede igual. No necesariamente para poder
sumar o restar matrices, éstas tienen que ser cuadradas.

Ejemplo:
Producto de matrices

Para poder multiplicar dos matrices, la primera debe tener el mismo número de columnas
que filas la segunda. La matriz resultante del producto quedará con el mismo número de filas
de la primera y con el mismo número de columnas de la segunda.
Es decir, si tenemos una matriz 2 X 3 y la multiplicamos por otra de orden 3 X 5, la matriz
resultante será de orden 2 X 5.
(2 X 3) X (3 X 5) = (2 X 5)
Se puede observar que el producto de matrices no cumple la propiedad conmutativa, ya que
en el ejemplo anterior, si multiplicamos la segunda por la primera, no podríamos efectuar la
operación.
3 X 5 por 2 X 3, puesto que la primera matriz no tiene el mismo número de columnas que
filas la segunda.
Supongamos que A = (ai j ) y B = (bi j ) son matrices tales que el número de columnas de

A coincide con el número de filas de B; es decir, A es una matriz m X p y B una matriz p X n.


Entonces el producto AB es la matriz m X n cuya entrada ij se obtiene multiplicando la fila i
de A por la columna j de B.
Esto es,

Ejemplo:

1.

2.
Producto por un escalar

El producto de un escalar k por la matriz A, escrito k·A o simplemente kA, es la matriz


obtenida multiplicando cada entrada de A por k:

Ejemplo:

Entonces:

División de matrices

La división de matrices se define como el producto del numerador multiplicado por la matriz

inversa del denominador. Es decir, sean las matrices A y B tal que A/B = AB-1:
Si una matriz está dividida entre un escalar, todos los términos de la matriz quedarán
divididos por ese escalar.
Ejemplo:

MATRICES INVERTIBLES

Se dice que una matriz cuadrada A es invertible, si existe una matriz B con la propiedad de
que
AB = BA = I
siendo I la matriz identidad. Denominamos a la matriz B la inversa de A y la denotamos por

A-1.
Ejemplo:

Puesto que AB = BA = I, A y B son invertibles, siendo cada una la inversa de la otra.

METODO DE GAUSS JORDAN

Sea A = (ai j ) una matriz cuadrada de orden n. Para calcular la matriz inversa de A, que

denotaremos como A-1, seguiremos los siguientes pasos:


Paso 1. Construir la matriz n X 2n M = (A I ) esto es, A está en la mitad izquierda de M y la
matriz identidad I en la derecha.
Paso 2. Se deja tal y como está la primera fila de M, y debajo del primer término de la
diagonal principal, a11, que llamaremos pivote, ponemos ceros. Luego se opera como se

indica en el siguiente ejemplo.


Ejemplo:
Consideremos una matriz 3 X 3 arbitraria

Paso 1.

Paso 2.
El siguiente paso es igual que el anterior, pero esta vez se coge como pivote el segundo
término de la diagonal principal.
Al llegar al último término de la diagonal, se procede igual que antes, pero poniendo los
ceros encima del nuevo pivote. Se observa que al coger como pivote el último término de la
diagonal, la matriz A se transforma en una matriz triangular.
Una vez realizados todos los pasos, la mitad izquierda de la matriz M se convierte en una
matriz diagonal. En este momento hay que proceder a transformar, si es que no lo está, la
mitad izquierda en la matriz identidad, dividiendo si fuera necesario las filas de M por un
escalar.
Ejemplo:
Supongamos que queremos encontrar la inversa de

Primero construimos la matriz M = (A I),


La mitad izquierda de M está en forma triangular, por consiguiente, A es invertible. Si hubiera
quedado toda una fila con ceros en la mitad A de M, la operación habría terminado (A no es
invertible).
A continuación, cogemos como pivote a33, ponemos ceros encima de éste y seguimos

operando hasta que nos quede una matriz diagonal.

Ya que la matriz colocada en la mitad izquierda es diagonal, no hay que operar más.
Transformamos la matriz diagonal en una matriz identidad; para ello hay que dividir la
segunda fila entre -1:

La matriz que ha quedado en la mitad derecha de M es precisamente la matriz inversa de A:

Para comprobar si el resultado es correcto, se procede a multiplicar AA-1, teniendo que dar
como resultado la matriz identidad I.

Comprobación: AA-1 = I

La matriz ampliada M de un sistema de m ecuaciones con n incógnitas es la siguiente:


Cada fila de M corresponde a una ecuación del sistema y cada columna a los coeficientes de
una incógnita, excepto la última, que corresponde a las constantes del sistema.

MATRICES Y SISTEMAS LINEALES

Para resolver sistemas de ecuaciones lineales, se aplica el método de Gauss. Este proceso
se ilustra en el siguiente ejemplo.
Ejemplo:

Sea el sistema,

Su matriz ampliada asociada es

Ahora resolvemos por el método de Gauss sabiendo que la primera columna corresponde a
los coeficientes de la x, la segunda a los de la y, la tercera a los de la z y la cuarta a los
términos independientes:
De este modo, el sistema tiene la solución única

x = 2, y = -1, z = 3.

La resolución de sistemas de ecuaciones lineales por matrices, aplicando el método de


Gauss u otros, es una de las múltiples aplicaciones que tienen éstas.
DETERMINANTES

OBJETIVO.- “Estudiar las determinantes como utilización en el cálculo de los eigenvalores.”

DETERMINANTES: DEFINICIÓN Y PROPIEDADES.

A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado

determinante de A, denotado por det (A), | A | o

Una tabla ordenada n x n de escalares situada entre dos líneas verticales, llamada
determinante de orden n, no es una matriz.
La función determinante apareció por primera vez en el estudio de los sistemas de
ecuaciones lineales. Veremos que es una herramienta indispensable en el estudio y
obtención de éstas.

DETERMINANTES DE ORDEN UNO Y DOS

Los determinantes de orden uno y dos se definen como sigue:

= a11

Así, el determinante de una matriz 1 x 1 A = (a11) es el propio escalar a11, es decir,

det (A) = |a11| = a11.


Ejemplos:

a) Dado que el determinante de orden uno es el mismo escalar, tenemos det (24) = 24,
det(-3) = -3, det (3x+5) = 3x+5.
b)

DETERMINANTES DE ORDEN TRES

Consideremos una matriz 3 x 3 arbitraria A = (ai j ). El determinante de A se define

como sigue:

a12a21a33 - a32a23a11

Obsérvese que hay seis productos, cada uno formado por tres elementos de la matriz.
Tres de los productos aparecen con signo positivo (conservan su signo) y tres con
signo negativo (cambian su signo).

Para calcular los determinantes de orden tres, el siguiente diagrama puede ayudar a
resolverlos:
Ejemplo:
Calcular el valor del determinante:

= 24 + 20 + 0 - (-4) - 0 - (-15) = 44 + 4 + 15 = 63

El determinante de la matriz 3 x 3 A = (ai j ) puede reescribirse como:

det (A) = a11(a22a33 - a23a32) - a12(a21a33 - a23a31) + a13(a21a32 - a22a31) =

que es una combinación lineal de tres determinantes de orden dos, cuyos coeficientes
(con signos alternantes) constituyen la primera fila de la matriz dada. Esta combinación
lineal puede indicarse de la forma siguiente:

Nótese que cada matriz 2 x 2 se obtiene suprimiendo en la matriz inicial la fila y la


columna que contienen su coeficiente.

Ejemplo:

Para demostrar que la propiedad anterior se cumple, trabajaremos con:


= 3(8+5) - 2(0-10) + 1(0+4) = 39 + 20 + 4 = 63

REGLA DE CRAMER

Los pasos a seguir para calcular los sistemas de ecuaciones según la regla de Cramer
son los siguientes:

1. Hallar la matriz ampliada (A b) asociada al sistema de ecuaciones, esto es: que la


primera columna esté formada por las entradas de los coeficientes de la primera
incógnita de las ecuaciones; que la segunda columna la formen las de la segunda
incógnita, y así hasta llegar a la última columna, que estará constituida por las entradas
de los términos independientes de las ecuaciones.
2. Calcular el determinante de A.
3. Aplicar la regla de Cramer, que consiste en:
a) ir sustituyendo la primera columna del det (A) por los términos independientes;
b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la
primera incógnita;
c) continuar sustituyendo los términos independientes en las distintas columnas para
hallar el resto de las incógnitas.

Ejemplo:
Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incógnitas:
Encontrar el valor de x e y mediante la regla de Cramer.
Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A b
asociada al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. Así pues:

Y el tercero y último paso consiste en calcular las incógnitas:

RANGO

A continuación, se estudiará la manera de saber de antemano si un sistema de


ecuaciones lineales tienen o no solución y si tienen una única o infinitas soluciones.

El estudio o discusión de los sistemas de ecuaciones se efectúa aplicando el teorema


de Rouché-Fröbenius. Éste dice que con un sistema de ecuaciones lineales pueden
ocurrir dos cosas:

1. Que el sistema de ecuaciones sea un sistema compatible (S.C.), esto es, que tenga
solución.

2. Que el sistema de ecuaciones sea un sistema incompatible (S.I.) o que no tenga


solución.
El primer caso puede dividirse en dos:
a) que sea un sistema compatible y determinado (S.C.D.), esto es, que tenga una
única solución;

b) que el sistema sea compatible e indeterminado (S.C.I.), es decir, que tenga infinitas
soluciones.

Sea un sistema no homogéneo:

En consecuencia, la matriz ampliada Ab asociada al sistema de ecuaciones es:

y el sistema será compatible cuando:


rango (A) = rango (A b), lo que suele expresarse diciendo que el rango de la matriz de
coeficientes coincide con el rango de la matriz ampliada.
Si el sistema anterior es compatible y rango (A) = rango (A b) = número de incógnitas,
el sistema es compatible y determinado, es decir, tiene una única solución.
Si, por el contrario, tenemos que rango (A) = rango (A b) < número de incógnitas, el
sistema es compatible e indeterminado, es decir, tiene infinitas soluciones.
Si rango (A), rango (A b), el sistema es incompatible y no tiene ninguna solución.

Ejemplos:

Discutir, sin resolver, los siguientes sistemas de ecuaciones:


Puesto que rango (A) = 1  rango (A b) = 2, el sistema es incompatible; no existe
ninguna solución.

Ya que rango (A) = rango (A b) = 2 = número de incógnitas, el sistema es compatible y


determinado; es decir, existe una única solución.
Puesto que rango (A) = rango (A b) = 1 < número de incógnitas, el sistema es compatible e
indeterminado; existen infinitas soluciones.
VECTORES

OBJETIVO.- “Estudiar los al cálculo vectorial, integrales de línea y superficie, y sistemas de


coordenadas.”

VECTOR: DEFINICIÓN, CONCEPTO

Si deseamos tener toda la información no solo necesitaremos conocer su intensidad, 60


km/h, además es necesario saber su dirección y sentido. No es lo mismo para un velero que
quiere llegar a puerto un viento de 60 km/h hacia el mar que hacia la costa.
Existen muchas magnitudes físicas cuya descripción completa exige conocer su intensidad y
dirección. Una forma de describir un viento a 60 km/h de forma sencilla es mediante una
flecha cuya longitud sea proporcional a su velocidad y que apunte en la dirección del viento.
A estas flechas se las denomina vectores, y a las magnitudes que miden vectoriales.
Existen muchas magnitudes físicas que se encuentran completamente determinadas con el
valor de su intensidad, por ejemplo la temperatura, T = 25o C. Estas magnitudes se las
denominan escalares.

Lo primero que debemos hacer es elegir cuál es la derecha e izquierda, cuál es el arriba y el
abajo, y dónde está adelante y atrás. Además, debemos poder medir la longitud de los
vectores. Esto es lo que se denomina elegir un sistema de coordenadas, el más simple de
los cuales es el cartesiano. La figura. (1.2) muestra la más común de todas las
representaciones de un sistema de coordenadas cartesiano. Se elige la derecha, u
orientación positiva, como aquella en la que el eje Z tiene el sentido del dedo pulgar de la
mano derecha al cerrar el resto de los dedos desde el eje X positivo al eje Y positivo Una vez
elegido nuestro sistema de coordenadas, solo hay que medir cuál es la longitud de nuestro
vector en cada una de las direcciones para obtener las componentes del vector.

Hay tres formas tradicionales de representar un vector. La primera consiste en escribir las
componentes del vector entre paréntesis separadas por comas, siendo la primera la
componente del vector en la dirección X, la segunda en la Y y la tercera en la Z.
V = (vx; vy; vz) (1.1)
La segunda consiste en escribir las componentes como una suma, multiplicando la
componente X por~i, la componente Y por ~j, y la componente Z por ~k. 1
~V= vx~i+ vy~j + vz~k (1.2)
La última forma de representar un vector consiste en dar el punto de origen del vector y el final. Por ejemplo en
la figura.(1.1), el vector velocidad se podría escribir como ~V = A~B ya que A es su origen y B el final. Para
pasar de esta notación a una de las anteriores, solo hay que restar las coordenadas del punto final B con el inicial
A. En la figura.(1.1) A = (0; 0; 0) y B =
(2; 2; 3) y la velocidad es
~V= ~ AB = B ¡ A = (2; 2; 3) ¡ (0; 0; 0) = (2; 2; 3) = 2~i + 2 ~j + 3 ~k (1.3)

OPERACIONES DE VECTORES

La figura.(1.3) muestra la suma de dos vectores, ~V + ~W . El procedimiento seguido para


obtener la suma vectorial es el siguiente; situamos el origen del vector ~W en el final del
vector ~V (el desplazamiento se realiza manteniendo la dirección y sentido del vector, es
decir paralelo al propio vector), el vector suma va desde el origen de ~V a la final de ~W , tal
como muestra la figura.(1.3).
Si conocemos las componentes de los dos vectores, la forma más sencilla de obtener la
suma vectorial es mediante una simple suma algebraica de las componentes vectoriales,
~V+ ~W = (vx + wx; vy + wy; vz + wz) =
= (vx + wx)~i + (vy + wy)~j + (vz + wz)~k (1.4)

Resta vectorial.

La resta de vectores, ~V y ~W, se muestra en la figura.(1.4). Para obtener el vector resta


situamos los vectores ~V y ~W desplazándolos paralelamente de forma que sus orígenes
coincidan. El vector resta es el que va desde la punta de ~V a la de ~W (ver figura.(1.4)).
Al igual que la suma, si conocemos las componentes de los dos vectores, la forma más
sencilla de obtener el vector resta es mediante la sustracción de las componentes de los dos
vectores ~V y ~W ,
V-~W = (vx-wx; vy-wy; vz-wz) = (vx-wx)~i+(vy-wy)~j+(vz-wz)~k (1.5)
Producto de un vector por un escalar.

Los escalares operan sobre los vectores estirándolos o contrayéndolos. Así, un vector ~V
multiplicado por un escalar c da lugar a otro vector ~W con la misma dirección que ~V, pero
cuya longitud final es mayor, si jcj > 1, o menor, si 0 < jcj < 1, y cuyo sentido es el mismo
Si c es positivo y contrario si es negativo (ver figura.(1.5)).
El producto por un escalar consiste en multiplicar todas las componentes del vector por el
escalar
~W= c ~V = c vx~i + c vy~j + c vz~k (1.6)

Módulo de un vector.
El módulo es la longitud total del vector. Cuando un vector representa una variable física, por
ejemplo la velocidad, el módulo es su magnitud o intensidad, perdiéndose toda información
sobre la dirección o sentido del vector.
En la figura. (1.6) todos los pájaros vuelan a la misma velocidad, pero con diferentes
direcciones y sentidos.
El módulo de un vector ~V se calcula como

Un vector cuyo módulo es 1 se denomina vector unitario. Es muy sencillo obtener un vector
unitario ~U en la dirección y sentido de cualquier otro vector. Es suficiente con dividir dicho
vector por su módulo. Por tanto, un vector unitario ~U con la misma dirección y sentido de
~W se obtiene como

Producto escalar.

El producto escalar de dos vectores ~V y ~W es un escalar que se obtiene como la suma del
producto de las componentes de los vectores
Otra forma equivalente de calcular el producto escalar es a partir del ángulo que forman los
dos vectores £

donde £ es el ángulo entre los dos vectores (ver figura.(1.7)). Si los dos vectores son
perpendiculares, £ = 90°, el producto escalar es cero.

La ´ultima ecuación es muy interesante, ya que nos permite de forma sencilla calcular el
coseno del ´ángulo entre dos vectores,

y por tanto determinar su ´ángulo £.

Producto Vectorial

En muchos casos es necesario calcular un vector perpendicular a otros dos vectores dados
~V y ~W . Esto es precisamente lo que permite el producto vectorial. El producto vectorial
~N = ~V X ~W es un vector ~N normal tanto a ~V como a ~W . El sentido de ~N viene
determinado por la regla de la mano derecha, ver figura.(1.9). Se define como
ESPACIOS VECTORIALES

OBJETIVO.- “Definir un espacio vectorial como una función que asigna a un vector a cada punto del
espacio”

INTRODUCCION

La noción de espacio vectorial, es el terreno donde se desarrolla toda el Algebra Lineal.


En matemática aplicada, por ejemplo en la estadística, el investigador trabaja con grandes
cantidades de datos que, en general, se presentan en la forma de tablas de n líneas y m
columnas de números reales, que para nosotros es una matriz. Las filas o columnas de este
arreglo, pueden ser interpretados como vectores o puntos de Rn o Rm.
La distancia de uno de estos puntos al origen, como se verá, puede ser asociada al concepto
de varianza en estadística y el ´ángulo que dos de estos vectores forman con el origen al
concepto de correlación. La regresión lineal puede considerarse como una proyección
ortogonal de un punto sobre un espacio vectorial.
De manera a conceptualizar correctamente el enfoque geométrico de algunas ramas de la
estadística y otras ramas, conviene considerar estos vectores como elementos de un espacio
vectorial y las tablas de números como matrices. Esta observación lleva naturalmente a
introducir los espacios vectoriales.
Las reflexiones anteriores ponen el acento en la importancia de espacios vectoriales
conformados por n-uplas de números reales. Sin embargo, muchas aplicaciones necesitan
también la consideración de espacios vectoriales de n-uplas de números complejos.
El juego de ajedrez (o todo otro juego) tiene un soporte, las fichas y el tablero, y un conjunto
de reglas que definen las “operaciones o jugadas posibles. Aún si es banal, cabe señalar que
ninguna ficha puede jugar fuera del tablero y que todas ellas pueden desplazarse sólo según
las reglas predefinidas del juego (por ejemplo, un caballo no puede desplazarse en línea
recta). La expresión “pueden este caso no significa una limitación absoluta, pero implica que
toda violación a las reglas significa que ya no se trata de un juego de ajedrez. . .
Sea (K, +, ) un cuerpo. Diremos que un conjunto dotado de una operación interna + y
otra externa  sobre el cuerpo tiene estructura de espacio vectorial si cumple las
siguientes propiedades:
1. (E, +)es un grupo abeliano
2.  es una operación que va del producto cartesiano K x E en el conjunto :

verificando las siguientes propiedades:

2.1. Distributiva respecto de la suma de vectores:


2.2. Distributiva respecto de la suma de escalares:

2.3. Asociativa mixta:

2.4. Producto por el elemento unidad del cuerpo:

Siguiendo esta definición de lo que es un espacio vectorial, a partir de las propiedades que
todos sabemos de la suma y producto de números reales (sabemos que (R, +, ) es un
cuerpo, lo que implica, en particular, que (R, +) y (R *, ) son grupos), se demuestra muy
fácilmente que, por ejemplo, el espacio de los vectores del plano con las operaciones de
suma de vectores y producto de un escalar con un tenemos:

Entonces se tiene que

Es un espacio vectorial sobre IR.


Sin embargo, si ahora consideramos (R 3, +, ) estando definidas estas operaciones como
sigue:
se tiene que (R3, +, ) no es un espacio vectorial sobre , pues falla la propiedad de
producto por el elemento de unidad del cuerpo, ya que

ejemplos de espacios vectoriales

1) , la recta numérica, con las operaciones habituales de adición y multiplicación.


2) Sea N el conjunto de los números naturales.

Entonces n ={v=(x1, x2, . . . , xn)|x i  ,i[1,n]ÌN}, con la adición y multiplicación por

escalares definidas por:


(x1, x2,…, xn )+(y1,y2,…,yn ) = (x1+y1, x2+y2,…, xn+yn )

a( x1, x2,…, xn ) = (a x1 , a x2 ,…, a xn )

3) El conjunto de las funciones reales continuas definidas sobre un intervalo [a,b]

,que denotamos por . Es decir, ={f|f es continua en [a,b]}. Las operaciones son:
(f+g)(x)=f(x)+g(x)
(f)(x)=f(x)

f,g ,x[a,b], .
Este es uno de los espacios de funciones más importante en Análisis Matemático.

4) mxn, el espacio de las matrices reales de orden mxn, con m, n  N.

mxn = { A : A es una matriz real de orden mxn}. Las operaciones son:

A+B=C,a ij +b ij =c ij ,

B=A,b ij =a ij ,

A,B,C mxn ,(i,j)1,m]x[1,n],  .


5) El espacio de las sucesiones reales

l2 = {v = (x1, x2, .. , xn, ...): < ¥}, con las operaciones:


i) (x1 , x2 ,...,xn ,...)+(y1 , y2 ,...,yn ,...) = (x1 + y1 , x2 +y2 ,...,x + yn ,...)

ii)  (x1 , x2 , ..., xn , ...) = (  x1 ,  x2 , ... ,  xn , ...)

(x1 ,x2 ,...,xn ,..),(y1 ,y2 ,...,ym ,..)l 2 , 

La verificación que todas las propiedades para la adición y multiplicación por escalares se
cumplen es bastante simple en todos los casos, excepto quizás en el ejemplo 5. Veremos
este caso como ejercicio. En realidad, la única dificultad consiste en demostrar que la suma
de dos sucesiones en l2 es también una sucesión en l 2. En efecto, si (x1,x2, .., xn, ...) e (y1 ,

y2 , ... ,yn) están en l2 , entonces

|xn|2 < ¥, |yn|2 < ¥

Para la sucesión suma :

|xn + yn|2 £

= |xn|2 + 2 |xn| |yn| + |yn|2

Pero: (|x n |-|y n |) 2 >0, luego:

| x n | 2 -2|x n ||y n |+|y n | 2 >0

\|x n | 2 +|y n | 2 >2|x n ||y n |

así: |xn + yn|2 £ |xn|2 + ( |xn|2 + |yn|2 ) + |yn|2

=2 |xn|2 + 2 |yn|2 < ¥

lim x = x
6) El espacio de las sucesiones reales convergentes c={v=(x1,x2,...): }, con las
n
n →∞

operaciones:
i) (x1 , x2 ,.....)+(y1 , y2 ,.....) = (x1 + y1 , x2 +y2 ,.....)

ii)  (x1 , x2 , ..., xn , ...) = (  x1 ,  x2 , .....)


(x1 ,x2 ,.....), (y1 ,y2 ,.....)c, 

lim x =0
7) El espacio de las sucesiones reales convergentes a cero c 0={v=(x1,x2, ...): },
n
n →∞

con las operaciones del ejemplo 6.


8) El conjunto de todas las sucesiones numéricas acotadas m={v=(x1,x2, ...): xi< x, 
i=1,, para algún x }, con las operaciones del ejemplo 6.

9) El conjunto ={v=(x1,x2, ...)}, de todas las sucesiones, con las operaciones del
ejemplo 6.

Subespacio
Dado un espacio vectorial , diremos que un subconjunto H ⊆ E es un subespacio
vectorial si ese conjunto tiene estructura de espacio vectorial.
Existe una caracterización que nos facilita comprobar si un subconjunto de un espacio

vectorial es o no subespacio vectorial: Dado espacio vectorial y dado H ⊆ E , diremos


que es un subespacio vectorial de , si y solamente si, se cumple:

escalares, para todo par de vectores

y se verifica:

ejemplos de subespacios vectoriales

1) Sea V un espacio vectorial (e.v.) y sea vV, fijo, v¹0. El conjunto


U = {lv :lÎ } es un subespacio (unidimensional) de V. Por cierto, U es subespacio
propio si la dimensión de V es mayor que 1.
La verificación de que U es subespacio es rápida. En primer lugar U¹F, luego si
u,wÎU,a,bÎ , entonces:
au+bw =a(l 1 v)+b(l 2 v)

=(al 1 +bl 2 )vÎU

2) El espacio es un subespacio (de dimensión infinita), del espacio de todas las


funciones reales (es decir funciones reales continuas y discontinuas).

3) U={vÎ n :x 1 =0} es un subespacio propio de n, sin embargo,

U ={vÎ n :x 1 = x 2 +1} no lo es (¿Por qué?).

4) Sea U = {u Î : u es un polinomio de grado n} es un subespacio propio de y de


dimensión finita.
5) l2 es un subespacio propio de c0.

6) c0 es un subespacio propio de c.

7) c es un subespacio propio de m.

8) m es un subespacio propio de .

Definición de Dependencia e Independencia de un subespacio.

Hemos visto la definición de espacio vectorial, vamos ahora a concretar algunas propiedades
que tiene la operación externa.

Propiedades de la operación
Sea (E,+,) un espacio vectorial. Entonces, se verifica:
1.

2.

3.
ó
4.

5.

6.
Simplificación de escalares:

7.
Simplificación de vectores:

De la estructura de espacio vectorial sabemos que si sumamos dos vectores el resultado va


a ser un vector. También sabemos que si multiplicamos un escalar por un vector, el resultado
será un vector. Uniendo estos resultados, llegamos a las siguientes definiciones:

Combinaciones lineales. Dependencia e independencia de vectores


Decimos que un vector es combinación lineal de los vectores

si existen unos escalares

de forma que

Por ejemplo, el vector (1,3,6) es combinación lineal de los vectores {(0,1,2),(1,1,2),(3,5,−7)} ,

pues existen los escalares α 1=2 , α 1=1 α 1=0 , verificándose

Diremos que los vectores


son linealmente independientes si la igualdad

es únicamente cierta cuando los escalares

son todos iguales a cero. Entonces se dice que forman un sistema libre. En caso contrario
se dirá que los vectores son linealmente dependientes, o que forman un sistema ligado.

Por ejemplo, en

(con las operaciones usuales + y ), se tiene que los vectores(1,0) y (0,1) son linealmente
independientes, ya que si buscamos los escalares ,

tales que

haciendo operaciones, llegamos a que tiene que ser

.
Como sabemos, dos vectores son iguales si lo son componente a componente, lo que
implica, automáticamente, que y

luego, según la definición, son linealmente independientes.

Sin embargo, también en

los vectores (1,3) y (2,6) no son linealmente independientes, pues al buscar los escalares
,

tales que

haciendo operaciones, llegamos a que tiene que ser

Aplicando de nuevo que dos vectores son iguales si lo son componente a componente,

obtenemos

es decir, nos hemos trasladado al mundo de la resolución de sistemas de ecuaciones.


Ahora, con lo que sabemos sobre sistemas lineales, resolviendo se tiene que
y

¿Qué me dice esto sobre los vectores? Que son linealmente dependientes. Es claro que si
decimos , entonces, automáticamente ,

lo que podría conducirnos a concluir (erróneamente) que los vectores son linealmente

independientes. Sin embargo, la definición nos dice que y han de ser únicos. Ahora, si

hacemos , automáticamente y también verifican la relación

lo que nos hace ver que no son únicos y, por tanto, los vectores no son linealmente
independientes.

Lo importante de aquí es darse cuenta de que el concepto de dependencia e independencia


lineal se ha trasladado al estudio de las soluciones de un cierto sistema de ecuaciones
homogéneo. La existencia de una única solución (que, por ser homogéneo el sistema, será la
nula) me dice que los vectores son linealmente independientes, y la existencia de más de
una solución, que los vectores son linealmente dependientes.

Mencionamos unas propiedades referentes a dependencia/independencia lineal de un


conjunto de vectores, y después introduciremos tres conceptos importantes: sistema
generador de un espacio vectorial, envoltura lineal de un conjunto de vectores y base de un
espacio vectorial.
1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los
vectores es combinación lineal de los demás.
2. Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo
también lo es.
Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es
combinación de los demás, escogiendo sólo unos cuantos, no podrán ser combinación
de los otros.
3. Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto
que lo contenga.
Ya que un conjunto de vectores es linealmente dependiente si y sólo si tiene algún
vector que es combinación lineal de los demás, si metemos este conjunto de vectores
en otro más grande, seguimos teniendo el vector que es combinación lineal de otros,
por tanto, el conjunto más grande sigue siendo linealmente dependiente.
Definición de Base y dimensión.

Sistema generador de un espacio vectorial


Decimos que un conjunto de vectores

es un sistema generador del espacio vectorial al cual pertenece si cualquier vector de dicho
espacio se puede poner como combinación lineal de ellos.

Por ejemplo, los vectores(1,0) y (0,1) forman un sistema generador de

(+, las operaciones usuales), ya que si cogemos cualquier

de igualar
se tiene enseguida que ha de ser y

Por ejemplo, si (x,y) = (1,3), tendremos y

No todos los conjuntos de vectores forman un sistema generador de un espacio vectorial. Por
ejemplo, los vectores (3,-1,2) y (1,0,-1) no forman un sistema generador de .

Si lo fueran,

tales que

Pero esto implica, escribiéndolo como un sistema, que:

Es decir, tenemos que

Por tanto, sustituyendo en la primera ecuación,


Como debe verficarse cada ecuación, sustituyendo y  en la última tenemos que, para que

sea sistema generador de se ha de cumplir la relación

Evidentemente, esto no es cierto para todos los vectores del espacio. Si tomamos, en
particular, el (0,0,1), vemos que la coordenada no verifica la relación. Por tanto, el sistema
dado no es un sistema generador de .

Envoltura lineal
Al conjunto de todos los vectores que son combinación lineal de los vectores

se le llama envoltura lineal de los vectores

y se representa

Base de un espacio vectorial


Decimos que los vectores

son base del espacio vectorial al cual pertenecen si cumplen dos condiciones:

 Han de ser linealmente independientes.


 Han de formar un sistema generador del espacio vectorial .

Todas las bases de un espacio vectorial tienen el mismo número de elementos, al que se le
llama dimensión del espacio vectorial. La siguiente base del espacio vectorial es la
conocida como base canónica:
Hay que notar que un sistema generador de un espacio vectorial de dimensión debe tener
al menos vectores, pero si tiene no tiene por qué ser un sistema generador.

Un ejemplo simple e inmediato lo vemos con el espacio

siendo + y las operaciones usuales, y escogiendo los vectores

.
Estos dos vectores, al ser proporcionales, generarían únicamente una recta, pero no todo el
plano.
PRODUCTO INTERIOR

OBJETIVO.- “Generalizar a partir del producto escalar entre vectores al concepto que se llamara producto
interior”

Introducción
El producto interior o producto escalar de dos vectores a y b en el
espacio tridimensional se escribe a · b y se define como
a · b  = |a| |b| cos  cuando a  0, b  0
a · b  = 0 cuando a = 0 o b = 0
 
aquí  (0     ) es el ángulo entre a y b (calculado cuando los vectores
tienen sus puntos iniciales coincidentes).

El valor del producto interior (escalar) es un escalar (un número real) y


esto motiva el término producto escalar. El coseno del ángulo  puede ser
positivo, cero o negativo, lo mismo se aplica al producto interior.

Observamos que el coseno es cero cuando  = 0.5  = 90°.

 Teorema de Ortogonalidad. Dos vectores diferentes de cero son


ortogonales sí, y sólo si, su producto interior (escalar) es cero.
 Se tienen las siguientes propiedades:
 

|a|  = a0

=
cos   

(q1a + q2b) . c  = q1a . c + q2b . c Linealidad

a . b  = b . a  Simetría

a . a   0 Ser positivo definido

a . a  = 0 sólo si a = 0

(a + b). c  = a . c + b . c Distributividad

|a . b|   |a| |b| Desigualdad de Schwarz

|a + b|   |a| + |b| Desigualdad del Triángulo

|a + b|2 + |a - b|2  = 2(|a|2 + |b|2) Igualdad del Paralelogramo

Si los vectores a y b se representan en términos de sus componentes:

a = a1i + a2j + a3k b = b1i + b2j + b3k

su producto interior está dado por la siguiente fórmula

a . b = a1b1 + a2b2 + a3b3

 
Proyección

Consideremos dos vectores a y b diferentes de cero, denotando por  el


ángulo entre ellos. El número real

p = |a| cos 

se llama componente de a en la dirección de b o proyección de a en la


dirección de b. Si a = 0 entonces  no está definido y se hace p = 0.

|p| es la longitud de la proyección ortogonal de a sobre una recta l en la


dirección de b. p puede ser positiva, cero o negativa.

A partir de lo anterior se ve que, en particular, las componentes de un


vector a en las direcciones de los vectores unitarios i, j, k de la triada
fundamental asociada con un sistema coordenado cartesiano son las
componentes a1, a2, a3 de a como se vio anteriormente. Esto indica que el
término "componente" es simplemente una generalización.
Producto Vectorial

Varias aplicaciones sugieren la introducción de otro tipo de multiplicación


vectorial en la que el producto de dos vectores sea nuevamente un vector.
Este producto vectorial de los dos vectores a y b se escribe

axb

y es un vector definido como sigue.


Si a y b tienen la misma dirección,
son opuestos o uno de ellos es el
vector cero, entonces su producto
vectorial es cero (v=0). En cualquier
otro caso, v es el vector cuya longitud
es igual al área del paralelogramo
con a y b como lados adyacentes y
cuya dirección es perpendicular tanto
a a como a b y es tal que a, b, v, en
ese orden, forman una terna derecha
o triada derecha.
El término derecho se debe al hecho
de que los vectores a, b, v, en ese
orden, toman la misma orientación
que los dedos pulgar, índice y medio
de la mano derecha cuando se
colocan como se muestra en la figura
de al lado. También puede decirse qu
si a se gira hacia la dirección de b ,
describiendo el ángulo    ,
entonces v avanza en la misma
dirección que un tornillo de rosca
derecha, si este se gira en el mismo
sentido.

El paralelogramo donde a y b son los


lados adyacentes tiene el área |a| |b|
sen  . Se obtiene

|v| = |a| |b| sen 


 El producto vectorial es
anticonmutativo, si a x b = v y b x a =
w. Entonces |v| = |w| y para que b, a,
w formen una terna derecha debe
cumplirse que w = -v. De lo anterior
se obtiene

b x a = - (a x b)

La multiplicación vectorial de
vectores no es conmutativa, sino
anticonmutativa.
El orden de los factores en un producto vectorial tiene gran importancia y
debe observarse cuidadosamente.

Propiedades:
(ka) x b = k(a x b) = a x (kb)
a x (b + c) = (a x b) + (a x c)
(a + b) x c = (a x c) + (b x c)
     
La multiplicación vectorial no es asociativa, es decir,
 
a x (b x c)  (a x b) x c
     
Para calcular la longitud (magnitud) de un producto vectorial se puede
emplear:
     

|a x b| =

     

Productos Vectoriales en Términos de las Componentes

Considerando un sistema cartesiano derecho

axb =

 
Respecto al primer renglón, debe tenerse presente que éste no es un
determinante ordinario puesto que los elementos del primer renglón son
vectores.

Triple Producto Escalar

En las aplicaciones se presentan con frecuencia productos de vectores que


tienen tres o más factores. El más importante de estos productos es el
triple producto escalar o triple producto mixto a . (b x c) de tres vectores.
Con respecto a cualquier sistema de coordenadas cartesianas derecho,
sean
a = a1i + a2j + a3k b = b1i + b2j + b3k c = c 1i + c 2j + c 3k
 

a . (b x c) = 

   
a . (b x c) = 

   
   
Denotando el triple producto escalar a . (b x c) por (a b c), se tiene lo
siguiente:
 
(a b c) =  - (b a c)
 
(a b c) =  (b c a) = (c a b)
 
a . (b x c) =  (a x b) . c)
 
(ka b c) =  k(a b c)
 
 
El valor absoluto del triple
producto escalar (a b c)
tiene una interpretación
geométrica sencilla. Es
igual al volumen del
paralelepípedo P con a, b,
c, como aristas
adyacentes.

El valor del triple producto


escalar es un número real
independiente de la
elección de las
coordenadas derechas en
el espacio.

Dependencia Lineal Tres vectores forman un conjunto linealmente


dependiente si, y sólo si, su triple producto escalar es cero.
 
a x (b x c) =  (a . c)b - (a . b)c
 
(a x b) . (c x d) =  (a . c)(b . d) - (a . d)(b . c)
 
(a x b) x (c x d) =  (a b d)c - (a b c)d
TRANSFORMACIONES LINEALES

OBJETIVO.- “Definir conceptos de transformaciones lineales, definiendo las Funciones Vectoriales y sus
características”

INTRODUCCION
El algebra lineal puede ser presentado desde tres puntos de vista equivalentes:
transformaciones lineales, matrices o formas cuadráticas. De modo que interesa conocer a
las transformaciones lineales, que son funciones de un espacio vectorial en otro tal que
preserva la estructura de espacio vectorial.
Sean V, W espacios vectoriales. Una transformación lineal es una función T: V! W que asocia
a cada vector v 2 V un ´único vector T(v) = T · v 2 W de modo que, para cualesquiera u, v 2 V
y _ 2 R, se tengan:
(i) T(u + v) = Tu + Tv,
(ii) T(_v) = _Tv.
Si T : V ! W es una transformación lineal, entonces T · 0 = 0. En efecto, T · 0 = T(0 · v) = 0 ·
Tv = 0. Además, dados u, v 2 V y _, _ 2 R, se tiene T(_u + _v) = T(_u) + T(_v) = _ · Tu + _ ·
Tv. Más generalmente, dados v1, . . . , vn en V y _1, . . . , _n 2 R, entonces vale: T(_1v1 + · ·
· + _nvn) = _1Tv1 + · · · + _nTvn. De ahí resultan: T(−v) = −Tv y T(u − v) = Tu − Tv.
La suma de dos transformaciones lineales T, S : V ! W y el producto de una transformación
lineal T: V! W por un numero _ 2 R son las transformaciones lineales
T + S: V! W y _T: V! W, definidas respectivamente por (T + S)v = Tv + Sv y (_T)v = _Tv, para
todo v 2 V . El símbolo 0 indica la transformación lineal 0 : V ! W, definida por 0 · v = 0 y,
definiendo −T : V ! W por (−T) · v = −Tv, se ve que (−T) + T = T + (−T) = 0.
Sea L(V ;W) el conjunto de todas las transformaciones lineales de V en W. Las definiciones
hechas anteriormente, hacen de L(V ;W) un espacio vectorial. Cuando V = W, usaremos la
notación L(V ) en lugar de L(V ; V ).
Una transformación lineal especial es la transformación identidad I : V ! V , definido por I · v =
v para todo v 2 V . Cuando fuera necesario especificar, escribiremos IE en vez de I.
En general, para definir una función f : X ! Y es necesario especificar el valor f(x) para cada
elemento x 2 X, sin embargo, para una transformación lineal T 2 L(V ;W), basta conocer los
valores Tv para v en una base B de V . Más precisamente, vale el Teorema 5. Sean V , W
espacios vectoriales y B una base de V . A cada vector u 2 B, hagamos corresponder (de
manera arbitraria) un vector u0 2 W. Entonces existe una única transformación lineal T : V !
W tal que T · u = u0 para cada u 2 B.
La rotación de un ´ángulo _ en torno al origen en R2, es una transformación lineal R : R2 !
R2, que lleva a cada vector v en el vector Rv que resulta por la rotación de un ángulo _ en
torno al origen. Más precisamente, R está definida por

La recta y = ax es el conjunto de los puntos (x, ax) 2 R2, donde x varia en R. Ella es el
subespacio vectorial de R2 generado por el vector (1, a). Consideremos P : R2 ! R2 que hace
corresponder a cada vector v = (x, y) 2 R2 el vector Pv = (x0, ax0), cuya extremidad en dada
por la perpendicular bajada de v sobre la recta y = ax. Más precisamente

COMPOSICIONES DE TRANSFORMACIONES LINEALES


NUCLEO E IMAGEN
Ahora veremos que la posibilidad de que una transformación lineal admite o no inversa, está
asociado a la existencia y la unicidad de la solución de un sistema de ecuaciones lineales.
Además introduciremos el concepto de isomorfismo, que dará un sentido preciso a la
afirmación de que dos espacios vectoriales de la misma dimensión son algebraicamente
indistinguibles. Todo comienza con el núcleo y la imagen de una transformación.
LA MATRIZ DE UNA TRANSFORMACION LINEAL
AUTOVALORES

OBJETIVO.- “Caracterizar con los escalares que provienen de Matrices cuadradas de acuerdo algunas
definiciones”

INTRODUCCION

El cálculo de los valores propios y de los vectores propios de una matriz simétrica tiene gran
importancia en las matemáticas y en la ingeniería, entre los que cabe destacar, el problema
de la diagonalización de una matriz, el cálculo de los momentos de inercia y de los ejes
principales de inercia de un sólido rígido, o de las frecuencias propias de oscilación de un
sistema oscilante.

Se denominan valores propios o raíces características de una matriz cuadrada A, a los


valores de  tales que.

Desarrollando el determinante tenemos un polinomio de grado n. Trataremos de encontrar


los coeficientes del polinomio, y luego aplicaremos un método de hallar las raíces del
polinomio. Este procedimiento es apropiado cuando se presentan valores propios que no son
reales sino complejos.

Una vez hallados los valores propios, para hallar el vector propio X correspondiente al valor
propio  es necesario resolver el sistema homogéneo

donde el vector X es  Siempre podemos tomar x0 como 1, y hallar las otras
n-1 incógnitas. De las n ecuaciones podemos tomar n-1, y resolver el sistema lineal.
El método de Leverrier

Dada una matriz cuadrada A de dimensión n. El polinomio característico de la matriz es

Los coeficientes se hallan mediante las siguientes relaciones

                                          (1)

Los valores s1, s2, ... sn son las trazas de las potencias de la matriz cuadrada A.

La traza de una matriz es la suma de los elementos de su diagonal principal.

POLINOMIO CARACTERÍSTICO

polinomio característico y encontrar sus raíces. Cada raíz de será


un valor propio de . Los vectores propios pueden obtenerse directamente . Debido a que
los valores propios resultan ser las raíces del polinomio característico, éstos pueden ser
reales o complejos, diferentes o repetidos.
Consideremos una matriz n-cuadrada arbitraria:

 
La matriz (A - l·In), donde In es la matriz identidad n-cuadrada y l un escalar
indeterminado, se denomina matriz característica de A:
 

 
Su determinante, det (A - l·In) , que es un polinomio en l, recibe el nombre de polinomio
característico de A. Asimismo, llamamos a det (A - l·In) = 0
  ecuación característica de A.
 Ejemplo 1:
 Hallar la matriz característica y el polinomio característico de la matriz A:

 
  La matriz característica será (A - l·In). Luego:

 
  y el polinomio característico,

 
 
Así pues, el polinomio característico es: l 2 - l + 4.
BIBLIOGRAFIA
- HOWARD ANTON “Introducción al Álgebra Lineal” (México) LIMUSA 1989.

- HIKBERT STRANG “Algebra Lineal y sus aplicaciones” (USA) Addison Wesley 1980.

- SERGE LANG “Introducción al Álgebra Lineal” (USA) Addison Wesley 1990.

También podría gustarte