[go: up one dir, main page]

0% encontró este documento útil (0 votos)
69 vistas19 páginas

Solución de Sistemas Sobredimensionales

El documento presenta información sobre matrices y su aplicación para resolver sistemas de ecuaciones lineales. Define conceptos básicos de matrices, tipos de matrices, operaciones matriciales y métodos para resolver sistemas de ecuaciones lineales como eliminación de Gauss y regla de Cramer.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
69 vistas19 páginas

Solución de Sistemas Sobredimensionales

El documento presenta información sobre matrices y su aplicación para resolver sistemas de ecuaciones lineales. Define conceptos básicos de matrices, tipos de matrices, operaciones matriciales y métodos para resolver sistemas de ecuaciones lineales como eliminación de Gauss y regla de Cramer.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 19

 

UNIVERSIDAD NACIONAL DE SAN CRISTOBAL DE HUAMANGA


FACULTAD DE INGENIERIA DE MINAS ,GEOLOGIA Y CIVIL
ESCUELA PROFESIONAL DE INGENIERA DE MINAS
”AÑO DE LA LUCHA CONTRA LA CORRUPCION Y LA IMPUNIDAD ”

MATRICES. SOLUCIÓN DE SISTEMA


SOBREDIMENSIONALES
CURSO: METODOS NUMERICOS
DOCENTE: Ing. CCATAMAYO BARRIO, JOHNNY HENRRY
GRUPO: N°7
INTEGRANTES:
• LA TORRE APAICO, ANDRE SEBASTIAN
• LIMO CABRERA, RAFAEL
• MAMANI PARIONA, LUZ CLARITA
• QUISPE LABIO, MARIBEL
• QUISPE TINOCO, FATIMA CRISTINA

AYACUCHO-PERÚ
objetivos
 OBJETIVO GENERAL: Resolver problemas inherentes al perfil profesional, mediante la
aplicación de los conceptos del álgebra lineal utilizando programas informáticos,
aportando de esta manera a una mejor formación en el pensamiento matemático de
cada alumno.
 OBJETIVOS ESPECÍFICOS: Definir una matriz, tipos y operaciones básicas. Resolver
sistemas de m ecuaciones lineales con n variables, e interpretar sus soluciones. Aplicar
los sistemas de ecuaciones lineales a problemas referentes a la profesión de ingeniería
de minas. Calcular determinantes, la matriz adjunta y la inversa de una matriz Estudiar
las transformaciones lineales y sus aplicaciones a gráficas por computadoras
MATRICES
1. DEFINICION:
• Las matrices y los determinantes son herramientas del álgebra que facilitan el
ordenamiento de datos, así como su manejo.
• Las matrices se utilizan para describir sistemas de ecuaciones lineales, y registrar
los datos que dependen de varios parámetros.
• Las matrices se describen en el campo de la teoría de matrices. Pueden
descomponerse de varias formas.
• Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos)
ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de
la matriz y una columna es cada una de las líneas verticales. A una matriz con m filas y n
columnas se le denomina matriz m-por-n (escrito m×n), y a m y n dimensiones de la
matriz.
CLASIFICACION DE MATRICES:
 Matriz fila: Una matriz fila está constituida por una sola fila.
 Matriz columna: La matriz columna tiene una sola columna.
 Matriz rectangular: La matriz rectangular tiene distinto número de filas que de columnas, siendo
su dimensión m x n.
 Matriz cuadrada: tiene el mismo número de filas que de columnas.
 Matriz nula: En una matriz nula todos los elementos son ceros.
 Matriz triangular superior: En una matriz triangular superior los elementos situados por debajo
de la diagonal principal son ceros.
 Matriz diagonal: En una matriz diagonal todos los elementos situados por encima y por debajo de
la diagonal principal son nulos.
 Matriz triangular inferior: En una matriz triangular inferior los elementos situados por encima de
la diagonal principal son ceros.
 Matriz escalar: Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal
principal son iguales.
 Matriz traspuesta: Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene
cambiando ordenadamente las filas por las columnas
 Matriz simétrica: Una matriz simétrica es una matriz cuadrada que verifica:
OPERACIONES CON MATRICES
 SUMA Y RESTA DE MATRICES:
• La suma-resta no esta definida para matrices de diferentes tamaños.
• Dadas dos matrices A y B Para sumar o restar dos matrices del mismo tamaño, se
suman o restan los elementos que se encuentren en la misma posición, resultando otra
matriz de igual tamaño.
PROPIEDADES:
a) Conmutativa: A + B = B + A
b) Asociativa: A + (B + C) = (A + B) + C
c) Elemento neutro: La matriz nuladel tamaño correspondiente.
d) Elemento opuesto de A: La matriz -A, que resulta de cambiar de signo a los
elementos de A.
 PRODUCTO DE DOS MATRICES:
• Para dos matrices A y B, en este orden, A·B, es condición
indispensable que el número de columnas de A sea igual al número de
filas de B.
• Si no se cumple esta condición, el producto A·B no puede realizarse,
de modo que esta es una condición que debemos comprobar
previamente.
• La multiplicación matricial NO ES CONMUTATIVA.
AxB≠BxA
• Condición de los limites: Dadas Aab y Bcd donde a, b, c, d son sus
limites, las matrices A y B deben cumplir la siguiente restricción:

37
Propiedades del producto matricial.
a) Asociativa:
A·(B·C) = (A·B)·C
b) Distributiva respecto de la suma:
A · (B + C) = A · B + A · C (B + C) · A = B · A + C · A
c) Elemento neutro, la matriz identidad correspondiente, si A es m x n:
A · In = A
Im · A = A
d) En general el producto de matrices no es conmutativo
A ·B≠B·A
e) El producto de dos matrices no nulas A y B puede dar lugar a una
matriz nula:
 INVERSA DE UNA MATRIZ CUADRADA

Método de Gauss-Jordan:
1) Dada la matriz a invertir por ejemplo de una de 3x3, reescribirla con
la matriz aumentada
(identidad).
2) Lograr un pivote 1 en la posición a1,1.
3) Realizar operaciones renglón con el objetivo de hacer CEROS todos
los elementos bajo el pivote a1,1.
4) Lograr un pivote 1 en la posición a2,2.
5) Realizar operaciones renglón con el objetivo de hacer CEROS todos los
elementos sobre y bajo el pivote a2,2.
6) Lograr un pivote 1 en la posición a3,3.
7) Realizar operaciones renglón con el objetivo de hacer CEROS todos los
elementos sobre el pivote a3,3.
8) Es decir, si inicialmente tenemos [M|I] luego de realizar las operaciones
anteriores obtendremos:[I|M-1].
Propiedades de la inversión de matrices:
 La matriz inversa, si existe, es única
 A-1·A = A·A-1= I
 (A·B)-1 = B-1·A-1
 (A-1)-1 = A
 (kA)-1 = (1/k) · A-1
 (At) –1 = (A-1) t
Propiedades básicas de matrices:
• Suponiendo que todos los productos y las sumas están definidos por
las matrices indicadas A, B, C, I y 0, entonces:
3. SISTEMA DE “n” ECUACIONES LINEALES DE FORMA
MATRICIAL
• Las matrices Identidad e Inversa, pueden usarse para resolver ecuaciones
matriciales mediante el mismo número de variables y ecuaciones.
• Si el sistema tiene menos variables que ecuaciones o viceversa, entonces se
deberá resolver por el método de eliminación de Gauss-Jordan.
Entonces:
 Regla de Cramer:
• La regla de Cramer es un teorema en álgebra lineal, que da la solución de un
sistema lineal de ecuaciones en términos de determinantes.
• Sin embargo, para sistemas de ecuaciones lineales de más de tres
ecuaciones su aplicación para la resolución del mismo resulta
excesivamente costosa.
• Pero como no es necesario pivotar matrices, es más eficiente que la
eliminación gaussiana para matrices pequeñas.
• Si Ax=b es un sistema de ecuaciones. A es la matriz de coeficientes del
sistema, X=(x1,x2,..,xn) es el vector columna de las incógnitas y b es el vector
columna de los términos independientes. Entonces la solución al sistema se
presenta así:

• Donde Aj es la matriz resultante de reemplazar la jésima columna de A por el


vector columna b. Note que para que el sistema sea compatible determinado,
el determinante de la matriz A ha de ser no nulo.
Regla de Cramer para DOS ecuaciones y DOS variables
3. SISTEMA DE “n” ECUACIONES LINEALES DE FORMA
MATRICIAL
Un sistema de m ecuaciones lineales con n incógnitas x1, x2,...,xn con
coeficientes en un cuerpo K (como los reales o los complejos) es:

siendo ai,j∈K el coeficiente de la incógnita xj de la ecuación i y bi∈K


el término independiente de la ecuación i.
Se define la matriz de coeficientes del sistema anterior como
Y la matriz de incógnitas, x y de términos independientes, b como:

La representación matricial o forma matricial del SEL es A⋅x=b


Además de las matrices anteriores, de define la matriz amplia, completa o aumentada del
SEL como la matriz por bloques siguientes:

Es decir:
METODOS PARA RESOLVER SEL
Uno de los métodos que más se usan para resolver este tipo de sistemas es el llamado método
de reducción por renglones o método de Gauss-Jordán. Consiste en la eliminación sucesiva de
incógnitas de acuerdo con el esquema siguiente:
Para resolver el sistema

se escribe la matriz ampliada del sistema:

La raya vertical separa los coeficientes del sistema, a la izquierda, y los términos
independientes a la derecha.

Sobre esta matriz se realizan las operaciones elementales por renglones con el objetivo de
llegar a una matriz en la forma escalonada reducida por renglones (ferr).
 Destacamos 3 métodos para la resolución de sistemas de ecuaciones lineales:
• Eliminación de Gauss: consiste en realizar operaciones elementales fila a la
matriz ampliada del SEL hasta obtener su forma escalonada reducida: 
Ejemplos de Eliminación de Gauss.
• Método de la matriz inversa: si el SEL es compatible determinado, se
multiplica la matriz de términos independientes por la inversa de la matriz de
coeficientes: Ejemplos del método de la inversa.
• Regla de Cramer: si el SEL es compatible determinado, se obtiene la solución
calculando unos cuantos determinantes: Ejemplos de la Regla de Cramer.
 Teorema de Rouché-Frobenius:
El teorema de Rouché-Frobenius es uno de los más importantes del
álgebra matricial, al menos en cuanto a aplicaciones prácticas, ya que
nos permite clasificar un SEL según el rango de su matriz ampliada.
Sea A·x = b un sistema de m ecuaciones lineales con n incógnitas (sobre
un cuerpo en general), siendo m y n naturales (no nulos). Entonces,
• A·x = B es compatible si, y sólo si, rango(A) = rango (A|b).
• A·x = b es compatible determinado si, y sólo si, rango(A) = n =
rango(A|b).
Bibliografía

 ALBINO DE SUNKEL, M.E., Geometría Analítica en forma vectorial y matricial. Nueva


Librería S.R.I. 1984.
 COTLAR, M., RATTO, C. Introducción al Algebra. Nociones de Álgebra Lineal. Eudeba.
1977.
 BARNETT-RAYMOND, Algebra- Mc Graw-Hill. 2000 .
 GOODSON - Algebra con Aplicaciones Técnicas. LIMUSA.
 GROOSMAN STANLEY , Algebra Lineal. Mc Graw-Hill. 1996.
 LEITHOLD, L. Álgebra y Trigonometría con geometría Analítica. Oxford, México. 2000.
 MASCO, A., LÓPEZ, R., Lecciones de Álgebra y Geometría Analítica. I. EUCA. 1977.
 ROJO, A., Álgebra I. El Ateneo. 1972. (Capítulos 1 y 2. Lógica Proposicional y Teoría de
Conjuntos).
 ROJO, Algebra Lineal. Ejercicios y Problemas. Mc Graw-Hill. 1994.

También podría gustarte