You are on page 1of 6

Sistemas de Ecuaciones lineales

Las matrices se utilizan para desligar los coeficientes de un sistema de


ecuaciones lineales de las variables correspondientes, para su posterior
manipulación. Esta es la base del método de Gauss, denomiando así
por el matemático alemán Carl Gauss (1777-1855) quien hizo
importantes aportes en el área matemática, por lo cual fue llamado "El
Príncipe de los Matemáticos".
Métodos de Gauss, Gauss Jordán
El método de Gauss-Jordan es una variante del método de Gauss.
Cuando se elimina una incógnita en una ecuación, Gauss-Jordan
elimina esa incógnita en el resto de las ecuaciones, tomando como base
para la eliminación a la ecuación pivote. También todos los renglones
se normalizan cuando se toman como ecuación pivote. El resultado
final de este tipo de eliminación genera una matriz identidad en vez de
una triangular como lo hace Gauss, por lo que no se usa la sustitución
hacia atrás.
Expresiones vectoriales de soluciones generales de sistemas de
ecuaciones lineales

En especial, cuando un sistema de ecuaciones tiene infinitas


soluciones, es importante hallar su expresión general.

Un sistema de ecuaciones lineales es un conjunto de ecuaciones de


ese tipo. Un caso particular es cuando se tiene sistemas formados por
dos ecuaciones lineales, cada una de ellas con dos incógnitas.

La expresión general de un sistema es:

a x + b y = c {a ′ x + b ′ y= c ′}.

Solución del sistema es todo par de valores que sea solución de las
dos ecuaciones que forman el sistema.
Cálculo de la Matriz Inversa por Gauss-Jordan

Una de las mas importantes aplicaciones del método de Gauss-Jordan


es en la determinación de la existencia de la matriz inversa y su cálculo.

1. Método de Gauss-Jordan

Este método consiste en colocar junto a la matriz de partida (A) la


matriz identidad (I) y hacer operaciones por filas, afectando esas
operaciones tanto a A como a I, con el objeto de transformar la matriz
A en la matriz identidad, la matriz resultante de las operaciones sobre
I es la inversa de A (A-1).

Las operaciones que podemos hacer sobre las filas son:

a) Sustituir una fila por ella multiplicada por una constante, por
ejemplo, sustituimos la fila 2 por ella multiplicada por 3.

b) Permutar dos filas

c) Sustituir una fila por una combinación lineal de ella y otras.

Solución de ecuaciones por Descomposición LU

La descomposición LU proporciona un método para descomponer una


matriz como un producto de dos matrices, una triangular inferior y la
otra triangular superior. Esta descomposición tiene interesantes
aplicaciones, en particular en el caso de la solución de sistemas de
ecuaciones que difieren sólo en el parámetro y con la misma matriz de
los coeficientes.

En este método se descompone la matriz A en dos matrices L (low) y


U (up). A = LU La factorización es útil para la resolución de sistemas
de ecuaciones.

Sea el sistema de ecuaciones representado por AX = C. Sustituyendo


A por LU, nos queda LUX = C. Calculando el producto UX = Y, y
sustituyendo en LUX = C nos queda LY = C. De aquí podemos calcular
el valor de Y y entonces sustituyéndolo en UX = Y podemos calcular X.

Toda matriz cuadrada, cuyos menores principales son todos no nulos,


puede descomponerse en la forma A = LU.

Determinantes y sus propiedades.

Fué sólo a partir del matemático británico Arthur Cayley (1821-


1895) que las matrices se estudiaron como una entidad separada
distinta al determinante. Cayley publicó sus "Memorias de la Teoría de
Matrices" en 1857.

El determinante de una matriz A(n,n), es un escalar o polinomio, que


resulta de obtener todos los productos posibles de una matriz de
acuerdo a una serie de restricciones, siendo denotado como |A|. El
valor numérico es conocido también como modulo de la matriz.

(Nota: En matrices de segundo y tercer orden suele ser utilizado el


método conocido como regla de Sarrus.)

Propiedades de los determinantes.

1. At|= |A|. El determinante de una matriz A y el de su traspuesta At


son iguales.

2. |A|=0 Si:

a) Posee dos líneas iguales.

b) Todos los elementos de una línea son nulos.

c) Los elementos de una línea son combinación lineal de las otras.

3. Un determinante triangular es igual al producto de los elementos de


la diagonal principal.

4. Si en un determinante se cambian entre sí dos líneas paralelas su


determinante cambia de signo.

5. Si a los elementos de una línea se le suman los elementos de otra


paralela multiplicados previamente por un nº real el valor del
determinante no varía.

6. Si se multiplica un determinante por un número real, queda


multiplicado por dicho número cualquier línea, pero sólo una.
7. Si todos los elementos de una fila o columna están formados por dos
sumandos, dicho determinante se descompone en la suma de dos
determinantes.

8. |A·B| =|A|·|B|. El determinante de un producto es igual al producto


de los determinantes.

La relación entre determinante y no singularidad, juega un papel muy


importante en la actual teorìa de matrices.

DETERMINANTES Y NO SINGULARIDAD

Un resultado importante de la teoría de determinante es:

Si A y B son dos matrices cuadradas del mismo orden, |AB|= |A| |B|

De aquí se concluye un resultado teóricamente importante:

Una matriz cuadrada A es no-singular o invertible, si existe una matriz,


denominada A-1

, la inversa de A, tal que A A-1 = I, donde I es la matriz idéntica.

Puede verificarse que |

Como A A-1

I|= 1, cualquiera sea el orden de I. = I, concluimos que |A A-1| = |A|


|A-1| = |I| = 1.

De donde se concluye que si A es no-singular o invertible, entonces, |

A|¹ 0 y |A-1| = 1/|A|.


Método de las Adjuntas para calcular la inversa de una matriz.

Dada una matriz cuadrada A, su matriz adjunta o adj(A) es la


resultante de sustituir cada término de A por sus adjuntos respectivos.

El adjunto de un término ai j de la matriz A resulta del determinante de


la submatriz que se obtiene de eliminar de la matriz A, la fila y la
columna a la que pertenece el término ai j, multiplicado por (-1)(i+j). El
interés principal de la matriz de adjuntos es que permite calcular la
inversa de una matriz, ya que se cumple la relación:

Existe un método para calcular la matriz inversa, llamado el método de


la adjunta, que no es muy utilizado por su complejidad para matrices
de orden mayor

Gabriel Cramer(1704-1752), matemático Suizo, popularizó a partir de


1750, su regla para resolver sistemas de ecuaciones, la cual fué el
método indiscutido utilizado durante muchos años, para tal fín.
Aparentemente, tal método era conocido antes de que el lo
redescubriera.

REGLA DE CRAMER

La regla de Cramer es de importancia teórica porque da una expresión


explícita para la solución del sistema.

Si es un sistema de ecuaciones. A es la matriz de coeficientes


del sistema, es el vector columna de las incógnitas y
es el vector columna de los términos independientes. Entonces la
solución al sistema se presenta así:

donde Aj es la matriz resultante de reemplazar la j-ésima columna de


A por el vector columna b. Hágase notar que para que el sistema sea
compatible determinado, el determinante de la matriz A ha de ser no
nulo.

You might also like