You are on page 1of 37

H.

Scaletti - Mtodos Numricos: lgebra Lineal 2 - 1


2. Ecuaciones Algebraicas Lineales
2.1 Definiciones
Una matriz = (a
ij
), de orden n x m, es un conjunto de nmeros dispuestos en n filas y m
columnas.
|
|
|
|
|
|

\
|
=
nm n n n
m
m
m
a .... a a a
.....
a .... a a a
a .... a a a
a .... a a a
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11
A
Un elemento, a
ij
, se identifica por dos sub ndices, el primero de los cuales denota la
fila y el segundo la columna. Si m = 1 se tiene una matriz columna o "vector" de
dimensin n:

=
3
2
1
b
b
b
M
b
Si en cambio n = 1, se tiene una matriz fila: [ ]
m
c c c K
2 1
= c . Si n = m se dice que
la matriz es cuadrada (de orden n). Por ejemplo:
|
|
|
|
|

\
|
=
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
A
|
|
|
|
|

\
|
=
4
3
2
1
0 0 0
0 0 0
0 0 0
0 0 0
d
d
d
d
D
|
|
|
|
|

\
|
=
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
n
I
A, D e I
n
son matrices cuadradas. La matriz [ ]
n
d d d diag K
2 1
= D es una matriz
diagonal, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal
principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el
de [ ] ( )
ij
diag = = 1 1 1 K
n
I , que es una matriz unidad (o identidad) de orden n. La
matriz identidad tiene en el lgebra matricial un papel similar al uno en lgebra comn.
Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada),
cuyos elementos son todos ceros.
Las matrices cuadradas cuyos elementos tienen simetra conjugada:

=
ji ij
a a (donde *
indica conjugada compleja) se denominan Hermitianas. Por ejemplo:
|
|
|
|
|

\
|
+
+ +
+
+
=
4 3 2 1 0
3 2 3 1 2 3
1 1 5 2
0 2 3 2 1
i i
i i i
i i i
i i
H 1 = i
es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales,
es decir
ji ij
a a = , se tiene una matriz simtrica.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 2
Una matriz cuadrada en la que la mayor parte de los elementos son ceros y los
elementos con valor significativo estn agrupados alrededor de la diagonal principal se
denomina matriz banda. Por ejemplo:
|
|
|
|
|
|

\
|

=
1 1
1 2 1
1 2 1
1 2 1
1 1
B
Las lneas paralelas a la diagonal principal se llaman codiagonales. El nmero total de
diagonal y codiagonales con elementos significativos en el ancho de banda (3 en este
ejemplo). Para matrices simtricas puede tambin hablarse de un ancho de semi
banda; que incluye a la diagonal principal (2 en el ejemplo precedente). Una matriz
banda tiene baja densidad. Por densidad se entiende la razn entre el nmero de
elementos con valor significativo y el nmero total de elementos.
Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal
principal son cero se dice que sta es una matriz triangular inferior (superior):
|
|
|
|
|
|

\
|
=
nm n n n
l L l l l
K
L l l l
L l l
L l
3 2 1
33 32 31
22 21
11
0
0 0
0 0 0
L
|
|
|
|
|
|

\
|
=
nm
n
n
n
u
u u
u u u
u u u u
L
K
L
L
L
0 0 0
0 0
0
3 33
2 23 22
1 13 12 11
U
En lo que sigue se usan letras negritas para denotar matrices. Para las matrices
columna y para las matrices filas se usan minsculas, mientras que para las matrices
rectangulares (incluyendo las matrices cuadradas) se usan maysculas. En todos los
casos, los elementos de una matriz se indican en minsculas.
2.2 Operaciones Bsicas con Matrices
Subdivisin o particin. El conjunto de elementos de una matriz A puede ser dividido
en otros ms pequeos mediante lneas horizontales y/o verticales. Las distintas partes,
A
11
, A
12
, etc. son submatrices de la matriz A. Las submatrices pueden tratarse como
elementos comunes de una matriz, excepto que deben operarse segn las reglas del
lgebra matricial.
Igualdad. Dos matrices, A, B, del mismo orden, son iguales si cada elemento de una es
igual al correspondiente elemento de la otra. A = B implica
ij ij
b a = para todo i, j.
Suma (resta). La suma (o diferencia) de dos matrices A, B del mismo orden es una
tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando)
algebraicamente los correspondientes elementos de las dos matrices originales:
C B A =
ij ij ij
c b a =
La suma (resta) de matrices es asociativa y conmutativa:
( ) ( ) C B A C B A + + = + + A B B A + = +

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 3
Derivada e integral. Anlogamente, puede definirse la derivada de una matriz:

ij
ij
b
a
=


B
A

y la integral de una matriz en forma similar.
Multiplicacin por un escalar. El producto de una matriz por un escalar es otra matriz
del mismo orden cuyos elementos son los de la matriz original multiplicados por el
escalar:
ij ij
b a = = B A
Multiplicacin de dos matrices. Dos matrices, A (m x p) y B (p x n) pueden ser
multiplicadas en el orden A B slo si son conformables para el producto, es decir, si el
nmero de columnas de A es igual al nmero de filas de B. El producto C (m x n) es
una matriz cuyos elementos se obtienen de:
n j m i b a c
p
k
kj ik ij
, 1 , 1
1
= = =

=

Por ejemplo, si:
|
|
|

\
|
=
4 3 10
2 6 4
1 3 5
A

|
|
|

\
|
=
2 3
4 2
5 1
B

B A C =

70 2 4 4 3 5 10
22 3 2 2 6 1 4
14 3 1 2 3 1 5
32
21
11
= + + =
= + + =
= + + =
c
c
c
K

|
|
|

\
|
=
70 28
48 22
39 14
C
La multiplicacin de matrices es asociativa y distributiva, pero en general no es
conmutativa:
C B A C B A ) ( ) ( = AC AB C B A + = + ) ( BA AB
Siendo el orden de multiplicacin importante, es frecuente enfatizarlo, diciendo por
ejemplo que en el producto AB la matriz A premultiplica a B, o bien que B postmultiplica
a A. En algunos casos BA AB = ; se dice entonces que A y B son conmutables.
Es fcil verificar que el producto de dos matrices triangulares inferiores (superiores) es
otra matriz triangular inferior (superior).
Transposicin. La transpuesta A
T
de una matriz A es aquella cuyas filas son las
columnas de A (y viceversa). Si ) (
ij
T
b = = B A , entonces
ji ij
a b = :
|
|
|

\
|
=
6 3
5 2
4 1
A
|
|

\
|
=
6 5 4
3 2 1
T
A
La transpuesta de una matriz simtrica es obviamente la matriz original. Productos del
tipo A A
T
resultan siempre en matrices simtricas. Lo mismo puede decirse de
productos SA A
T
si S es simtrica.
Cuando se transpone un producto matricial la secuencia de los factores debe invertirse:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 4
( )
T T T T
A B C C AB K K =
Determinante de una matriz cuadrada. Es un nmero que resulta de:

= =
!
3 2 1
det
n
nr k j i
a a a a K A A
Donde cada trmino de la suma incluye un solo elemento de cada fila y de cada
columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..
n, los ndices de las columnas en cada trmino de la suma pueden ser obtenidos como
permutacin del orden normal. Segn el nmero de cambios requeridos para esta
permutacin sea par o impar se asigna al producto correspondiente el signo + o -. La
suma incluye las n! permutaciones posibles.
Las siguientes propiedades facilitan el cmputo de la determinante de una matriz
cuadrada A cualquiera:
Si se intercambian dos filas (columnas) la determinante cambia de signo.
La determinante de una matriz, A , es igual a la determinante de su transpuesta.
El valor de la determinante de una matriz A no se altera si una columna (fila)
multiplicada por un escalar se suma algebraicamente a otra columna (fila):
bc ad
a
bc
d
b a
d c
b a
=
|
|

\
|

=
|
|

\
|
0
det det
En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o
proporcionales) es cero. Ms an,si dos o ms columnas (filas) de una matriz A son
linealmente dependientes, es decir
1
a
1
+
2
a
2
+
3
a
3
+...+
n-1
a
n-1
+
n
a
n
= 0 para un
conjunto de coeficientes
i
de los que por lo menos uno es distinto de cero, la
determinante es cero. Se dice entonces que la matriz A es singular. Considrese por
ejemplo el caso:
|
|
|

\
|
=
1 1 0
1 2 1
0 1 1
A
A es singular puesto que: ( ) ( ) ( )

0
0
0
1
1
0
1
1
2
1
1
0
1
1
1
La determinante de una matriz triangular es igual al producto de los elementos de su
diagonal principal.
Para un producto matricial se cumple que:
( ) ) det( ) det( ) det( det C B A C B A K K =
As, por ejemplo, si:
|
|
|
|
|

\
|
|
|
|
|
|

\
|
=
|
|
|
|
|

\
|
=
24 0 0 0
24 6 0 0
12 6 2 0
4 3 2 1
1 6 7 1
0 1 3 1
0 0 1 1
0 0 0 1
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
A
entonces: ( ) ( ) 288 24 6 2 1 1 ) det( = = A

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 5
Inversa de una matriz. Si una matriz A es no singular, es posible obtener su inversa,
A
-1
, que satisface:
n
I AA A A = =
1 1
( ) A A =

1
1

Obviamente
n n
I I =
1
. La inversa de una matriz diagonal es otra matriz diagonal, cuyos
elementos son inversas de los elementos de la matriz original. La inversa de una matriz
triangular (inferior o superior) es otra matriz triangular del mismo tipo.
La inversin de matrices permite efectuar la operacin equivalente a la divisin del
lgebra comn.
C A B C AB
1
= = (vanse los comentarios del tem 2.5.5)
Para la inversa de un producto matricial se cumple:
( )
1 1 1 1
= A B C C AB K K
Una matriz Q se denomina ortogonal si:
n
T
I Q Q = . Particularmente, si Q es una matriz
cuadrada se tiene entonces que
T
Q Q =
1
. Por ejemplo:
|
|

\
|
=


cos sen
sen cos
R

es ortogonal, puesto que:
T
R R =
|
|

\
|



cos sen
sen cos
1
.
Refirindose a una matriz con coeficientes complejos, U, se dice que sta es unitaria si
I U U =
*

2.3 Espacios y Subespacios Vectoriales
Una matriz columna de orden n es un conjunto nmeros que pueden ser interpretados
como componentes de un vector en un espacio de dimensin n.
Se dice que un conjunto de vectores v
1
v
2
v
3
.... v
5
son linealmente dependientes si
existen nmeros
1

2

3
....
5
, no todos cero, tales que:
0
5 5 3 3 2 2 1 1
= + + + + v v v v K
Alternativamente, puede decirse que los vectores son linealmente dependientes si uno
cualquiera de ellos puede expresarse como combinacin lineal de los otros:

=
r i
i i r
c v v (y linealmente independientes si esto no es posible).
p vectores linealmente independientes de orden n ( p n ) conforman una base de un
espacio vectorial de dimensin p. Por otro lado, q vectores, de los que p ( q p ) son
linealmente independientes, estn contenidos en un espacio de dimensin p.
Si los vectores linealmente independientes x
1
x
2
.... x
p
constituyen una base de un
espacio vectorial de dimensin p, un sub conjunto de estos puede considerarse como
base de un sub espacio contenido en el espacio vectorial original.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 6
Las columnas (o filas) de una matriz rectangular A pueden tratarse como vectores. El
nmero de vectores linealmente independientes define el rango de la matriz. Una
matriz cuadrada es no singular si su rango es igual al orden de la matriz, es decir si
todas las columnas son linealmente independientes. Lo contrario implica que una o ms
columnas (filas) pueden obtenerse como combinacin lineal de las otras y la
determinante es cero.
2.4 Sistemas de Ecuaciones Lineales
Se ha estimado que un 75% de los problemas de ingeniera se presenta, en alguna
etapa del trabajo, la solucin de un sistema de ecuaciones lineales:
n n nn n n n
n n
n n
n n
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
= + + + +

= + + + +
= + + + +
= + + + +
K
K
K
K
3 3 2 2 1 1
3 3 3 33 2 32 1 31
2 2 3 23 2 22 1 21
1 1 3 13 2 12 1 11
(2.1a)
o bien: b Ax =

|
|
|
|
|
|

\
|
n n nn n n n
n
n
n
b
b
b
b
x
x
x
x
a a a a
a a a a
a a a a
a a a a
M M
K
L
K
K
K
3
2
1
3
2
1
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11
(2.1b)
En las secciones siguientes se supone que el sistema de ecuaciones tiene solucin
nica, es decir, que 0 ) det( A .
La solucin de sistemas de ecuaciones es un buen ejemplo de las diferencias entre las
matemticas clsicas y los mtodos numricos modernos. As, la Regla de Cramer:
|
|
|
|
|
|

\
|
|
|
|
|
|
|

\
|
=
nn nj n n
n j
n j
n j
nn n n n
n
n
n
j
a a a a
a a a a
a a a a
a a a a
a b a a
a b a a
a b a a
a b a a
x
K K
L
K K
K K
K K
K K
L
K K
K K
K K
2 1
3 3 32 31
2 2 22 21
1 1 12 11
2 1
3 3 32 31
2 2 22 21
1 1 12 11
det
det
(2.2)
si bien proporciona frmulas explcitas es tremendamente ineficiente cuando se trata de
resolver sistemas con ms de 3 incgnitas (excepto para casos muy especiales de la
matriz de coeficientes).
Muchos mtodos frecuentemente utilizados en ingeniera, como por ejemplo los mtodos
de elementos finitos para la solucin de ecuaciones en derivadas parciales, resultan en

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 7
el planteamiento de grandes sistemas de ecuaciones lineales. El costo de anlisis y en
muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran
medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo
utilizado en su solucin.
2.5 Mtodos Directos para la Solucin
de Sistemas de Ecuaciones Lineales
Este acpite considera mtodos que, de no haber errores de redondeo, producen la
solucin exacta en un nmero finito de pasos. Para sistemas Ax = b, en los que A es de
alta densidad, los mtodos directos son en general los ms eficientes (para las
computadoras actualmente utilizadas). Sin embargo, cuando un gran nmero de
elementos de A son cero, y en especial cuando A es definida positiva ( 0 > Ax x
T
para
cualquier 0 x ), puede ser ms conveniente utilizar un mtodo iterativo en que se
obtiene una secuencia de soluciones aproximadas que convergen a la solucin exacta.
2.5.1. Sistemas Triangulares
La solucin de sistemas de ecuaciones lineales es particularmente simple cuando la
matriz de coeficientes es triangular. Por ejemplo, considrese un sistema Ux = b en el
que U es triangular superior:
n n nn
n n nn n n n
n n
n n
n n
b x u
b x u x u
b x u x u
b x u x u x u
b x u x u x u x u
=
= +
= + +
= + + +
= + + + +
1 1 , 1
3 3 3 33
2 2 3 23 2 22
1 1 3 13 2 12 1 11
K K
K
K
K
(2.3)
Si U es no singular ( 0
ii
u para todo i), las incgnitas pueden evaluarse en el orden: n,
n-1, n-2, n-3, ... 2, 1:
nn
n
n
u
b
x = (2.4a)
|
|

\
|
=

+ =
n
i k
k ik i
ii
i
x u b
u
x
1
1
(2.4b)
Este proceso se denomina sustitucin inversa. Anlogamente, para un sistema Lx = b,
en el que L es una matriz triangular inferior no singular ( 0
ii
l para todo i), puede
utilizarse una sustitucin directa o reduccin:
11
1
1
l
b
x = (2.5a)
|
|

\
|
=

=
1
1
1
i
k
k ik i
ii
i
x l b
l
x (2.5b)
En ambos casos, la solucin del sistema requiere n divisiones y ( ) 1
2
1
n n operaciones
de multiplicacin y suma (casi lo mismo que para multiplicar una matriz triangular por un
vector).

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 8
2.5.2 Mtodo de Gauss
ste es el ms importante de los mtodos directos para la solucin de sistemas de
ecuaciones lineales. La idea bsica est en combinar las distintas ecuaciones para ir
eliminando incgnitas en forma sistemtica y obtener finalmente un sistema triangular,
fcil de resolver. Considrese el sistema de orden n:
) 1 ( ) 1 (
3
) 1 (
3 2
) 1 (
2 1
) 1 (
1
) 1 (
3
) 1 (
3 3
) 1 (
33 2
) 1 (
32 1
) 1 (
31
) 1 (
2
) 1 (
2 3
) 1 (
23 2
) 1 (
22 1
) 1 (
21
) 1 (
1
) 1 (
1 3
) 1 (
13 2
) 1 (
12 1
) 1 (
11
n n nn n n n
n n
n n
n n
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
b x a x a x a x a
= + + + +
= + + + +
= + + + +
= + + + +
K
K K
K
K
K
(2.6)
o en forma compacta: Ax = b. En lo que sigue se supone que A es no singular.
Supngase tambin que 0
11
a . Puede entonces eliminarse x
1
de la ecuacin i si de
sta se resta la ecuacin 1 multiplicada por:
) 1 (
11
) 1 (
1
1
a
a
l
i
i
= (2.7a)
Con ello se obtiene:
) 2 ( ) 2 (
3
) 2 (
3 2
) 2 (
2
) 2 (
3
) 2 (
3 3
) 2 (
33 2
) 2 (
32
) 2 (
2
) 2 (
2 3
) 2 (
23 2
) 2 (
22
) 1 (
1
) 1 (
1 3
) 1 (
13 2
) 1 (
12 1
) 1 (
11
n n nn n n
n n
n n
n n
b x a x a x a
b x a x a x a
b x a x a x a
b x a x a x a x a
= + + +
= + + +
= + + +
= + + + +
K
K K
K
K
K
(2.7b)
donde
) 1 (
1 1
) 1 ( ) 2 (
) 1 (
1 1
) 1 ( ) 2 (
b l b b
a l a a
i i i
j i ij ij
=
=
(2.7c)
En forma similar, puede eliminarse x
2
de las ecuaciones i = 3,4,..n restando de la
ecuacin i la ecuacin 2 multiplicada por:
) 2 (
22
) 2 (
2
2
a
a
l
i
i
=
y as sucesivamente hasta obtener el sistema triangular:
) ( ) (
) 3 (
3
) 3 (
3 3
) 3 (
33
) 2 (
2
) 2 (
2 3
) 2 (
23 2
) 2 (
22
) 1 (
1
) 1 (
1 3
) 1 (
13 2
) 1 (
12 1
) 1 (
11
n
n n
n
nn
n n
n n
n n
b x a
b x a x a
b x a x a x a
b x a x a x a x a
=
= + +
= + + +
= + + + +
K K
K
K
K
(2.8)
o en notacin matricial: Ux = b.
Los elementos
) 1 (
1 , 1
) 3 (
33
) 2 (
22
) 1 (
11
, ,


n
n n
a a a a K que se usan como divisores en esta reduccin
se llaman pivotes. El proceso tal como ha sido planteado hasta el momento falla si
alguno de estos es cero. Esto en general no ocurre si la matriz A tiene diagonal

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 9
dominante (es decir, si

>
i j
ij ii
a a ) o si A es simtrica (A
T
= A) y definida positiva
(v
T
Av > 0 para v arbitrario).
El siguiente ejemplo ilustra el proceso:

|
|
|
|
|

\
|
190
44
10
2
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
) 1 (
) 1 (
) 1 (
4
3
2
1
x
x
x
x

Los nmeros indicados a la izquierda (entre parntesis) son los factores l
i1
por los que es
necesario multiplicar la ecuacin 1 antes de restarla de la ecuacin i, para lograr el
objetivo de eliminar x
1
de la segunda y las siguientes ecuaciones.

|
|
|
|
|

\
|
188
42
8
2
252 78 14 0
60 24 6 0
12 6 2 0
4 3 2 1
) 7 (
) 3 (
4
3
2
1
x
x
x
x

Anlogamente:

|
|
|
|
|

\
|
132
18
8
2
168 36 0 0
24 6 0 0
12 6 2 0
4 3 2 1
) 6 (
4
3
2
1
x
x
x
x

|
|
|
|
|

\
|
24
18
8
2
24 0 0 0
24 6 0 0
12 6 2 0
4 3 2 1
4
3
2
1
x
x
x
x

finalmente:
2 4 3 2
8 12 6 2
18 24 6
24 24
4 3 2 1
4 3 2
4 3
4
= + + +
= + +
= +
=
x x x x
x x x
x x
x

1
1
1
1
1
2
3
4
=
=
=
=
x
x
x
x

Para estimar el esfuerzo de cmputo es habitual referirse al nmero de "operaciones"
requeridas. La costumbre es contar como una operacin a la combinacin de una suma
(o resta, o simplemente una copia) con una multiplicacin (o divisin). Esta prctica
proviene de las pocas en que el tiempo requerido para efectuar una multiplicacin o una
divisin era un orden de magnitud mayor que el necesario para una suma o una resta,
pudiendo despreciarse estas ltimas. La reduccin de la matriz de coeficientes requiere
de un nmero de operaciones de orden
3
3
1
n . La reduccin del segundo miembro y la
sustitucin inversa requieren aproximadamente n
2
operaciones. Si se tuvieran varios
sistemas de ecuaciones con la misma matriz de coeficientes: Ax = b1, Ay = b2, ... slo
se requerira efectuar la reduccin de A una vez, por lo que el nmero de operaciones
sera siempre aproximadamente
3
3
1
n . Ms precisamente, se hacen n n n
3
2
2 3
3
1
2 + +

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 10
operaciones para resolver un sistema de n ecuaciones lineales, pero si n es grande slo
el primer trmino es importante.
El proceso antes descrito falla cuando se presenta un pivote,
) (i
ii
a , igual a cero. Un
ejemplo simple de tal situacin es el siguiente:

|
|
|

\
|
1
2
1
2 2 1
2 1 1
1 1 1
3
2
1
x
x
x

La matriz de coeficientes no es singular y el sistema tiene una solucin nica
( )
T
1 1 1 = x . Sin embargo, despus del primer paso (efectuado en el orden indicado
anteriormente), se obtiene:

|
|
|

\
|
0
1
1
1 1 0
1 0 0
1 1 1
3
2
1
x
x
x

y siendo 0
) 2 (
22
= a , no es posible proseguir como habitualmente. La solucin es en este
caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si 0
) (
=
i
ii
a , algn otro
elemento de la misma columna,
) (i
ji
a , debe ser distinto de cero (lo contrario implicara
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reduccin. Dados los
elementos
) (i
ji
a de la columna i, es conveniente escoger como pivote aquel de mximo
valor absoluto, puesto que el uso de pivotes pequeos introduce fuertes errores en la
solucin. El ejemplo siguiente es ilustrativo:
)
`

=
)
`

|
|

\
|


9
7
1 1
1 10 3
2
1
11
x
x

Trabajando con 10 cifras significativas se obtiene:
( )
)
`


=
)
`

|
|

\
|


10
2
1
10
11
10 333 333 333 . 3 7
7
10 333 333 333 . 3 0
1 10 000 000 000 . 3
x
x

de donde: 7
2
= x
0
1
= x
La solucin correcta es, sin embargo, 2
1
= x . Es fcil comprobar que no se presenta
este problema si se evita el pivote pequeo intercambiando previamente las ecuaciones:
)
`

=
)
`

|
|

\
|


7
9
1 10 3
1 1
2
1
11
x
x

El intercambio de filas al que se ha hecho referencia se denomina intercambio parcial.
Alternativamente, puede pensarse en un intercambio completo, en que se selecciona el
siguiente pivote como el elemento de mximo valor absoluto entre todos los elementos
de la sub matriz por reducirse. Se intercambian entonces filas (ecuaciones) y columnas
(incgnitas) para continuar el proceso como se ha descrito.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 11
El intercambio parcial es generalmente satisfactorio, desde el punto de vista de la
estabilidad numrica, y requiere bastante menos trabajo que el proceso con intercambio
total.
2.5.3 Descomposicin A = LU
Supngase que A es tal que el proceso de reduccin del mtodo de Gauss puede
efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la
descomposicin A = LU donde L es una matriz triangular inferior con 1 =
ii
l y U es una
matriz triangular superior, es nica. Esto puede probarse fcilmente por induccin. Para
el caso del primer ejemplo:
|
|
|
|
|

\
|
|
|
|
|
|

\
|
=
|
|
|
|
|

\
|
24 0 0 0
24 6 0 0
12 6 2 0
4 3 2 1
1 6 7 1
0 1 3 1
0 0 1 1
0 0 0 1
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1

Los elementos de L son justamente los coeficientes
ij
l usados durante la reduccin; U
es en cambio la matriz A reducida!
Se ha mencionado anteriormente que varios sistemas de ecuaciones con la misma
matriz de coeficientes pueden ser resueltos simultneamente. Sin embargo, no siempre
se conocen desde un principio todos los vectores de coeficientes del segundo miembro.
Por ejemplo, puede querer resolverse Ax
1
= b y Ax
2
= x
1
. An en este caso, al resolver
el segundo sistema no es necesario volver a reducir la matriz A como al inicio. El
sistema Ax = b es equivalente a LUx = b, o bien a los dos sistemas triangulares: Ly = b
, Ux = y. Siendo L y U conocidos, estos dos sistemas pueden resolverse en O(n
2
)
operaciones. L y U pueden almacenarse en las mismas posiciones de memoria que en
la matriz A: Como
) ( ) ( i
ii
i
ki ki
a a l = se determina con el objeto de hacer 0
) 1 (
=
+ i
ki
a ,
ki
l puede almacenarse en las posicin de
ki
a . Por otro lado, no es necesario almacenar
los elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos
de U son aquellos de la matriz reducida, el efecto de la reduccin o descomposicin en
la distribucin de memoria es de la forma:
|
|
|
|
|
|

\
|

|
|
|
|
|
|

\
|
nn n n n
n
n
n
nn n n n
n
n
n
u l l l
u u l l
u u u l
u u u u
a a a a
a a a a
a a a a
a a a a
K
L
K
K
K
K
L
K
K
K
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11
3 2 1
3 33 32 31
2 23 22 21
1 13 12 11

Para el ejemplo precedente:
|
|
|
|
|

\
|

|
|
|
|
|

\
|
24 6 7 1
24 6 3 1
12 6 2 1
4 3 2 1
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1

En los casos en los que se efectan intercambios de filas y/o columnas es siempre
posible (si A no es singular) obtener factores triangulares L y U tales que LU = A,

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 12
donde A es la matriz que resulta de efectuar los intercambios mencionados en la matriz
original A.
2.5.4 Otros Mtodos Directos
Todos los mtodos tratados en esta seccin pueden considerarse como variantes del
mtodo de Gauss.
Una posible alternativa es la de calcular los elementos de L y U mediante las frmulas:
n k k j u l a u
k
p
j p p k j k j k
+ = =

=
, 1 ,
1
1
(2.9a)
n k i u l a
u
l
k
p
k p p i k i
kk
k i
+ =
|
|

\
|
=

=
, 1
1
1
1
(2.9b)
en lugar de efectuar reducciones como anteriormente. Esta modificacin (Doolitle) es
conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos
resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se
hacen con una precisin mayor que aquella con la que se almacenan los resultados.
El mtodo de Crout efecta la factorizacin A = LDR, donde L es la misma matriz
triangular inferior obtenida durante el proceso de Gauss, D es una matriz diagonal y R es
una matriz triangular superior con coeficientes 1 en su diagonal principal. D y R estn
relacionados con la U de Gauss.
i j
d
u
r
u d
ii
ij
ij
ii ii
> =
=
(2.10)
En particular, para A simtrica: R = L
T
. Este mtodo no posee ventajas ni desventajas
con relacin al de Gauss, bien sea en cuanto a estabilidad numrica y precisin, como
en el nmero de operaciones necesarias.
Si durante el proceso de reduccin se usa la ecuacin i para eliminar x
i
, no slo de las
ecuaciones que siguen a la i sino tambin de la ecuaciones precedentes, se tiene el
mtodo de Gauss Jordan. Para el ejemplo antes considerado:

|
|
|
|
|

\
|
190
44
10
2
256 81 16 1
64 27 8 1
16 9 4 1
4 3 2 1
4
3
2
1
x
x
x
x

|
|
|
|
|

\
|
188
42
8
2
252 78 14 0
60 24 6 0
12 6 2 0
4 3 2 1
4
3
2
1
x
x
x
x


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 13

|
|
|
|
|

\
|
132
18
8
6
168 36 0 0
24 6 0 0
12 6 2 0
8 3 0 1
4
3
2
1
x
x
x
x

Ntese que se utiliz la segunda ecuacin para reducir no solamente las ecuaciones 3 y
4, sino tambin la ecuacin 1. Anlogamente:

|
|
|
|
|

\
|

24
18
10
3
24 0 0 0
24 6 0 0
12 0 2 0
4 0 0 1
4
3
2
1
x
x
x
x

|
|
|
|
|

\
|
24
6
2
1
24 0 0 0
0 6 0 0
0 0 2 0
0 0 0 1
4
3
2
1
x
x
x
x
de donde se obtiene fcilmente la solucin.
El mtodo de Gauss- Jordan es ms simple de programar, pero requiere casi 1.5 veces
el nmero de operaciones del mtodo de Gauss tradicional.
Finalmente, para concluir esta seccin, debe mencionarse que el mtodo de Gauss es
aplicable tambin a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:

|
|
|

\
|

+ +

i
i
i
x
x
x
i
i i
i
2 11
4 8
2 4
3 1 0
1 2 1
0 1 2
3
2
1

|
|
|

\
|

i
i
i
x
x
x
i
i
i
2 11
3 5
2 4
3 1 0
1 1 0
0 1 2
3
2
1

|
|
|

\
|
+

3
3 5
2 4
1 0 0
1 1 0
0 1 2
3
2
1
i
i
x
x
x
i
i

de donde:
[ ] 1 ) 1 ( 2 ) 2 4 (
2 ) 1 ( 3 ) 3 5 (
3
2
1
1
2
3
= =
= + + =
=
i i x
i i x
x

2.5.5 Inversin de Matrices
Si la inversa, A
-1
, de una matriz A se conoce, la solucin de un sistema Ax = b puede
escribirse x = A
-1
b. Podra entonces parecer conveniente determinar A
-1
, en especial si
se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin
embargo, la solucin puede ser obtenida con mucho menos operaciones y en general
con mucha ms precisin utilizando la descomposicin A = LU. La solucin de los dos
sistemas triangulares Ly = b y Ux = y requiere slo O(n
2
) operaciones (por cada
columna de b x). Por otro lado, la multiplicacin A
-1
b tambin demanda O(n
2
)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 14
operaciones. Sin embargo, la determinacin de A
-1
requiere aproximadamente el triple
de trabajo que para obtener L y U. El nmero de operaciones necesarias para obtener
la inversa de una matriz cuadrada (no simtrica) de orden n es 1 2
2 3
+ + n n n .
No obstante esto, en algunos casos se necesita la inversa en forma explcita. La inversa
puede obtenerse de un modo eficiente resolviendo n sistemas de ecuaciones lineales:
AX = I
n
, donde X = A
-1
. El siguiente ejemplo utiliza una variante del mtodo de Gauss
con este objeto:
|
|
|

\
|
=
4 1 3
3 1 2
1 1 1
A
En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la
derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las
filas las mismas operaciones que en A:
|
|
|

\
|
4 1 3
3 1 2
1 1 1

|
|
|

\
|
1 0 0
0 1 0
0 0 1

|
|
|

\
|

1 2 0
1 1 0
1 1 1

|
|
|

\
|

1 0 3
0 1 2
0 0 1

|
|
|

\
|

1 0 0
1 1 0
2 0 1

|
|
|

\
|

1 2 1
0 1 2
0 1 1

|
|
|

\
|
1 0 0
0 1 0
0 0 1

1
1 2 1
1 1 1
2 3 1

=
|
|
|

\
|

A
Alternativamente, si la descomposicin A = LU de una matriz A se conoce, la inversa
puede obtenerse de A
-1
= U
-1
L
-1
, tambin en O(n
2
) operaciones. Si en los cmputos
para L y U se hacen intercambios de filas, el producto U
-1
L
-1
resulta la inversa de una
cierta matriz A. La matriz A
-1
puede obtenerse a partir de (A)
-1
intercambiando
columnas en secuencia inversa a los cambios de fila durante el proceso.
Para la matriz antes considerada:
LU A =
|
|
|

\
|

|
|
|

\
|
=
|
|
|

\
|
1 0 0
1 1 0
1 1 1
1 2 3
0 1 2
0 0 1
4 1 3
3 1 2
1 1 1

La inversa de una matriz triangular es otra matriz del mismo tipo, fcil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L
-1
puede ser
obtenida por sustitucin directa o reduccin: LY = I
n
.
0 =
ij
y j i < (2.11a)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 15
|
|

\
|
=

=
1
1
i
j k
kj ik ij
ii
ij
y l
l
y j i (2.11b)
En forma anloga, la inversa, U
-1
, de una matriz triangular superior, U, es tambin una
matriz triangular superior. Cada fila i, puede determinarse mediante UZ = I
n
:
|
|

\
|
=

=
1
1
j
i k
kj ik ij
jj
ij
u z
u
z j i (2.12a)
0 =
ij
z j i > (2.12b)
Para las matrices L y U del ejemplo considerado:
|
|
|

\
|

=
|
|
|

\
|

=

1 0 0
1 1 0
2 1 1
1 2 1
0 1 2
0 0 1
1 1
U L
|
|
|

\
|

= =

1 2 1
1 1 1
2 3 1
1 1 1
L U A
2.5.6 Casos Especiales
Matrices Simtricas Definidas Positivas.
Para una matriz simtrica:
) 1 ( ) 1 (
kj jk
a a = . Si se efecta la reduccin de Gauss sin
intercambio de filas y/o columnas se tiene tambin que:
) ( ) ( i
kj
i
jk
a a = para j i < , n k .
En otras palabras, la sub matriz que debe an reducirse en un paso dado es tambin
simtrica. Esto puede probarse por induccin, teniendo en cuenta las condiciones
iniciales de simetra y adems que:
) (
) (
) (
) ( ) ( ) ( ) 1 ( i
ij
i
ii
i
ki i
kj
i
ij ki
i
kj
i
kj
a
a
a
a a l a a = =
+
(2.13a)
) (
) (
) (
) ( ) ( ) ( ) 1 ( i
ik
i
ii
i
ji
i
jk
i
ik ji
i
jk
i
jk
a
a
a
a a l a a = =
+
(2.13b)
Puede observarse que, si los coeficientes en la etapa i son simtricos, aquellos en la
etapa 1 + i tambin lo son, puesto que se obtienen operando del mismo modo con
nmeros iguales.
Considrese, por ejemplo, el sistema de ecuaciones con coeficientes simtricos:

|
|
|
|
|

\
|

0
0
1
0
5 4 1 0
4 6 4 1
1 4 6 4
0 1 4 5
4
3
2
1
x
x
x
x

En las sucesivas etapas del proceso de eliminacin, las sub matrices que quedan por
reducir siguen siendo simtricas:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 16

|
|
|
|
|

\
|

0
0
1
0
5 4 1 0
4 0
1 0
0 1 4 5
4
3
2
1
5
29
5
16
5
16
5
14
x
x
x
x

|
|
|
|
|

\
|

14
5
7
8
4
3
2
1
14
65
7
20
7
20
7
15
5
16
5
14
1
0
0 0
0 0
1 0
0 1 4 5
x
x
x
x

|
|
|
|
|

\
|

6
7
7
8
4
3
2
1
6
5
7
20
7
15
5
16
5
14
1
0
0 0 0
0 0
1 0
0 1 4 5
x
x
x
x
de donde

7
12
13
8
5
1
4
3
2
1
x
x
x
x

La simetra de la matriz por reducirse permite hacer:
) ( ) ( i
ii
i
ik ki
a a l = (utilizando
) (i
ik
a en
lugar de
) (i
ki
a ) y restringir los clculos de:
) ( ) ( ) 1 ( i
ij ki
i
kj
i
kj
a l a a =
+
a las columnas n j k ,
en lugar de n j i . El nmero de operaciones para la reduccin es entonces
) (
2
6
1
n O , aproximadamente la mitad que para el caso general.
Tambin los requerimientos de memoria pueden reducirse, almacenando los coeficientes
de la matriz en un arreglo monodimensional. Para el caso de una matriz simtrica de
alta densidad el siguiente esquema de numeracin de los coeficientes es apropiado:
|
|
|
|
|
|
|
|
|
|

\
|
+ ) 1 (
15
14 10
13 9 6
12 8 5 3
11 7 4 2 1
2
1
n n
M M
M M
M M
M M
M M
M M

Es evidente que intercambios de filas y columnas destruyen la simetra, a menos que se
tome siempre como pivote un elemento de la diagonal principal. Tales intercambios no
son necesarios si la matriz es definida positiva (x
T
Ax > 0 para x arbitraria, no nula), ya
que en tal caso:
0
) (
>
k
ii
a n k i , 1
) ( ) (
2
) ( k
jj
k
ii
k
ij
a a a n j i k , (2.14)
) ( ) 1 (
2
k
ii
k
ii
a a
+
n i k <
Estas condiciones garantizan que no se presentan pivotes pequeos.
Para el caso de matrices simtricas definidas positivas puede tambin utilizarse el
mtodo de Cholesky. ste mtodo efecta la descomposicin A = R
T
R, donde R es una
matriz triangular superior cuyos elementos pueden obtenerse (por filas) de:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 17
2
1
1
1
2
|
|

\
|
=

=
i
p
pi ii ii
r a r (2.15a)
L , 2 , 1
1
1
1
+ + =
|
|

\
|
=

=
i i j r r a
r
r
i
p
pj pi ij
ii
ij
(2.15b)
Para el ejemplo anterior se obtiene:
( ) = =
2
1
11 11
a r 2.2360
= =
11 12 12
r a r -1.7888
= =
11 13 13
r a r 0.44721
= =
11 14 14
r a r 0
( ) = =
2
1
2
12 22 22
r a r 1.6733
( ) = =
22 13 12 23 23
r r r a r -1.9123
( ) = =
22 14 12 24 24
r r r a r 0.5976
( ) = =
2
1
2
23
2
13 33 33
r r a r 1.4639
( ) = =
33 24 23 14 13 34 34
r r r r r a r -1.9518
( ) = =
2
1
2
34
2
24
2
14 44 44
r r r a r 0.9129
es decir:
|
|
|
|
|

\
|

=
9129 . 0 0 0 0
9518 . 1 4639 . 1 0 0
5976 . 0 9123 . 1 6733 . 1 0
0 4472 . 0 7888 . 1 2360 . 2
R
El sistema Ax = b puede entonces rescribirse como R
T
Rx = b o bien R
T
y = b; Rx = y
Resolviendo el primer sistema triangular:

=
2781 . 1
7808 . 0
5976 . 0
0
y
y finalmente:

=
7
12
13
8
5
1
x
Puede anotarse que R est relacionada con las L y U de Gauss mediante R
T
= LD;
R = D
1
U; donde D = diag ( )
nn
u u u L
22 11
.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 18
Matrices Banda.
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el mtodo de Gauss y otros
similares, ya que stos conservan la estructura de banda de las matrices: A = LU:
|
|
|
|
|
|

\
|

|
|
|
|
|
|

\
|

=
|
|
|
|
|
|

\
|

1 0 0 0 0
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 1 1
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 1 1
0 0 0 0 1
2 1 0 0 0
1 2 1 0 0
0 1 2 1 0
0 0 1 2 1
0 0 0 1 1

Ntese que A
1
= U
1
L
1
no es una matriz banda:
|
|
|
|
|
|

\
|
=

1 1 1 1 1
1 2 2 2 2
1 2 3 3 3
1 2 3 4 4
1 2 3 4 5
1
A
y por lo tanto no conviene hallar
1
A en forma explcita.
Particularmente simples de tratar son los sistemas con matrices banda simtricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:
) 21 ( ) 14 (
) 20 (
7
13 6
19 12 5
18 11 4
17 10 3
16 9 2
15 8 1
|
|
|
|
|
|
|
|
|

\
|




= A

Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un
nmero fijo de coeficientes en cada codiagonal, lo que facilita la programacin. Siendo
el ancho de la semibanda, m, mucho menor que el nmero de ecuaciones, n, las
posiciones de memoria perdidas son despreciables. Este esquema de almacenamiento
(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
Otra posibilidad es:
|
|
|
|
|
|
|
|
|

\
|




=
20
19 17
18 16 12
15 11 9
14 10 8 6
13 7 5 3
4 2 1
A


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 19
Esta forma de almacenamiento es ms eficiente cuando el ancho de banda es variable
(como ocurre en la mayor parte de los problemas reales). Se guardan los coeficientes
por columnas, desde el perfil superior a la diagonal principal. Se requiere un arreglo de
apuntadores o ndices que indican las posiciones ocupadas por los coeficientes de la
diagonal principal (que son los ms referidos durante el proceso de solucin). Ntese
que al aplicar el mtodo de Gauss (o cualquier variante de ese procedimiento) no se
producen valores significativos por encima del perfil original y por lo tanto no se requiere
ms memoria que aquella en la situacin inicial.
Se necesitan nm posiciones de memoria (donde n es el orden de la matriz y m << n el
ancho de semibanda), mucho menos que las n
2
posiciones para la matriz completa o las
( ) 1
2
1
+ n n para una matriz simtrica de alta densidad. Por otro lado, la reduccin de la
matriz de coeficientes demanda slo ( )
2
2
1
nm O operaciones, ya que:
0 =
ij
l excepto para m j i j + <
0 =
ij
u excepto para m i j i + <
Esto debe compararse con ( )
3
6
1
n O operaciones para reducir una matriz simtrica de
alta densidad. La reduccin del segundo miembro y la sustitucin inversa requieren
( ) nm O 2 , en lugar de ( )
2
n O operaciones. En la prctica, rara vez se tiene un ancho de
banda constante, pero an as estos estimadores son tiles, si se considera m como la
media cuadrtica de los anchos de semibanda en las ecuaciones.
Un caso especial es aquel en que la matriz de coeficientes es tridiagonal:

|
|
|
|
|
|
|
|

\
|


n
n
n
n
n n
n n n
c
c
c
c
c
x
x
x
x
x
a b
b a b
b a b
b a b
b a
1
3
2
1
1
3
2
1
1
1 1 2
3 3 2
2 2 1
1 1
M M O
(2.16)
Los nicos coeficientes significativos son aquellos de la diagonal principal y de dos
codiagonales, es decir, dos lneas paralelas a la referida diagonal.
Se observa que al descomponer la matriz de coeficientes, A, en sus factores triangulares
LU los factores mantienen la estructura banda:
|
|
|
|
|
|
|
|

\
|
|
|
|
|
|
|
|
|

\
|
=
|
|
|
|
|
|
|
|

\
|


n
n
n
n
n n
n n n
r
b
r
b r
b r
b r
q
q
q
q
a b
b a b
b a b
b a b
b a
1
4
3 3
2 2
1 1
1
2
2
1
1
1 1 2
3 3 2
2 2 1
1 1
1
1
1
1
1
O
O O O O

La determinacin de los
i
q y
i
r es muy simple:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 20
i i i i
i i i
b q a r
n , , i a / b q
a r
=
= =
=
+ + 1 1
1 1
1 2 1 L (2.17a)
y, considerando L y = c:
1 2 1
1 1
1 1
= =
=
+ +
n , , i y q c y
c y
i i i i
L
(2.17b)
de donde se obtiene x resolviendo U x = y:
1 2 1
1
, , n i r / ) x b y ( x
r / y x
i i i i i
n n n
L = =
=
+

Para resolver un sistema de n ecuaciones lineales con matriz de coeficientes tridiagonal
se requieren slo 4 5 n operaciones. Como se indic anteriormente, se cuenta como
una operacin la combinacin de una multiplicacin o divisin con una suma, resta o
almacenamiento del resultado.
Grandes sistemas de ecuaciones lineales
(con matrices de coeficientes banda, simtricas y definidas positivas).
Cuando la memoria de la computadora es insuficiente para almacenar todos los
coeficientes del sistema de ecuaciones, se recurre al disco. El acceso a este medio es
(en trminos relativos) muy lento y en lo posible debe tratar de minimizarse su uso.
Es frecuente subdividir la informacin de sistemas de ecuaciones excesivamente
grandes en bloques de una o ms ecuaciones (o columnas).
Los datos de cada bloque se almacenan en disco. stos son ledos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solucin del sistema de ecuaciones por el mtodo de Gauss (u otro similar)
requiere mantener en memoria principal la informacin de por lo menos dos bloques en
forma simultnea. As por ejemplo, durante el proceso de reduccin, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequea), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser ledos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitucin inversa.
2.6. Errores en la Solucin de
Sistemas de Ecuaciones Lineales
En la solucin prctica de grandes sistemas de ecuaciones lineales se realizan millones
de operaciones y en cada una ocurren errores de redondeo, Cmo afectan estos
errores a los resultados? Cmo puede estimarse la magnitud del error en la solucin?
Podra pensarse que, habiendo resuelto el sistema A x = b, la magnitud del residuo
r = b A x sea una buena medida del error introducido en x. !Esto es falso!
Considrese por ejemplo:
A =
|
|

\
|
659 . 0 913 . 0
563 . 0 780 . 0
b =
)
`

254 . 0
217 . 0


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 21
Y supngase que se ha resuelto A x = b obteniendo x
1
= (0.341 -0.087)
T
Qu tan
buena es esta solucin?
r
1
= b A x
1
= (10
-6
0)
T

Por otro lado si se afirma que la solucin es x
2
= (0.999 -1.001)
T
se obtiene el residuo.
r
2
= b A x
2
= (1.343x10
-3
1.572x10
-3
)
T

Es x
1
mejor solucin que x
2
? No. La solucin exacta es x = (1 -1)
T
.
Aunque la magnitud del vector residuo r = b A x no da una indicacin directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solucin.
Esto se discute ms adelante.
2.6.1 Normas de Vectores y Matrices
Con el propsito de discutir los errores al resolver sistemas de ecuaciones lineales, se
define como norma (o medida) de un vector:
+ + = p x x
p p p
p
1 ) (
/ 1
2 1
K x (2.18a)
Dos casos particulares son de inters:
2 / 1 2
2
2
1
2
) ( K + + = x x x (norma Euclidiana) (2.18b)
i
x mx =

x (mximo valor absoluto) (2.18c)


Es relativamente fcil probar que:
0 x slo hay igualdad si x = 0
x x a a = (2.19)
y x y x + +
Estas propiedades son familiares en relacin a la norma Euclidiana o longitud de un
vector.
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definicin de norma de un vector:
p
p
p
mx
x
x A
A = ( ) 0 x (2.20a)
La norma
2
A es
2 / 1
mx , donde
mx
es el mximo valor caracterstico de A
T
A (ver
captulo 3). Por otro lado:

=
n
1 j
ij
i
a mx A (2.20b)
Estas normas satisfacen condiciones similares a las normas de vectores. Adems:
B A B A (2.21)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 22
2.6.2 Condicionamiento de una matriz:
En esta ecuacin se analizan los efectos de una pequea perturbacin A en la matriz
A, o de una perturbacin b en b.
Si x es la solucin exacta de A

x = b, cuando se considera la matriz de coeficientes
A A + la solucin resulta x x + :
b x x A A = + + ) ( ) ( (2.22)
de donde:
) (
1
x x A A x + =


tomando normas:
x x A A x +
1

y dividiendo entre x x + :
( )
A
A
A
x x
x

+

(2.23)
donde ( )
1
= A A A K (2.24)
es el nmero de condicionamiento de la matriz A. Dado que
2 / 1
2
1

= mn A , donde
min es el menor valor caracterstico de la matriz A
T
A, puede escribirse:
( ) ( )
2 / 1
2
/ mn mx K = A (2.25)
Por otro lado: para una perturbacin b en b:
b b x x A + = + ) ( (2.26)
de donde:
b A x =
1

b A x
1

y dado que b = A x, lo que implica
A
b
x
se obtiene:
( )
b
b
A
x
x

K (2.27)
Las ecuaciones (2.23) y (2.27) indican que, si ( ) A K es grande, pequeos cambios en A
o en b pueden originar cambios importantes en la solucin.
Si se tienen errores relativos de orden tanto en A como en b, (2.23) y (2.27) pueden
combinarse, para escribir:
x A x ) ( 2 K (2.28)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 23
Los errores de redondeo introducidos en el proceso de solucin pueden ser
considerados como equivalentes a perturbaciones en las matrices A y b iniciales. ( ) A K
es tambin un buen indicador de los efectos de los errores de redondeo en la solucin.
La expresin (3) implica que si A y b estn dadas con t cifras significativas, el nmero de
cifras que puede esperarse sean correctas en la solucin, s, puede estimarse mediante:
[ ] ) ( log
10
A K t s (2.29)
Para el ejemplo precedente:

A = 0.913 + 0.659 = 1.572


adems: |

\
|

780 . 0 913 . 0
563 . 0 659 . 0
10
6 1
A
de donde

1
A = 0.913 x 10
6
+ 0.780 x 10
6
= 1.693 x 10
6

( )

=
1
A A A K = 1.572 x 1.693 x 10
6
= 2.7 x 10
6

Alternativamente, trabajando con normas Euclidianas:
|
|

\
|
=
751250 . 0 040807 . 1
0040807 . 1 441969 . 1
A A
T

cuyos valores caractersticos son mx = 2.1932, mn = 4.56 x 10
-13

de donde ( ) ( )
2 / 1
mn mx
2
/ = A K = 2.2 x 10
6

Ambos resultados indican un mal condicionamiento de la matriz A.
Note que en el ejemplo anterior la matriz A no era simtrica, por lo que fue necesario
evaluar los valores caractersticos de A A
T
. Si A fuera simtrica, los valores
caractersticos de A A
T
seran exactamente los cuadrados de los valores caractersticos
de A.
2.6.3 Errores de redondeo en la solucin de sistemas de ecuaciones lineales
por el mtodo de Gauss (y otros mtodos de eliminacin similares)
Las relaciones tericas utilizadas en la reduccin son:
) ( ) (
/
i
ii
i
ki ki
a a l =
) ( ) ( ) 1 ( i
ij ki
i
kj
i
kj
a l a a =
+
(2.30)
) ( ) ( ) 1 ( i
i ki
i
k
i
k
b l b b =
+

Sin embargo, como resultado de los errores de redondeo, los valores calculados (aqu
indicados en barras) satisfacen:
) 1 )( / (
1
) ( ) (
+ =
i
ii
i
ki
ki
a a l
) 1 ))( 1 ( (
3 2
) ( ) ( ) 1 (
+ + =
+ i
ij
ki
i
kj
i
kj a l a a (2.31)
) 1 ))( 1 ( (
5 4
) ( ) ( ) 1 (
+ + =
+ i
i
ki
i
k
i
k b l b b
donde
i
, siendo el mximo error relativo de redondeo. Alternativamente puede
escribirse:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 24
) (
) (
) (
/ ) (
i
ii
i
ki
i
ki
ki
a e a l + =
) (
) ( ) ( ) 1 (
i
kj
i
ij ki
i
kj
i
kj e a l a a + =
+
(2.32)
) (
) ( ) ( ) 1 (
i
k
i
i ki
i
k
i
k e b l b b + =
+

y puede probarse que:
) (
) (
i
ki
i
ki
a e

|

\
|

+ ) 1 ( ) (
) (
, . 3
i
kj
i
kj
i
kj
a a mx e
(2.33)
|

\
|

+ ) 1 ( ) (
) (
, . 3
i
k
i
k
i
k
b b mx c

Por otro lado, considerando que .
kj kj
a a =
) 1 (
, 1 =
kk
l , pueden utilizarse las expresiones
precedentes para escribir
kj
a en funcin de los
) 1 (
, ij ki a l . (es decir los elementos de las
matrices L y U). Se obtiene as:
( )

= =
= +
s
i
i
ij
ki
r
i
i
kj kj
a l e a
1
) (
1
(2.34a)
donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que
k k
b b =
) 1 (
, se
obtiene:
( )

=

=
= +
k
i
i
i ki
k
i
i
k k
b l c b
1
) (
1
1
(2.34b)
Esto demuestra que las matrices calculadas:
) ( ki l = L

) (
) (i
ij a = U

) (
) (i
i
b = y

No son factores exactos de A y b sino de A + A y b + b:
U L A A = +

y L b b = +
Los elementos de A son sumatorias de los
( ) i
kj
e ; los elementos de b son sumatorias
de los
( ) i
k
c . Las expresiones (4) dan una medida de estas perturbaciones. Obsrvese
que las expresiones (2.23) y (2.27) son aplicables tambin en este caso, y un valor de
) (A K alto indica que los errores de redondeo tendrn efectos importantes en la
solucin.
Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el
crecimiento de los
) (i
kj
a ,
) (i
k
b . Este es el propsito al realizar intercambios de filas y/o
columnas.
Finalmente, debe mencionarse que en el proceso de sustitucin inversa, para obtener x
resolviendo y x U = , los errores acumulados son despreciables en trminos relativos a
los que resultan de la reduccin.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 25
Las ecuaciones precedentes permiten una estimacin a-posteriori de la magnitud del
error. A-priori puede establecerse
(1)
:
) 1 (
,
) (
, ,
ij
j i
k
ij
k j i
n
a mx
a mx
g = (2.35)
teniendo que:
1
2

n
n
g para intercambio parcial (filas)
n 25 . 0
8 . 1
Ln
n
n g para intercambio total.
Estos lmites son tericos. Ntese por ejemplo que para un sistema de orden 100 se
tendra
29
10 3 . 6 x g
n
para intercambio parcial y 18
n
g para intercambio completo, lo
que justificara el trabajo adicional necesario para la segunda alternativa. Sin embargo,
en la prctica rara vez se observa un
n
g mayor que 10, an con intercambio parcial.
Para matrices simtricas definidas positivas se tiene que 1
n
g .
2.6.4 Algunas consideraciones relativas a unidades.
Equilibrio de las ecuaciones.
En un sistema de ecuaciones A x = b... los a
ij
, b
i
, x
j
pueden expresarse en diversos
sistemas de unidades. Un cambio de unidades equivale a considerar b = D
1
b; x = D
2
x
y por lo tanto (D
1
A D
2
) x == D
1
b. En estas expresiones las matrices D
1
y D
2
son
diagonales. Puede demostrarse que, si se utilizan los mismos pivotes y las D
1
y D
2
solo
contienen potencias enteras de la base del sistema de numeracin utilizado, los
resultados son los mismos (habida cuenta de los cambios de unidades).
Sin embargo las unidades utilizadas pueden afectar la seleccin de pivotes,
especialmente si slo se hace intercambio parcial.
En tal caso, es recomendable equilibrar las ecuaciones. Para las incgnitas deben
seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben
multiplicarse por factores D
1
tales que:
1
1
=

ij
n j
a mx i=1,2,3,...n
2.6.5 Mtodo iterativo para mejorar la solucin
Considrese el sistema de ecuaciones b Ax = para el que se tiene la solucin
aproximada
) 0 (
x . Si x es la solucin exacta, se tiene que:
) 0 ( ) 0 (
x x x + =

y entonces:
) 0 ( ) 0 (
r x A =

donde:

) 0 ( ) 0 (
Ax b r =

Al determinar .
) 0 (
x . se obtienen los factores triangulares aproximados L y U tales que
A A U L + = , siendo A pequeo. Esta descomposicin requiere aproximadamente
( )
3
3
1
n O operaciones.
A partir de
) 0 (
x puede determinarse
) 0 (
r en ( )
2
n O operaciones y resolverse:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 26
r z L =

z x U =

tambin en ( )
2
n O operaciones. Dado que L y U no son los factores exactos de A, y
adems se introducen nuevos errores de redondeo, es necesario iterar:
) ( ) ( i i
x A b r =

) ( ) ( i i
r z L =
(2.36)

) ( ) ( i i
z x U =

) ( ) ( ) 1 ( k k k
x x x + =
+

Pero nada se ganara si las operaciones se hicieran siempre con el mismo nmero de
cifras significativas empleadas en los cmputos originales. Si los
ij
a
i
b
i
x estn dados
con t dgitos, el cmputo de los residuos:

=
=
n
j
k
j ij i
k
i
x a b r
1
) ( ) (

debe hacerse con t 2 dgitos (para minimizar errores de cancelacin). Sin embargo, el
almacenamiento de los resultados puede hacerse en precisin simple, es decir, con t
dgitos.
Los vectores
) 1 (
x y
) 2 (
x permiten tambin estimar el nmero de condicionamiento:
( )
) 2 (
) 1 (
1
x
x
A


n
(2.37)

donde n es el orden del sistema y es el mximo error relativo de redondeo (al operar
en precisin simple). Si
) 1 (
x no es mucho menor que
) 1 (
x , o lo que es lo mismo,
si ( ) n A no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,
la nica alternativa sera operar con mayor precisin en toda la solucin.
Considrese, por ejemplo, el sistema de ecuaciones:

|
|
|

\
|
. 0
1
. 0
6 2 3
2 11 7
3 7 5
3
2
1
x
x
x

y supngase que la computadora opera en base 10 con 3 cifras significativas. La
factorizacin de la matriz de coeficientes, U L A = , resulta en:
|
|
|

\
|

|
|
|

\
|

=
|
|
|

\
|
17 . 0
20 . 2 20 . 1
00 . 3 00 . 7 00 . 5
00 . 1 83 . 1 60 . 0
00 . 1 40 . 1
00 . 1
6 2 3
2 11 7
3 7 5

De la reduccin del segundo miembro, es decir la solucin de b y L = se obtiene:
( )
T
83 . 1 00 . 1 00 . 0 = y

Finalmente por sustitucin inversa, es decir resolviendo y x U = , se determina
( )
T
x 8 . 10 6 . 20 3 . 35
) 1 (
=


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 27
Para esta solucin aproximada se tiene el residuo:
( )
T
100 . 0 100 . 0 100 . 0
) 1 ( ) 1 (
= = x A b r

El cmputo de los

j ij i
x a b deben hacerse en doble precisin, almacenndose los
resultados
i
r en precisin simple.
Resolviendo los dos sistemas triangulares:
) 1 (
r z L = y z x U =
) 1 (
se obtiene:
( )
T
195 . 0 391 . 0 685 . 0
) 1 (
= x

Y entonces:
( )
T
0 . 11 0 . 21 0 . 36
) 1 ( ) 1 ( ) 2 (
= + = x x x

(redondeado a 3 cifras significativas). Este resultado es mejor que
) 1 (
x (en este caso el
resultado es exacto, aunque debera decirse que por accidente).
Puede verificarse fcilmente que la matriz A del ejemplo anterior es bien condicionada.
Por otro lado, considrese nuevamente el sistema:
)
`

=
)
`

|
|

\
|
254 . 0
217 . 0
659 . 0 913 . 0
563 . 0 780 . 0
2
1
x
x

para el cual se obtuvo anteriormente ( ) A de orden 2 x 10
6
. Supngase que se opera
en base 10 con 6 cifras significativas:
|
|

\
|

|
|

\
|
=
|
|

\
|
6
10 3
000 563 . 0 000 780 . 0
000 00 . 1 051 17 . 1
000 00 . 1
659 . 0 913 . 0
563 . 0 780 . 0

se pierden cifras significativas en el elemento
22
a de esta ltima matriz al restar dos
nmeros que solo difieren en la ltima cifra almacenada). De aqu resultan:
( )
T
333 333 . 0 803 518 . 0
) 1 (
= x

( )
T
6 6 ) 1 (
10 692 . 0 10 139 . 0

= r

No obstante ser este residuo pequeo, se obtiene la correccin:
( )
T
433 176 . 0 348 127 . 0
) 1 (
= x

( )
T
900 156 . 0 455 391 . 0
) 1 ( ) 1 ( ) 2 (
= + = x x x

y es obvio que este resultado difiere ms de la solucin exacta ( )
T
1 1 = x que la
aproximacin
) 1 (
x antes obtenida. Para resolver este sistema de ecuaciones se
requiere trabajar con un mnimo de 8 cifras significativas!
2.7.Mtodos Iterativos para la Solucin
de Sistemas de Ecuaciones Lineales
En los acpites siguientes se tratan dos tipos distintos de mtodos iterativos. Estos
procesos pueden ser muy eficientes cuando la matriz de coeficientes, A , es de baja
densidad, ms an si la evaluacin de productos de la forma Av no requiere la previa
determinacin y el almacenamiento de A en forma explcita.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 28
2.7.1 Mtodos de Relajacin
Estos procedimientos son adecuados slo cuando la diagonal principal de la matriz de
coeficientes es dominante. En general, se considera una aproximacin inicial, tal como
0 x =
) 0 (
, y sta es sucesivamente mejorada hasta obtener una solucin suficientemente
precisa.
Considrese el sistema de orden n : b x A = , con 0
ii
a para todo i . En el mtodo de
Jacobi se calculan las aproximaciones L
) 3 ( ) 2 ( ) 1 (
, , x x x mediante:
|
|

\
|
=

+
i j
k
j ij i
ii
k
i
x a b
a
x
) ( ) 1 (
1
(2.38)
La aproximacin es arbitraria; con frecuencia 0 x =
) 0 (
. Si los
) 1 ( + k
i
x se determinan en el
orden habitual, al determinar
) 1 ( + k
r
x ya se han previamente obtenido las nuevas
aproximaciones
) 1 (
1
) 1 (
2
) 1 (
1
,
+

+ + k
r
k k
x x x L . Sin embargo, en el mtodo de Jacobi no se hace
uso de estas nuevas aproximaciones hasta la iteracin siguiente, difiriendo en esto del
mtodo de Gauss - Seidel:
|
|

\
|
=

+ =

=
+ +
n
i j
k
j ij
i
j
k
j ij i
ii
k
i
x a x a b
a
x
1
) (
1
1
) 1 ( ) 1 (
1
(2.39)
Ntese que slo se requiere almacenar las ltimas aproximaciones a los
i
x .
En el ejemplo siguiente se usan las dos alternativas:

|
|
|
|
|

\
|




75 . 2
1
75 . 2
1
5 1 1 0
1 5 0 1
1 0 5 1
0 1 1 5
4
3
2
1
x
x
x
x

La solucin exacta es
( )
T
50 . 0 25 . 0 50 . 0 25 . 0 = x

Con el mtodo de Jacobi se obtienen las sucesivas aproximaciones:
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x
0 0 0 0 0
1 0.2 0.55 -0.2 -0.55
2 0.27 0.48 -0.27 -0.48
3 0.242 0.508 -0.242 -0.508
4 0.2532 0.4968 -0.2532 -0.4968
5 0.24872 0.50128 -0.24872 -0.50128
6 0.250512 0.499488 -0.250512 -0.499488
7 0.249795 0.500205 -0.249795 -0.500205
8 0.250082 0.499918 -0.250082 -0.499918
9 0.249967 0.500033 -0.249967 -0.500033
10 0.250013 0.499987 -0.250013 -0.499987
11 0.249995 0.500005 -0.249995 -0.500005
12 0.250002 0.499998 -0.250002 -0.499998

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 29
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x
13 0.249999 0.500001 -0.249999 -0.500001
14 0.250000 0.500000 -0.250000 -0.500000
15 0.250000 0.500000 -0.250000 -0.500000
La convergencia es mejor con el mtodo de Gauss Seidel:
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x

0 0 0 0 0
1 0.2 0.59 -0.16 -0.464
2 0.286 0.5144 -0.2356 -0.49424
3 0.255760 0.502304 -0.247696 -0.499078
4 0.250922 0.500369 -0.249631 -0.499853
5 0.250147 0.500059 -0.249941 -0.499976
6 0.250024 0.500009 -0.249991 -0.499996
7 0.250004 0.500002 -0.249998 -0.499999
8 0.250001 0.500000 -0.250000 -0.500000
9 0.250000 0.500000 -0.250000 -0.500000
En algunos casos la convergencia puede acelerarse con sobrerelajacin:
) ( ) ( ) 1 ( k
i
k
i
k
i
r x x + =
+
(2.40a)
|
|

\
|
=

=

=
+
n
i j
k
j ij
i
j
k
j ij i
ii
k
i
x a x a b
a
r
) (
1
1
) 1 ( ) (
1
(2.40b)
El valor ptimo de depende de A e incluso de la aproximacin
) (k
x . Cuanto mayores
sean los valores absolutos de los trminos de la diagonal principal, respecto a la suma
de los valores absolutos de los restantes coeficientes de la misma fila, ms se aproxima
a 1. Para el ejemplo precedente, utilizando 05 . 1 = se obtienen:
k
) (
1
k
x
) (
2
k
x
) (
3
k
x
) (
4
k
x

0 0 0 0 0
1 0.210000 0.621600 -0.165900 -0.481803
2 0.295197 0.507233 -0.240892 -0.497478
3 0.251172 0.500414 -0.249680 -0.499972
4 0.250096 0.500005 -0.249990 -0.499998
5 0.249998 0.500000 -0.250000 -0.500000
6 0.250000 0.500000 -0.250000 -0.500000
Estos mtodos no son necesariamente ms precisos que los procesos de eliminacin. El
ejemplo al inicio de la seccin 2.6 muestra que si el sistema es mal condicionado puede
aceptarse como correcta una solucin totalmente equivocada, pero con la que se tiene
un residuo pequeo.

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 30
2.7.2 Convergencia
En esta seccin se analiza la convergencia de los mtodos de relajacin. Un paso tpico
en la solucin de b x A = puede escribirse como:
f x G x + =
+ ) ( ) 1 ( k k
(2.41)
Esto puede verse ms fcilmente si se considera la descomposicin:
( )
s i
T I T D A + + = (2.42)
donde D es una matriz diagonal, con elementos
ii
a ;
i
T y
s
T son matrices triangulares,
inferior y superior respectivamente, con ceros en la diagonal principal, cuyos coeficientes
son los
ii ij
a a . Por ejemplo:
(
(

|
|

\
|
+
|
|

\
|
+
|
|

\
|

|
|

\
|
=
|
|

\
|

0 0
0
1 0
0 1
0
0 0
2 0
0 2
2 1
1 2
2
1
2
1

Con esta notacin, para el mtodo de Jacobi se tiene:
( ) b D x T T x
1 ) ( ) 1 ( +
+ + =
k
s i
k
(2.43a)
es decir: ( )
s i
T T G + = (2.43b)
mientras que para el mtodo de Gauss-Seidel puede escribirse:
b D x T x T x
1 ) ( ) 1 ( ) 1 ( + +
+ =
k
s
k
i
k
(2.44a)
y por lo tanto: ( )
s i
T T I G
1
+ = (2.44b)
De modo similar, para el mtodo de sobre relajacin se tiene:
( ) ( ) [ ]
s i
T I T I G + =

1
1
(2.45)
Por otro lado, dado, que la solucin exacta, x , debe cumplir la ecuacin (2.41), se tiene
que:
f x G x + = (2.46)
y restando (2.46) de (2.41):
( ) ( ) x x G x x =
+ ) ( ) 1 ( k k
(2.47a)
de donde:
( ) ( ) ( ) ( ) x x G x x G x x G x x = = = =
+ + ) 0 ( 1 ) 1 ( 2 ) ( ) 1 ( k k k k
L (2.47b)
Adems, si
n
L
3 2 1
, , son los vectores caractersticos de la matriz G , a los que
corresponden los valores caractersticos
n
L
3 2 1
, , , puede escribirse:
( )
n n
+ + + + = L
3 3 2 2 1 1
) 0 (
x x
ya que los vectores caractersticos constituyen una base completa. Es relativamente
fcil probar que:
( ) ( )
n
k
n n
k k k k k
+ + + + = = L
3 3 3 2 2 2 1 1 1
) 0 ( ) (
x x G x x (2.47c)
Para tener convergencia:
( ) 0 x x =

) (k
k
Lim (2.48a)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 31
y por tanto se requiere 1 <
i
para todo i , o lo que es lo mismo:
( ) 1 =
i
i
mx G (2.48b)
( ) G se denomina el radio espectral de la matriz G .
Para k suficientemente grande el error se multiplica por ( ) G en cada paso, es decir se
tiene aproximadamente ( ) [ ] G
10
log cifras decimales exactas adicionales en cada
paso.
No es prctico determinar con gran precisin los valores caractersticos de G (esto
significara ms trabajo que resolver el sistema de ecuaciones), pero ciertos lmites
pueden ser fcilmente establecidos.
Para el mtodo de Jacobi:
ii ij ij
a a g = si j i (2.49a)
0 =
ii
g
y utilizando el teorema de Gerschgorin (vase el captulo relativo a la evaluacin de
valores y vectores caractersticos):
( )

=
j
ij
i
i
i
g mx mx G o bien

i
ji
j
g mx (2.49b)
con lo que la condicin de convergencia ( ) 1 G puede rescribirse:

=
>
n
j i
i
ij jj
a a
1

=
>
n
i j
j
ij ii
a a
1
(2.49c)
Estas son condiciones suficientes pero no necesarias. La convergencia es ms rpida
cuanto ms fuertes son las desigualdades.
Para el mtodo de Gauss Seidel ( ) ( ) [ ]
i i
i
s r mx = 1 G (2.50a)
donde:

+ =
>
n
i j ii
ij
i
a
a
r
1

=
>
1
1
i
j ii
ij
i
a
a
s (2.50b)
y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el mtodo de Jacobi (aunque en general el mtodo de Gauss -Seidel converge ms
rpidamente).
Un anlisis similar del mtodo de sobre relajacin permite establecer la condicin
adicional: 2 0 <
2.7.3 Mtodos de Mxima Gradiente y de Gradiente Conjugada
En la primera parte de esta seccin se consideran mtodos para la solucin de sistemas
de ecuaciones b x A = con matriz A simtrica y definida positiva, es decir, 0 > v A v
T

para todo vector v no nulo.
Considrese la funcin:
b x x A x x
T T
f =
2
1
) ( (2.51)
Si x es la solucin exacta de b x A = se tiene que:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 32
( ) ( )
( ) ( ) x x A x x
b x x A x b x x A x x x
=
=
T
T T T T
f f
2
1
2
1
2
1
) ( ) (

Pero, siendo A definida positiva: ( ) ( ) 0
2
1
x x A x x
T

Y por lo tanto 0 ) ( ) ( x x f f , es decir, ) ( ) ( x x f f (2.52)
La igualdad solo se da si x x = . La solucin de b x A = es entonces equivalente a una
minimizacin de ) (x f .
Dada la aproximacin inicial
) 0 (
x , a la que corresponden el residuo
) 0 ( ) 0 (
x A b r = y el
valor ) (x f , debe determinarse una nueva aproximacin,
) 1 (
x , tal que ) ( ) (
) 0 ( ) 1 (
x x f f < .
Para reducir el valor de ) (x f lo ms rpidamente posible, la correccin debe hacerse en
la direccin de mxima gradiente. Debe entonces determinarse esta direccin, z , tal
que:
0
) 0 (
) (
=
+

z x f
d
d

sea mxima (en valor absoluto). Siendo b x x A x x
T T
f =
2
1
) ( , puede escribirse:
) (
) ( ) ( ) ( ) (
) 0 ( ) 0 ( 2
2
1
) 0 ( ) 0 ( ) 0 (
2
1 ) 0 (
x r z z A z
b z x z x A z x z x
f
f
T T
T T
+ =
+ + + = +
(2.53a)
de donde:
) 0 (
0
) 0 (
) ( r z z x
T
f
d
d
= +

=

Esto significa que debe tomarse la direccin
) 0 (
r z = (2.53b)
Ahora puede determinarse
0
de modo que ) (
) 0 (
0
) 0 (
r x + f sea un mnimo.
Rescribiendo (2.53a) con
) 0 (
r z = y derivando con respecto a :
0 ) (
) 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0 (
= = +

r r r A r r x
T T
f
d
d

de donde:
) 0 ( ) 0 (
) 0 ( ) 0 (
0
r A r
r r
T
T
=
(dado que A es definida positiva, nunca se presenta el caso 0
) 0 ( ) 0 (
= r A r
T
)
Finalmente:
) 0 (
0
) 0 ( ) 1 (
r x x + =
El proceso puede repetirse en sucesivos ciclos:
) ( ) ( k k
x A b r = (2.54a)
) ( ) (
) ( ) (
k
T
k
k
T
k
k
r A r
r r
= (2.54b)
) ( ) ( ) 1 ( k
k
k k
r x x + =
+
(2.54c)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 33
Este mtodo es siempre convergente, pero no puede conocerse a priori en cuantos
ciclos se tendr la precisin requerida.
En los prrafos siguientes se estudia una modificacin de este proceso, el mtodo de
Gradiente Conjugada, para el que al menos en teora - puede garantizarse la
convergencia en un nmero de pasos igual o inferior al orden del sistema de ecuaciones.
Considrese el sistema de ecuaciones de orden n , b x A = . Dada una solucin
aproximada,
) 0 (
x , la solucin exacta, x , puede escribirse como:
x x x + =
) 0 (

x puede expresarse como combinacin lineal de n vectores linealmente
independientes. En particular, si se consideran vectores
1 2 2 1 0
, , ,
n n
s s s s s L , que
satisfacen las relaciones de ortogonalidad:
ij i j
T
i
c = s A s
puede escribirse:
1 1
) 1 ( ) (
) ( ) 1 (
1 1
) 1 ( ) 2 (
0 0
) 0 ( ) 1 (

+
+ = =
+ =
+ =
+ =
n n
n n
k k
k k
s x x x
s x x
s x x
s x x
L L
L L

alternativamente:

=
+ =
1
0
) 0 (
n
k
k k
s x x (2.55)
Suponiendo que los vectores
k
s son conocidos, los coeficientes
k
pueden obtenerse
utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:
( )

=
= = =
1
) ( ) ( ) (
n
i k
k k
i i i
s A x x A x A b r (2.56)
premultiplicando por
T
j
s se obtiene:
0
1
) (
= =

=
n
i k
k
T
j k
i T
j
s A s r s si i j < (2.57)
j
T
j j
s A s = si i j
de donde puede escribirse:
j
T
j
j T
j
j
s A s
r s
) (
= (2.58a)
Alternativamente, puede utilizarse
j
T
j
j
T
j
j
s A s
r r
) ( ) (
= (2.58b)

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 34
La expresin alternativa ) ( ) (
) 0 (
j
T
j
T
j j
s A s r s = no es conveniente, por la acumulacin
de errores de redondeo.
Dado que los
1 2 2 1 0
, , ,
n n
s s s s s L son n vectores linealmente independientes en un
espacio n -dimensional, el error siempre puede ser expresado como una combinacin
lineal de estos vectores , es decir el proceso debera llegar a la solucin exacta (salvo
errores de redondeo) en n pasos.
El vector
1 + k
s se obtiene eliminando de
) 1 ( + k
r la componente segn
k
s A :
k k
k
k
s r s =
+
+
) 1 (
1
(2.59)
donde:
k
T
k
k T
k
k
s A s
r A s
) 1 ( +
= (2.60)
En el proceso de determinacin de pueden tenerse errores de cancelacin importantes si
son aproximadamente paralelos.
Es relativamente fcil probar que si
k
s s s s L
2 1 0
, , son A-ortogonales, entonces
1 + k
s
calculado con (2.59) resulta tambin A-ortogonal a todos los vectores previamente
hallados. Para empezar, con
k
s :
( ) ( ) 0
) 1 (
) 1 ( ) 1 (
1
= = =
+
+ +
+ k
T
k
k
T
k
T
k k T
k k k
k T
k k
T
k
s A s
s A s
r A s
r A s s r A s s A s
Por otro lado, de (2.57) se concluye que:
j
T
k
j
T
k
s A r s A s
) (
1
=
+

y

( )
) ( ) 1 (
1
j j
j
j
r r s A

=



y por lo tanto, para k j < :
0
1 1
) ( ) ( ) 1 ( ) (
1
= |

\
|

\
|

=

+
j
T
k
j
j
T
k
j
j
T
k
r r r r s A s
El mtodo de gradiente conjugada puede resumirse en los pasos siguientes:
Dado
) 0 (
x , determinar
) 0 (
0
) 0 (
x A b s r = =
Y luego para 1 2 , 1 , 0 = n k L :
k k
s A q =

(no se requiere A en forma explcita)

k
T
k
k
T
k
k
q s
r r
) ( ) (
=

k k
k k
s x x + =
+ ) ( ) 1 (
(2.61)

k k
k k
q r r =
+ ) ( ) 1 (

) ( ) (
) 1 ( ) 1 ( ) 1 (
k
T
k
k
T
k
k
T
k
k
T
k
k
r r
r r
q s
q r
+ + +
= =


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 35
k k
k
k
s r s =
+
+
) 1 (
1

Como ejemplo, considrese la solucin del sistema de ecuaciones b Ax = definido por:
|
|
|

\
|

=
2 1 0
1 2 1
0 1 2
A

=
4
0
0
b

Con la aproximacin inicial 0
) 0 (
= x se obtienen
:

) 0 (
0
) 0 (
x A b s r = =

( )
T
4 0 0

0 0
s A q =

( )
T
8 4 0

) ( ) (
0 0
) 0 ( ) 0 (
0
q s r r
T
T
=

1
/
2

0 0
) 0 ( ) 1 (
s x x + =

( )
T
2 0 0

0 0
) 0 ( ) 1 (
q r r =

( )
T
0 2 0

) ( ) (
0 0 0
) 1 (
0
q s q r
T
T
=

1
/
4

0 0
) 1 (
1
s r s =

( )
T
1 2 0

1 1
s A q =

( )
T
0 3 2

) ( ) (
1 1
) 1 ( ) 1 (
1
q s r r
T
T
=

2
/
3

1 1
) 1 ( ) 2 (
s x x + =

( )
T
3 8 3 4 0

1 1
) 1 ( ) 2 (
q r r =

( )
T
0 0 3 4

) ( ) (
1 1 1
) 2 (
1
q s q r
T
T
=

4
/
9

1 1
) 2 (
2
s r s =

( )
T
9 4 9 8 3 4

2 2
s A q =

( )
T
0 0 9 16

) ( ) (
2 2
) 2 ( ) 2 (
2
q s r r
T
T
=

3
/
4

2 2
) 2 ( ) 3 (
s x x + =

( )
T
3 2 1

El mtodo de gradiente conjugada puede ser generalizado para resolver cualquier
sistema de ecuaciones b x A = (con A no singular):
Con
) 0 (
x arbitrario, se obtiene
) 0 (
0
) 0 (
x A b s r = =
Y luego para 1 2 , 1 , 0 = n k L :
k
T
k
s A q =

(no se requiere A en forma explcita)

k
T
k
k
T
k
k
q q
r r
) ( ) (
=

k k
k k
q x x + =
+ ) ( ) 1 (
(2.62)


H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 36
k k
k k
q A r r =
+ ) ( ) 1 (

) ( ) (
) 1 ( ) 1 (
k
T
k
k
T
k
k
r r
r r
+ +
=

k k
k
k
s r s =
+
+
) 1 (
1

2.8 Sistemas Sobre-Determinados de Ecuaciones Lineales
El problema de determinacin de los parmetros de un modelo lineal para aproximar un
conjunto de datos es frecuente. A fin de reducir la influencia de errores de medicin, es
habitual hacer ms mediciones que las estrictamente necesarias, de donde resultan ms
ecuaciones que incgnitas.
Dada una matriz A de orden n m ( n m> ) y un vector b de orden m , se requiere
determinar x de modo tal que x A sea la mejor aproximacin posible a b .
Un proceso simple (y muy adecuado si los errores en los
i
b son estadsticamente
independientes) es el mtodo de mnimos cuadrados, que consiste en minimizar la
magnitud del residuo x A b r = (o minimizar r r r
T
=
2
) con respecto a las x . Dado
que:
x A A x b A x b b r r
T T T T T T
f + = = 2 (2.63)
y por lo tanto:
0 x A A b A
x
= + =

T T
f
2 2

el mtodo de mnimos cuadrados puede formularse como la solucin del sistema de
ecuaciones normales:
( ) b A x A A
T T
= (2.64)
Si ( )
n
a a a a A L
3 2 1
= , la matriz simtrica A A C
T
= tiene elementos
j
T
i ij
c a a = .
La matriz C es no singular slo si todas las columnas
k
a de la matriz A son
linealmente independientes.
Para formar las ecuaciones normales se requieren ( ) 3
2
1
+ n mn operaciones. Para
resolver el sistema ( )
3
6
1
n O operaciones. La mayor parte del trabajo est en formar las
ecuaciones normales.
Considrese por ejemplo

|
|
|
|
|
|
|
|

\
|

1
2
1
3
2
1
1 0 1
1 1 0
0 1 1
1 0 0
0 1 0
0 0 1
3
2
1
x
x
x

las ecuaciones normales son en este caso:

H. Scaletti - Mtodos Numricos: lgebra Lineal 2 - 37

|
|
|

\
|



6
1
1
3 1 1
1 3 1
1 1 3
3
2
1
x
x
x

de donde:
( )
T
3 75 . 1 25 . 1 = x
Un mtodo alternativo (y numricamente mejor condicionado) se basa en al
descomposicin de la matriz de coeficientes, A, en el producto de una matriz ortogonal,
Q, y una matriz triangular superior, R (en el captulo relativo a valores y vectores
caractersticos se describen procedimientos que pueden ser empleados para esto).
Al tenerse R Q A = (2.65)
las ecuaciones normales ( ) b A x A A
T T
= pueden rescribirse:
( ) 0 = Ax b A
T

( ) 0 = x R Q b Q R
T T

y dado que I Q Q =
T
se obtiene:
( ) 0 = x R b Q R
T T

La matriz R no es singular y por tanto:
b Q x R
T
= (2.66)
La matriz R es la misma que se obtendra al descomponer A A
T
en dos factores
triangulares por el mtodo de Cholesky. Para el ejemplo precedente:
|
|
|

\
|


|
|
|
|
|
|
|
|

\
|

= =
|
|
|
|
|
|
|
|

\
|

=
4142 . 1 0 0
8165 . 0 6330 . 1 0
5774 . 0 5774 . 0 7321 . 1
3536 . 0 2041 . 0 5774 . 0
3536 . 0 6124 . 0 0
0 4082 . 0 5774 . 0
7071 . 0 0 0
3536 . 0 6124 . 0 0
3536 . 0 2041 . 0 5774 . 0
1 0 1
1 1 0
0 1 1
1 0 0
0 1 0
0 0 1
QR A
de donde:

= =

|
|
|

\
|


=
2426 . 4
4082 . 0
5774 . 0
4142 . 1 0 0
8165 . 0 6330 . 1 0
5774 . 0 5774 . 0 7321 . 1
3
2
1
b Q x R
T
x
x
x

y finalmente: ( )
T
3 75 . 1 25 . 1 = x

You might also like