You are on page 1of 29

Apuntes de terico - Mtodos Numricos

Instituto de Matemticas y Estadstica Rafael Laguardia


Facultad de Ingeniera, Universidad de la Repblica
2016 - Montevideo, Uruguay

Nota importante: El presente material forma parte de una versin en proceso de


revisin de un texto terico para la asignatura Mtodos Numricos. Por lo tanto, para
preparar los exmenes se debe utilizar el material de las clases tericas y la bibliografa
recomendada.
ii

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
ndice general

2. Sistemas de Ecuaciones Lineales 1


2.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

2.2. Mtodos directos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2.2.1. Solucin de sistemas triangulares . . . . . . . . . . . . . . . . . . . . . . . 2

2.2.2. Escalerizacin Gaussiana (EG) . . . . . . . . . . . . . . . . . . . . . . . . 3

2.2.3. Descomposicin LU (sin pivoteo) . . . . . . . . . . . . . . . . . . . . . . . 4

2.2.4. EG con pivotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.2.5. Descomposicin LU con intercambio de las . . . . . . . . . . . . . . . . . 8

2.2.6. Almacenamiento econmico . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.7. Estructura de banda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2.8. Otros mtodos directos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.3. Estabilidad de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.3.1. Norma de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.3.2. Norma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.3.3. Nmero de condicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.3.4. Anlisis de perturbaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.4. Mtodos indirectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.4.1. Mtodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.4.2. Mtodo de Gauss-Seidel (GS) . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.4.3. Expresin Matricial de Jacobi y Gauss-Seidel . . . . . . . . . . . . . . . . 18

2.4.4. Mtodo Iterativo Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.5. Mtodos de Sobrerrelajacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.5.1. JOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.5.2. SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

iii
NDICE GENERAL iv

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
Captulo 2

Sistemas de Ecuaciones Lineales


2.1. Introduccin

Un sistema de m ecuaciones lineales y n incgnitas consta de un conjunto de relaciones algebraicas


de la forma:
n
X
aij xj = bi xj , aij , bi R i = 1 . . . m
j=1

el cual puede ser representado en notacin matricial como Ax = b:



a11 a12 . . . a1n x1 b1
a21 a22 . . . a2n x2 b2
A= . . Mmn (R) x= . b = . .

. ..
.. .
. . .
.
.
. .
.
am1 am2 . . . amn xn bm

Este sistema tiene solucin nica si y solo si m = n y |A| =


6 0, entonces decimos que es compatible
determinado (CD). En este captulo trabajaremos con sistemas de esta clase.

En el caso de m > n existen ms ecuaciones que variables, por lo tanto, si el vector b no


pertenece al espacio generado por las columnas de A, no existe una solucin que verique todas
las ecuaciones, decimos que el sistema es incompatible. Ms adelante veremos tcnicas para
resolver este tipo de problemas.

Mtodos directos e indirectos Los mtodos de resolucin de sistemas lineales pueden ser
clasicados en las siguientes dos categoras:

Directos: obtenemos solucin luego de un nmero nito de iteraciones. Si tenemos precisin


innita la solucin es exacta.

Indirectos: obtenemos una aproximacin de la solucin (x


k ), luego de k iteraciones. La
solucin se mejora sucesivamente con cada paso.

1
2.2. MTODOS DIRECTOS 2

2.2. Mtodos directos

Los mtodos directos generan soluciones aproximadas luego de realizar una cantidad nita de
pasos. Uno de los ejemplos ms habituales es la escalerizacin gaussiana.

2.2.1. Solucin de sistemas triangulares


Comenzaremos por abordar un caso particular de sistemas lineales. Sea el siguiente sistema 33
triangular inferior no singular:


a11 0 0 x1 b1
a21 a22 0 x2 = b2 .
a31 a32 a33 x3 b3

Las matrices con bloques con ceros sern representadas esquemticamente de la siguiente forma:

!
@ 0
Ax = b A= @

Dado que el sistema es no singular, las entradas de la diagonal aii , i = 1, 2, 3 son distintas a cero,
por lo tanto lo podemos resolver de la siguiente forma:

b1
x1 = , (2.1)
a11
b2 a21 x1
x2 = , (2.2)
a22
b3 a31 x1 a32 x2
x3 = . (2.3)
a33
Este algoritmo puede ser extendido para sistemas triangulares inferiores de orden n, de la forma
A x = b. Este mtodo tiene el nombre de sustitucin hacia adelante:

b1
x1 =
a11

i1
1 X
xi = bi aij xj , i = 2, . . . , n
aii
j=1

El pseudo-cdigo del mtodo es el siguiente:

b1
paso 1: x1 = a11

1 Pi1
paso i: xi = aii (bi j=1 aij xj ), i = 1, . . . , i 1

recordando la denicin de F lops del captulo 1, podemos calcular el costo computacional del
mtodo. Se realizan n (n + 1)/2 multiplicaciones-divisiones mientras que el nmero de sumas-
restas es n (n 1)/2, por lo tanto, el costo es n2 f lops.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 3

En el caso que el sistema lineal sea triangular superior,

 
Ax = b A= @
0 @

podemos utilizar un mtodo anlogo llamado sustitucin hacia atrs (BS ):


1

bn
xn =
ann

n
1 X
xi = bi aij xj , i = n 1, . . . , 1
aii
j=i+1

Pseudo-cdigo:

paso n: xn = bn /ann
bi n
P
k=i+1 aik xk
paso i, i = n 1, . . . , 1: xi = aii

2.2.2. Escalerizacin Gaussiana (EG)


El Mtodo de Escalerizacin Gaussiana (MEG) es un mtodo directo para resolucin de Sistemas
de Ecuaciones Lineales.

Permite llevar un sistema general no singular a uno equivalente triangular superior, por medio
de la aplicacin de operaciones elementales (intercambio y combinacin lineal de las).

Algoritmo: Paso k: si
(k)
akk 6= 0 ser llamado pivot
(1) (1) (1) (1)
a11 a12 . . . a1k . . . a1n
(2) (2) (2)
0 a22 . . . a2k . . . a2n

. . .. . .. .

. . . . . .
(k) . . . .
A = (k) (k)
0 0 ... akk ... akn

.. .
.
.
.
.
. .. .
.
. . . . . .
(k) (k)
0 0 ... ank ... ann

(k)
(k+1) (k) (k) aik
aij = aij lik akj lik = (k)
akk
(k+1) (k) (k)
bi = bi lik bk i = k + 1, . . . , n; j = k, . . . , n

Las cantidades de ops de EG por cada bloque del cdigo son las siguientes:

1
BS por Backwards Substitution

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.2. MTODOS DIRECTOS 4

Algoritmo 1 Pseudo-cdigo: EG no eciente


Sea A una matriz con entradas Ai,j = a(i, j)
for k = 1 n 1 do
for i = k + 1 n do
l(i, k) a(i, k)/a(k, k)
a(i, k) 0
for j = k + 1 n do
a(i, j) a(i, j) l(i, k) a(k, j)
end for
end for
end for

loop j : 2(n k)
loop i: (2(n k) + 1) (n k) = 2(n k)2 + (n k)
k : n1 2
P
loop k=1 2(n k) + (n k)

Tomando el loop k y desarrollando obtenemos:

n1
X
f lops(EG) = 2n2 4n k + 2k 2 + n k
k=1
n1
X n1
X
... = 2 k 2 (4n + 1) k + 2n2 + n
k=1 k=1
(n 1)n(2n 1) (n 1)n
... = 2 (4n + 1) + 2n2 + n
6 2
Por lo tanto, la cantidad de ops necesarios para resolver A x = b usando EG y sustitucin
hacia adelante es la siguiente:

EG + BS = O(2/3 n3 ) + O(n2 ) O(2/3 n3 )


Observacin 2.2.1. Se recuerda que utilizando el MEG, sin pivoteo, el valor del determinante se
mantiene inalterado, y una vez escalerizada la matriz, el determinante resulta en el producto de
los valores de la diagonal, por tanto, acotamos la cantidad de ops para resolver |A|:
n
(i)
Y
EG + aii = O(2/3 n3 ) + O(n) O(2/3 n3 )
i=1

Se sugiere comparar con el costo computacional del clculo utilizando la frmula general o des-
composicin por las (deber observar que la cantidad de multiplicaciones son n!(n 1) y luego
se deben sumar n! trminos).

2.2.3. Descomposicin LU (sin pivoteo)


Un segundo mtodo directo de resolucin de SL es mediante la llamada Descomposicin LU.
Esta descomposicin se basa en el mtodo de escalerizacin gaussiana pero permite ahorros
computacionales en algunos casos como desarrollaremos luego de presentar el mtodo.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 5

Dada una matriz A Mnn (R), tal que |A| =6 0, existen dos matrices LyU tal que A = LU .

1 0 ... 0 0

u11 u12 u13 . . . u1n
. .
. . 0 u22 u23 . . . u2n

l21 1 0 . .
.

.. .
. ..

0 u33 . . . u3n
=A

l31 l32 1 . .
. .. . .
.. .. .. .. ... . .
.
.
.
. ... . . 0
ln1 . . . . . . lnn1 1 0 . .. ... 0 unn
por lo tanto:
r
X
aij = lik ukj r = mn{i, j}
k=1

tomando la convencin de que lii = 1.


Obsrvese que los lij son los mismos coecientes determinados por el algoritmo y los uij son las
(i)
entradas de la matriz escalerizada, es decir que escribimos uij = aij .
Demostraremos la anterior relacin para el clculo de las entradas aij de A a partir de las entradas
de L y U realizando los pasos de EG :
p = j si i > j
(k+1) (k) (k)
aij = aij lik akj k = 1, . . . , p; p=i1 si i j;
Si sumamos la ecuacin anterior para los distintos valores de k = 1, . . . , p, y reordenando:
p p p
(k+1) (k) (k)
X X X
aij aij = lik akj
k=1 k=1 k=1
Ahora, los trminos de la izquierda se cancelan entre las sumatorias:
p
(p+1) (k)
X
aij aij = lik akj
k=1
y como (
(i)
(p+1) aij ij
aij =
0 i>j
(i)
y adems tenamos que uij = aij , se concluye reescribiendo las entradas que:

r
X
aij = lik ukj r = mn{i, j}
k=1

con lo que se termina la prueba.

El nmero de ops para realizar la descomposicin L.U. es igual a las operaciones requeridas
para aplicar la escalerizacin gaussiana. De esta forma, enumeremos las operaciones necesarias
para resolver un sistema lineal aplicando L.U. :

A = LU (EG) = O(2/3n3 )
L y = b (BS) = O(n2 )
U x = y (F S) = O(n2 )
Total ops O(2/3n3 ) (2.4)

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.2. MTODOS DIRECTOS 6

Una caracterstica importante de este mtodo est en la resolucin de mltiples sistemas linea-
les, es decir, varios sistemas con la misma matriz A. Por ejemplo, calculemos la cantidad de
operaciones necesarias para resolver m sistemas lineales utilizando L.U.:

A = LU
for i = 1, . . . , m



A x i = bi
A y i = bi ops = O(2/3 n3 + 2mn2 )
i = 1, . . . , m
U xi = yi



end

Nmero de ops para hallar A1 con L.U.



0
..
.
ops = O(2/3n3 + 2n3 ) = O(8/3n3 )

A X = I bj = Ij 1
= j = 1, . . . , n
..
.
0
Observacin 2.2.2 . Dado un sistema lineal A x = b, no es econmico hallar x calculando A1 b.

2.2.4. EG con pivotes


(k)
Qu pasa con el mtodo de escalerizacin si en algn paso i, se llega a akk = 0? Es imposible
realizar el algoritmo ya que este valor debera ser el denominador en los cocientes que modican
las entradas a partir de all, en particular, se requiere para el clculo de los l(i, k).
Entonces, lo que podemos hacer es intercambiar las (pivotear), ya que supusimos que A es
(k)
invertible, entonces existe apk 6= 0, k + 1 p n.
Lo anterior es cierto con aritmtica exacta. Si la aritmtica es PF entonces conviene pivotear si
(k)
algn akk << 1.
Ejemplo 2.2.1 (Error sin pivoteo). Arit. PF 5 dgitos con redondeo: a1 , a2 a3 a4 a5 10e
Consideremos el siguiente sistema de ecuaciones lineales:

10 7 0 7
(S) 3 2, 099 6 3, 901
5 1 5 6
y lo resolvemos aplicando EG sin utilizar pivoteo:

1, 0000 101 7, 0000 100 0, 0000 100 7, 0000 100


A(1) 3, 0000 100 2, 099 100 6, 0000 100 3, 9010 100


5, 0000 100 1, 0000 10 5, 0000 100 6, 0000 100
0

En el segundo paso obtenemos una entrada a22 con un valor muy bajo comparado con el resto
de los valores de la matriz.

1, 0000 101 7, 0000 100 0, 0000 100 7, 0000 100


A(2) 0 1, 0000 103 6, 0000 100 6, 0010 100


0 2, 5000 100 5, 0000 100 2, 5000 100

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 7

en el tercer paso obtenemos un error en la componente b3

1, 0000 101 7, 0000 100 0, 0000 100 7, 0000 100


A(3) 0 1, 0000 103 6, 0000 100 6, 0010 100


0 0 1, 5005 104 1, 5004 104

obtenemos la solucin:

sol. numrica sol. exacta


1 = 2, 8000 101
x x1 = 0 mal
2 = 1, 4000 100
x x2 = 1 mal
3 = 9, 9993 101
x x3 = 1
= Ok

Observacin 2.2.3 . Si 1, 5004 104 hubiera sido 1, 5005 104 (valor exacto) entonces la solucin
numrica sera igual a la exacta, por lo tanto se concluye que el error est provocado por no
haber pivoteado cuando el valor a22 era pequeo.

(i)
En general pivoteamos si aii vale cero o cualquier valor que sea mucho menor que el resto de
(i)
las entradas de Ai...n,i...n . En el ejemplo 2.2.1 un valor mucho menor que los otros corresponde
a menor que un 1% por ejemplo.

Si pivoteamos entonces EG es numericamente estable.

Estrategias de pivoteo Presentaremos dos formas de elegir la entrada de la matriz que uti-
lizaremos como pivot.

Pivoteo parcial Se compara el valor del pivot actual con todas las entradas siguientes de esa
columna (por debajo de k ), eligiendo como pivot al de mayor magnitud.

(k)
arg m
ax |ark | = p pivot: apk
r{k,...,n}

Luego de elegir la la p, debemos intercambiar la la k por la p y continuar con EG. La cantidad
2
de comparaciones totales que se realizan es del orden de n .

Pivoteo completo Se compara el valor del pivot actual con cualquier otra entrada por debajo
de esa la y a la derecha de esa columna, eligiendo como pivot al de mayor magnitud.

arg m
ax |a(k)
rs | = p, q pivot: apq
r{k,...,n},s{k,...,n}

En este caso, adems de intercambiar la la k por la la p, tambin debemos intercambiar la
columna k por la q. En este caso la cantidad de comparaciones totales es del orden de n3 .

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.2. MTODOS DIRECTOS 8

2.2.5. Descomposicin LU con intercambio de las


Teorema 2.2.1. Sea A Mnn (R) no singular. Se puede descomponer A como P A = LU , con
P una matriz de permutacin.
Observacin 2.2.4 . PA intercambia las las de A, mientras que
  AP intercambia sus columnas.
0 1
Comprubelo tomando A M22 (R) genrica y P = .
1 0
Haciendo EG con pivoteo formamos P Mnn (R) matriz de permutaciones de las

P A = A = L U P A = LU

Solucin de un SL con descomposicin PLU


Hallar la descomposicin PLU. Luego P Ax = P b. Llamamos P b = b0 .
Con b0 planteamos el sistema LU x = b0 , el cual se resuelve mediante sustitucin hacia atrs
y hacia adelante, primero resolviendo un sistema auxiliar Ly = b0 , donde y = U x, y luego
obtenemos x resolviendo U x = y.

P, L, U
0

b =Pb
L U x = b0 x

L y = b0
Ux=y

2.2.6. Almacenamiento econmico


Denicin 2.2.1 (Matrices Esparsas) . A Mnn (R) es esparsa si la mayora de sus entradas
son nulas.

Las matrices esparsas aparecen en muchsimos problemas tanto de ingeniera como de otras ramas
y su manipulacin son un vivo tema de investigacin.

Sea A una matriz esparsa con elementos no nulos, una tcnica de almacenamiento podra ser
guardar el valor de la entrada junto con sus ndices de la y columna:

(i1 j1 ai1 ,j1 )

(i2 j2 ai2 ,j2 )


. si una entrada aij no est en la lista, entonces es nula.
.
.


(im jm aim ,jm )

Cmo puede ser esto eciente si por cada entrada debo almacenar tres valores en lugar de
uno? Veamos, si se guardan las ternas se requieren 3m NPF (nmeros en punto otante). Por
otra parte, si se guarda llena, es decir con todos los ceros que corresponden se necesitarn n2
NPF. Por tanto, si la matriz es esparsa, m << n, entonces entonces 3m << n2 , logrndose una
interesante reduccin de espacio de almacenamiento.

Observacin .
2.2.5 En general A1 no es esparsa aunque A lo sea.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 9

2.2.7. Estructura de banda


Una matriz A Mnn (R) es una matriz banda si los valores no nulos de la matriz se presentan
solamente en una banda entorno a la diagonal.

Formalmente, la matriz tiene una estructura de banda si:

(
i j > k1
ai,j = 0 si con k1 , k2 0.
j i > k2

Denimos entonces el ancho de banda de una matriz como k1 + k2 + 1.

Ejemplo 2.2.2. Algunos casos particulares:

Una matriz diagonal es una matriz banda con k1 = k2 = 0 y su ancho de banda es 1.

Una matriz banda es tridiagonal cuando k1 = k2 = 1.

Una matriz es triangular superior si k1 = n 1 y k2 = 0.

Para este tipo de matrices, muchos algoritmos de resolucin pueden optimizarse reduciendo
considerablemente tanto la complejidad como el costo computacional y as el tiempo de ejecucin.

Un ejemplo de esto es el Algoritmo de Thomas para matrices tridiagonales, en el cual la descom-


posicin LU pasa a tener un orden lineal.

2.2.8. Otros mtodos directos


Antes de pasar a los mtodos indirectos de resolucin, mencionaremos algunos otros mtodos
directos para que el lector ample su visin sobre los mismos e indague sus ventajas y desventajas.

Asumiremos que los sistemas son compatibles determinados.

Clculo de matriz inversa

Dado el sistema Ax = b, es posible determinar x operando algebraicamente en la ecuacin:


A1 Ax = A1 b x = A1 b.
Por tanto, hallar la matriz inversa de A es otro mecanismo para resolver un sistema de ecuaciones.
Notamos sin embargo que el mtodo para el clculo de la matriz inversa en el que se construye
la matriz ampliada [A|I] y se reduce hasta obtener [I|A1 ] involucra doblemente escalerizacin
Gaussiana (ya que se debe escalerizar hacia abajo y luego hacia arriba), para luego realizar
una multiplicacin matriz por vector. Se sugiere comparar este costo con respecto a EG + BS .

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.3. ESTABILIDAD DE SISTEMAS LINEALES 10

Regla de Cramer

Dado el sistema Ax = b, la Regla de Cramer devuelve cada entrada del vector solucin solamente
como un cociente de determinantes que dependen de la matriz A y del vector b. En efecto:

det(Ai )
xi =
det(A)

donde Ai es la matriz resultante de reemplazar la columna i-sima de la matriz A por el vector


b.
   
Ejemplo 2.2.3. Sea A = 1 1 , y b = 32 .
2 1


3 1 2 3
Entonces det(A) = 1, det(A1 ) =
2 1 = 1, det(A2 ) = 1 2 = 1.

 
1
Resultando en x = .
1

Se deja como ejercicio calcular el costo computacional de este mtodo para su comparacin con
los anteriores.

2.3. Estabilidad de sistemas lineales

La resolucin de sistemas lineales mediante mtodos numricos involucra tanto errores de redon-
deo por el pasaje de nmeros a una representacin nita, como en el caso de la resolucin de
estos sistemas utilizando mtodos iterativos, el truncamiento de una sucesin que converge a la
solucin real del sistema. Es por esta razn que es necesario denir una nocin de cercana en
los espacios con los que estaremos trabajando. Es as que comenzamos la seccin introduciendo
algunos conceptos y resultados referentes a normas vectoriales y matriciales.

2.3.1. Norma de vectores


Trabajaremos en el espacio vectorial Rn con las operaciones suma y producto interno habituales
entre vectores. Una norma es una funcin kk que verica las siguientes propiedades:

(Rn , R, +, ) e.v., k k : Rn R

1. kuk 0 u Rn y kuk = 0 u = ~0

2. k uk = || kuk R, u Rn

3. ku + vk kuk + kvk u, v Rn

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 11

Norma-p Dado un vector de Rn , x = (x1 , . . . , xn )t . La Norma-p del vector ser:

n
!1/p
X
kxkp = |x1 |p 1p<
i=1

Para distintos valores de p se obtienen distintas variantes de la norma:

Pn
kxk1 = i=1 |xi | p=1
qP
n 2

kxk2 = i=1 xi = xx p=2 (Euclidiana)

Norma Innito En el caso de que p= podemos tomar el lmite a partir de la denicin:

kxk = lm kxkp
p
1/p
n
xj
jp
X
kxk ax |xi | lm
= m j = [0, 1] j = 1, . . . , n
i p maxi |xi |
j=1
| {z }
1
kxk = m
ax |xi |
i

2.3.2. Norma de matrices


La norma de matrices, en este apuntes ser una funcin denida en el espacio vectorial de las
matrices con entradas reales y las operaciones habituales de suma y producto de matrices.

(Mnn (R), R, +, ) e.v., k k : Mnn (R) R

1. kAk 0 A Mnn (R) y kAk = 0 A = ~0

2. k Ak = || kAk R, A Mnn (R)

3. kA + Bk kAk + kBk A, B Mnn (R)

Diremos adems que una norma de matrices es submultiplicativa si kABk kAkkBk A, B


Mnn (R).
Denicin 2.3.1 (Norma compatible) . Una norma matricial k kM es compatible con una
vectorial k kv si
kAxkv kAkM kxkv A Mnn (R), x Rn

A partir de aqu no haremos referencia explcita a qu norma estamos considerando lo que se


deducir del argumento que tome la norma segn corresponda.

Denicin 2.3.2 (Norma inducida, o norma operador).


kA xk
kAk = max
x6=~0 kxk

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.3. ESTABILIDAD DE SISTEMAS LINEALES 12

Esta norma es inducida a partir de alguna norma de vectores.

Ejercicio 2.3.1. Vericar que la norma inducida cumple las propiedades de norma.

Podemos ver que esta norma cumple las siguientes propiedades:

Proposicin 2.3.1.
kAk = max kA xk
kxk=1

Demostracin.
kA xk x
kAk = m
ax = max kA k = max kA yk
x6=~0 kxk x6=~0 kxk kyk=1

Comentamos que la propiedad anterior ilustra que el valor de la norma de la matriz es igual al
valor de la norma del vector ms deformado por la transformacin Ax.

Proposicin 2.3.2. La norma operador es compatible, es decir,


kA xk kAk kxk A Mnn (R), x Rn

Demostracin. !
kA xk kA zk
kA xk = kxk max kxk = kAk kxk
kxk z6=~0 kzk

Ejercicio 2.3.2. Demostrar que dadas dos matrices nn y la norma inducida dada en 2.3.2,
se cumple:

kA Bk kAk kBk

Ejemplos de normas Las siguientes son algunos ejemplos normas usualmente utilizadas:

Norma 1:
n
X
kAk1 = max |aij |
j
i=1

Norma 2:

kAk2 = max xt At Ax = 1 (A)
kxk=1

Norma Innito:
n
X
kAk = max |aij |
i
j=1

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 13


Aqu notamos 1 (A) = 1 , con 1 el mayor valor propio de At A (que existe y es positivo).

axi nj=1 |aij |.


P
Veamos que kAk = m

n
X n
X n
X
kAxk = m
ax | aij xj | max |aij xj | max |aij |
i i i
j=1 j=1 j=1

Donde hemos usado en la ltima inecuacin que kxk = 1 maxi |xi | = 1.


Pn
Por tanto, sabemos que kAxk m
axi j=1 |aij | con kxk = 1. Ahora bien, debemos ver que
se cumple la igualdad, es decir, probar que la cota se alcanza.
Pn
Esto es, y Rn tal que kAyk = m
axi j=1 |aij | con kyk = 1.

axi nj=1 |aij | = nj=1 |ai0 j |, entonces tomando yt =


P P
Sea i0 el ndice de la la en el que se da el m

(sg(ai0 1 ), sg(ai0 2 ), . . . , sg(ai0 n ))t . En tal caso, kyk = 1 y adems kAyk = maxi nj=1 |aij |.
P
La cota se alcanza y por lo tanto es el mximo.
Pn
Es as que se concluye que kAk = m
axi j=1 |aij |.

Ejercicio 2.3.3. Probar que kAk2 = 1 (A) = 1 , con 1 el mayor valor propio de At A. Puede
ser de utilidad para completar la demostracin formalizar:

1. kAxk22 = (Ax)t (Ax) = xt At Ax.


2. At A es simtrica y denida positiva (1 2 n 0).
Pn
3. Si vi son losPvectores propios tal que kvi k = 1, vi vj i 6= j , x = i=1 i vi , con
kxk2 = 1 ni=1 i2 = 1.
Denicin 2.3.3 (Radio espectral) . Sea A una matriz cuadrada A Mnn (R). Su radio
espectral est denido como el mximo de los valores absolutos de sus valores propios.

ax |i |
(A) = m Avi = i vi i = 1, . . . , n
i

Proposicin 2.3.3. La norma operador est acotada inferiormente por su radio espectral:
(A) kAk

Demostracin. Sea valor propio de A tal que || = (A), y v correspondiente vector propio de
norma 1. Entonces:

kAk = m
ax kAxk kAvk = kvk = || = (A). (2.5)
kxk=1

Teorema 2.3.4 (Teorema del Radio Espectral) . Sea A una matriz cuadrada A Mnn (R).
Para todo > 0 existe alguna norma consistente k k tal que
kAk < (A) +

Observacin 2.3.1. El teorema 2.3.4 es equivalente a decir que el radio espectral es el nmo de
todas las normas consistentes de una matriz.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.3. ESTABILIDAD DE SISTEMAS LINEALES 14

2.3.3. Nmero de condicin


Denicin 2.3.4 (Nmero de condicin de una matriz) . Dada una matriz cuadrada A
Mnn (R) decimos que su nmero de condicin k est dado por la siguiente expresin

k(A) = kAk A1

Observacin 2.3.2. k(A) 1: k(A) = kAkkA1 k kAA1 k = kIdk = 1

2.3.4. Anlisis de perturbaciones


Debido a los errores de representacin, en vez de resolver un sistema Ax = b estaremos resol-
viendo (A + A )x = (b + b ). Esto signica que existirn perturbaciones tanto en A como en b,
y la solucin hallada se apartar de la original en x + x. Analizaremos el error relativo de estas
perturbaciones.

Aplicacin a estimacin de error (b + b ): Si consideramos un sistema de ecuaciones


lineales y adicionamos solamente un vector de errores b al trmino independiente, obtendremos
una solucin que consistir en la solucin sin error, x con un vector de errores adicionado x

A (x + x ) = b + b
dado que suponemos que A es invertible podemos escribir

x + x = A1 (b + b ) = A1 b + A1 b

dado que A1 b = x anulamos el x de ambos lados y aplicamos norma, obteniendo

kx k = kA1 b k kA1 k kb k
desigualdad que puede ser dividida por la norma de x para obtener

kx k kA1 k kb k

kxk kxk
multiplicamos y dividimos por kAk y obtenemos el nmero de condicin en el numerador

kx k k(A) kb k

kxk kAk kxk
por otra parte es simple ver que se cumple

1 1

kAk kxk kbk
por lo tanto obtenemos

kx k kb k
k(A)
kxk kbk

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 15

Aplicacin a estimacin de error (A + A ): Si ahora consideramos una perturbacin en A:

(A + A )(x + x ) = b (A + A )x + Ax + A x = b

Ax + A (x + x ) = 0 x = A1 A (x + x )

Aplicando normas:

kx k kA k
kx k kA1 kkA kkx + x k k(A)
kx + x k kAk

En general el nmero de condicin de A se estima por otro mtodo (si el problema est mal
condicionado dcilmente pueda conocer A
1 ).

Ejemplo 2.3.1. Si el error relativo en b es bajo,


kb k
kbk = 103 , pero el nmero de condicin es

alto, k(A) = 106 , entonces, la perturbacin a la salida puede llegar a ser grande: k
kxk
xk
103 .

Error residual: Sea x una aproximacin a la solucin de Ax = b, denimos el residuo


r=b Ax .
Nos preguntamos, si el residuo es pequeo, se cumplir qu el error en la solucin es tambin
pequeo?

Veamos:
r = b Ax = Ax Ax = A(x x ) x x = A1 r

Por otra parte:


krk = kA(x x )k kAkkx x k

Por lo que combinando ambas ecuaciones:

krk
kx x k kA1 kkrk
kAk

Por otra parte:


Ax = b kbk kAkkxk
x = A1 b kxk kA1 kkbk

Por lo que combinando ambas ecuaciones:

kbk
kxk kA1 kkbk
kAk

Finalmente, juntando todo se llega a:

krk 1 kx x k krk

kA1 kkAk
kbk kAkkA 1k kxk kbk

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 16

krk 1 kx x k krk
k(A)
kbk k(A) kxk kbk
Mencionamos como conclusiones que si r es pequeo y k(A) es elevado (matriz mal condicionada),
entonces el residuo no da informacin

sobre la calidad de la solucin x .

Por otra parte, si r es pequeo y k(A) es bajo (matriz bien condicionada), entonces el residuo
da informacin sobre la calidad de la solucin x .
     
Ejemplo 2.3.2. Sea A = 1 11 , y el sistema A
x1
x2
=
1
0
.
 1 1 
Entonces A
1 1
= 1 1
 .
1 1
Calculando k(A) usando k k obtenemos que kAk = max{1 + ||, 2} y que kA1 k =
2 1||
max{ |1| , |1| }.
Entonces, para  1, tenemos que kAk 2 y kA1 k 2
|1| .
4
As, k(A) |1| que va a ser muy grande (ya que  1).
   
1, 2969 0, 8648 0, 8642
Ejemplo 2.3.3. Sea A=
0, 2161 0, 1441
, y b=
0, 1440
.
 
0, 9911
Supongamos que x = .
0, 4870
108
   
0
Entonces r = b Ax = .
108 0
 
2
Sin embargo la solucin real es x = .
2
kxx k
En este caso lo que ocurre es que k(A) 3, 3 108 , por lo que 3, 35 1017 kxk 3, 78.

2.4. Mtodos indirectos

Los mtodos indirectos como mencionamos al inicio del captulo se basan en aproximar sucesi-
vamente la solucin a un sistema. Ya tenemos una nocin de cercana de acuerdo a lo trabajado
en la seccin anterior, por lo que tenemos los ingredientes para establecer si una sucesin es
convergente o no.

2.4.1. Mtodo de Jacobi


Consideremos un sistema Ax = b, con A Mnn (R) invertible, x, b Rn :

a11 a12 . . . a1n x1 b1
a21 a22 . . . a2n x2 b2
A= . . . = .

. ..
. . . . . . ..
. . .
an1 an2 . . . ann xn bn

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 17

Pn
Sabemos que para la solucin real se cumple: bi = j=1 aij xj .
Pn
bi = aii xi + j=1 aij xj = bi
j6=i
Pn
bi j=1j6=i aij xj
De donde, asumiendo aii 6= 0: xi = aii i = 1, . . . , n.
Esta igualdad no tiene sentido, ya que requiere conocer el vector x para hallar el vector x.
Sin embargo podemos generar un mtodo iterativo de la forma:

bi n k
P
j=1 aij xj
j6=i
xk+1 =

i = 1,
. . ., n


i aii


(Jacobi): x01
.

x0 x0 = .
. .

punto inicial





x0n

Este mtodo se llama Mtodo de Jacobi y el punto x0 es el punto inicial. Ahora bien, podramos
preguntarnos ser que esta sucesin as denida converge a la solucin del sistema Ax = b?
Veremos ms adelante que, efectivamente, si se cumplen ciertas condiciones sobre la matriz A el
mtodo converge. Estudiaremos tambin cmo se debe elegir el punto x0 , si es necesario que est
en alguna regin particular, cul es la velocidad de convergencia del mtodo, etc.

Antes de continuar observemos otra forma de escribir la iteracin del mtodo:

Pn k
bi j=1 aij xj
xk+1
i = xki + i = 1, . . . , n
aii

Implementacin de Jacobi:

Algoritmo 2 Pseudo-cdigo: Jacobi


Sea A una matriz con entradas Ai,j = a(i, j), y vectores b y x0
k=1
error = nf
while error > tolerancia & k < max_iteraciones do
for i = 1 n do Pn k
xk+1 = x k + bi j=1 aij xj
i i aii
end for
error = norm(xk+1 xk )
k =k+1
end while

Los valores de tolerancia del error y mximo de iteraciones se determinarn de acuerdo a la


experiencia del usuario y requerimientos del problema.

2.4.2. Mtodo de Gauss-Seidel (GS)


El mtodo de Gauss-Seidel introduce una variante del mtodo anterior. Para ello, es importante
observar que el mtodo de Jacobi, requiere conocer completamente el vector xk para calcular

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 18

xk+1 . Sin embargo, las entradas del vector xk+1 se van calculando una a una, y podran utilizarse
para para calcular la entrada siguiente, en lugar de utilizar las del vector anterior. Es decir, para
calcular xk+1
i se precisan xk1 , xk2 , . . . , xki1 , xki+1 , . . . , xkn . Pero las primeras xk+1 k+1 k+1
1 , x2 , . . . , xi1 ya
estn calculadas. Por tanto, el mtodo de Gauss-Seidel hace uso de esa informacin y en general
veremos que se mejora el mtodo.

Explcitamente, la iteracin queda expresada:


Pi1
aij xk+1
Pn
bi aij xkj



xk+1
i = j=1 j
aii
j=i+1
i = 1,
. . ., n
x01


(Gauss Seidel): .



x0 punto inicial x0 = .
. .

x0n


Observacin .
2.4.1 Nuevamente debemos pedir aii 6= 0.
Ejercicio 2.4.1. Modicar el cdigo de Jacobi para implementar Gauss-Seidel.

2.4.3. Expresin Matricial de Jacobi y Gauss-Seidel


Dado un sistema de ecuaciones lineales

 F
A x = b, A= D
E 
aplicamos la descomposicin de la matriz A en sus componentes triangular inferior E , diagonal
D y triangular superior F .
Veamos cmo es posible escribir los mtodos vistos hasta el momento en forma matricial.

Jacobi:

A=DEF Dx = (E + F )x + b

x(k+1) = D1 (E + F )x(k) + D1 b
lo podemos escribir como

x(k+1) = QJ x(k) + rJ QJ = D1 (E + F )


x(0) = x0 rJ = D1 b

Gauss-Seidel:

A=DEF (D E)x = F x + b

x(k+1) = (D E)1 F x(k) + (D E)1 b


lo podemos escribir como

x(k+1) = QGS x(k) + rGS QGS = (D E)1 F




x(0) = x0 rGS = (D E)1 b

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 19

2.4.4. Mtodo Iterativo Matricial


Los mtodos indirectos para resolver sistemas lineales son iterativos. Por lo tanto resulta til
expresar las operaciones que realizan de forma x(k+1) = g(x(k) ). Dado que x(k) es un vector en
el caso general, se trabaja con matrices, quedando expresado de la siguiente forma:

x(k+1) = Qx(k) + r x(k) Rn k = 0, 1, . . .



(M ) :
x(0) = x0 Q Mnn (R), r Rn
En general, dado el sistema Ax = b, elegimos una matriz M Mnn (R) invertible y planteamos:

Ax = b M x = (M A)x + b

En los mtodos iterativos se escoge una matriz M relacionada con A (observar Jacobi y G-S) y
se genera una sucesin de vectores {x(k) }k0 a partir de la ecuacin

M x(k+1) = (M A)x(k) + b

Si {x(k) }k0 resulta convergente, la convergencia ser hacia la solucin de Ax = b. Veremos que
muchas veces es posible elegir un x
(0) inicial arbitrario (cualquiera).

Por tanto, si escribimos el sistema como M x(k+1) = (M A)x(k) + b, la iteracin estacionaria


ser:

x(k+1) = Q x(k) + r Q = M 1 (M A)


x(0) = x0 r = M 1 b
Observacin 2.4.2 . Es una iteracin estacionaria porque tanto Q como r no dependen del paso k ,
y es de orden 1 porque x
(k+1) depende solamente del valor anterior x(k) (y no de pasos anteriores).
Observacin 2.4.3 . lmk M x(k+1) = lmk (M A)x(k) + b. Si lmk x(k+1) = x tenemos
que: lmk M x(k+1) = M x = (M A)x + b = lmk (M A)x(k) + b.

Denicin 2.4.1 (Punto Fijo). Dado un mtodo iterativo matricial (M ). Diremos que x es un
punto jo del mismo si y solo si
x = Qx + r

En este caso decimos que el mtodo iterativo es consistente.

Lema 2.4.1. Dada una matriz cuadrada A Mnn (R)


lm Ak = 0 (A) < 1
k

Observacin 2.4.4 . Notamoms que aqu 0 representa la matriz nula.

Demostracin. () Por absurdo supongamos que (A) 1, entonces existe valor propio de A
tal que || 1 y Av = v , con v vector propio asociado a .

kAk vk
kAk k = ||k + lm Ak 6= 0
kvk k+ k

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 20

() Como (A) < 1, entonces existe > 0 tal que (A) < 1 y adems existe una norma
k k k
inducida k k que cumple kAk (A) + < 1. Ahora, kA k kAk < 1 y entonces kA k est
k
acotada por kAk que tiende a cero con k . As l
k
mk A = 0.

Observacin 2.4.5. Hay mtodos ecientes para estimar el radio espectral.

Denotaremos al vector de error en el paso k -simo como e(k) = x(k) x .


Proposicin 2.4.2. lmk x(k) = x sii lmk e(k) = ~0 sii lmk ke(k) k = 0
(
x(k+1) = Qx(k) + r
Teorema 2.4.3. La iteracin estacionaria es convergente sii (Q) < 1.
x(0) Rn

Demostracin. Sea la solucin del sistema x R n tal que x = Qx + r y e(k) = x(k) x el



error en el paso k . Utilizando que x es punto jo de la iteracin tenemos que:

e(k+1) = x(k+1) x = Qx(k) + r (Qx + r) = Q(x(k) x ) = Qe(k) .

Luego, por induccin en los naturales tenemos que e(k) = Qk e(0) . Vamos ahora a probar el directo
y el recproco en partes:

() Supongamos por absurdo que (Q) 1. En tal caso, existe un valor propio de Q, con
|| 1, y un vector propio v=6 0 tal que Qv = v . Elijamos x(0) de modo que e(0) = v .
Esto es posible tomando x(0) = x + e(0) . Por lo anteriormente observado, tenemos que:

e(k) = Qk e(0) = Qk v = k v,

y tomando normas, tenemos que ke(k) k = ||k kvk. Tomando lmites en ambos miembros,
se consigue que lmk ke(k) k 6= 0, pues || 1 y kvk 6= 0. Esto es decir que el error no
tiende al vector nulo, o
k
equivalentemente, que la sucesin {x }kN no converge a x , en
contradiccin con la hiptesis.

() Por el Teorema del Radio Espectral, el radio espectral es el nmo de las normas operadores.

Sea igual a la mitad de la distancia entre (Q) y 1, es decir, = 1(Q)


2 . Por denicin
de nmo, existe una norma operador k k tal que kQk (Q) < . Pero entonces:

2(Q) + (1 (Q)) 1 + (Q)


kQk < (Q) + = = < 1.
2 2
Hemos conseguido as una norma k k compatible con una vectorial tal que kQk < 1.
Como e
(k) = k (0)
Q e , tomando normas en cada miembro tenemos que:

ke(k) k = kQk e(0) k (kQk )k ke(0) k,

y tomando lmite con k tenemos que 0 lmk ke(k) k (kQk )k ke(0) k = 0. La nica opcin
vlida es que lmk ke(k) k
= 0, y por la primera propiedad de una norma tenemos que la
sucesin de vectores {e
(k) } (k)
kN converge al vector nulo. Esto signica que {x }kN converge

a x .

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 21

Observacin 2.4.6 . Recalcamos que esto signica que x(k) converge independientemente del dato
inicial x
(0) .

Podemos ver como corolario que si en alguna norma kQk < 1 (Q) kQk < 1, la iteracin es
convergente.

El teorema anterior es de gran utilidad ya que permite establecer si un mtodo ser convergente
o no dependiendo de la matriz Q, para cualquier mtodo que pueda escribirse como una ecuacin
estacionaria. Sin embargo debemos encontrar la matriz Q asociada al sistema Ax = b. A conti-
nuacin veremos algunos criterios para determinar la convergencia a partir de caractersticas de
la matriz A.
Denicin 2.4.2 (Matriz diagonal dominante). Sea A una matriz nn, decimos que es diagonal
dominante por las si y solo si

n
X
|aij | < |aii | i = 1, . . . , n
j=1,j6=i

Proposicin 2.4.4 (Convergencia de Jacobi). A es diagonal dominante por las (o por colum-
nas) la sucesin generada por Jacobi converge.

Demostracin. Caso las:


n n
X X |aij |
|aij | < |aii | < 1 kQJ k < 1 Jacobi converge
|aii |
j=1,j6=i j=1,j6=i

Caso columnas: Ejercicio.

Proposicin 2.4.5 (Convergencia de Gauss-Seidel). A es diagonal dominante por las (o por


columnas) la sucesin generada por Gauss-Seidel converge.
Observacin 2.4.7 . Las proposiciones anteriores indican que si la matriz A es estrictamente
diagonal dominante por las (o por columnas), entonces tanto Jacobi como Gauss-Seidel son
convergentes, para toda condicin inicial x0 . Esto es una condicin suciente. Es decir que el
mtodo podra ser convergente aunque A no sea estrictamente diagonal dominante.
 
3 1
Ejercicio 2.4.2. Se considera A=
1
. Sin calcular (Q), indicar un rango de valores de

que asegure convergencia de Jacobi y Gauss-Seidel.

Observacin 2.4.8 .

Para matrices esparsas, los mtodos iterativos permiten encontrar la solucin en forma
rpida y eciente.

No se usan para matrices mal condicionadas.

Hay variantes para acelerar la convergencia.

Tpicamente Gauss-Seidel es ms rpido que Jacobi.

El radio espectral determina la velocidad de convergencia.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 22

Velocidad de convergencia de MIG


(
x(k+1) = Qx(k) + r
Dado un mtodo iterativo, de la forma con x(k) , r Rn , Q Mnn (R).
x(0) = x0
Sean {1 , . . . , n } los valores propios de Q que asumiremos reales y satisfaciendo la relacin:
(Q) = |1 | > |2 | > > |n1 | > |n | 0. Sean {v1 , . . . , vn } los vectores propios de Q
asociados a dichos valores propios. Entonces, si

e(k+1) = x(k+1) x ke(k+1) k



(Q)
(Q) < 1 ke(k) k k

e(k) es el error en la aproximacin en el paso k -simo.


Pn
Supongamos que e(0) = i=1 i vi , sabemos que el error en el k -simo paso satisface e(k) = Qk e(0) .
Con lo cual:
n
X n
X n
X
e(k) = Qk i v i = (i )k i vi = (1 )k 1 v1 + (i )k i vi ,
i=1 i=1 i=2
de la misma manera tenemos que:

n
X
(k+1) k+1
e = (1 ) 1 v1 + (i )k+1 i vi .
i=2

(i )k+1
k(1 )k+1 1 v1 +(1 )k+1 n
P
(k+1) i=2 ( )k+1 i vi k
mk+ keke(k) k k
Entonces: l = lmk+ 1
(i )k
=
k(1 )k 1 v1 +(1 )k n
P
i=2 k i vi k
(1 )

k(1 )k+1 1 v1 k
= lm = |1 |.
k+ k(1 )k 1 v1 k

Ejemplo 2.4.1. Si (Q1 ) = 0, 4 y (Q2 ) = 0, 75 el mtodo converger ms rpido para Q1 .


 
2 1
Ejemplo 2.4.2. Calcular y comparar los valores de (QJ ) y (QGS ) para A=
1 2
.

En primer lugar, sabemos que ambos mtodos son convergentes por ser la matriz A diagonal
dominante.

Q = M 1 (M A). Denotando A = D E F , donde E es la matriz subdiagonal inferior y


F es la matriz por encima de la diagonal D; en Jacobi se tiene: QJ = D1 (E + F ) (se toma
M = D). En Gauss-Seidel se tiene: QGS = (D E)1 (F ) (se toma M = D E ).

1
 
0 2 1
Tendremos que: QJ = 1 , y sus valores propios son 1/2 y 1/2 con lo cual (QJ ) = 2.
2 0
1
 
0 2 1
Adems QGS = 1 , y sus valores propios son 0 y 1/4 con lo cual (QGS ) = 4.
0 4

Gauss-Seidel converger el doble de rpido que Jacobi en este caso.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 23

Condicin de parada de MIG


Nos preguntamos a continuacin cmo saber cundo detener la iteracin, ya que no conocemos
el valor real de la solucin, es decir, no podemos imponer ke(k) k = kx(k) x k < . Podramos
imponer kx
(k+1) x(k) k < , pero qu relacin tendra esto con la condicin usando la solucin
verdadera:

x(k+1) x = Q(x(k) x )
= Q(x(k+1) x(k) ) + Q(x(k+1) x )

kx(k+1) x k kQkk(x(k+1) x(k) )k + kQkk(x(k+1) x )k

kx(k+1) x k(1 kQk) kQkk(x(k+1) x(k) )k

kQk
kx(k+1) x k k(x(k+1) x(k) )k
1 kQk

Es as que como decamos, imponiendo kx(k+1) x(k) k < obtendramos una cota para el error
en el paso k+1 que est relacionado con la diferencia entre los valores calculados en pasos
anteriores:
kQk
kx(k+1) x k
1 kQk

1 kQk
Como caso particular, si kQk < 2 , entonces 1kQk < 1, por lo que para alcanzar una cota de

error alcanza que kx


(k+1) x(k) k .

2.5. Mtodos de Sobrerrelajacin

Las tcnicas de sobrerrelajacin para resolucin de sistemas lineales usando mtodos iterativos
tienen el cometido es lograr convergencia partiendo de mtodos iterativos que no resultan con-
vergentes, o acelerar la velocidad de convergencia de los que s son convergentes. Para ello, se
realiza una especie relajacin convexa entre los puntos hallados en los pasos k y el punto k+1
hallado por el mtodo elegido:

(k+1)
xk+1 = x(M ) + (1 )x(k) i = 1, . . . , n

El valor de se escoge optimizando la velocidad de convergencia.

Observacin .
2.5.1 Si >1 se llama sobrerrelajacin (aceleran convergencia de Jacobi y G-S).

Si <1 se llama subrelajacin (Jacobi y G-S no convergen).

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.5. MTODOS DE SOBRERRELAJACIN 24

2.5.1. Sobrerrelajacin de Jacobi


La iteracin queda:


n
X
xk+1 aij xkj k

bi
i =
aii + (1 )xi i = 1, . . . , n
j=1
j6=i

Y la matriz de iteracin:

Q = Qj + (1 )Id

Ejemplo 2.5.1. El mtodo de Jacobi no converge para un sistema Ax = b con matriz:

 
1 6
A= .
2 3

y vector b = (1, 0)t .


Esto puede deducirse ya que aunque en este caso la matriz A no es diagonal dominante, se puede
utilizar el criterio de (QJ ). La matriz de iteracin es:

 
0 6
QJ =
23 0

Sus valores propios son = 2i. Por lo tanto (QJ ) = 2 > 1 y se concluye que el mtodo no es
convergente.

Sin embargo, consideremos la relajacin del mtodo de Jacobi donde Q = Qj + (1 )Id es la


nueva matriz de iteracin. Analicemos si existe > 0 que garantice convergencia de este mtodo
para el sistema lineal anterior. Ahora:

 
1 6
Q= 2
3 1

Sus valores propios son = (1 ) 2i . Busquemos > 0 para que ambos valores propios
tengan magnitud inferior a 1. Tenemos que ||
2 = (1 )2 + 4 2 = 5 2 2 + 1 < 1, o
2
equivalentemente, 5 2 < 0. Usando que > 0 y factorizando, tenemos que si (0, 2/5)
se asegura convergencia. Conseguimos as relajar el mtodo de Jacobi en un caso que no era
convergente y traducirlo a otro mtodo que s es convergente.

2.5.2. Sobrerrelajacin sucesiva


El mtodo SOR (por Successive Over-Relaxation ) es la aplicacin a Gauss-Seidel de una relajacin
anloga a la realizada en la seccin anterior.

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 25

La iteracin queda:


i1 n
X X
xk+1
i = bi aij xk+1
j aij xkj + (1 )xki i = 1, . . . , n
aii
j=1 j=i+1

1
Se toma M= D E, (1, 2) ( = 1 es GS).

Ejemplo 2.5.2. 2
2 2 2 0 0
3
A = 3 3 5 M = 3 0
2
2 4 2 2 4

Observacin 2.5.2 .

El ptimo es aquel que minimiza (QSOR ).

opt = mn (QSOR )
(1,2)

En general (QSOR ) es no lineal en .

Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.

You might also like