Professional Documents
Culture Documents
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
ndice general
2.5.1. JOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.2. SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
iii
NDICE GENERAL iv
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
Captulo 2
Mtodos directos e indirectos Los mtodos de resolucin de sistemas lineales pueden ser
clasicados en las siguientes dos categoras:
1
2.2. MTODOS DIRECTOS 2
Los mtodos directos generan soluciones aproximadas luego de realizar una cantidad nita de
pasos. Uno de los ejemplos ms habituales es la escalerizacin gaussiana.
a11 0 0 x1 b1
a21 a22 0 x2 = b2 .
a31 a32 a33 x3 b3
Las matrices con bloques con ceros sern representadas esquemticamente de la siguiente forma:
!
@ 0
Ax = b A= @
Dado que el sistema es no singular, las entradas de la diagonal aii , i = 1, 2, 3 son distintas a cero,
por lo tanto lo podemos resolver de la siguiente forma:
b1
x1 = , (2.1)
a11
b2 a21 x1
x2 = , (2.2)
a22
b3 a31 x1 a32 x2
x3 = . (2.3)
a33
Este algoritmo puede ser extendido para sistemas triangulares inferiores de orden n, de la forma
A x = b. Este mtodo tiene el nombre de sustitucin hacia adelante:
b1
x1 =
a11
i1
1 X
xi = bi aij xj , i = 2, . . . , n
aii
j=1
b1
paso 1: x1 = a11
1 Pi1
paso i: xi = aii (bi j=1 aij xj ), i = 1, . . . , i 1
recordando la denicin de F lops del captulo 1, podemos calcular el costo computacional del
mtodo. Se realizan n (n + 1)/2 multiplicaciones-divisiones mientras que el nmero de sumas-
restas es n (n 1)/2, por lo tanto, el costo es n2 f lops.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 3
Ax = b A= @
0 @
bn
xn =
ann
n
1 X
xi = bi aij xj , i = n 1, . . . , 1
aii
j=i+1
Pseudo-cdigo:
paso n: xn = bn /ann
bi n
P
k=i+1 aik xk
paso i, i = n 1, . . . , 1: xi = aii
Permite llevar un sistema general no singular a uno equivalente triangular superior, por medio
de la aplicacin de operaciones elementales (intercambio y combinacin lineal de las).
Algoritmo: Paso k: si
(k)
akk 6= 0 ser llamado pivot
(1) (1) (1) (1)
a11 a12 . . . a1k . . . a1n
(2) (2) (2)
0 a22 . . . a2k . . . a2n
. . .. . .. .
. . . . . .
(k) . . . .
A = (k) (k)
0 0 ... akk ... akn
.. .
.
.
.
.
. .. .
.
. . . . . .
(k) (k)
0 0 ... ank ... ann
(k)
(k+1) (k) (k) aik
aij = aij lik akj lik = (k)
akk
(k+1) (k) (k)
bi = bi lik bk i = k + 1, . . . , n; j = k, . . . , n
Las cantidades de ops de EG por cada bloque del cdigo son las siguientes:
1
BS por Backwards Substitution
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.2. MTODOS DIRECTOS 4
loop j : 2(n k)
loop i: (2(n k) + 1) (n k) = 2(n k)2 + (n k)
k : n1 2
P
loop k=1 2(n k) + (n k)
n1
X
f lops(EG) = 2n2 4n k + 2k 2 + n k
k=1
n1
X n1
X
... = 2 k 2 (4n + 1) k + 2n2 + n
k=1 k=1
(n 1)n(2n 1) (n 1)n
... = 2 (4n + 1) + 2n2 + n
6 2
Por lo tanto, la cantidad de ops necesarios para resolver A x = b usando EG y sustitucin
hacia adelante es la siguiente:
Se sugiere comparar con el costo computacional del clculo utilizando la frmula general o des-
composicin por las (deber observar que la cantidad de multiplicaciones son n!(n 1) y luego
se deben sumar n! trminos).
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 5
Dada una matriz A Mnn (R), tal que |A| =6 0, existen dos matrices LyU tal que A = LU .
1 0 ... 0 0
u11 u12 u13 . . . u1n
. .
. . 0 u22 u23 . . . u2n
l21 1 0 . .
.
.. .
. ..
0 u33 . . . u3n
=A
l31 l32 1 . .
. .. . .
.. .. .. .. ... . .
.
.
.
. ... . . 0
ln1 . . . . . . lnn1 1 0 . .. ... 0 unn
por lo tanto:
r
X
aij = lik ukj r = mn{i, j}
k=1
r
X
aij = lik ukj r = mn{i, j}
k=1
El nmero de ops para realizar la descomposicin L.U. es igual a las operaciones requeridas
para aplicar la escalerizacin gaussiana. De esta forma, enumeremos las operaciones necesarias
para resolver un sistema lineal aplicando L.U. :
A = LU (EG) = O(2/3n3 )
L y = b (BS) = O(n2 )
U x = y (F S) = O(n2 )
Total ops O(2/3n3 ) (2.4)
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.2. MTODOS DIRECTOS 6
Una caracterstica importante de este mtodo est en la resolucin de mltiples sistemas linea-
les, es decir, varios sistemas con la misma matriz A. Por ejemplo, calculemos la cantidad de
operaciones necesarias para resolver m sistemas lineales utilizando L.U.:
A = LU
for i = 1, . . . , m
A x i = bi
A y i = bi ops = O(2/3 n3 + 2mn2 )
i = 1, . . . , m
U xi = yi
end
En el segundo paso obtenemos una entrada a22 con un valor muy bajo comparado con el resto
de los valores de la matriz.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 7
obtenemos la solucin:
Observacin 2.2.3 . Si 1, 5004 104 hubiera sido 1, 5005 104 (valor exacto) entonces la solucin
numrica sera igual a la exacta, por lo tanto se concluye que el error est provocado por no
haber pivoteado cuando el valor a22 era pequeo.
(i)
En general pivoteamos si aii vale cero o cualquier valor que sea mucho menor que el resto de
(i)
las entradas de Ai...n,i...n . En el ejemplo 2.2.1 un valor mucho menor que los otros corresponde
a menor que un 1% por ejemplo.
Estrategias de pivoteo Presentaremos dos formas de elegir la entrada de la matriz que uti-
lizaremos como pivot.
Pivoteo parcial Se compara el valor del pivot actual con todas las entradas siguientes de esa
columna (por debajo de k ), eligiendo como pivot al de mayor magnitud.
(k)
arg m
ax |ark | = p pivot: apk
r{k,...,n}
Luego de elegir la la p, debemos intercambiar la la k por la p y continuar con EG. La cantidad
2
de comparaciones totales que se realizan es del orden de n .
Pivoteo completo Se compara el valor del pivot actual con cualquier otra entrada por debajo
de esa la y a la derecha de esa columna, eligiendo como pivot al de mayor magnitud.
arg m
ax |a(k)
rs | = p, q pivot: apq
r{k,...,n},s{k,...,n}
En este caso, adems de intercambiar la la k por la la p, tambin debemos intercambiar la
columna k por la q. En este caso la cantidad de comparaciones totales es del orden de n3 .
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.2. MTODOS DIRECTOS 8
P A = A = L U P A = LU
Las matrices esparsas aparecen en muchsimos problemas tanto de ingeniera como de otras ramas
y su manipulacin son un vivo tema de investigacin.
Sea A una matriz esparsa con elementos no nulos, una tcnica de almacenamiento podra ser
guardar el valor de la entrada junto con sus ndices de la y columna:
(i1 j1 ai1 ,j1 )
(i2 j2 ai2 ,j2 )
. si una entrada aij no est en la lista, entonces es nula.
.
.
(im jm aim ,jm )
Cmo puede ser esto eciente si por cada entrada debo almacenar tres valores en lugar de
uno? Veamos, si se guardan las ternas se requieren 3m NPF (nmeros en punto otante). Por
otra parte, si se guarda llena, es decir con todos los ceros que corresponden se necesitarn n2
NPF. Por tanto, si la matriz es esparsa, m << n, entonces entonces 3m << n2 , logrndose una
interesante reduccin de espacio de almacenamiento.
Observacin .
2.2.5 En general A1 no es esparsa aunque A lo sea.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 9
(
i j > k1
ai,j = 0 si con k1 , k2 0.
j i > k2
Para este tipo de matrices, muchos algoritmos de resolucin pueden optimizarse reduciendo
considerablemente tanto la complejidad como el costo computacional y as el tiempo de ejecucin.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.3. ESTABILIDAD DE SISTEMAS LINEALES 10
Regla de Cramer
Dado el sistema Ax = b, la Regla de Cramer devuelve cada entrada del vector solucin solamente
como un cociente de determinantes que dependen de la matriz A y del vector b. En efecto:
det(Ai )
xi =
det(A)
3 1 2 3
Entonces det(A) = 1, det(A1 ) =
2 1 = 1, det(A2 ) = 1 2 = 1.
1
Resultando en x = .
1
Se deja como ejercicio calcular el costo computacional de este mtodo para su comparacin con
los anteriores.
La resolucin de sistemas lineales mediante mtodos numricos involucra tanto errores de redon-
deo por el pasaje de nmeros a una representacin nita, como en el caso de la resolucin de
estos sistemas utilizando mtodos iterativos, el truncamiento de una sucesin que converge a la
solucin real del sistema. Es por esta razn que es necesario denir una nocin de cercana en
los espacios con los que estaremos trabajando. Es as que comenzamos la seccin introduciendo
algunos conceptos y resultados referentes a normas vectoriales y matriciales.
(Rn , R, +, ) e.v., k k : Rn R
1. kuk 0 u Rn y kuk = 0 u = ~0
2. k uk = || kuk R, u Rn
3. ku + vk kuk + kvk u, v Rn
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 11
n
!1/p
X
kxkp = |x1 |p 1p<
i=1
Pn
kxk1 = i=1 |xi | p=1
qP
n 2
kxk2 = i=1 xi = xx p=2 (Euclidiana)
kxk = lm kxkp
p
1/p
n
xj
jp
X
kxk ax |xi | lm
= m j = [0, 1] j = 1, . . . , n
i p maxi |xi |
j=1
| {z }
1
kxk = m
ax |xi |
i
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.3. ESTABILIDAD DE SISTEMAS LINEALES 12
Ejercicio 2.3.1. Vericar que la norma inducida cumple las propiedades de norma.
Proposicin 2.3.1.
kAk = max kA xk
kxk=1
Demostracin.
kA xk x
kAk = m
ax = max kA k = max kA yk
x6=~0 kxk x6=~0 kxk kyk=1
Comentamos que la propiedad anterior ilustra que el valor de la norma de la matriz es igual al
valor de la norma del vector ms deformado por la transformacin Ax.
Demostracin. !
kA xk kA zk
kA xk = kxk max kxk = kAk kxk
kxk z6=~0 kzk
Ejercicio 2.3.2. Demostrar que dadas dos matrices nn y la norma inducida dada en 2.3.2,
se cumple:
kA Bk kAk kBk
Ejemplos de normas Las siguientes son algunos ejemplos normas usualmente utilizadas:
Norma 1:
n
X
kAk1 = max |aij |
j
i=1
Norma 2:
kAk2 = max xt At Ax = 1 (A)
kxk=1
Norma Innito:
n
X
kAk = max |aij |
i
j=1
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 13
Aqu notamos 1 (A) = 1 , con 1 el mayor valor propio de At A (que existe y es positivo).
n
X n
X n
X
kAxk = m
ax | aij xj | max |aij xj | max |aij |
i i i
j=1 j=1 j=1
(sg(ai0 1 ), sg(ai0 2 ), . . . , sg(ai0 n ))t . En tal caso, kyk = 1 y adems kAyk = maxi nj=1 |aij |.
P
La cota se alcanza y por lo tanto es el mximo.
Pn
Es as que se concluye que kAk = m
axi j=1 |aij |.
Ejercicio 2.3.3. Probar que kAk2 = 1 (A) = 1 , con 1 el mayor valor propio de At A. Puede
ser de utilidad para completar la demostracin formalizar:
ax |i |
(A) = m Avi = i vi i = 1, . . . , n
i
Proposicin 2.3.3. La norma operador est acotada inferiormente por su radio espectral:
(A) kAk
Demostracin. Sea valor propio de A tal que || = (A), y v correspondiente vector propio de
norma 1. Entonces:
kAk = m
ax kAxk kAvk = kvk = || = (A). (2.5)
kxk=1
Teorema 2.3.4 (Teorema del Radio Espectral) . Sea A una matriz cuadrada A Mnn (R).
Para todo > 0 existe alguna norma consistente k k tal que
kAk < (A) +
Observacin 2.3.1. El teorema 2.3.4 es equivalente a decir que el radio espectral es el nmo de
todas las normas consistentes de una matriz.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.3. ESTABILIDAD DE SISTEMAS LINEALES 14
k(A) = kAk
A1
A (x + x ) = b + b
dado que suponemos que A es invertible podemos escribir
x + x = A1 (b + b ) = A1 b + A1 b
kx k = kA1 b k kA1 k kb k
desigualdad que puede ser dividida por la norma de x para obtener
kx k kA1 k kb k
kxk kxk
multiplicamos y dividimos por kAk y obtenemos el nmero de condicin en el numerador
kx k k(A) kb k
kxk kAk kxk
por otra parte es simple ver que se cumple
1 1
kAk kxk kbk
por lo tanto obtenemos
kx k kb k
k(A)
kxk kbk
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 15
(A + A )(x + x ) = b (A + A )x + Ax + A x = b
Ax + A (x + x ) = 0 x = A1 A (x + x )
Aplicando normas:
kx k kA k
kx k kA1 kkA kkx + x k k(A)
kx + x k kAk
En general el nmero de condicin de A se estima por otro mtodo (si el problema est mal
condicionado dcilmente pueda conocer A
1 ).
alto, k(A) = 106 , entonces, la perturbacin a la salida puede llegar a ser grande: k
kxk
xk
103 .
Veamos:
r = b Ax = Ax Ax = A(x x ) x x = A1 r
krk
kx x k kA1 kkrk
kAk
kbk
kxk kA1 kkbk
kAk
krk 1 kx x k krk
kA1 kkAk
kbk kAkkA 1k kxk kbk
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 16
krk 1 kx x k krk
k(A)
kbk k(A) kxk kbk
Mencionamos como conclusiones que si r es pequeo y k(A) es elevado (matriz mal condicionada),
entonces el residuo no da informacin
sobre la calidad de la solucin x .
Por otra parte, si r es pequeo y k(A) es bajo (matriz bien condicionada), entonces el residuo
da informacin sobre la calidad de la solucin x .
Ejemplo 2.3.2. Sea A = 1 11 , y el sistema A
x1
x2
=
1
0
.
1 1
Entonces A
1 1
= 1 1
.
1 1
Calculando k(A) usando k k obtenemos que kAk = max{1 + ||, 2} y que kA1 k =
2 1||
max{ |1| , |1| }.
Entonces, para 1, tenemos que kAk 2 y kA1 k 2
|1| .
4
As, k(A) |1| que va a ser muy grande (ya que 1).
1, 2969 0, 8648 0, 8642
Ejemplo 2.3.3. Sea A=
0, 2161 0, 1441
, y b=
0, 1440
.
0, 9911
Supongamos que x = .
0, 4870
108
0
Entonces r = b Ax = .
108 0
2
Sin embargo la solucin real es x = .
2
kxx k
En este caso lo que ocurre es que k(A) 3, 3 108 , por lo que 3, 35 1017 kxk 3, 78.
Los mtodos indirectos como mencionamos al inicio del captulo se basan en aproximar sucesi-
vamente la solucin a un sistema. Ya tenemos una nocin de cercana de acuerdo a lo trabajado
en la seccin anterior, por lo que tenemos los ingredientes para establecer si una sucesin es
convergente o no.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 17
Pn
Sabemos que para la solucin real se cumple: bi = j=1 aij xj .
Pn
bi = aii xi + j=1 aij xj = bi
j6=i
Pn
bi j=1j6=i aij xj
De donde, asumiendo aii 6= 0: xi = aii i = 1, . . . , n.
Esta igualdad no tiene sentido, ya que requiere conocer el vector x para hallar el vector x.
Sin embargo podemos generar un mtodo iterativo de la forma:
bi n k
P
j=1 aij xj
j6=i
xk+1 =
i = 1,
. . ., n
i aii
(Jacobi): x01
.
x0 x0 = .
. .
punto inicial
x0n
Este mtodo se llama Mtodo de Jacobi y el punto x0 es el punto inicial. Ahora bien, podramos
preguntarnos ser que esta sucesin as denida converge a la solucin del sistema Ax = b?
Veremos ms adelante que, efectivamente, si se cumplen ciertas condiciones sobre la matriz A el
mtodo converge. Estudiaremos tambin cmo se debe elegir el punto x0 , si es necesario que est
en alguna regin particular, cul es la velocidad de convergencia del mtodo, etc.
Pn k
bi j=1 aij xj
xk+1
i = xki + i = 1, . . . , n
aii
Implementacin de Jacobi:
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 18
xk+1 . Sin embargo, las entradas del vector xk+1 se van calculando una a una, y podran utilizarse
para para calcular la entrada siguiente, en lugar de utilizar las del vector anterior. Es decir, para
calcular xk+1
i se precisan xk1 , xk2 , . . . , xki1 , xki+1 , . . . , xkn . Pero las primeras xk+1 k+1 k+1
1 , x2 , . . . , xi1 ya
estn calculadas. Por tanto, el mtodo de Gauss-Seidel hace uso de esa informacin y en general
veremos que se mejora el mtodo.
Jacobi:
A=DEF Dx = (E + F )x + b
x(k+1) = D1 (E + F )x(k) + D1 b
lo podemos escribir como
x(k+1) = QJ x(k) + rJ QJ = D1 (E + F )
x(0) = x0 rJ = D1 b
Gauss-Seidel:
A=DEF (D E)x = F x + b
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 19
Ax = b M x = (M A)x + b
En los mtodos iterativos se escoge una matriz M relacionada con A (observar Jacobi y G-S) y
se genera una sucesin de vectores {x(k) }k0 a partir de la ecuacin
M x(k+1) = (M A)x(k) + b
Si {x(k) }k0 resulta convergente, la convergencia ser hacia la solucin de Ax = b. Veremos que
muchas veces es posible elegir un x
(0) inicial arbitrario (cualquiera).
x(k+1) = Q x(k) + r Q = M 1 (M A)
x(0) = x0 r = M 1 b
Observacin 2.4.2 . Es una iteracin estacionaria porque tanto Q como r no dependen del paso k ,
y es de orden 1 porque x
(k+1) depende solamente del valor anterior x(k) (y no de pasos anteriores).
Observacin 2.4.3 . lmk M x(k+1) = lmk (M A)x(k) + b. Si lmk x(k+1) = x tenemos
que: lmk M x(k+1) = M x = (M A)x + b = lmk (M A)x(k) + b.
Denicin 2.4.1 (Punto Fijo). Dado un mtodo iterativo matricial (M ). Diremos que x es un
punto jo del mismo si y solo si
x = Qx + r
Demostracin. () Por absurdo supongamos que (A) 1, entonces existe valor propio de A
tal que || 1 y Av = v , con v vector propio asociado a .
kAk vk
kAk k = ||k + lm Ak 6= 0
kvk k+ k
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 20
() Como (A) < 1, entonces existe > 0 tal que (A) < 1 y adems existe una norma
k k k
inducida k k que cumple kAk (A) + < 1. Ahora, kA k kAk < 1 y entonces kA k est
k
acotada por kAk que tiende a cero con k . As l
k
mk A = 0.
Luego, por induccin en los naturales tenemos que e(k) = Qk e(0) . Vamos ahora a probar el directo
y el recproco en partes:
() Supongamos por absurdo que (Q) 1. En tal caso, existe un valor propio de Q, con
|| 1, y un vector propio v=6 0 tal que Qv = v . Elijamos x(0) de modo que e(0) = v .
Esto es posible tomando x(0) = x + e(0) . Por lo anteriormente observado, tenemos que:
e(k) = Qk e(0) = Qk v = k v,
y tomando normas, tenemos que ke(k) k = ||k kvk. Tomando lmites en ambos miembros,
se consigue que lmk ke(k) k 6= 0, pues || 1 y kvk 6= 0. Esto es decir que el error no
tiende al vector nulo, o
k
equivalentemente, que la sucesin {x }kN no converge a x , en
contradiccin con la hiptesis.
() Por el Teorema del Radio Espectral, el radio espectral es el nmo de las normas operadores.
y tomando lmite con k tenemos que 0 lmk ke(k) k (kQk )k ke(0) k = 0. La nica opcin
vlida es que lmk ke(k) k
= 0, y por la primera propiedad de una norma tenemos que la
sucesin de vectores {e
(k) } (k)
kN converge al vector nulo. Esto signica que {x }kN converge
a x .
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 21
Observacin 2.4.6 . Recalcamos que esto signica que x(k) converge independientemente del dato
inicial x
(0) .
Podemos ver como corolario que si en alguna norma kQk < 1 (Q) kQk < 1, la iteracin es
convergente.
El teorema anterior es de gran utilidad ya que permite establecer si un mtodo ser convergente
o no dependiendo de la matriz Q, para cualquier mtodo que pueda escribirse como una ecuacin
estacionaria. Sin embargo debemos encontrar la matriz Q asociada al sistema Ax = b. A conti-
nuacin veremos algunos criterios para determinar la convergencia a partir de caractersticas de
la matriz A.
Denicin 2.4.2 (Matriz diagonal dominante). Sea A una matriz nn, decimos que es diagonal
dominante por las si y solo si
n
X
|aij | < |aii | i = 1, . . . , n
j=1,j6=i
Proposicin 2.4.4 (Convergencia de Jacobi). A es diagonal dominante por las (o por colum-
nas) la sucesin generada por Jacobi converge.
Observacin 2.4.8 .
Para matrices esparsas, los mtodos iterativos permiten encontrar la solucin en forma
rpida y eciente.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.4. MTODOS INDIRECTOS 22
n
X
(k+1) k+1
e = (1 ) 1 v1 + (i )k+1 i vi .
i=2
(i )k+1
k(1 )k+1 1 v1 +(1 )k+1 n
P
(k+1) i=2 ( )k+1 i vi k
mk+ keke(k) k k
Entonces: l = lmk+ 1
(i )k
=
k(1 )k 1 v1 +(1 )k n
P
i=2 k i vi k
(1 )
k(1 )k+1 1 v1 k
= lm = |1 |.
k+ k(1 )k 1 v1 k
En primer lugar, sabemos que ambos mtodos son convergentes por ser la matriz A diagonal
dominante.
1
0 2 1
Tendremos que: QJ = 1 , y sus valores propios son 1/2 y 1/2 con lo cual (QJ ) = 2.
2 0
1
0 2 1
Adems QGS = 1 , y sus valores propios son 0 y 1/4 con lo cual (QGS ) = 4.
0 4
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 23
x(k+1) x = Q(x(k) x )
= Q(x(k+1) x(k) ) + Q(x(k+1) x )
kQk
kx(k+1) x k k(x(k+1) x(k) )k
1 kQk
Es as que como decamos, imponiendo kx(k+1) x(k) k < obtendramos una cota para el error
en el paso k+1 que est relacionado con la diferencia entre los valores calculados en pasos
anteriores:
kQk
kx(k+1) x k
1 kQk
1 kQk
Como caso particular, si kQk < 2 , entonces 1kQk < 1, por lo que para alcanzar una cota de
Las tcnicas de sobrerrelajacin para resolucin de sistemas lineales usando mtodos iterativos
tienen el cometido es lograr convergencia partiendo de mtodos iterativos que no resultan con-
vergentes, o acelerar la velocidad de convergencia de los que s son convergentes. Para ello, se
realiza una especie relajacin convexa entre los puntos hallados en los pasos k y el punto k+1
hallado por el mtodo elegido:
(k+1)
xk+1 = x(M ) + (1 )x(k) i = 1, . . . , n
Observacin .
2.5.1 Si >1 se llama sobrerrelajacin (aceleran convergencia de Jacobi y G-S).
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
2.5. MTODOS DE SOBRERRELAJACIN 24
n
X
xk+1 aij xkj k
bi
i =
aii + (1 )xi i = 1, . . . , n
j=1
j6=i
Y la matriz de iteracin:
Q = Qj + (1 )Id
1 6
A= .
2 3
0 6
QJ =
23 0
Sus valores propios son = 2i. Por lo tanto (QJ ) = 2 > 1 y se concluye que el mtodo no es
convergente.
1 6
Q= 2
3 1
Sus valores propios son = (1 ) 2i . Busquemos > 0 para que ambos valores propios
tengan magnitud inferior a 1. Tenemos que ||
2 = (1 )2 + 4 2 = 5 2 2 + 1 < 1, o
2
equivalentemente, 5 2 < 0. Usando que > 0 y factorizando, tenemos que si (0, 2/5)
se asegura convergencia. Conseguimos as relajar el mtodo de Jacobi en un caso que no era
convergente y traducirlo a otro mtodo que s es convergente.
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.
CAPTULO 2. SISTEMAS DE ECUACIONES LINEALES 25
La iteracin queda:
i1 n
X X
xk+1
i = bi aij xk+1
j aij xkj + (1 )xki i = 1, . . . , n
aii
j=1 j=i+1
1
Se toma M= D E, (1, 2) ( = 1 es GS).
Ejemplo 2.5.2. 2
2 2 2 0 0
3
A = 3 3 5 M = 3 0
2
2 4 2 2 4
Observacin 2.5.2 .
opt = mn (QSOR )
(1,2)
Versin en revisin. Por errores o dudas dirigirse al foro de sugerencias del sitio EVA del curso.