You are on page 1of 189

E.T.S.

DE INGENIER

IA INFORM

ATICA
Apuntes de
C

ALCULO NUM

ERICO
para la titulacion de
INGENIER

IA T

ECNICA EN INFORM

ATICA
DE SISTEMAS
Fco. Javier Cobos Gavala
Contenido
Portada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Ecuaciones no lineales 7
1.1 Errores y condicionamiento en problemas numericos . . . . . . 8
1.2 Metodo y algoritmo de la biseccion: analisis de errores . . . . 12
1.3 Punto jo e iteraci on funcional . . . . . . . . . . . . . . . . . . 19
1.4 Analisis del metodo de Newton-Raphson . . . . . . . . . . . . 25
1.4.1 Metodo de Newton generalizado . . . . . . . . . . . . . 31
1.5 Un problema mal condicionado: ceros de un polinomio . . . . 34
1.5.1 Sucesiones de Sturm . . . . . . . . . . . . . . . . . . . 38
1.5.2 Algoritmo de Horner . . . . . . . . . . . . . . . . . . . 41
1.6 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 43
1.7 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 54
2 Sistemas de ecuaciones lineales 61
2.1 Normas vectoriales y matriciales . . . . . . . . . . . . . . . . . 61
2.1.1 Normas vectoriales . . . . . . . . . . . . . . . . . . . . 62
2.1.2 Distancia inducida por una norma . . . . . . . . . . . . 62
2.1.3 Convergencia en espacios normados . . . . . . . . . . . 63
2.1.4 Normas matriciales . . . . . . . . . . . . . . . . . . . . 64
2.1.5 Transformaciones unitarias . . . . . . . . . . . . . . . . 66
2.1.6 Radio espectral . . . . . . . . . . . . . . . . . . . . . . 67
3
4 Contenido
2.2 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . 71
2.2.1 N umero de condicion . . . . . . . . . . . . . . . . . . . 74
2.3 Metodos directos de resolucion de sistemas lineales . . . . . . 80
2.3.1 Factorizacion LU . . . . . . . . . . . . . . . . . . . . . 80
2.3.2 Factorizacion de Cholesky . . . . . . . . . . . . . . . . 84
2.4 Metodos iterados de resolucion de sistemas lineales . . . . . . 87
2.4.1 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . 92
2.4.2 Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . 93
2.4.3 Metodos de relajacion (SOR) . . . . . . . . . . . . . . 93
2.5 Factorizaciones ortogonales . . . . . . . . . . . . . . . . . . . . 95
2.5.1 Factorizacion QR de Gram-Schmidt . . . . . . . . . . . 95
2.5.2 Factorizacion QR mediante rotaciones . . . . . . . . . 96
2.5.3 Factorizacion QR de Householder . . . . . . . . . . . . 98
2.6 Sistemas superdeterminados. Problema de los mnimos cuadrados107
2.6.1 Transformaciones en sistemas superdeterminados . . . 110
2.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 112
2.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 122
3 Interpolacion 141
3.1 Interpolacion polinomial . . . . . . . . . . . . . . . . . . . . . 142
3.1.1 Interpolacion de Lagrange . . . . . . . . . . . . . . . . 145
3.1.2 Interpolacion de Newton . . . . . . . . . . . . . . . . . 148
3.1.3 Interpolacion de Hermite . . . . . . . . . . . . . . . . . 157
3.2 Interpolacion por splines . . . . . . . . . . . . . . . . . . . . . 160
3.2.1 Splines c ubicos . . . . . . . . . . . . . . . . . . . . . . 161
3.3 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 164
3.4 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 168
4 Integracion numerica 171
4.1 Formulas de cuadratura . . . . . . . . . . . . . . . . . . . . . 172
4.2 Formulas de Newton-Cotes . . . . . . . . . . . . . . . . . . . . 174
Contenido 5
4.2.1 Formula del trapecio . . . . . . . . . . . . . . . . . . . 177
4.2.2 Formula de Simpson . . . . . . . . . . . . . . . . . . . 178
4.3 Formulas compuestas . . . . . . . . . . . . . . . . . . . . . . . 179
4.3.1 Simpson para n par . . . . . . . . . . . . . . . . . . . . 179
4.3.2 Trapecios para n impar . . . . . . . . . . . . . . . . . . 180
4.4 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 181
4.5 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 186
Bibliografa 189
1. Ecuaciones no lineales
Dada una funcion no nula f : C C, resolver la ecuacion f(x) = 0 es hallar
los valores x que anulan a dicha funcion. A estos valores x se les denomina
races o soluciones de la ecuacion, o tambien, ceros de la funcion f(x).
Los metodos de resolucion de ecuaciones y sistemas de ecuaciones se clasican
en
M etodos directos
Proporcionan la solucion mediante un n umero nito de operaciones ele-
mentales.
ax
2
+bx +c = 0 = x =
b

b
2
4ac
2a
M etodos iterados
Construyen una sucesion (x
n
) convergente a la solucion x de la ecuacion
o del sistema.
Sin embargo, el siglo XIX, Abel probo que no existe ninguna formula equi-
valente (en termino de races) para resolver ecuaciones de grado superior a
cuatro.
Ademas, si la ecuacion no es polinomica no podemos resolverla mas que me-
diante metodos iterados que, incluso en el caso de las polinomicas de grado no
superior a cuatro, son mas ecientes.
Denicion 1.1 [Multiplicidad de una raz]
Una solucion x de la ecuacion f(x) = 0 se dice que tiene multiplicidad n si
f(x) = f

(x) = f

(x) = = f
(n1
(x) = 0 y f
(n
(x) ,= 0
Si la multiplicidad es 1, diremos que se trata de una raz simple.
7
8 Ecuaciones no lineales
Todos los metodos numericos de resolucion de ecuaciones presentan diculta-
des cuando la ecuacion tiene races m ultiples, ya que todos ellos se basan en
los cambios de signo de la funcion y estos son difcilmente detectables en un
entorno de una raz m ultiple.
Ese hecho nos lleva a un mal condicionamiento del problema.
1.1 Errores y condicionamiento en problemas
numericos
Cualquier problema numerico se resuelve a traves de un algoritmo que nos
proporciona unos resultados a partir de unos datos iniciales. Es decir, se trata
de realizar un proceso del tipo
Datos = Algoritmo = Resultados
Dado que cualquier algoritmo puede cometer errores, no solo por el algoritmo
en s, sino porque los datos pueden venir afectados de alg un tipo de error
(redondeo, etc.) es muy importante el estudio de los distintos tipos de error
que puedan cometerse con vista a la abilidad de los resultados.
Denicion 1.2 [Errores absoluto y relativo]
Supongamos que el valor exacto de un dato es x y disponemos de un valor
aproximado x.
Se denomina error absoluto de x a la distancia que lo separa del valor
exacto x, es decir [x x[.
Observese que si solo disponemos del dato de que el error es, por ejemplo,
de 1m. no sabemos nada acerca de la abilidad del resultado, ya que no
es lo mismo decir que se ha cometido un error de un metro al medir la
altura de una persona que al medir la distancia entre dos galaxias.
Debemos reejar de alguna manera lo que se esta evaluando en el dato
del error.
Se denomina error relativo de x al cociente entre el error absoluto y el
objeto evaluado, es decir,

x x
x

. En el caso x = 0 solo se utiliza el


error absoluto.
Errores y condicionamiento en problemas numericos 9
En la mayora de los procesos numericos utilizaremos como error el error abso-
luto ya que lo que nos interesa conocer es el n umero de cifras decimales exactas
que posee la solucion de un determinado problema.
Evidentemente cualquier algoritmo que trabaje con unos datos afectados de
alg un tipo de error nos proporcionara unos resultados que tambien vendran
afectados de errores. Estos errores pueden depender solo de los datos iniciales
o tambien del proceso que se ha realizado.
Supongamos que, queremos evaluar f(x) y damos un dato aproximado x. Es
evidente que, en general, si x ,= x sera f(x) ,= f(x).
Dado que f(x) f(x) (x x)f

(x), se tiene que


[f(x) f(x)[ [x x[ [f

(x)[
por lo que aunque el error del dato sea muy peque no, si la derivada f

(x) es
muy grande, el resultado obtenido f(x) puede diferir mucho del valor exacto
f(x).
Para el problema inverso, es decir conocido f(x) buscar el valor de x (resolver
una ecuacion) se tendra que
[x x[
1
[f

(x)[
[f(x) f(x)[
por lo que si [f

(x)[ fuese muy peque no el error de la solucion puede ser muy


grande.
Ademas el problema no esta en el algoritmo que se aplique para evaluar f(x)
sino en el propio problema a resolver.
Denicion 1.3 [Condicionamiento de un problema]
Diremos que un problema esta mal condicionado si peque nos errores en los
datos producen grandes errores en los resultados.
Se trata entonces de denir alg un n umero que nos indique el condicionamiento
del problema. A este n umero lo llamaremos n umero de condicion del problema
y lo denotaremos por .
En el ejemplo anterior es evidente que
(x) = [f

(x)[
10 Ecuaciones no lineales
As pues, un problema (en ambos sentidos) estara mejor condicionado mientras
mas se acerque a 1 su n umero de condicion.
Ejemplo 1.1 Si queremos calcular la tangente de 89

59

lo primero que de-


bemos hacer es expresar el angulo en radianes, por lo que necesariamente
debemos redondear el dato (el n umero hay que redondearlo), por lo que el
dato vendra afectado de un error de redondeo.
Utilicemos el metodo que utilicemos, dado que [ tg xtg x[ [1+tg
2
x[[xx[
y tg x + cuando x , el problema estara mal condicionado.
Sin embargo si tenemos en cuenta que tg (a + b) =
tg a + tg b
1 tg a tg b
podemos
reducir nuestro problema al calculo de la tangente de 44

59

resultando este
un proceso bien condicionado, ya que tg 45 = 1.
Denicion 1.4 Estabilidad de un algoritmo
Respecto al algoritmo que se utiliza para resolver un determinado problema,
diremos que es inestable cuando los errores que se cometen en los diferentes
pasos del algoritmo hacen que el error total que se genera sea muy grande.
Si, por el contrario los errores que se producen en los distintos pasos no alteran
de forma signicativa el resultado del problema, diremos que el algoritmo es
estable.
Ejemplo 1.2 Supongamos que se quiere calcular la integral
I
10
=
_
1
0
x
10
a +x
dx
Llamando I
n
=
_
1
0
x
n
a +x
dx observamos que
I
n
=
_
1
0
x
n
a +x
dx =
_
1
0
x
n1
(x +a a)
a +x
dx =
=
_
1
0
x
n1
(x +a)
a +x
dx a
_
1
0
x
n1
a +x
dx =
_
1
0
x
n1
dx a
_
1
0
x
n1
a +x
dx =
=
_
x
n
n
_
1
0
aI
n1
=
1
n
aI
n1
Errores y condicionamiento en problemas numericos 11
por lo que podemos pensar en la posibilidad de calcular I
10
de forma recursiva
mediante el siguiente algoritmo:
Algoritmo
_

_
I
0
= ln
a + 1
a
I
n
=
1
n
aI
n1
Sin embargo, dado que para a = 10 es I
0
= ln
11
10
= 0.09531017980432 . . .
y el n umero 0.09531017980432 . . . no podemos introducirlo en el ordenador
de manera exacta, debemos cometer alg un error introduciendo un n umero
aproximado I
0
de tal forma que cometemos un error inicial
0
= [I
0
I
0
[.
El error
n
que se cometera al calcular I
n
vendra dado por

n
= [I
n
I
n
[ =

1
n
aI
n1
(
1
n
aI
n1
)

= [ a(I
n1
I
n1
)[ = [a[
n1
es decir,

n
= [a[
n1
= [a[
2

n2
= = [a[
n

0
por lo que si tomamos las 10 primeras cifras decimales de I
0
, es decir, si
tomamos
I
0
= 0.0953101798 con
0
< 10
10
obtendremos un error en la decima iteracion

10
< 10
10
10
10
= 1
en otras palabras,
I
10
no tiene ninguna cifra decimal exacta
Se trata pues de un algoritmo muy inestable.
Observese que si el algoritmo es inestable no va a generar un resultado able,
por lo que deberemos utilizar otro algoritmo. Sin embargo, por muy estable
que sea el algoritmo, si el problema esta mal condicionado lo unico que pode-
mos hacer es plantear un problema equivalente al nuestro pero con la seguridad
de que se trata de un problema bien condicionado.
12 Ecuaciones no lineales
1.2 Metodo y algoritmo de la biseccion: ana-
lisis de errores
Teorema 1.1 [Teorema de Bolzano]
Si f es una funcion continua en el intervalo cerrado [a, b] y f(a) f(b) < 0,
existe un punto (a, b) en el cual f() = 0.
Nuestro problema se reduce a localizarla. Para ello, supongamos que esta
separada, es decir, que en el intervalo [a, b] es la unica raz que existe. Esto
podemos garantizarlo, por ejemplo, viendo que f

(x) ,= 0 en todo el intervalo,


ya que entonces, el Teorema de Rolle nos garantiza la unicidad de la raz.
Teorema 1.2 [Teorema de Rolle]
Si f(x) es una funcion continua en el intervalo [a, b], derivable en (a, b) y
f(a) = f(b), existe un punto (a, b) para el que f

() = 0.
En efecto, si f(x) tuviese dos races
1
y
2
en el intervalo [a, b], vericara
las hipotesis del teorema de Rolle en el intervalo [
1
,
2
] [a, b], por lo que
debera existir un punto (
1
,
2
) = (a, b) en el que se anulara la
derivada, por lo que si f

(x) ,= 0 en todo el intervalo [a, b], no pueden existir


dos races de la ecuacion en dicho intervalo.
M etodo de la bisecci on o dicotoma
Supongamos que tenemos separada una raz x de la ecuacion f(x) = 0 en el
intervalo [a
1
, b
1
] = [a, b] es decir
sig f(a) ,= sig f(b) y f

(x) ,= 0 x [a, b]
Tomando el punto medio x
1
=
a
1
+b
1
2
Si f(x
1
) = 0, hemos encontrado la solucion: x = x
1
.
Si f(x
1
) ,= 0, solo en uno de los dos subintervalos [a
1
, x
1
] o [x
1
, b
1
] se pro-
ducira un cambio de signo en los extremos y el teorema de Bolzano nos
asegura que la raz se encuentra en el subintervalo en el que se produce
dicho cambio de signo, al cual lo renombramos como [a
2
, b
2
]
Metodo y algoritmo de la biseccion: analisis de errores 13
Reiterando el procedimiento podemos construir una sucesion de interva-
los [a
n
, b
n
] con amplitudes
[b
n
a
n
[ =
[b a[
2
n
0 cuyos puntos medios x
n
x
Cota del error a priori
El error cometido, tomando como raz de la ecuacion el punto medio x
n
del
intervalo [a
n
, b
n
] obtenido en la en la iteracion n-esima, viene dado por

n

b a
2
n
por lo que si b a = 1 y n = 10 se tiene que
10

1
2
10
< 10
3
, es decir,
en 10 iteraciones obtenemos tres cifras decimales exactas, por lo que podemos
estimar el error de una determinada iteracion sin necesidad de realizarlas pre-
viamente.
Lo verdaderamente importante de esta formula del error a priori es que nos
permite conocer el n umero de iteraciones que van a ser necesarias para obtener
la raz con una determinada precision.
As, por ejemplo, si queremos obtener la solucion de la ecuacion f(x) = 0 en
el intervalo [a, b] de amplitud 1 con 14 cifras decimales exactas, debera ser

n

1
2
n
< 10
14
2
n
> 10
14
= n 47
es decir, deberemos detenernos en la iteracion 47.
Algoritmo de la bisecci on
Para i = 1, . . . , n, . . ., I
i
= [a
i
, b
i
] y m
i
=
a
i
+b
i
2
(punto medio de I
i
) con
I
1
= [a, b] y I
i+1
=
_
_
_
[a
i
, m
i
] si sig(f(a
i
)) ,= sig(f(m
i
))
[m
i
, b
i
] si sig(f(b
i
)) ,= sig(f(m
i
))
El proceso debe repetirse hasta que
f(m
i
) = 0 o bien b
i
a
i
< con > 0 prejado.
Un algoritmo para MatLab con entradas a, b, y f(x) y salida la raz m sera
el siguiente:
14 Ecuaciones no lineales
Algoritmo de la Bisecci on
while (b-a)/2>
m = a+(b-a)/2;
if f(m) == 0
a = m;
b = m;
end
if sign f(a) == sign f(m)
a = m;
else
b = m;
end
end
m
El hecho de calcular el punto medio de [a, b] como m = a+(b a)/2 es debido
a que para valores muy peque nos de a y b puede darse el caso de que (a+b)/2
se encuentre fuera del intervalo.
M etodo de la Regula falsi
Una variante del metodo de la biseccion es el metodo de la regula falsi , de la
falsa posicion o metodo de la cuerda consistente en dividir el intervalo [a, b] en
dos subintervalos [a, c] [c, b] donde el punto c, a diferencia del punto medio
del metodo de la biseccion, es el punto de corte de la recta secante que pasa
por los puntos (a, f(a)) y (b, f(b)) con el eje de abscisas OX.
f(b)
f(a)
(c, 0)
(a, f(a))
(b, f(b))
O
Y
X

t
t
t
Figura 1.1: Metodo de la r egula falsi.
Metodo y algoritmo de la biseccion: analisis de errores 15
La pendiente de dicha secante viene determinada por
m =
f(b) f(a)
b a
=
0 f(b)
c b
Seg un se utilicen los puntos (a, f(a)) y (b, f(b)) o (c, 0) y (b, f(b)) respectiva-
mente.
Despejando el valor de c obtenemos que
c = b f(b)
b a
f(b) f(a)
=
af(b) bf(a)
f(b) f(a)
pudiendose dar los mismos casos que en el metodo de la biseccion, es decir:
Si f(c) = 0 la raz buscada es c.
Si f(a) y f(c) tienen signos contrarios, la raz se encuentra en el intervalo
[a, c].
Si son f(c) y f(b) los que tienen signos contrarios, la raz esta en el
intervalo [c, b].
El algoritmo con entradas a, b, y f(x) y salida la raz c sera el siguiente:
Algoritmo de la Regula falsi
c = a;
while abs f(c)>
c = (a*f(b)-b*f(a))/(f(b)-f(a));
if f(c) == 0
a = c;
b = c;
end
if sign f(a) == sign f(c)
a = c;
else
b =c;
end
end
c
16 Ecuaciones no lineales
En este caso las amplitudes de los intervalos [a
n
, b
n
] no se van reduciendo a la
mitad como en el caso del metodo de dicotoma, por lo que ya no es valida
la formula del error a priori, siendo necesario encontrar otra forma de poder
estimar el error que se comete en cada iteracion.
Error a posteriori
Supongamos conocido que la funcion f(x) tiene un cero en el intervalo [a, b] y
que por cualquier metodo hemos aproximado la solucion como x
n
.
Lo primero que se nos ocurre para comprobar si es valido el resultado es
calcular f(x
n
) y, en general, obtendremos que f(x
n
) ,= 0 ya que no tendremos
exactamente la raz x sino una aproximacion.
Supongamos que obtenemos f(x
n
) = 2.2345.
estamos cerca o lejos de la raz buscada?
Si la pendiente de la funcion en dicho punto f

(x
n
) es grande estaremos cerca
de ella, pero si es peque na estaremos lejos.
f(x)
f(x)
x x
x
n
Figura 1.2: El error es inversamente proporcional a la pendiente.
As pues, el error es inversamente proporcional a la pendiente de la funcion,
en otras palabras,

[f(x
n
)[
[f

(x)[
Donde debemos medir la pendiente?
Si la medimos en un punto en concreto puede que sea muy grande y pensemos
que estamos muy cerca de la solucion cuando a un estamos muy lejos.
Metodo y algoritmo de la biseccion: analisis de errores 17
x
n
f(x)
f(x)
x x
Figura 1.3: Se debe tomar el mnimo valor de la pendiente.
Debemos, por tanto, tomar el mnimo valor de la pendiente en todo el intervalo,
para decir que

n

[f(x
n
)[
mn
x(a,b)
[f

(x)[
(1.1)
Veamos ahora una justicacion formal de la formula anterior.
Teorema 1.3 [Teorema del valor medio]
Si f(x) es una funcion continua en el intervalo [a, b] y derivable en (a, b),
existe un punto c (a, b) tal que
f(b) f(a)
b a
= f

(c).
Sea x una solucion de la ecuacion f(x) = 0 y sea x
n
una aproximacion de ella
obtenida por un metodo iterado cualquiera.
Supongamos f(x) continua en el intervalo cerrado [x
n
, x] o [x, x
n
] (dependiendo
de que x sea mayor o menor que x
n
) y derivable en el abierto.
Existe entonces un punto c (x
n
, x) o c (x, x
n
) tal que
f(x) f(x
n
)
x x
n
= f

(c).
18 Ecuaciones no lineales
Como f(x) = 0, nos queda que x x
n
=
f(x
n
)
f

(c)
, obteniendose:

n
=
[f(x
n
)[
[f

(c)[

[f(x
n
)[
mn
x

(x, xn)
(xn, x)
[f

(x)[

[f(x
n
)[
mn
x(a,b)
[f

(x)[
con
(x, x
n
)
(x
n
, x)
_
(a, b)
Lo unico que debemos exigir es que la derivada de la funcion no se anule en
ning un punto del intervalo (a, b).
Tengase en cuenta que si la funcion esta mal condicionada es decir, si [f

(x)[ es
muy grande, el calculo de f(x
n
) estara muy mal condicionado ya que cualquier
error en el valor de x
n
hace que lo que estemos calculando sea f(x
n
) en un
punto x

n
muy cercano a x
n
vericandose que
[f(x

n
) f(x
n
)[ [x

n
x
n
[ [f

(x
n
)[
es decir, puede que obtengamos por ejemplo que f(x
n
) = k y sin embargo su
verdadero valor diera mucho de k debido a la fuerte pendiente existente en
dicho punto, con lo que obtendremos una cota erronea del error.
Debemos, por tanto, asegurarnos de que nuestro problema esta bien condicio-
nado, es decir, no existen en el intervalo pendientes muy grandes (condiciona-
miento directo) ni muy peque nas (condicionamiento inverso) para garantizar
la abilidad del error a posteriori.
Aplicando el metodo de la regula falsi al calculo de la raz de 3, se obtienen
14 cifras decimales exactas, en solo 14 iteraciones frente a las 47 necesarias
mediante el metodo de la biseccion.
Sin embargo, en el metodo de la regula falsi la convergencia no tiene porque
ser mas rapida que en el de la biseccion.
Ambos metodos son de convergencia lenta siendo necesario, por tanto, buscar
otros metodos cuya convergencia sea mas rapida.
Dichos metodos estan basados en el denominado Teorema del punto jo que
estudiamos en la siguiente seccion.
Punto jo e iteracion funcional 19
1.3 Punto jo e iteracion funcional
Denicion 1.5 [Funci on contractiva]
Una funcion f : R R se dice contractiva si verica que
[f(x
1
) f(x
2
)[ q [x
1
x
2
[ x
1
, x
2
R con q < 1
q recibe el nombre de factor de contractividad.
Lema 1.4 [Caracterizaci on de las funciones contractivas]
Si una funcion f(x) continua en [a, b] y derivable en (a, b) verica que
[f

(x)[ q < 1 x [a, b]


es contractiva en dicho intervalo.
Demostracion. Para cualquier par de puntos x
1
, x
2
[a, b]
f(x
1
) f(x
2
) = (x
1
x
2
)f

(c) con c
_
[x
1
, x
2
]
[x
2
, x
1
]
= c [a, b]
[f(x
1
) f(x
2
)[ = [x
1
x
2
[ [f

(c)[ q [x
1
x
2
[ con q < 1
por lo que es contractiva en [a, b].
Denicion 1.6 [Punto fijo]
Se dice que x es un punto jo de la funcion f(x) si f(x) = x.
Teorema 1.5 [Teorema del punto fijo]
Sea (x) una funcion continua en [a, b], derivable en (a, b), con ([a, b]) [a, b]
tal que [

(x)[ q < 1 x [a, b], y sea x


0
un punto cualquiera del intervalo
[a, b]. La sucesion
x
0
, x
1
, x
2
, . . . , x
n
, . . . con x
n+1
= (x
n
)
converge al unico punto jo de la funcion (x) en [a, b].
20 Ecuaciones no lineales
Demostracion.
Convergencia
x
n+1
x
n
= (x
n
) (x
n1
) = (x
n
x
n1
)

(c) con c
_
[x
n
, x
n+1
]
[x
n+1
, x
n
]
y por tanto, con c [a, b].
[x
n+1
x
n
[ = [x
n
x
n1
[ [

(c)[ q[x
n
x
n1
[
por lo que
[x
2
x
1
[ q[x
1
x
0
[
[x
3
x
2
[ q[x
2
x
1
[ q
2
[x
1
x
0
[
.
.
.
[x
n+1
x
n
[ q
n
[x
1
x
0
[
.
.
.
[x
0
[ +[x
1
x
0
[ +[x
2
x
1
[ + +[x
n+1
x
n
[ +
[x
0
[ +[x
1
x
0
[ +q[x
1
x
0
[ + +q
n
[x
1
x
0
[ + =
= [x
0
[ +[x
1
x
0
[(1 +q + +q
n
+ ) con q < 1 =
[x
0
[ +[x
1
x
0
[ + +[x
n+1
x
n
[ + [x
0
[ +[x
1
x
0
[
1
1 q
por lo que la serie
S
n
= x
0
+ (x
1
x
0
) + (x
2
x
1
) + + (x
n+1
x
n
) +
es convergente por ser absolutamente convergente. Dado que
S
1
= x
0
S
2
= x
0
+ (x
1
x
0
) = x
1
.
.
.
S
n+1
= S
n
+ (x
n
x
n1
) = x
n
.
.
.
la convergencia de S
n
nos garantiza la de la sucesion (x
n
).
Punto jo e iteracion funcional 21
Convergencia al punto fijo
x = limx
n
= (x) = (limx
n
) = lim(x
n
) = limx
n+1
= (x)
es decir
(x) = x = x = limx
n
es punto jo de (x) en [a, b]
Unicidad
Sea x

otro punto jo de (x) en [a, b]].


[xx

[ = [(x) (x

)[ = [(xx

(c)[ = [(xx

)[ [

(c)[ con c [a, b]


[x x

[(1 [

(c)[) = 0
y dado que [

(c)[ q < 1 = 1 [

(c)[ , = 0, obtenemos que


[x x

[ = 0 y, por tanto, que x = x

.
En otras palabras, x es el unico punto jo de la funcion (x) en el
intervalo [a, b].
Interpretaci on geom etrica del teorema del punto fijo
Dependiendo de los valores que toma

(x) en el intervalo [a, b], podemos


distinguir cuatro casos:
a)

(x) < 1 b) 1 <

(x) < 0
c) 0 <

(x) < 1 d)

(x) > 1
pudiendose observar (vease la Fig. 1.4) que en los casos (a) y (d) la sucesion
resulta ser divergente ya que [

(x) > 1[.


En los casos (b) y (c), en los que [

(x)[ q < 1 el metodo converge


monotonamente en (b) y de forma oscilatoria en (c).
Aplicaci on a la resoluci on de ecuaciones
Si se desea resolver la ecuacion f(x) = 0, se escribe esta de la forma x = (x),
donde (x) es una funcion contractiva, y partiendo de un determinado valor
inicial x
0
, se construye la sucesion x
n+1
= (x
n
).
22 Ecuaciones no lineales
Figura 1.4: Esquema de la convergencia para el teorema del punto jo.
El teorema del punto jo nos garantiza la convergencia de esta sucesion al
punto jo de la funcion (x) o lo que es lo mismo, a la raz de la ecuacion
f(x) = 0.
Para acotar el error de una determinada iteracion utilizamos la formula (1.1)
del error a posteriori.
Ejemplo 1.3 El calculo de la raz cuadrada de 3 equivale al calculo de la raz
positiva de la ecuacion x
2
= 3. Aunque mas adelante veremos metodos cuya
convergencia es mas rapida, vamos a realizar los siguientes cambios:
x
2
= 3 = x +x
2
= x + 3 = x(1 +x) = 3 +x = x =
3 +x
1 +x
Es decir, hemos escrito la ecuacion de la forma x = (x) con
(x) =
3 +x
1 +x
Dado que sabemos que la raz de 3 esta comprendida entre 1 y 2 y que
[

(x)[ =
2
(1 +x)
2

2
2
2
=
1
2
< 1 para cualquier x [1, 2]
Punto jo e iteracion funcional 23
[

(x)[ =
2
(1 +x)
2

2
3
2
=
2
9
para cualquier x [1, 2]
podemos garantizar que partiendo de x
0
= 1 el metodo convergera a la raz
cuadrada de 3 y que el error a posteriori sera able.
As pues, partiendo de x
0
= 1 y haciendo x
n+1
=
3 +x
n
1 +x
n
obtenemos:
x
1
= 2
x
2
= 1.66666666666667
x
3
= 1.75000000000000
x
4
= 1.72727272727273
x
5
= 1.73333333333333
x
6
= 1.73170731707317
x
7
= 1.73214285714286
x
8
= 1.73202614379085
x
9
= 1.73205741626794
x
10
= 1.73204903677758
x
11
= 1.73205128205128
x
12
= 1.73205068043172
x
13
= 1.73205084163518
x
14
= 1.73205079844084
x
15
= 1.73205081001473
x
16
= 1.73205080691351
x
17
= 1.73205080774448
x
18
= 1.73205080752182
x
19
= 1.73205080758148
x
20
= 1.73205080756550
x
21
= 1.73205080756978
x
22
= 1.73205080756863
x
23
= 1.73205080756894
x
24
= 1.73205080756886
x
25
= 1.73205080756888
x
26
= 1.73205080756888
El error vendra dado por
n
<
[f(x
n
)[
mn
x[1,2]
[f

(x)[
donde f(x) = x
2
3, por lo que

26
<
[x
2
26
3[
2
= 4.884981308350688 10
15
< 10
14
es decir,

3 = 1.73205080756888 con todas sus cifras decimales exactas.


Habamos visto que el metodo de la regula falsi solo necesitaba de 14 iteraciones
mientras que ahora hemos necesitado 26.
A que se debe que la convergencia haya sido muy lenta?
La respuesta es bien sencilla: a la mala eleccion de la funcion (x).
De que dependera la velocidad de convergencia?
24 Ecuaciones no lineales
Orden de convergencia
(x) =
x
2
en [1, 1] es contractiva ya que [

(x)[ =
1
2
< 1 x [1, 1]
x
0
= 1 = x
1
= 0.5 x
2
= 0.25 x
3
= 0.125 = x
4
= 0.0625
Observamos que la convergencia a cero es lenta y ello es debido a que

(0) ,= 0 = convergencia lineal o de primer orden.


(x) =
x
2
4
en [1, 1] es contractiva: [

(x)[ =

x
2


1
2
< 1 x [1, 1]
x
0
= 1 x
1
= 0.25 x
2
= 0.015625 x
3
= 6.105 . . . 10
5

La convergencia a cero es ahora rapida debido a que
(x) =
x
2

(0) = 0

(x) =
1
2

(0) ,= 0
_
_
_
convergencia de segundo orden.
(x) =
x
3
6
en [1, 1] es contractiva: [

(x)[ =

x
2
2

1
2
< 1 x [1, 1]
x
0
= 1 x
1
= 0.16666 x
2
= 0.00077 x
3
= 7.6565 10
11

La convergencia a cero es ahora muy rapida debido a que

(x) =
x
2
2

(0) = 0

(x) = x

(0) = 0

(x) = 1

(0) ,= 0
_

_
= convergencia de tercer orden.
EL orden de convergencia nos lo da el orden de la primera derivada de la
funcion (x) que no se anula en su punto jo x.
La funcion (x) =
3 +x
1 +x
que obtuvimos para calcular

3 en el Ejemplo 1.3
verica que

(x) =
1
(1 +x)
2
=

3) =
1
(1 +

3)
2
,= 0
por lo que ha resultado una convergencia de primer orden (similar a la de los
metodos de la biseccion y la regula falsi).
Analisis del metodo de Newton-Raphson 25
Como elegir una funcion de iteracion (x) que nos garantice una convergen-
cia, al menos, de segundo orden?
Vamos a ver como el metodo de Newton-Raphson, generalmente conocido como
metodo de Newton, nos permite escribir la ecuacion f(x) = 0 de la forma
x = (x) de tal manera que la convergencia sea, al menos de segundo orden.
1.4 Analisis del metodo de Newton-Raphson
Si tratamos de resolver la ecuacion f(x) = 0 y lo que obtenemos no es la
solucion exacta x sino solo una aproximacion x
n
tal que x = x
n
+h tendremos
que
f(x) f(x
n
) +h f

(x
n
) = h
f(x
n
)
f

(x
n
)
= x x
n

f(x
n
)
f

(x
n
)
obteniendose la denominada formula de Newton-Raphson
x
n+1
= x
n

f(x
n
)
f

(x
n
)
(1.2)
Hemos transformado la ecuacion f(x) = 0 en x = (x) con
(x) = x
f(x)
f

(x)
Si partiendo de x
0
[a, b] la sucesion (x
n
) con x
n+1
= (x
n
) = x
n

f(x
n
)
f

(x
n
)
converge entonces (x) es contractiva.
Ademas:
limx
n+1
= limx
n

f(limx
n
)
limf

(x
n
)
=
f(limx
n
)
limf

(x
n
)
= 0 = f(limx
n
) = 0
es decir, limx
n
= x.
Interpretaci on geom etrica: M etodo de la tangente
Si trazamos la tangente a la curva y = f(x) en el punto (x
n
, f(x
n
)) obtenemos
la recta
y = f(x
n
) +f

(x
n
)(x x
n
)
26 Ecuaciones no lineales
que corta al eje y = 0 en el punto de abscisa
x = x
n

f(x
n
)
f

(x
n
)
que es precisamente el valor de x
n+1
de la formula de Newton-Raphson.
En otras palabras, x
n+1
viene determinado por el punto en el que la tangente
a la curva y = f(x) en (x
n
, f(x
n
)) corta al eje de abscisas, por lo que este
metodo es tambien conocido como metodo de la tangente.
x
x
0
x
1
x
2
y = f(x)
Figura 1.5: Interpretacion geometrica del metodo de Newton.
Orden de convergencia
Si el metodo converge, (x) = x
f(x)
f

(x)
es contractiva y ademas

(x) = 1
f
2
(x) f(x)f

(x)
f
2
(x)
=
f(x)f

(x)
f
2
(x)
con f

(x) ,= 0 =

(x) = 0
El metodo de Newton es, al menos, de segundo orden.
Cota del error: Error a priori
La diferencia entre la solucion exacta x y la aproximacion x
n+1
viene dada por
e
n+1
= x x
n+1
= x x
n
+
f(x
n
)
f

(x
n
)
= e
n
+
f(x
n
)
f

(x
n
)
Dado que
0 = f(x) = f(x
n
+e
n
) = f(x
n
) +f

(x
n
)e
n
+
f

(t)
2
e
2
n
con t
_
(x, x
n
)
(x
n
, x)
Analisis del metodo de Newton-Raphson 27
Si f

(x) ,= 0 x [a, b] podemos dividir entre f

(x
n
) ,= 0 obteniendose
0 =
f(x
n
)
f

(x
n
)
+e
n
+
f

(t)
2
e
2
n
= e
n+1
+
f

(t)
2
e
2
n
Tomando valores absolutos:

n+1
=
[f

(t)[
2[f

(x
n
)[

2
n
k
2
n
con k
max [f

(x)[
2 mn [f

(x)[
es decir, en cada iteracion dispondremos, aproximadamente, del doble de cifras
decimales exactas que en la iteracion anterior, que es lo que signica el hecho
de ser una convergencia de segundo orden.
Ademas, podemos obtener, multiplicando por k,
k
n+1
k
2

2
n
= (k
n
)
2
(k
n1
)
4
(k
n2
)
8
(k
0
)
2
n+1
=

n

1
k
(k
0
)
2
n
con k
max [f

(x)[
2 mn [f

(x)[
lo que nos proporciona una cota del error a priori, pudiendose garantizar la
convergencia siempre que k
0
< 1 es decir, si
0

1
k
.
Algoritmo
Una vez realizado un estudio previo para ver que se cumplen las condiciones
que requiere el metodo, establecer el valor inicial x
0
y calcular el valor de
m = mn
x[a,b]
[f

(x)[, el algoritmo, que tiene por entradas los valores de a, b, x, ,


f(x) y m y por salida la raz x, es el siguiente:
Algoritmo de Newton
e = abs (f(x)/m);
while e>
x = x-f(x)/f

(x);
e = abs (f(x)/m);
end
x
28 Ecuaciones no lineales
Ejemplo 1.4 En el Ejemplo 1.3 calculamos la raz de 3 con 14 cifras decimales
exactas en 26 iteraciones. Vamos a ver como se disminuye considerablemente
el n umero de iteraciones cuando se utiliza la formula de Newton-Raphson.
Partimos de la ecuacion f(x) = x
2
3 = 0, por lo que la formula de Newton-
Raphson nos dice que
x
n+1
= x
n

f(x
n
)
f

(x
n
)
= x
n

x
2
n
3
2x
n
=
x
2
n
+ 3
2x
n
=
1
2
_
x
n
+
3
x
n
_
Dado que la raz de 3 es un n umero comprendido entre 1 y 2 y la funcion
f

(x) = 2x no se anula en dicho intervalo, podemos aplicar el metodo de


Newton tomando como valor inicial x
0
= 2. (Mas adelante veremos porque
debemos tomar 2 como valor inicial), obteniendose:
x
0
= 2
x
1
= 1.75000000000000
x
2
= 1.73214285714286
x
3
= 1.73205081001473
x
4
= 1.73205080756888
El error vendra dado, al igual que en el Ejemplo 1.3 por
n
<
[f(x
n
)[
mn
x[1,2]
[f

(x)[
,
por lo que

4
<
[x
2
4
3[
2
= 4.884981308350688 10
15
< 10
14
es decir,

3 = 1.73205080756888 con todas sus cifras decimales exactas.


La formula x
n+1
=
1
2
_
x
n
+
A
x
n
_
es conocida como formula de Heron ya que
este matematico la utilizaba para aproximar la raz cuadrada de un n umero
real positivo A hacia el a no 100 a.C. pues saba que si dispona de un valor
aproximado x
n
y este fuese mayor que la raz buscada, necesariamente A/x
n
sera menor que su raz y viceversa, por lo que la media entre ambos deba ser
una mejor aproximacion que x
n
. En otras palabras, en cada iteracion tomaba
como aproximacion de la raz la media aritmetica entre el valor x
n
anterior y
el cociente A/x
n
.
Analisis del metodo de Newton-Raphson 29
An alisis de la convergencia: Regla de Fourier
Hay que tener en cuenta que la naturaleza de la funcion puede originar di-
cultades, llegando incluso a hacer que el metodo no converja.
Ejemplo 1.5 Tratemos de determinar, por el metodo de Newton-Raphson, la
raz positiva de la funcion f(x) = x
10
1, tomando como valor inicial x
0
= 0.5.
La formula de Newton-Raphson es, en este caso,
x
n+1
= x
n

x
10
n
1
10x
9
n
.
Aplicando el algoritmo se obtienen los valores
x
1
= 51.65
x
2
= 46.485
x
3
= 41.8365
x
4
= 37.65285
x
5
= 33.887565
x
10
= 20.01026825685012
x
20
= 6.97714912329906
x
30
= 2.43280139954230
x
40
= 1.00231602417741
x
41
= 1.00002393429084
x
42
= 1.00000000257760
x
43
= 1
Puede observarse que la convergencia es muy lenta y solo se acelera (a partir
de x
40
) cuando estamos muy cerca de la raz buscada.
Si en las proximidades de la raz existe un punto de inexion, las itera-
ciones divergen progresivamente de la raz.

.
.
.
.
.
.
.
.
.
.
.
.
.
.,
x
0
x
1
x
2 x
Figura 1.6: En las proximidades de un punto de inexion puede diverger.
30 Ecuaciones no lineales
El metodo de Newton-Raphson oscila en los alrededores de un maximo
o un mnimo local, persistiendo o llegando a encontrarse con pendientes
cercanas a cero, en cuyo caso la solucion se aleja del area de interes.

x
0
x
1 x
y = f(x)
Figura 1.7: En las proximidades de un extremo local puede oscilar o diverger.
Quiere decir eso que el metodo de Newton puede ser divergente?
El metodo de Newton siempre converge en las proximidades de la raz. El
problema surge cuando se toma un valor inicial x
0
inadecuado (proximo a un
punto crtico).
Como podemos saber que el valor inicial x
0
es adecuado?
La elecci on de x
0
: Regla de Fourier
Si la funcion f(x) cambia de signo en los extremos de un intervalo [a, b] y
ademas, en dicho intervalo, no se anulan ni f

(x) ni f

(x), nos aseguramos


de que en [a, b] existe una unica raz de la ecuacion f(x) = 0 y no existen
extremos locales ni puntos de inexion.
Por otra parte, como no nos interesa que x
0
este situado cerca de un extremo
local, vamos a estudiar los diferentes casos con que podemos encontrarnos
y elegir, en cada uno de ellos, un valor adecuado para x
0
(aquel que no se
encuentre cercano a un extremo local).
Analisis del metodo de Newton-Raphson 31
f

(x) > 0
f

(x) < 0
f

(x) > 0
f

(x) > 0
f

(x) < 0
f

(x) > 0
f

(x) < 0
f

(x) < 0
a
b
a
b
a
b
a
b
x
0
= a
x
0
= b
x
0
= a
x
0
= b
Figura 1.8: Los cuatro casos posibles
Observese que en cualquiera de los cuatro casos (vease la Figura 1.8) hemos
optado por elegir, como valor inicial x
0
, el extremo en el que la funcion tiene
el mismo signo que su segunda derivada.
Este resultado, que formalizamos a continuacion en forma de teorema es co-
nocido como regla de Fourier.
Teorema 1.6 [Regla de Fourier]
Sea f(x) una funcion continua y dos veces derivable [a, b]. Si sig f(a) ,= sig f(b)
y sus dos primeras derivadas f

(x) y f

(x) no se anulan en [a, b] existe una


unica raz de la ecuacion f(x) = 0 en dicho intervalo y se puede garantizar la
convergencia del metodo de Newton tomando como valor inicial x
0
el extremo
del intervalo en el que la funcion y su segunda derivada tienen el mismo signo.
1.4.1 Metodo de Newton generalizado
Cuando el metodo de Newton converge lentamente se debe a que la raz que
estamos aproximando es m ultiple.
Supongamos que x fuese una raz doble de f(x). La funcion de iteracion
(x) = x
f(x)
f

(x)
del metodo de Newton verica que

(x) = 1
f
2
(x) f(x)f

(x)
f
2
(x)
=
f(x)f

(x)
f
2
(x)

(x) es una indeterminacion del tipo


0
0
que resulta ser distinta de cero, por lo
32 Ecuaciones no lineales
que la convergencia es de primer orden. De ah su lentitud.
Sera posible alguna modicacion en el metodo para que la convergencia
volviese a ser, al menos, de segundo orden?
La raz x de f(x) tambien lo es de g(x) =
f(x)
f

(x)
pero con la particularidad
de que
(x) = x
g(x)
g

(x)
verica que

(x) y

(x) tienden a cero cuando x lo hace a x, por lo


que al aplicar el metodo de Newton a la funcion g(x) obtenemos x con
una convergencia de, al menos, tercer orden.
Este proceso tiene el inconveniente de que si f(x) es, por ejemplo, un
polinomio, g(x) es una funcion racional, por lo que se complican los
calculos.
Sea x una raz de multiplicidad k de la ecuacion f(x) = 0.
Si en vez de hacer x
n+1
= x
n

f(x
n
)
f

(x
n
)
hacemos
x
n+1
= x
n
k
f(x
n
)
f

(x
n
)
(1.3)
donde k representa el orden de la primera derivada que no se anula para
x = x (multiplicidad de la raz x), la convergencia vuelve a ser, al menos,
de segundo orden.
En la practica, el problema es que no conocemos k pero podemos determinar
su valor estudiando las derivadas de la funcion f(x).
Ejemplo 1.6 Para resolver la ecuacion x sen x = 0 comenzamos por ex-
presarla de la forma x = sen x, por lo que las soluciones seran los puntos de
intersecci on de la curva y = sen x con y = x (Fig.1.9).
Aunque es conocido que la solucion de la ecuacion es x = 0, supondremos que
solo conocemos que esta comprendida entre -1 y 1 y vamos aplicar el metodo
de Newton.
x
n+1
= x
n

x
n
sen x
n
1 cos x
n
=
sen x
n
x
n
cos x
n
1 cos x
n
Analisis del metodo de Newton-Raphson 33
y = x
y = senx
1
-1
0

Figura 1.9: Las gracas de y = x e y = sen x.


Comenzando con x
0
= 1 se obtiene:
x
0
= 1
. . . . . . . . . . . . . . . . . . . . .
x
10
= 0.016822799 . . .
_

_
f

(x
10
) = 0.0001 . . .
f

(x
10
) = 0.016 . . .
f

(x
10
) = 0.9998 . . .
. . . . . . . . . . . . . . . . . . . . .
x
20
= 0.0000194 . . .
_

_
f

(x
20
) = 0.00000001 . . .
f

(x
20
) = 0.0019 . . .
f

(x
20
) = 0.9999 . . .
Como la convergencia es muy lenta, hace pensar que se trata de una raz
m ultiple. Ademas, como la primera y la segunda derivadas tienden a cero y
la tercera lo hace a 1, parece que nos encontramos ante una raz triple, por lo
que aplicamos el metodo generalizado de Newton.
x
n+1
= x
n
3
x
n
sen x
n
1 cos x
n
que comenzando, al igual que antes, por x
0
= 1 se obtiene:
x
0
= 1
x
1
= 0.034 . . .
x
2
= 0.000001376 . . .
x
3
= 0.00000000000009 . . .
que se ve que converge rapidamente a x = 0.
34 Ecuaciones no lineales
1.5 Un problema mal condicionado: ceros de
un polinomio
Si queremos resolver la ecuacion P(x) = 0 el problema viene condicionado por
los valores de [P

(x)[ (su n umero de condicion), por lo que si la derivada es


muy peque na el problema estara mal condicionado, pero si la derivada es muy
grande cualquier metodo se hace muy lento, por lo que lo ideal sera que la
derivada estuviese muy proxima a 1, pero claro esta, ese derivada ha de estar
muy proxima a 1 en todas las races del polinomio, cosa que es estadsticamente
casi imposible. Por tanto, el calculo de los ceros de un polinomio es un ejemplo
de problema mal condicionado. Sin embargo, vamos a estudiar como podemos
aproximar un determinado cero del polinomio.
Hemos visto que uno de los mayores problemas que presenta la resolucion de
una ecuacion es encontrarnos que posee races m ultiples ya que, en un entorno
de ellas, o bien la funcion no cambia de signo, o bien se aproxima demasiado
a cero y, por tanto, cualquier metodo puede dar soluciones erroneas.
En el caso de las ecuaciones algebraicas (P
n
(x) = 0) este problema puede
solventarse buscando otra ecuacion que posea las mismas races que la dada
pero todas ellas simples, es decir, eliminando las races m ultiples.
Eliminaci on de las races m ultiples
Por el teorema fundamental del

Algebra sabemos que P
n
(x) posee n races y,
por tanto, puede ser factorizado de la forma
P
n
(x) = a
0
(x x
1
)(x x
2
) (x x
n
)
donde x
1
, x
2
, . . . , x
n
son los ceros del polinomio.
Si existen races m ultiples, las podemos agrupar para obtener:
P
n
(x) = a
0
(x x
1
)
m
1
(x x
2
)
m
2
(x x
k
)
m
k
donde m
i
(i = 1, 2, . . . k) representa la multiplicidad de la raz x
i
y vericando-
se que m
1
+m
2
+ m
k
= n
Derivando esta expresion obtenemos:
P

(x)=na
0
(x x
1
)
m
1
1
(x x
k
)
m
k
1
Q
k1
(x)
con Q
k1
(x
i
) ,= 0 i = 1, 2, . . . , k
Un problema mal condicionado: ceros de un polinomio 35
Por tanto, si x es una raz de la ecuacion P(x) = 0 con multiplicidad k, es
tambien una raz de P

(x) = 0 pero con multiplicidad k 1.


D(x) = mcd [P(x), P

(x)] = (x x
1
)
m
1
1
(x x
k
)
m
k
1
por lo que
Q(x) =
P(x)
D(x)
= a
0
(x x
1
)(x x
2
) (x x
k
)
Es decir, hemos encontrado un polinomio cuyas races son las mismas que las
de P(x) pero todas ellas simples.
Ejemplo 1.7 El polinomio P(x) = x
3
5x
2
+ 8x 4 = (x 1)(x 2)
2
tiene
la raz 1 simple y la 2 doble.
D(x) = mcd (P(x), P

(x)) = mcd (x
3
5x
2
+ 8x 4, 3x
2
10x + 8) = x 2
por lo que
Q(x) =
P(x)
D(x)
= x
3
3x + 2 = (x 1)(x 2)
que tiene las mismas races que P(x) pero todas simples.
Acotaci on de las races
Si ya conocemos que una ecuacion solo tiene races simples y queremos calcu-
larlas, parece apropiado que un primer paso consista en detectar donde pueden
encontrarse. As por ejemplo, si son reales, determinar intervalos de una am-
plitud reducida en los que se encuentren las races de la ecuacion.
Dada una ecuacion f(x) = 0 (en general com-
pleja) se denomina acotar las races a bus-
car dos n umeros reales positivos r y R tales
que r [x[ R para cualquier raz x de la
ecuacion.
Geometricamente consiste en determinar una
corona circular de radios r y R dentro de la
cual se encuentran todas las races.
En el caso real se reduce a los intervalos
(R, r) y (r, R).
36 Ecuaciones no lineales
Proposicion 1.7 Si x es una raz de la ecuacion
P(x) = a
0
x
n
+a
1
x
n1
+ +a
n1
x +a
n
= 0
se verica que:
[x[ < 1 +
A
[a
0
[
siendo A = max
i1
[a
i
[
Demostracion. Sea P(x) = a
0
x
n
+ a
1
x
n1
+ + a
n1
x + a
n
. Tomando
modulos tenemos
[P(x)[ = [a
0
x
n
+a
1
x
n1
+ +a
n1
x +a
n
[
[a
0
x
n
[ [a
1
x
n1
+ +a
n1
x +a
n
[
+ +[a
n1
x[ +[a
n
[
_
=
= [a
0
x
n
[
_
[a
1
[ [x
n1
[ + +[a
n1
[ [x[ +[a
n
[
_

[a
0
x
n
[ A[[x[
n1
+ +[x[ + 1]
(Para considerar el ultimo parentesis como una progresion geometrica habra
que a nadir los terminos que, probablemente, falten en P(x) y suponer que,
ademas, es [x[ , = 1).
[P(x)[ [a
0
[ [x[
n
A
[x[
n
1
[x[ 1
Dado que el teorema es trivial para [x[ < 1, supondremos que [x[ > 1 y
entonces:
[P(x)[ > [a
0
[ [x[
n
A
[x[
n
[x[ 1
= [x[
n
_
[a
0
[
A
[x[ 1
_
Como la expresion anterior es cierta para cualquier [x[ > 1, sea [x[ > 1 con
P(x) = 0. Entonces
0 > [x[
n
_
[a
0
[
A
[x[ 1
_
= [a
0
[
A
[x[ 1
< 0 =
[a
0
[ <
A
[x[ 1
= [x[ 1 <
A
[a
0
[
=
[x[ < 1 +
A
[a
0
[
con [x[ > 1
Es evidente que esta cota tambien la verican las races x con [x[ < 1.
Un problema mal condicionado: ceros de un polinomio 37
Proposicion 1.8 [Regla de Laguerre]
Consideremos la ecuacion
P(x) = a
0
x
n
+a
1
x
n1
+ +a
n1
x +a
n
= 0
Sean C(x) = b
0
x
n1
+ +b
n2
x +b
n1
el cociente y r el resto de la division
de P(x) entre x c.
Si r 0 y b
i
0 para 0 i n 1, el n umero real c es una cota superior
para las races positivas de la ecuacion. (Trivialmente lo es tambien para las
races negativas).
El procedimiento consiste en comenzar con la cota obtenida anteriormente
(que no suelen ser muy buena) e ir disminuyendola hasta anarla todo lo que
podamos.
Ejemplo 1.8 Consideremos la ecuacion 2x
4
9x
3
x
2
+ 24x + 12 = 0.
Sabemos que
[x[ < 1 +
A
[a
0
[
siendo A = max
i1
[a
i
[ = [x[ < 1 +
24
2
= 13
por lo que cualquier raz real del polinomio debe estar en el intervalo (13, 13).
Aplicando la regla de Laguerre obtenemos:
2 9 1 24 12
4 8 4 20 16
2 1 5 4 28
2 9 1 24 12
5 10 5 20 240
2 1 4 48 252
Dado que para x = 4 se obtienen valores negativos no podemos garantizar que
4 sea una cota superior para las races positivas de la ecuacion, pero para x = 5
todos los valores obtenidos han sido positivos, por lo que podemos garantizar
que las races reales de la ecuacion se encuentran en el intervalo (13, 5).
No debemos confundir el hecho de que la regla de Laguerre no nos garantice
que 4 sea una cota superior de las races positivas y 5 s lo sea, con que la
38 Ecuaciones no lineales
ecuacion deba tener alguna raz en el intervalo (4, 5). En otras palabras, 4
puede ser una cota superior para las races positivas de la ecuacion aunque la
regla de Laguerre no lo garantice. De hecho, la mayor de las races positivas
de nuestra ecuacion es x = 3.56155281280883 . . . < 4.
Separaci on de las races
Las cotas obtenidas anteriormente nos delimitan la zona en la que debemos
estudiar la existencia de soluciones de la ecuacion pero, en realidad, lo que mas
nos acerca a nuestro problema (resolver la ecuacion) es separar cada raz en un
intervalo. A este proceso se le conoce como separacion de races y estudiaremos
un metodo que se conoce como metodo de Sturm que nos permite separar las
races de una ecuacion.
1.5.1 Sucesiones de Sturm
Denicion 1.7 [Sucesi on de Sturm]
Una sucesion de Sturm en [a, b] es un conjunto de funciones continuas en dicho
intervalo f
0
(x), f
1
(x), . . . , f
n
(x) que cumplen las siguientes condiciones:
f
n
(x) ,= 0 cualquiera que sea x [a, b]. Es decir, el signo de f
n
(x)
permanece constante en el intervalo [a, b].
Las funciones f
i
(x) y f
i+1
(x) no se anulan simultaneamente. En otras
palabras, si f
i
(c) = 0 entonces f
i1
(c) ,= 0 y f
i+1
(c) ,= 0.
Si f
i
(c) = 0 entonces f
i1
(c) y f
i+1
(c) tienen signos opuestos, es decir,
f
i1
(c) f
i+1
(c) < 0. (Engloba al apartado anterior).
Si f
0
(c) = 0 con c [a, b] entonces
f
0
(x)
f
1
(x)
pasa de negativa a positiva
en c. (Esta bien denida en c por ser f
1
(c) ,= 0 y es creciente en dicho
punto).
Construcci on de una sucesi on de Sturm para un polinomio
La construccion de una sucesion de Sturm es, en general, complicada. Sin
embargo, cuando se trabaja con funciones polinomicas, el problema es mucho
mas simple ademas de que siempre es posible construir una sucesion de Sturm
valida para cualquier intervalo.
Un problema mal condicionado: ceros de un polinomio 39
Dada la ecuacion algebraica P
n
(x) = 0, partimos de
f
0
(x) = P
n
(x) y f
1
(x) = P

n
(x)
Para determinar las demas funciones de la sucesion vamos dividiendo f
i1
(x)
entre f
i
(x) para obtener
f
i1
(x) = c
i
(x) f
i
(c) +r
i
(x)
donde r
i
(x) tiene grado inferior al de f
i
(x) y hacemos
f
i+1
(x) = r
i
(x)
Como el grado de f
i
(x) va decreciendo, el proceso es nito. Si se llega a un
resto nulo (el proceso que estamos realizando es precisamente el del algoritmo
de Euclides) la ecuacion posee races m ultiples y se obtiene el maximo com un
divisor D(x) de P
n
(x) y P

n
(x). Dividiendo P
n
(x) entre D(x) obtenemos una
nueva ecuacion que solo posee races simples.
La sucesion
f
i
(x)
D(x)
es una sucesion de Sturm para la ecuacion
P(x)
D(x)
= Q(x) = 0
que posee las mismas races que P(x) = 0 pero todas simples.
Si llegamos a un resto constante, no nulo, es este quien nos determina la
nalizacion del proceso. Hemos obtenido, de esta manera, una sucesion de
Sturm valida para cualquier intervalo [a, b].
Teorema 1.9 [Teorema de Sturm]
Sea f
0
(x), f
1
(x), . . . , f
n
(x) una sucesion de Sturm en el intervalo [a, b] y
consideremos las sucesiones
sig[f
0
(a)] sig[f
1
(a)] sig[f
n
(a)]
sig[f
0
(b)] sig[f
1
(b)] sig[f
n
(b)]
teniendo en cuenta que si alguna de las funciones se anula en uno de los
extremos del intervalo [a, b] pondremos en su lugar, indistintamente, signo +
o - y denotemos por N
1
al n umero de cambios de signo de la primera sucesion
y por N
2
al de la segunda (siempre es N
1
N
2
).
En estas condiciones, el n umero de races reales existentes en el intervalo [a, b]
de la ecuacion f
0
(x) = 0 viene dado por N
1
N
2
.
40 Ecuaciones no lineales
Ejemplo 1.9 Vamos a construir una sucesion de Sturm que nos permita se-
parar las races de la ecuacion x
4
+ 2x
3
3x
2
4x 1 = 0.
f
0
(x) = x
4
+ 2x
3
3x
2
4x 1. f

0
(x) = 4x
3
+ 6x
2
6x 4.
f
1
(x) = 2x
3
+ 3x
2
3x 2.
2x
4
+ 4x
3
6x
2
8x 2 [2x
3
+ 3x
2
3x 2
2x
4
3x
3
+ 3x
2
+ 2x x | 1
x
3
3x
2
6x 2 multiplicando por 2
2x
3
6x
2
12x 4
2x
3
3x
2
+ 3x + 2
9x
2
9x 2
f
2
(x) = 9x
2
+ 9x + 2.
18x
3
+ 27x
2
27x 18 [9x
2
+ 9x + 2
18x
3
18x
2
4x 2x + 1
9x
2
31x 18
9x
2
9x 2
40x 20
f
3
(x) = 2x + 1.
18x
2
+ 18x + 4 [2x + 1
18x
2
9x 9x | 9
9x + 4 multiplicando por 2
18x + 8
18x 9
1
f
4
(x) = 1.
3 2 1 0 1 2 +
f
0
(x) = x
4
+ 2x
3
3x
2
4x 1 + + + +
f
1
(x) = 2x
3
+ 3x
2
3x 2 0 + 0 + +
f
2
(x) = 9x
2
+ 9x + 2 + + + + + + + +
f
3
(x) = 2x + 1 + + + +
f
4
(x) = 1 + + + + + + + +
cambios de signo 4 4 3 3 1 1 0 0
Un problema mal condicionado: ceros de un polinomio 41
Sabemos, por ello, que existe una raz en el intervalo (3, 2), dos races en
el intervalo (1, 0) y una cuarta raz en el intervalo (1, 2).
Como f
0
(1) = 1 < 0, f
0
(0.5) = 0.0625 > 0 y f
0
(0) = 1 < 0 podemos
separar las races existentes en el intervalo (1, 0) y decir que las cuatro races
de la ecuacion dada se encuentran en los intervalos
(3 2) (1, 0.5) (0.5, 0) y (1, 2)

Si, una vez eliminadas las races m ultiples y separadas las races, queremos
resolver la ecuacion, utilizaremos el metodo de Newton.
Al aplicarlo nos encontramos con que tenemos que calcular, en cada paso, los
valores de P(x
n
) y P

(x
n
) por lo que vamos a ver, a continuacion, un algo-
ritmo denominado algoritmo de Horner que permite realizar dichos calculos
en tiempo lineal.
1.5.2 Algoritmo de Horner
Supongamos un polinomio P(x) y un n umero real (en general tambien puede
ser complejo) x
0
R. Si dividimos P(x) entre x x
0
sabemos que el resto es
un polinomio de grado cero, es decir, un n umero real, por lo que
P(x) = (x x
0
)Q(x) +r con
_

_
r R
y
gr[Q(x)] = gr[P(x)] 1
Haciendo x = x
0
obtenemos que
P(x
0
) = 0 Q(x
0
) +r = P(x
0
) = r
Este resultado es conocido como teorema del resto y lo enunciamos a conti-
nuacion.
Teorema 1.10 [Teorema del resto]
El valor numerico de un polinomio P(x) para x = x
0
viene dado por el resto
de la division de P(x) entre x x
0
.
42 Ecuaciones no lineales
Algoritmo de Horner
Consideremos el polinomio P(x) = a
0
x
n
+a
1
x
n1
+ +a
n1
x +a
n
.
Si llamamos b
i
(0 i n 1) a los coecientes del polinomio cociente
P(x) P(x
0
)
x x
0
= Q(x) = b
0
x
n1
+b
1
x
n2
+ +b
n2
x +b
n1
se tiene que
b
0
= a
0
b
1
= a
1
+x
0
b
0
b
2
= a
2
+x
0
b
1
.
.
.
b
n1
= a
n1
+x
0
b
n2
r = P(x
0
) = a
n
+x
0
b
n1
Este procedimiento para calcular el polinomio cociente Q(x) y el valor nume-
rico de P(x
0
) es conocido como algoritmo de Horner.
Ademas, dado que
P(x) = Q(x)(x x
0
) +P(x
0
) = P

(x) = Q

(x)(x x
0
) +Q(x)
se tiene que
P

(x
0
) = Q(x
0
)
y el calculo de Q(x
0
) es analogo al que hemos realizado para P(x
0
), es decir,
aplicando el algoritmo de Horner a Q(x) obtenemos
Q(x) = C(x)(x x
0
) +Q(x
0
) donde Q(x
0
) = P

(x
0
).
Regla de Ruffini
Una regla util para hacer los calculos a mano es la conocida regla de Runi
que consiste en disponer las operaciones como se indica a continuacion.
a
0
a
1
a
2
a
n1
a
n
x
0
x
0
b
0
x
0
b
1
x
0
b
n2
x
0
b
n1
b
0
b
1
b
2
b
n1
P(x
0
)
Ejercicios resueltos 43
Si utilizamos la regla de Runi solo tenemos que volver a dividir por x
0
, como
se muestra a continuacion, para obtener el valor de P

(x
0
).
a
0
a
1
a
2
a
n2
a
n1
a
n
x
0
x
0
b
0
x
0
b
1
x
0
b
n3
x
0
b
n2
x
0
b
n1
b
0
b
1
b
2
b
n2
b
n1
P(x
0
)
x
0
x
0
c
0
x
0
c
1
x
0
c
n3
x
0
c
n2
c
0
c
1
c
2
c
n2
P

(x
0
)
Ejemplo 1.10 Consideremos el polinomio P(x) = 2x
4
+ x
3
3x
2
+ 4x 5
y vamos a calcular los valores de P(2) y P(2). Aplicando reiteradamente al
regla de Runi obtenemos
2 1 3 4 5
2 4 10 14 36
2 5 7 18 31
2 4 18 50
2 9 25 68
por lo que
P(2) = 31 y P

(2) = 68

Evidentemente, la regla de Runi nos es util para realizar calculos a mano
con una cierta facilidad, pero cuando los coecientes de P(x) y el valor de x
0
no son enteros sino que estamos trabajando con varias cifras decimales, deja
de ser efectivo y debemos recurrir al algoritmo de Horner en una maquina.
1.6 Ejercicios resueltos
Ejercicio 1.1 Dada la ecuacion xe
x
1 = 0, se pide:
a) Estudiar gracamente sus races reales y acotarlas.
b) Aplicar el metodo de la biseccion y acotar el error despues de ocho ite-
raciones.
44 Ecuaciones no lineales
c) Aplicar el metodo de Newton, hasta obtener tres cifras decimales exactas.
Soluci on:
a) La ecuacion puede escribirse de la
forma:
e
x
=
1
x
Gracamente, se observa que existe
una unica solucion real (intersec-
cion de las dos curvas) y que esta es
positiva. La demostracion analtica
de este hecho es la siguiente:
Para x < 0:
1
x
< 0 y e
x
> 0 = e
x
,=
1
x
y por tanto, no existen races negativas.
Para x > 0:
f(x) = xe
x
1 =
_
f(0) = 1 < 0
f(+) = +> 0
y existe, por tanto, un n umero impar de races positivas (al menos una).
La funcion derivada f

(x) = xe
x
+ e
x
= (x + 1)e
x
solo se anula para
x = 1. Dado que, si existiese mas de una raz positiva, el teorema de
Rolle nos asegura que la funcion derivada debe anularse en alg un punto
intermedio y hemos visto que f

(x) no se anula para ning un valor positivo


de la variable, podemos asegurar que solo existe una raz real , que esta
es positiva y simple, pues f

() ,= 0.
Dado que f(1) = e 1 > 0 y f(0) = 1 < 0, podemos asegurar que la
unica raz real de la ecuacion se encuentra en el intervalo (0, 1).
b) M etodo de la bisecci on:
[a
1
, b
1
] = [a, b] = [0, 1] con
_
f(0) = 1 < 0
f(1) = e 1 > 0
Ejercicios resueltos 45
f(0.5) < 0 = [a
2
, b
2
] = [0.5, 1]
f(0.75) > 0 = [a
3
, b
3
] = [0.5, 0.75]
f(0.625) > 0 = [a
4
, b
4
] = [0.5, 0.625]
f(0.5625) < 0 = [a
5
, b
5
] = [0.5625, 0.625]
f(0.59375) > 0 = [a
6
, b
6
] = [0.5625, 0.59375]
f(0.578125) > 0 = [a
7
, b
7
] = [0.5625, 0.578125]
f(0.5703125) > 0 = [a
8
, b
8
] = [0.5625, 0.5703125]
Tomando como aproximacion a la raz el punto medio del intervalo
x
8
= 0.56640625 =
8

1
2
8
= 0.00390625 =
8
< 10
2
Si redondeamos a las dos primeras cifras decimales, es decir, si tomamos
= 0.57, el error acumulado verica que
< [0.57 0.56640625[ + 0.00390625 = 0.0075 < 10
2
por lo que puede asegurarse que la solucion de la ecuacion es 0.57 con
las dos cifras decimales exactas.
c) M etodo de Newton:
La formula de Newton-Raphson es x
n+1
= x
n

f(x
n
)
f

(x
n
)
Dado que, por el apartado anterior, se conoce que la raz se encuentra
en el intervalo [0.5625, 0.5703125] y que
f(x) = xe
x
1 =
_
_
_
f(0.5625) < 0
f(0.5703125) > 0
f

(x) = (x + 1)e
x
= f

(x) > 0 x [0.5625, 0.5703125]


f

(x) = (x + 2)e
x
= f

(x) > 0 x [0.5625, 0.5703125]


la regla de Fourier nos dice que x
0
= 0.5703125
Al ser positiva la segunda derivada, la primera es creciente, por lo que
mn
x[0.5625,0.5703125]
[f

(x)[ = f

(0.5703125) = 2.74227290150047 . . .
es decir

n

[f(x
n
)[
mn
x[0.5625,0.5703125]
[f

(x)[
<
[f(x
n
)[
2.74
46 Ecuaciones no lineales
obteniendose que
x
0
= 0.5703125 con
0
<
[f(x
0
)[
2.74
= 0.00320437856505 . . .
x
1
= 0.56715149835900 . . . con
1
<
[f(x
1
)[
2.74
= 0.00000827757122 . . .
Si redondeamos a 0.567 el error acumulado es
< 0.00015149835900 . . . + 0.00000827757122 . . . < 10
3
Por lo que la solucion de la ecuacion es 0.567 con sus tres cifras decimales
exactas.
Ejercicio 1.2 Probar que la ecuacion x
2
+ ln x = 0 solo tiene una raz real y
hallarla, por el metodo de Newton, con 6 cifras decimales exactas.
Soluci on: Si representamos las gracas de las funciones y = ln x e y = x
2
obtenemos
Puede observarse que solo existe un punto de corte entre ellas, por lo que la
ecuacion x
2
+ ln x = 0 solo posee una raz real.
Analticamente hay que probar que las gracas no vuelven a cortarse en ning un
otro punto, sin embargo, dado que en su dominio de denicion, que es (0, +),
ln x es creciente y x
2
decreciente, no pueden volver a cortarse.
Partiendo de x
0
= 0.1 y aplicando el metodo de Newton, en el intervalo (0.1, 1)
(no tomamos (0, 1) por no estar denido el logaritmo en 0), dado por la formula
x
n+1
= x
n

f(x
n
)
f

(x
n
)
= x
n

x
2
n
+ ln x
n
2x
n
+
1
xn
=
x
3
n
+x
n
x
n
ln x
n
2x
2
n
+ 1
Ejercicios resueltos 47
con un error, a posteriori, dado por
n

[f(x
n
)[
mn
x(0,1)
[f

(x)[
=
[f(x
n
)[
2
, obtenemos:
x
1
= 0.32476324441118 . . . con
1
0.509593 . . .
x
2
= 0.59809970985991 . . . con
2
0.078137 . . .
x
3
= 0.65258567248750 . . . con
3
4.7239 . . . 10
4
x
4
= 0.65291863363348 . . . con
4
9.6269 . . . 10
9
Por lo que la raz buscada es 0.652919 con un error
0.00000036636642 . . . + 9.6269 . . . 10
9
< 10
6
es decir, con las seis cifras decimales exactas.
Ejercicio 1.3 Eliminar las races m ultiples en la ecuacion
x
6
2x
5
+ 3x
4
4x
3
+ 3x
2
2x + 1 = 0
Resolver, exactamente, la ecuacion resultante y comprobar la multiplicidad de
cada raz en la ecuaci on original.
Soluci on: Aplicamos el Algoritmo de Euclides para calcular el maximo co-
m un divisor entre el polinomio P(x) = f
0
(x) = x
6
2x
5
+3x
4
4x
3
+3x
2
2x+1
y su derivada f
1
(x) = 6x
5
10x
4
+ 12x
3
12x
2
+ 6x 2. Para ello podemos
multiplicar, previamente, f
0
(x) por 3 y dividir f
1
(x) entre 2.
3x
6
6x
5
+ 9x
4
12x
3
+ 9x
2
6x + 3 [3x
5
5x
4
+ 6x
3
6x
2
+ 3x 1
3x
6
+ 5x
5
6x
4
+ 6x
3
3x
2
+ x x| 1
x
5
+ 3x
4
6x
3
+ 6x
2
5x + 3 multiplicando por 3
3x
5
+ 9x
4
18x
3
+ 18x
2
15x + 9
3x
5
5x
4
+ 6x
3
6x
2
+ 3x 1
4x
4
12x
3
+ 12x
2
12x + 8
Por lo que (dividiendo el resto entre 4) f
2
(x) = x
4
3x
3
+ 3x
2
3x + 2.
Dividimos ahora f
1
(x) (dividido, previamente entre 2) entre f
2
(x).
3x
5
5x
4
+ 6x
3
6x
2
+ 3x 1 [x
4
3x
3
+ 3x
2
3x + 2
3x
5
+ 9x
4
9x
3
+ 9x
2
6x 3x + 4
4x
4
3x
3
+ 3x
2
3x 1
4x
4
+ 12x
3
12x
2
+ 12x 8
9x
3
9x
2
+ 9x 9 = f
3
(x) = x
3
x
2
+x 1
48 Ecuaciones no lineales
Dividiendo, ahora, f
2
(x) entre f
3
(x) se obtiene:
x
4
3x
3
+ 3x
2
3x + 2 [x
3
x
2
+x 1
x
4
+ x
3
x
2
+ x x 2
2x
3
+ 2x
2
2x + 2
2x
3
2x
2
+ 2x 2
0
El maximo com un divisor entre P(x) y su derivada es
D(x) = x
3
x
2
+x 1
El polinomio cuyas races son las mismas que las de P(x), pero simples, es
Q(x) =
P(x)
D(x)
=
x
6
2x
5
+ 3x
4
4x
3
+ 3x
2
2x + 1
x
3
x
2
+x 1
= x
3
x
2
+x 1
Como Q(x) = x
3
x
2
+ x 1 = (x 1)(x
2
+ 1) = (x 1)(x + i)(x i) sus
races son 1, i y i.
Veamos la multiplicidad de ellas en P(x).
Dado que P

(x) = 2(3x
5
5x
4
+ 6x
3
6x
2
+ 3x 1) se tiene:
_

_
P

(1) = 2 (3 5 + 6 6 + 3 1) = 0
P

(i) = 2 (3i 5 + 6i + 6 3i 1) = 0
P

(i) = 2 (3i 5 6i + 6 + 3i 1) = 0
Luego las tres races son dobles (no pueden tener mayor multiplicidad ya que
el grado de P(x) es 6, es decir, 2+2+2).
Ejercicio 1.4 Dado el polinomio P(x) = x
3
+ 3x
2
+ 2 se pide:
a) Acotar sus races reales.
b) Probar, mediante una sucesion de Sturm, que P(x) solo posee una raz
real y determinar un intervalo de amplitud 1 que la contenga.
c) Se verican, en dicho intervalo, las hipotesis del teorema de Fourier?
En caso armativo, determinar el extremo que debe tomarse como valor
inicial x
0
para garantizar la convergencia del metodo de Newton.
d) Sabiendo que en un determinado momento del proceso de Newton se ha
obtenido x
n
= 3.1958, calcular el valor de x
n+1
as como una cota del
error en dicha iteracion.
Ejercicios resueltos 49
Soluci on:
a)
[x[ < 1 +
3
1
= 4 = 4 < x < 4
b) f
0
(x) = P(x) = x
3
+ 3x
2
+ 2.
P

(x) = 3x
2
+ 6x = f
1
(x) = x
2
+ 2x
x
3
+ 3x
2
+ 2 = (x
2
+ 2x)(x + 1) + (2x + 2) = f
2
(x) = x 1
x
2
+ 2x = (x 1)(x + 3) + 3 = f
3
(x) = 1
4 3 4
x
3
+ 3x
2
+ 2 + +
x
2
+ 2x + + +
x 1 +
1
Cambios de signo 2 1 1
por lo que solo posee una raz real, la cual se encuentra en el intervalo
(4, 3).
c) f(x) = x
3
+ 3x
2
+ 2 =
_
_
_
f(4) = 14 < 0
f(3) = 2 > 0
es decir, la funcion
cambia de signo en los extremos del intervalo (4, 3).
f

(x) = 3(x
2
+ 2x) > 0 x (4, 3)
f

(x) = 6(x + 1) < 0 x (4, 3)


por lo que se verican las hipotesis del teorema de Fourier y, por tanto,
tomando como valor inicial x
0
= 4 (extremo en el que la funcion tiene
el mismo signo que la segunda derivada) se tiene garantizada la conver-
gencia del metodo de Newton.
d) Dado que x
n+1
= x
n

f(x
n
)
f

(x
n
)
= x
n

x
3
n
+ 3x
2
n
+ 2
3x
2
n
+ 6x
n
se obtiene que
x
n+1
= 3.19582334575880.
El error a posteriori viene dado

n+1

[f(x
n+1
)[
mn
x(4,3)
[f

(x)[
=
[f(x
n+1
)[
f

(3)
=
[f(x
n+1
)[
9
< 3.98910
10
<10
9
.
50 Ecuaciones no lineales
Ejercicio 1.5 Aplicar el metodo de Sturm para separar las races de la ecua-
cion
2x
6
6x
5
+x
4
+ 8x
3
x
2
4x 1 = 0
y obtener la mayor de ellas con seis cifras decimales exactas por el metodo de
Newton.
Soluci on: Comencemos por construir la sucesion de Sturm.
f
0
(x) = P(x) = 2x
6
6x
5
+x
4
+ 8x
3
x
2
4x 1
P

(x) = 12x
5
30x
4
+ 4x
3
+ 24x
2
2x 4, por lo que
f
1
(x) = 6x
5
15x
4
+ 2x
3
+ 12x
2
x 2
Multiplicando f
0
(x) por tres y dividiendo el resultado entre f
1
(x) obtenemos:
6x
6
18x
5
+ 3x
4
+ 24x
3
3x
2
2x 3 [6x
5
15x
4
+ 2x
3
+ 12x
2
x 2
6x
6
+ 15x
5
2x
4
2x
3
+ x
2
+ 2x x| 1
3x
5
+ x
4
+ 12x
3
2x
2
10x 3 multiplicando por 2
6x
5
+ 2x
4
+ 24x
3
4x
2
20x 6
6x
5
15x
4
+ 2x
3
+ 12x
2
x 2
13x
4
+ 26x
3
+ 8x
2
21x 8
f
2
(x) = 13x
4
26x
3
8x
2
+ 21x + 8
Multiplicando f
1
(x) por trece y dividiendo el resultado entre f
2
(x) obtenemos:
78x
5
195x
4
+ 26x
3
+ 156x
2
13x 26 [13x
4
26x
3
8x
2
+ 21x + 8
78x
5
+ 156x
4
+ 48x
3
126x
2
48x 6x 3
39x
4
+ 74x
3
+ 30x
2
61x 26
39x
4
78x
3
24x
2
+ 63x + 24
4x
3
+ 6x
2
+ 2x 2
f
3
(x) = 2x
3
3x
2
x 1
Multiplicando f
2
(x) por dos y dividiendo el resultado entre f
3
(x) obtenemos:
26x
4
52x
3
16x
2
+ 42x + 16 [2x
3
3x
2
x + 1
26x
4
+ 39x
3
+ 13x
2
13x 13x | 13
13x
3
3x
2
+ 29x + 16 multiplicando por 2
26x
3
6x
2
+ 58x + 32
26x
3
39x
2
13x + 13
45x
2
+ 45x + 45
Ejercicios resueltos 51
f
4
(x) = x
2
x 1
Dividimos ahora f
3
(x) entre f
4
(x), obteniendo:
2x
3
3x
2
x + 1 [x
2
x 1
2x
3
+ 2x
2
+ 2x 2x 1
x
2
+ x + 1
x
2
x 1
0
Al haber llegado a un resto nulo sabemos que la ecuacion original tiene races
m ultiples.
El maximo com un divisor entre P(x) y su derivada es f
4
(x) = x
2
x 1,
por lo que el polinomio cuyas races son las mismas que las de P(x) solo que
simples es
Q(x) =
P(x)
x
2
x 1
= 2x
4
4x
3
x
2
+ 3x + 1
Debemos, ahora, de construir una sucesion se Sturm para Q(x).
g
0
(x) = Q(x) = 2x
4
4x
3
x
2
+ 3x + 1
g
1
(x) = f
1
(x)/(x
2
x 1) = 6x
3
9x
2
x + 2
g
2
(x) = f
2
(x)/(x
2
x 1) = 13x
2
13x 8
g
3
(x) = f
3
(x)/(x
2
x 1) = 2x 1
g
4
(x) = f
4
(x)/(x
2
x 1) = 1
Dado que [x[ < 1 +
A
[a
0
[
, donde A = 4 y [a
0
[ = 2, se tiene que [x[ < 3, o lo que
es lo mismo, 3 < x < 3.
3 1 0.5 0 1 1.5 2 3
2x
4
4x
3
x
2
+ 3x + 1 + + + + + +
6x
3
9x
2
x + 2 + + + +
g
2
(x) = 13x
2
13x 8 + + + + + +
2x 1 + + + +
1 + + + + + + + +
Cambios de signo 4 4 3 2 2 1 0 0
Existen, por tanto, cuatro races reales situadas en los intervalos:
[1, 0.5] [0.5, 0] [1, 1.5] [1.5, 2]
52 Ecuaciones no lineales
La mayor de las races se encuentra en el intervalo [1.5, 2], pero dado que
Q

(1.5) = 0 podemos tomar el intervalo [1.6, 2] en el cual:


Q(x) = 2x
4
4x
3
x
2
+ 3x + 1
_
Q(1.6) < 0
Q(2) > 0
Q

(x) = 8x
3
12x
2
2x + 3 > 0 x [1.6, 2]
Q

(x) = 24x
2
24x 2 > 0 x [1.6, 2]
La regla de Fourier no dice que debemos comenzar a iterar en x
0
= 2.
Teniendo en cuenta que x
n+1
= x
n

Q(x)
Q

(x)
se obtiene la sucesion:
x
0
= 2
x
1
= 1.8
x
2
= 1.684726867
x
3
= 1.632243690
x
4
= 1.618923782 =
4
0.01841
x
5
= 1.618037855 =
5
0.0011
x
6
= 1.618033989 =
6
0.0000047
x
7
= 1.618033989 =
7
0.885 10
10
Es decir, la mayor de las soluciones, redondeando a seis cifras decimales es
1.618034 con un error acumulado
0.000000011 + 0.000000000885 < 10
6
por lo que sus seis cifras decimales son exactas.
Ejercicio 1.6 En este ejercicio se pretende calcular
10

1 por el metodo de
Newton. Consideramos, para ello, la funcion f(x) = x
10
1 cuya graca se da
en la Figura 1.
Fig. 1 Fig. 2
Ejercicios resueltos 53
a) Probar, analticamente, que en el intervalo [0.5, 1.5] posee una unica raz
real.
b) Si tomamos x
0
= 0.5 obtenemos la raz x = 1 en la iteracion n umero 43,
mientras que si tomamos x
0
= 1.5 se consigue el mismo resultado en la
iteracion n umero 9. Como podramos haber conocido a priori el valor
que se debe elegir para x
0
?
c) Sabras justicar el porque de la extremada lentitud de la convergencia
cuando iniciamos el proceso en x
0
= 0.5? y por que sigue siendo lento
el proceso si comenzamos en x
0
= 1.5? Justica las respuestas.
d) Dado que en el intervalo [0.5, 1.5] no se anula la funcion x
5
, las races de
f(x) son las mismas que las de g(x) = f(x)/x
5
= x
5
x
5
cuya graca
se da en la Figura 2. Se puede aplicar a g(x) la regla de Fourier en
dicho intervalo?
e) Si resolvemos, por el metodo de Newton, la ecuacion g(x) = 0, se
obtendra la raz con mayor rapidez que cuando lo hicimos con f(x) = 0?
Justica la respuesta sin calcular las iteraciones.
Soluci on:
a) Dado que la funcion f(x) es continua y derivable en R vericandose que
_
_
_
f(0.5) = 0.5
10
1 < 0
f(1.5) = 1.5
10
1 > 0
por lo que admite un n umero impar de races en el intervalo [0.5,1.5].
Como f

(x) = 10x
9
no se anula en [0.5,1.5], solo puede existir una raz
real en dicho intervalo.
b) Dado que f

(x) = 10x
9
y f

(x) = 90x
8
son positivas (tienen signo cons-
tante) en todo el intervalo, debe tomarse como valor inicial el extremo
en que f(x) tiene el mismo signo que la segunda derivada (Regla de
Fourier), es decir x
0
= 1.5.
c) Basta observar que la recta tangente a la curva y = f(x) en el punto
de abscisa x = 0.5 es casi horizontal, por lo que en la primera iteracion
nos distanciamos de la raz de forma considerable. Ademas, en las pro-
ximidades del 1, la curva es muy vertical, por lo que las tangentes son
tambien muy verticales y las iteraciones se aproximan muy lentamente
a x = 1. Por tanto, si partimos de x = 0.5 nos distanciamos mucho
y nos acercamos muy lentamente, pero si partimos de 1.5 tambien nos
acercamos muy lentamente.
54 Ecuaciones no lineales
d) g

(x) = 5x
4
+ 5x
6
y g

(x) = 20x
3
30x
7
con
_
_
_
g

(0.5) < 0
g

(1.5) > 0
por lo que no puede aplicarse la regla de Fourier en dicho intervalo. (Si
reducimos el intervalo a [0.5, 1.01] si podemos aplicarla, obteniendo que
debemos tomar x
0
= 0.5).
e) El proceso convergera mas rapidamente debido a que hemos eliminado
las tangencias casi horizontales y las casi verticales.
1.7 Ejercicios propuestos
Ejercicio 1.7 Dada la ecuacion 8x
3
4x
2
18x+9 = 0, acotar y separar sus
races reales.
Sol : [x[ 3.25, x
1
(2, 1), x
2
(0, 1) y x
3
(1, 2).
Ejercicio 1.8 Se considera el polinomio P(x) = x
3
6x
2
3x + 7.
a) Probar, mediante una sucesion de Sturm, que posee una unica raz en el
intervalo (6, 7).
b) Si expresamos la ecuacion P(x) = 0 de la forma
x = F(x) =
1
3
(x
3
6x
2
+ 7),
podemos asegurar su convergencia?
Sol : No. F

(x) > 1 en todo el intervalo, por lo que no es contractiva.


c) Probar, aplicando el criterio de Fourier, que tomando como valor inicial
x
0
= 7, el metodo de Newton es convergente.
d) Aplicando Newton con x
0
= 7 se ha obtenido, en la segunda iteracion,
x
2
= 6.3039. Que error se comete al aproximar la raz buscada por el
valor x
3
que se obtiene en la siguiente iteracion?
Sol :
3
6.62 . . . 10
6
< 10
5
.
Ejercicio 1.9 Dada la ecuacion x
7
14x + 7 = 0 se pide:
a) Probar que solo tiene una raz real negativa.
Ejercicios propuestos 55
b) Encontrar un entero a de tal forma que el intervalo [a, a +1] contenga a
la menor de las races positivas de la ecuacion.
Sol : a = 0.
c) Cual de los extremos del intervalo [a, a + 1] debe tomarse como valor
inicial para asegurar la convergencia del metodo de Newton?
Sol : x
0
= a = 0.
d) Aplicar el metodo de Newton para obtener la menor de las races positivas
de la ecuacion con seis cifras decimales exactas.
Sol : x = 0.500562.
Ejercicio 1.10 Dado el polinomio P(x) = x
4
+ 4x
3
2x
2
+ 4x 3 se pide:
a) Acotar las races y construir una sucesion de Sturm para probar que solo
posee dos races reales, una positiva y otra negativa, dando intervalos de
amplitud 1 que las contengan.
Sol : x
1
(5, 4) y x
2
(0, 1).
b) Partiendo de que la raz positiva se encuentra en el intervalo (0, 1) y
despejando la x del termino lineal
x =
1
4
x
4
x
3
+
1
2
x
2
+
3
4
x = (x)
se puede asegurar la convergencia de la sucesion x
1
, x
2
, . . . , x
n
, . . . de-
nida de la forma x
1
= 0, x
n+1
= (x
n
) ?
Sol : No. La funcion (x) no es contractiva en [0, 1].
c) Aplicar Fourier para determinar el valor inicial que debe tomarse para
garantizar la convergencia del metodo de Newton en el calculo de la raz
negativa. Tenemos las tres cifras exactas si tomamos como raz -4.646 ?
Sol : x
0
= 5. Las tres cifras son exactas.
Ejercicio 1.11 Dado el polinomio P(x) = x
3
+ 6x
2
+ 9x + k con k R se
pide:
a) Puede carecer de races reales? y tener dos y solo dos races reales?
Sol : No puede carecer de races reales. S si una de ellas es doble.
56 Ecuaciones no lineales
b) Utilizar el metodo de Sturm para probar que tiene una unica raz real
si, y solo si, k < 0 o k > 4, y que solo tiene races m ultiples si k = 0 o
k = 4 no existiendo, en ning un caso, una raz triple.
c) Para k = 4 admite una unica raz real en el intervalo [0, 1]. Si tomamos
como valor aproximado de la raz x = 0.3553 de cuantas cifras decimales
exactas disponemos?
Sol : x = 0.35530 con las 5 cifras decimales exactas.
d) Si, en el caso anterior en que k = 4, aplicamos el metodo de Newton
para hallar la raz del polinomio, cual de los extremos del intervalo [0, 1]
deberamos tomar como valor inicial x
0
para garantizar la convergencia?
y que valor obtendramos para x
2
?
Sol : x
0
= 1, x
2
= 0.365079 . . ..
Ejercicio 1.12 Dados los polinomios
P(x) = 2x
3
2x
2
2x + 3
Q(x) = x
3
3x
2
3x + 2
a) Determinar el valor de sabiendo que se trata de un entero par y que
los valores de dichos polinomios solo coinciden, para valores positivos de
x, en un punto del intervalo (1, 2).
Sol : = 2 (estudiar el polinomio diferencia D(x) = P(x) Q(x)).
b) Probar (mediante una sucesion de Sturm) que, para = 2, el polinomio
P(x) solo tiene una raz real, que esta es positiva, y dar un intervalo de
amplitud 1 que la contenga.
Sol : x [1, 2].
c) Verica el polinomio P(x) las condiciones de Fourier para la convergen-
cia del metodo de Newton en el intervalo (1.2, 1.3)?
Sol : S, x
0
= 1.3.
d) Si tomamos como valor inicial x
0
= 1.3, calcular el valor que se obtiene
para x
1
dando una cota del error.
Sol : x
1
= 1.27606263982103,
1
4.20 10
4
< 10
3
.
Ejercicios propuestos 57
Ejercicio 1.13
Cuando dos races positivas de una ecuacion polinomica estan muy proximas,
suele ser difcil separarlas mediante intervalos cerrados. Para alejarlas se
puede proceder como sigue:
Paso 1: Sea la ecuacion polinomica
P(x) = a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
= a
n
(x
1
) (x
n
) = 0
Paso 2: Cambiar x por x
2
en P(x) = 0
P(x
2
) = a
n
(x
2

1
) (x
2

n
) = 0
Paso 3: Cambiar x por x
2
en P(x) = 0
P(x
2
) = a
n
(x
2

1
) (x
2

n
) = (1)
n
a
n
(x
2
+
1
) (x
2
+
n
)=0
Paso 4: Multiplicar las dos ecuaciones anteriores para obtener la nueva
ecuacion
P(x
2
)P(x
2
) = (1)
n
a
2
n
(x
4

2
1
) (x
4

2
n
)=0
Paso 5: En el polinomio obtenido, cambiar x
4
por una nueva variable t,
obteniendo una ecuacion del tipo (t
2
1
) (t
2
n
) = 0.
Se obtiene as una ecuacion polinomica cuyas races son los cuadrados de las
races de la ecuacion P(x) = 0. La relacion entre las races de la nueva
ecuacion con las de P(x) = 0 es
2
i

2
j
= (
i
+
j
)(
i

j
). As, se observa
que las nuevas races se alejan (o se acercan)
i
+
j
veces mas que las races
de P(x) = 0.
Si este procedimiento se aplica dos veces se obtiene una ecuacion de la forma
(t
4
1
) (t
4
n
) = 0
Sea la ecuacion P(x) = 2x
2
9x+10 = 0, y sea Q(x) = 0 la ecuacion obtenida
al aplicar dos veces el metodo anteriormente descrito. Se pide:
a) Mediante una sucesion de Sturm, demostrar que P(x) = 0 posee dos
races reales.
b) Comprobar que se obtiene el polinomio Q(x) = 16x
2
881x + 10000
c) Separando previamente las races de Q(x) = 0, utilizar una formula de
error a posteriori para calcular la mayor de ellas, con dos cifras decima-
les exactas, aplicando el metodo de Newton. Denotemos por la raz
obtenida tomando solo dos cifras decimales.
Sol : x
1
[10, 20], x
2
[30, 40], = 39.06.
58 Ecuaciones no lineales
d) Para resolver la ecuacion x
4
= 0 por el metodo de Newton y as
calcular la raz de P(x) = 0, hacer lo siguiente:
d.1) Encontrar un intervalo [a, b] que solo contenga a la mayor raz real
de esta ecuacion y en donde se veriquen las hipotesis de la regla
de Fourier.
Sol : [2, 3].
d.2) Cuantas iteraciones son necesarias para obtener 25 cifras decimales
exactas? Indicacion: E
n+1

1
k
(kE
1
)
2
n
, con k =
max [f

(x)[
2 mn[f

(x)[
en un
intervalo adecuado.
Sol : 3 iteraciones (reducir el intervalo inicial al [2, 2.5]).
d.3) Con una calculadora se ha obtenido =
4

= 2.49995999903 como
mejor aproximacion.
Cuantas de las cifras decimales se podran garantizar que coinciden
con las de la verdadera raz de P(x)?
Sol : A lo mas de 2 que son las que tena el valor de .
Ejercicio 1.14
a) Dado el polinomio P(x) = x
3
7x
2
+ 20x 26, utilizar una sucesion de
Sturm para comprobar que P(x) = 0 solo tiene una raz real positiva y
que se encuentra en el intervalo [3, 4].
b) Justicar la convergencia del metodo de Newton para aproximar la raz
real de la ecuacion P(x) = 0 contenida en el intervalo [3, 4]. Realizar
dos iteraciones del metodo y dar una cota del error de la aproximacion
obtenida. Se trata de un problema bien o mal condicionado? Razonar
la respuesta.
Sol : x
2
= 3.35483870967742,
2
0.01413849820416. La derivada de
P(x) oscila de 5 a 12, por lo que esta bien condicionado.
Ejercicio 1.15 Queremos aproximar las races de la ecuacion (5 x)e
x
= 5.
a) Probar, gracamente, que existen dos soluciones, una es x = 0 y la otra
x = se encuentra en el intervalo [1, 5]. Aproximarla realizando dos
pasos del metodo de la Regula falsi.
Sol : x
2
= 4.78799912600669
Ejercicios propuestos 59
b) Es posible aproximar aplicando un metodo de iteracion funcional
sobre la funcion
1
(x) = ln
_
5 +xe
x
5
_
partiendo de cualquier punto del
intervalo I = [1, 5]? Justica tu respuesta.
Sol : No. Solo en [1, ln 5]
c) Y sobre la funcion
2
(x) = 5
5
e
x
partiendo de cualquier punto del
intervalo I = [1, 5]? Justica tu respuesta.
Sol : No. Solo en [ln 5, 5]
d) Y sobre
2
(x) en I = [2, 5]? Justica tu respuesta.
Sol : S.
2. Sistemas de ecuaciones linea-
les
2.1 Normas vectoriales y matriciales
Denicion 2.1 [Concepto de norma]
Sea E un espacio vectorial denido sobre un cuerpo K. Se dene una norma
como una aplicacion, que denotaremos por | |, de E en R que verica las
siguientes propiedades:
|x| 0 x E siendo |x| = 0 x = 0. Denida positiva.
|x| = [[|x| K, x E. Propiedad de homogeneidad.
|x +y| |x| +|y| x, y E. Desigualdad triangular.
Es frecuente que en el espacio E se haya denido tambien el producto de dos
elementos. En este caso, si se verica que
|x y| |x| |y|
se dice que la norma es multiplicativa.
Esta propiedad de las normas es fundamental cuando trabajamos en el con-
junto de las matrices cuadradas de orden n.
Un espacio E en el que hemos denido una norma recibe el nombre de espacio
normado.
61
62 Sistemas de ecuaciones lineales
2.1.1 Normas vectoriales
Sea E un espacio vectorial de dimension n y sea B = u
1
, u
2
, . . . , u
n
una base
suya. Cualquier vector x E puede ser expresado de forma unica en funcion
de los vectores de la base B.
x =
n

i=1
x
i
u
i
donde los escalares (x
1
, x
2
, . . . , x
n
) se conocen como coordenadas del vector x
respecto de la base B.
Utilizando esta notacion, son ejemplos de normas los siguientes:
Norma-1 |x|
1
=
n

i=1
[x
i
[
Norma eucldea o Norma-2 |x|
2
=

_
n

i=1
[x
i
[
2
Norma innito |x|

= max
i
[x
i
[
Ejemplo 2.1 Para los vectores
x = (2, 3, 0, 12)
T
y = (1 +i, i)
T
|x|
1
= 2 + 3 + 0 + 12 = 17 |y|
1
= [1 +i[ +[i[ =

2 + 1
|x|
2
=

2
2
+ 3
2
+ 0
2
+ 12
2
= 13 |y|
2
=
_
[1 +i[
2
+[i[
2
=

3
|x|

= [ 12[ = 12 |y|

= [1 +i[ =

2.1.2 Distancia inducida por una norma


Denicion 2.2 [Distancia]
Dado un espacio vectorial E, se dene una distancia como una aplicacion
d : E E R cumpliendo que:
Normas vectoriales y matriciales 63
d(x, y) 0 x, y E siendo d(x, y) = 0 x = y.
d(x, y) = d(y, x) x, y E.
d(x, y) d(x, z) +d(z, y) x, y, z E.
Teorema 2.1 [Distancia inducida por una norma]
Si
_
E, | |
_
es un espacio normado, la norma | | induce una distancia en E
que se conoce como distancia inducida por la norma | | y viene denida por:
d(x, y) = |x y|
Demostracion. Veamos que, en efecto, se trata de una distancia:
d(x, y) 0 por tratarse de una norma, y ademas:
d(x, y) = 0 |x y| = 0 |x y| = 0 x = y.
d(x, y) = |x y| = | 1(y x)| = [ 1[ |y x| = |y x| = d(y, x).
d(x, y) = |x y| = |x z +z y| |x z| +|z y| =
= d(x, z) +d(z, y).
2.1.3 Convergencia en espacios normados
Una sucesion de vectores v
1
, v
2
, . . . de un espacio vectorial normado (V, | |) se
dice que es convergente a un vector v si
lim
k
|v
k
v| = 0
Esta denicion coincide con la idea intuitiva de que la distancia de los vectores
de la sucesion al vector lmite v tiende a cero a medida que se avanza en la
sucesion.
Teorema 2.2 Para un espacio vectorial normado de dimension nita, el con-
cepto de convergencia es independiente de la norma utilizada.
64 Sistemas de ecuaciones lineales
2.1.4 Normas matriciales
Dada una matriz A y un vector x, consideremos el vector transformado Ax.
La relacion existente entre la norma del vector transformado y la del vector
original va a depender de la matriz A. El mayor de los cocientes entre dichas
normas, para todos los vectores del espacio, es lo que vamos a denir como
norma de la matriz A, de tal forma que de la propia denicion se deduce que
|Ax| |A| |x|
cualquiera que sea el vector x del espacio. (Observese que no es lo mismo que
la propiedad multiplicativa de una norma, ya que aqu se estan utilizando dos
normas diferentes, una de matriz y otra de vector).
Denicion 2.3 [Norma de una matriz]
Se dene
|A| = max
xV {0}
|Ax|
|x|
= max|Ax| : |x| = 1
de tal forma que a cada norma vectorial se le asociara, de forma natural, una
norma matricial.
Norma-1 |A|
1
= max|Ax|
1
: |x|
1
= 1.
Dado que Ax = y = y
i
=
n

k=1
a
ik
x
k
se tiene que
|A|
1
= max
n

i=1
n

k=1
[a
ik
x
k
[ : |x|
1
= 1.
Por ultimo, si descargamos todo el peso sobre una coordenada, es decir,
si tomamos un vector de la base canonica, obtenemos que
|A|
1
= max
j
n

i=1
[a
ij
[.
Norma eucldea |A|
2
= max

Ax :

x = 1
Descargando ahora el peso en los autovectores de la matriz A

A obtene-
mos que
|A|
2
= max
i

_
x

i
x :

x = 1 = max
i
_

i
= max
i

i
donde
i
representa a los valores singulares de la matriz A, es decir, las
races cuadradas positivas de los autovalores de la matriz A

A.
Normas vectoriales y matriciales 65
Norma innito |A|

= max

n
j=1
[a
ij
x
j
[ : |x|

= 1.
Como ahora se dara el maximo en un vector que tenga todas sus coor-
denadas iguales a 1, se tiene que
|A|

= max
i
n

j=1
[a
ij
[.
Tenemos pues, que las normas asociadas (algunas veces llamadas subordinadas)
a las normas de vector estudiadas anteriormente son:
Norma-1 |A|
1
= max
j
n

i=1
[a
ij
[.
Norma eucldea |A|
2
= max
i

i
.
Norma innito |A|

= max
i
n

j=1
[a
ij
[.
Si consideramos la matriz como un vector de m n coordenadas, podemos
denir (de manera analoga a la norma eucldea de vector) la denominada
Norma de Frobenius |A|
F
=

i,j
[a
ij
[
2
=

tr A

A
Ejemplo 2.2 Para la matriz A =
_
_
_
1 1 2
2 1 1
1 0 1
_
_
_
se tiene:
|A|
1
= max
j
n

i=1
[a
ij
[ = max(1 +2 +1), (1 +[ 1[ +0), (2 +1 +1) = 4
El polinomio caracterstico de la matriz A
T
A =
_
_
_
6 1 5
1 2 1
5 1 6
_
_
_
es
p() =
3
14
2
+ 33 = ( 3)( 11)
Los autovalores de la matriz A
T
A son 0, 3 y 11, por lo que los valores
singulares de la matriz A son 0,

3 y

11 y, por tanto,
|A|
2
= max
i

i
=

11
66 Sistemas de ecuaciones lineales
|A|

= max
i
n

j=1
[a
ij
[ = max(1 +1 +2), (2 +[ 1[ +1), (1 +0 +1) = 4
|A|
F
=

tr A
T
A =

6 + 2 + 6 =

14.

2.1.5 Transformaciones unitarias
Denicion 2.4 [Matriz unitaria]
La matriz U C
nn
de una transformacion se dice unitaria si
U

U = UU

= I U

= U
1
Proposicion 2.3 La norma de Frobenius y la norma eucldea de vector son
invariantes mediante transformaciones unitarias.
Demostracion.
Para la norma matricial de Frobenius:
|UA|
F
=
_
tr [(UA)

(UA)] =
_
tr (A

UA) =
_
tr (A

A) = |A|
F
|AU|
F
=
_
tr [(AU)

(AU)] =
_
tr [(AU)(AU)

] =
=
_
tr (AU U

) =
_
tr (AA

) =
_
tr (A

A) = |A|
F
Para la norma eucldea de vector.
|Ux|
2
=
_
(Ux)

(Ux) =

Ux =

x = |x|
2
Proposicion 2.4 Las matrices A, A

, AU y UA, donde U es una matriz


unitaria, poseen los mismos valores singulares y, por tanto, lo misma norma
eucldea.
Demostracion. Veamos, en primer lugar que las matrices A

A y AA

poseen
los mismos autovalores. En efecto:
Sea un autovalor de A

A y x un autovector asociado a .
A

Ax = x = AA

Ax = Ax
y llamando y = Ax tenemos que AA

y = y, por lo que es un autovalor de


la matriz AA

asociado al autovector y = Ax. As pues, cualquier autovalor


de A

A lo es tambien de AA

.
Razonando de igual forma se obtiene que cualquier autovalor de AA

lo es
tambien de A

A, por lo que ambas matrices poseen los mismos autovalores.


Normas vectoriales y matriciales 67
Como los valores singulares de la matriz A son las races cuadradas posi-
tivas de los autovalores de A

A y los de A

las races cuadradas positivas


de los autovalores de AA

(los mismos que los de A

A), las matrices A


y A

poseen los mismos valores singulares.


Los valores singulares de UA son las races cuadradas positivas de los
autovalores de (UA)

(UA) = A

UA = A

A que eran precisamente los


valores singulares de la matriz A.
Los valores singulares de AU son (por el primer apartado) los mismos
que los de (AU)

= U

es decir, las races cuadradas positivas de los


autovalores de (U

(U

) = AUU

= AA

cuyos autovalores son


los mismos que los de A

A, por lo que AU tiene tambien los mismos


valores singulares que la matriz A.
Proposicion 2.5 La norma eucldea de una matriz unitaria vale siempre 1.
Demostracion.
|U|
2
= max
xV {0}
|Ux|
2
|x|
2
= max
xV {0}
|x|
2
|x|
2
= 1
Proposicion 2.6 La norma eucldea es invariante mediante transformaciones
de semejanza unitarias.
Demostracion. Sea A y B dos matrices unitariamente semejantes, es decir,
tales que
B = U

AU con U unitaria
B = U

AU = |B|
2
|U

|
2
|A|
2
|U|
2
= |A|
2
A = UBU

= |A|
2
|U|
2
|B|
2
|U

|
2
= |B|
2
_
_
_
= |B|
2
= |A|
2
2.1.6 Radio espectral
Denicion 2.5 [Radio espectral]
Se dene el radio espectral de una matriz A, y se denota por (A) como el
maximo de los modulos de los autovalores de la referida matriz.
(A) = max
i
[
i
[
Geometricamente representa el radio del crculo mnimo que contiene a todos
los autovalores de la matriz.
68 Sistemas de ecuaciones lineales
Teorema 2.7 El radio espectral de una matriz es una cota inferior de todas
las normas multiplicativas de dicha matriz.
Demostracion. Sean
1
,
2
, . . . ,
r
los autovalores de la matriz A y sean
x
1
, x
2
, . . . , x
r
autovectores asociados a dichos autovalores.
|Ax
i
| = |
i
x
i
| = [
i
[ |x
i
|.
Por otra parte sabemos que |Ax
i
| |A| |x
i
|. Por tanto:
[
i
[ |x
i
| |A| |x
i
| siendo |x
i
| , = 0 por tratarse de autovectores.
Se obtiene entonces que [
i
[ |A| para cualquiera que sea i = 1, 2, . . . , r, de
donde max
i
[
i
[ |A|, es decir: (A) |A|.
Denicion 2.6 [Matriz de diagonal dominante]
Una matriz cuadrada de orden n A = (a
ij
)
i = 1, 2, . . . , n
j = 1, 2, . . . , n
se dice que es una matriz
de diagonal dominante o de Hadamard si
[a
ii
[ >
n

k = 1
k = i
[a
ik
[ i = 1, 2, . . . , n
Ejemplo 2.3 La matriz A =
_
_
_
3 1 1
0 2 1
2 1 5
_
_
_
es de diagonal dominante por
vericar que
3 > 1 + 1 2 > 0 + 1 y 5 > 2 +[ 1[ = 3
Teorema 2.8 Toda matriz de diagonal dominante es regular.
Demostracion. Supongamos que A es de diagonal dominante y que su deter-
minante fuese nulo. En ese caso, el sistema Ax = 0 posee solucion no trivial
(
1
,
2
, . . . ,
n
) ,= (0, 0, . . . , 0).
Sea [
k
[ = max
i
[
i
[ > 0 y consideremos la k-esima ecuacion:
a
k1

1
+a
k2

2
+ +a
kk

k
+ +a
kn

n
= 0 =
a
k1

k
+a
k2

k
+ +a
kk
+ +a
kn

k
= 0 =
a
kk
= a
k1

k
a
k k1

k
1

k
a
k k+1

k
+ 1

k
a
kn

k
=
Normas vectoriales y matriciales 69
[a
kk
[
n

i = 1
i = k
[a
ki
[

i = 1
i = k
[a
ki
[
en contra de la hipotesis de que A es de diagonal dominante, por lo que toda
matriz de diagonal dominante es regular.
Denicion 2.1 Matrices fundamentales de una matriz A
Se denominan matrices fundamentales de una matriz A, y se denotan por A
k
, a
las submatrices constituidas por los elementos de A situados en las k primeras
las y las k primeras columnas, es decir:
A
1
= (a
11
) A
2
=
_
a
11
a
12
a
21
a
22
_
A
3
=
_
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
_

Teorema 2.9 Las matrices fundamentales A
k
de una matriz A de diagonal
dominante, son tambien de diagonal dominante.
Demostracion. La demostracion es trivial, ya que si A es de diagonal domi-
nante se verica que
[a
ii
[ >
n

j = 1
j = i
[a
ij
[
k

j = 1
j = i
[a
ij
[
luego A
k
tambien lo es.
Denicion 2.7 [Crculos de Gerschgorin]
Sea A K
nn
. Se denen los crculos de Gerschgorin como los conjuntos
C
1
= z : [z a
11
[ r
1

C
2
= z : [z a
22
[ r
2

.
.
.
C
n
= z : [z a
nn
[ r
n

_
con r
i
=
n

j = 1
j = i
[a
ij
[ para 1 i n
Teorema 2.10 [Teorema de Gerschgorin]
Sean C
1
, C
2
, . . . , C
n
los crculos de Gerschgorin de una matriz A. Si es un
autovalor de A, se verica que
n
_
i=1
C
i
.
70 Sistemas de ecuaciones lineales
Demostracion. Si ,
n
_
i=1
C
i
es porque , C
i
para ning un i = 1, 2, . . . , n,
por lo que
[ a
11
[ > r
1
[ a
22
[ > r
2
.
.
.
[ a
nn
[ > r
n
y, por tanto, la matriz
I A =
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
es una matriz de diagonal dominante, por lo que det(I A) ,= 0 y, por tanto,
no puede ser un autovalor de la matriz A en contra de la hipotesis.
Observese que como det A = det A
T
se verica que
det(I A) = det(I A)
T
= det(I A
T
)
es decir, A y A
T
tienen el mismo polinomio caracterstico y, por tanto, los
mismos autovalores.
Ello nos lleva a que los crculos de Gerschgorin obtenidos por columnas de-
terminan tambien el dominio de existencia de los autovalores de la matriz A,
es mas, la interseccion de los crculos obtenidos por las y los obtenidos por
columnas contienen a todos los autovalores de la matriz A.
Teorema 2.11 Si un conjunto de k crculos de Gerschgorin de una matriz A
constituyen un dominio conexo aislado de los otros crculos, existen exacta-
mente k autovalores de la matriz A en dicho dominio.
Ejemplo 2.4 Dada la matriz A =
_
_
_
0 2 3
2 8 2
2 0 10
_
_
_
, sus crculos de Gerschgorin
Sistemas de ecuaciones lineales 71
obtenidos por las son
C
1
= z : [z 0[ 5
C
2
= z : [z 8[ 4
C
3
= z : [z 10[ 2
Mientras que los obtenidos por columnas son
C
1
= z : [z 0[ 4
C
2
= z : [z 8[ 2
C
3
= z : [z 10[ 5
Estos ultimos nos dicen que la matriz tiene, al menos, un autovalor real (hay
un crculo que solo contiene a un autovalor y este debe ser real ya que de
ser complejo el conjugado tambien sera autovalor de A y al tener el mismo
modulo se encontrara en el mismo crculo contra la hipotesis de que en dicho
crculo solo se encuentra un autovalor), es decir los crculos obtenidos por las
no nos dan informacion sobre el autovalor real, mientras que los obtenidos por
columnas nos dicen que existe un autovalor real en el intervalo (-4,4).
2.2 Sistemas de ecuaciones lineales
En el captulo anterior se estudiaron metodos iterados para la resolucion de
ecuaciones no lineales. Dichos metodos se basaban en el teorema del punto
jo y consistan en expresar la ecuacion en la forma x = (x) exigiendo que

(x) q < 1 para cualquier x del intervalo en el cual se trata de buscar la


solucion.
Para los sistemas de ecuaciones lineales, de la forma Ax = b, trataremos de
buscar metodos iterados de una forma analoga a como se hizo en el caso de las
ecuaciones, es decir, transformando el sistema en otro equivalente de la forma
x = F(x) donde F(x) = Mx + N. Evidentemente habra que exigir algunas
condiciones a la matriz M para que el metodo sea convergente (al igual que se
exiga que

(x) q < 1 en el caso de las ecuaciones) y estas condiciones se


basan en los conceptos de normas vectoriales y matriciales.
72 Sistemas de ecuaciones lineales
Dada una aplicacion f : R
m
R
n
y un vector b R
n
, resolver el sistema
de ecuaciones f(x) = b no es mas que buscar el conjunto de vectores de R
m
cuya imagen mediante f es el vector b, es decir, buscar la imagen inversa de b
mediante f.
Un sistema de ecuaciones se dice lineal en su componente k-esima si verica
que
f(x
1
, . . . , x
k1
, x
1
k
+x
2
k
, x
k+1
, . . . , x
m
) = f(x
1
, . . . , x
k1
, x
1
k
, x
k+1
, . . . , x
m
)+
+f(x
1
, . . . , x
k1
, x
2
k
, x
k+1
, . . . , x
m
)
Diremos que un sistema es lineal si lo es en todas sus componentes, pudiendose,
en este caso, escribir de la forma Ax = b.
Transformaci on de un sistema complejo en otro real
Si la aplicacion f se dene de C
m
en C
n
resulta un sistema complejo que puede
ser transformado en otro sistema real.
As, por ejemplo, si el sistema es lineal
f : C
m
C
n
Mz = k con
_

_
M C
mn
x C
n1
k C
m1
podemos descomponer la matriz M en suma de otras dos de la forma
M = A +iB con A, B R
mn
y analogamente
z = x +iy con x, y R
n1
k = k
1
+ik
2
con k
1
, k
2
R
m1
por lo que (A +iB)(x +iy) = k
1
+ik
2
es decir
_
_
_
Ax By = k
1
Bx +Ay = k
2
=
_
_
A B
B A
_
_
_
_
x
y
_
_
=
_
_
k
1
k
2
_
_
sistema real de 2m ecuaciones con 2n incognitas.
Es por ello, que centraremos nuestro estudio en los sistemas reales.
Clasificaci on de los SS.EE.LL
Podemos clasicar los sistemas de ecuaciones lineales atendiendo a
Sistemas de ecuaciones lineales 73
Su tama no
Peque nos: n 300 donde n representa el n umero de ecuaciones.
Grandes: n > 300
(Esta clasicacion corresponde al error de redondeo)
Su estructura
Si la matriz posee pocos elementos nulos diremos que se trata de
un sistema lleno.
Si, por el contrario, la matriz contiene muchos elementos nulos,
diremos que la matriz y, por tanto, que el sistema es disperso o
sparce. Matrices de este tipo son las denominadas
Tridiagonales:
_
_
_
_
_
a
11
a
12
0 0
a
21
a
22
a
23
0
0 a
32
a
33
a
34
0 0 a
43
a
44
_
_
_
_
_
Triangulares superiores:
_
_
_
_
_
a
11
a
12
a
13
a
14
0 a
22
a
23
a
24
0 0 a
33
a
34
0 0 0 a
44
_
_
_
_
_
Triangulares inferiores:
_
_
_
_
_
a
11
0 0 0
a
12
a
22
0 0
a
31
a
32
a
33
0
a
41
a
42
a
43
a
44
_
_
_
_
_
En cuanto a los metodos de resolucion de sistemas de ecuaciones lineales,
podemos clasicarlos en
Metodos directos
Aquellos que resuelven un sistema de ecuaciones lineales en un n umero
nito de pasos.
Se utilizan para resolver sistemas peque nos.
Metodos iterados Aquellos que crean una sucesion de vectores que
convergen a la solucion del sistema.
Se utilizan para la resolucion de sistemas grandes, ya que al realizar un
74 Sistemas de ecuaciones lineales
gran n umero de operaciones los errores de redondeo pueden hacer ines-
table al proceso, es decir, pueden alterar considerablemente la solucion
del sistema.
2.2.1 N umero de condicion
Denicion 2.8 [Condicionamiento de un sistema]
Un sistema de ecuaciones lineales Ax = b se dice bien condicionado cuando
los errores cometidos en los elementos de la matriz A y del vector b producen
en la solucion un error del mismo orden, mientras que diremos que el sistema
esta mal condicionado si el error que producen en la solucion del sistema es
de orden superior al de los datos. Es decir:
|A A| <
|b b| <
=
_

_
|x x| sistema bien condicionado
|x x| sistema mal condicionado
Consideremos el sistema cuadrado Ax = b con A regular, es decir, un sistema
compatible determinado. En la practica, los elementos de A y de b no suelen
ser exactos bien por que procedan de calculos anteriores, o bien porque sean
irracionales, racionales periodicos, etc. Es decir, debemos resolver un sistema
aproximado cuya solucion puede diferir poco o mucho de la verdadera solucion
del sistema.
As, por ejemplo, en un sistema de orden dos, la solucion representa el punto
de interseccion de dos rectas en el plano. Un peque no error en la pendiente de
una de ellas puede hacer que dicho punto de corte se desplace solo un poco o
una distancia considerable (vease la Figura 2.1), lo que nos dice que el sistema
esta bien o mal condicionado, respectivamente.
Podemos ver que el sistema esta mal condicionado cuando las pendientes de las
dos rectas son muy similares y que mientras mas ortogonales sean las rectas,
mejor condicionado estara el sistema.
Ejemplo 2.5 Si consideramos el sistema de orden 2
_
_
_
3x + 4y = 7
3x + 4.00001y = 7.00001
de solucion
_
x
y
_
=
_
1
1
_
Sistemas de ecuaciones lineales 75
r
1 r

1
r
2
Sistema mal condicionado
r
1 r

1
r
2
Sistema bien condicionado

/
/
/
/
/
/
/
/
/
/
/
/
/

s
s
s
s
Figura 2.1: Condicionamiento de un sistema.
y cometemos un peque no error en los datos, podemos obtener el sistema
_
_
_
3x + 4y = 7
3x + 3.99999y = 7.00004
de solucion
_
x
y
_
=
_
7.

6
4
_
o bien este otro
_
_
_
3x + 4y = 7
3x + 3.99999y = 7.000055
de solucion
_
x
y
_
=
_
9.

6
5.5
_
lo que nos dice que estamos ante un sistema mal condicionado.
Si sustituimos la segunda ecuacion por la que resulta de sumarle la primera
multiplicada por 1.0000016 (la ecuacion resultante se multiplica por 10
6
y se
divide por 1.2) nos queda el sistema
_
_
_
3x + 4y = 7
4x 3y = 1
de solucion
_
x
y
_
=
_
1
1
_
siendo este un sistema bien condicionado.
Se puede observar entonces que si, en un sistema mal condicionado, sustituimos
una de las ecuaciones por una combinacion lineal de las restantes, podemos
hacer que el sistema resultante este bien condicionado o viceversa.
El estudio del condicionamiento de un sistema se realiza a traves del denomi-
nado n umero de condicion que estudiamos a continuacion.
76 Sistemas de ecuaciones lineales
Denicion 2.9 Sea A una matriz cuadrada y regular. Se dene el n umero de
condicion de la matriz A y se denota por (A) como
(A) = |A| |A
1
|
donde la norma utilizada ha de ser una norma multiplicativa.
Este n umero nos permite conocer el condicionamiento del sistema Ax = b.
Dado que en la practica el calculo de la matriz inversa A
1
presenta grandes
dicultades lo que se hace es buscar una cota del n umero de condicion.
(A) = |A| |A
1
| < |A| k
siendo k una cota de la norma de la matriz inversa.
Si |I A| < 1 entonces |A
1
|
|I|
1 |I A|
. En efecto:
A A
1
= I = [I (I A)]A
1
= I =
A
1
(I A)A
1
= I = A
1
= I + (I A)A
1
=
|A
1
| = |I + (I A)A
1
| |I| +|(I A)A
1
| |I| +|I A| |A
1
|
|A
1
| |I A| |A
1
| |I| = (1 |I A|)|A
1
| |I| =
|A
1
|
|I|
1 |I A|
Es decir:
(A) |A| k con k =
|I|
1 |I A|
Debemos tener cuidado con esta acotacion ya que si tenemos una matriz casi
regular, es decir, con det(A) 0, quiere decir que tiene un autovalor proximo
a cero, por lo que la matriz I A tiene un autovalor proximo a 1 y sera el
mayor de todos. En este caso |I A| 1, por lo que k y dara lugar a
un falso condicionamiento, ya que A no tiene que estar, necesariamente, mal
condicionada.
Ejemplo 2.6 Para estudiar el condicionamiento del sistema
_
_
_
3x + 4y = 7
3x + 4.00001y = 7.00001
Sistemas de ecuaciones lineales 77
Se tiene que
A =
_
3 4
3 4.00001
_
= det(A) = 0.00003
A
1
=
1
0.00003
_
4.00001 4
3 3
_
Utilizando la norma innito |A|

= max
i
n

j=1
[a
ij
[ se tiene que
|A|

= 7.00001
|A
1
|

=
8.00001
0.00003
_

_
=

(A)
56
3
10
5
> 1.8 10
6
Se trata pues, de un sistema mal condicionado.
Si utilizamos la norma-1 |A|
1
= max
j
n

i=1
[a
ij
[ obtenemos:
|A|
1
= 8.00001
|A
1
|
1
=
7.00001
0.00003
_

_
=
1
(A)
56
3
10
5
> 1.8 10
6
obteniendose, tambien, que se trata de un sistema mal condicionado.
Propiedades del n umero de condici on.
(A) 1 cualquiera que sea la matriz cuadrada y regular A.
Demostracion.
|x| = |Ix| |I||x| = |I| 1
cualquiera que sea la norma utilizada.
Como, por otra parte AA
1
= I se tiene que
1 |I| = |AA
1
| |A||A
1
| = (A) = (A) 1.
Si B = zA, con z C no nulo, se verica que (B) = (A).
78 Sistemas de ecuaciones lineales
Demostracion.
(B) = |B| |B
1
| = |zA| |
1
z
A
1
| = [z[ |A|
|A
1
|
[z[
= |A| |A
1
| =
= (A)
Dado que det(B) = z
n
det(A), donde n representa el orden de la matriz
A, y (B) = (A) se ve que el condicionamiento de una matriz no
depende del valor de su determinante.
Utilizando la norma eucldea,
2
(A) =

n

1
donde
1
y
n
representan,
respectivamente, al menor y al mayor de los valores singulares de la
matriz A.
Demostracion. Sabemos que los valores singulares
i
de la matriz A
son las races cuadradas positivas de los autovalores de la matriz A

A.

i
=
_

i
(A

A)
Si suponemos
1

2

n
se tiene que
|A|
2
=
_
max
i

i
(A

A) =
n
|A
1
|
2
=
_
max
i

i
_
(A
1
)

A
1
_
=
_
max
i

i
_
(A

)
1
A
1
_
=
=
_
max
i

i
(AA

)
1
=
_
max
i
1

i
(AA

)
=

1
mn
i

i
(AA

)
=
=

1
mn
i

i
(A

A)
=

1
mn
i

2
i
= |A
1
|
2
=
1

1
Podemos concluir, por tanto, que
|A|
2
=
n
|A
1
|
2
=
1

1
_

_
=
2
(A) =

n

1
En cuanto a su relacion con los n umeros de condicion obtenidos con otras
normas de matriz se tiene que:
|A|
2
|A|
F

n|A|
2
= |A
1
|
2
|A
1
|
F

n|A
1
|
2

2
(A) = |A|
2
|A
1
|
2
|A|
F
|A
1
|
F
= (A)
F
Sistemas de ecuaciones lineales 79

F
(A) = |A|
F
|A
1
|
F

n|A|
2
|A
1
|
2
= n
2
(A) =

2
(A)
F
(A) n
2
(A)
Ademas:
_
_
_
|A|
2

_
|A|
1
|A|

|A
1
|
2

_
|A
1
|
1
|A
1
|

2
(A)
_

1
(A)

(A)
La condicion necesaria y suciente para que
2
(A) = 1 es que A = zU
siendo z C (no nulo) y U una matriz unitaria (UU

= U

U = I).
Demostracion.
) A = zU =
2
(A) = 1.
A = zU = A

A = zU

zU = [z[
2
U

U = [z[
2
I =

i
(A

A) = [z[
2
cualquiera que sea i = 1, 2, . . . , n y, por tanto,

1
=
2
= =
n
= [z[
por lo que

2
(A) =

n

1
= 1
)
2
(A) = 1 = A = zU.
Sabemos que si A es diagonalizable existe una matriz regular R
tal que R
1
AR = D con D = diag(
i
) (R es la matriz de paso
cuyas columnas son los autovectores asociados los autovalores
i
).
Por otra parte sabemos que toda matriz hermtica (A = A

) es
diagonalizable mediante una matriz de paso unitaria.
Como A

A es hermtica existe una matriz unitaria R tal que


R

AR =
_
_
_
_
_
_

2
1

2
2
.
.
.

2
n
_
_
_
_
_
_

2
(A) =

n

1
= 1 =
1
=
2
= =
n
= , por lo que
R

AR =
2
I
Entonces
A

A = R(
2
I)R

=
2
(RIR

) =
2
I
80 Sistemas de ecuaciones lineales
de donde
_
1

__
1

A
_
= I
Llamando U =
1

A se tiene que U

=
1

, ya que R = .
U

U =
_
1

__
1

A
_
= I = U es unitaria
y, por tanto,
A = U con U unitaria
Los sistemas mejor condicionados son aquellos que tienen sus las o columnas
ortogonales y mientras mayor sea la dependencia lineal existente entres ellas
peor es el condicionamiento del sistema.
Al ser (UA) = (A) trataremos de utilizar metodos de resolucion de sistemas
de ecuaciones lineales que trabajen con transformaciones unitarias que no em-
peoren su condicionamiento como lo hace, por ejemplo, el metodo de Gauss
basado en la factorizacion LU y que tambien estudiaremos a continuacion.
2.3 Metodos directos de resolucion de siste-
mas lineales
2.3.1 Factorizacion LU
Al aplicar el metodo de Gauss al sistema Ax = b realizamos transformaciones
elementales para conseguir triangularizar la matriz del sistema.
Si este proceso puede realizarse sin intercambios de las, la matriz triangular
superior U obtenida viene determinada por el producto de un n umero nito
de transformaciones la F
k
F
k1
F
1
aplicadas a la matriz A.
Llamando L
1
= F
k
F
k1
F
1
(ya que el determinante de una transformacion
la es 1 y, por tanto, su producto es inversible) se tiene que L
1
A = U, o lo
que es lo mismo, A = LU.
Ademas, la matriz L es una triangular inferior con unos en la diagonal.
Esta factorizacion es unica ya que de existir otra
A = L

= LU = L
1
L

= UU
1
Metodos directos de resolucion de sistemas lineales 81
Como L
1
tambien es triangular inferior con unos en la diagonal, el producto
L
1
L

tambien es una matriz del mismo tipo.


Analogamente, el producto UU
1
resulta ser una triangular superior.
El hecho de que L
1
L

= UU
1
nos dice que necesariamente L
1
L

= I, ya que
es simultaneamente triangular inferior y superior y su diagonal es de unos.
As pues L
1
L

= I, por lo que L = L

y, por tanto U = U

es decir, la
factorizacion es unica.
Debido a la unicidad de la factorizacion, esta puede ser calculada por un
metodo directo, es decir, haciendo
A =
_
_
_
_
_
_
_
_
1 0 0 0
l
21
1 0 0
l
31
l
32
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n1
l
n2
l
n3
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
u
11
u
12
u
13
u
1n
0 u
22
u
23
u
2n
0 0 u
33
u
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 u
nn
_
_
_
_
_
_
_
_
y calculando los valores de los n
2
elementos que aparecen entre las dos matrices.
Ejemplo 2.7 Considerese la matriz A =
_
_
_
3 1 2
6 3 2
3 0 8
_
_
_
_
_
_
3 1 2
6 3 2
3 0 8
_
_
_
=
_
_
_
1 0 0
l
21
1 0
l
31
l
32
1
_
_
_
_
_
_
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
_
_
_
=
=
_
_
_
u
11
u
12
u
13
l
21
u
11
l
21
u
12
+u
22
l
21
u
13
+u
23
l
31
u
11
l
31
u
12
+l
32
u
22
l
31
u
13
+l
32
u
23
+u
33
_
_
_
por lo que de la primera la obtenemos que
u
11
= 3 u
12
= 1 u
13
= 2
de la segunda (teniendo en cuenta los valores ya obtenidos) se tiene que
3l
21
= 6
l
21
+u
22
= 3
2l
21
+u
23
= 2
_

_
=
l
21
= 2
u
22
= 1
u
23
= 2
82 Sistemas de ecuaciones lineales
y de la tercera (teniendo tambien en cuenta los resultados ya obtenidos)
3l
31
= 3
l
31
+l
32
= 0
2l
31
2l
32
+u
33
= 8
_

_
=
l
31
= 1
l
32
= 1
u
33
= 4
es decir:
_
_
_
3 1 2
6 3 2
3 0 8
_
_
_
=
_
_
_
1 0 0
2 1 0
1 1 1
_
_
_
_
_
_
3 1 2
0 1 2
0 0 4
_
_
_

Teorema 2.12 Una matriz regular A admite factorizacion LU si, y solo si,
sus matrices fundamentales A
i
(i = 1, 2, . . . , n) son todas regulares.
Demostracion. Supongamos que A admite factorizacion LU. En ese caso
A =
_
A
k
_
=
_
L
k
__
U
k
_
=
A
k
= L
k
U
k
= det(A
k
) = det(L
k
) det(U
k
) = 1 r
11
r
22
r
kk
,= 0
ya que, por sea A regular, todos los pivotes r
ii
i = 1, 2, . . . , n son no nulos.
Recprocamente, si todas las matrices fundamentales son regulares, A admite
factorizacion LU, o lo que es equivalente, se puede aplicar Gauss sin intercam-
bio de las. En efecto:
Dado que, por hipotesis es a
11
,= 0, se puede utilizar dicho elemento como
pivote para anular al resto de los elementos de su columna quedandonos la
matriz
A
(2)
=
_
_
_
_
_
_
a
(2)
11
a
(2)
12
a
(2)
1n
0 a
(2)
22
a
(2)
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 a
(2)
n2
a
(2)
nn
_
_
_
_
_
_
donde a
(2)
1i
= a
1i
para i = 1, 2, . . . , n.
Si nos jamos ahora en a
2
22
= a
22
a
12
a
21
a
11
podemos ver que es no nulo, ya que
de ser nulo sera
a
11
a
22
a
12
a
21
= det(A
2
) = 0
en contra de la hipotesis de que todas las matrices fundamentales son regulares.
Por tanto, podemos utilizar a
(2)
22
,= 0 como nuevo pivote para anular a los
elementos de su columna situados bajo el.
Metodos directos de resolucion de sistemas lineales 83
Reiterando el procedimiento se puede ver que todos los elementos que vamos
obteniendo en la diagonal son no nulos y, por tanto, validos como pivotes. Es
decir, puede realizarse la factorizacion LU.
Comprobar si una matriz admite factorizacion LU estudiando si todas sus
matrices fundamentales son regulares es un metodo demasiado costoso debido
al n umero de determinantes que hay que calcular.
Corolario 2.13 Toda matriz de diagonal dominante admite factorizacion LU.
Demostracion. Es consecuencia directa de los Teoremas 2.8, 2.9 y 2.12.
Corolario 2.14 Toda matriz hermtica y denida positiva
hermtica A = A

denida positiva
_
x

Ax 0 x
x

Ax = 0 x = 0
admite factorizacion LU.
Demostracion. Las matrices fundamentales de estas tienen todas determi-
nante positivo, por lo que el Teorema 2.12 garantiza la existencia de las ma-
trices L y U.
Una vez realizada la factorizacion LU, el sistema Ax = b puede escribirse de la
forma LUx = b y llamando Ux = y transformamos el problema de resolver el
sistema cuadrado Ax = b en la resolucion de los sistemas triangulares Ly = b
y Ux = y.
Ax = b
_
_
_
Ly = b
Ux = y
Ejemplo 2.8 Consideremos el sistema Ax = b con
A =
_
_
_
3 1 2
6 3 2
3 0 8
_
_
_
b =
_
_
_
0
1
5
_
_
_
84 Sistemas de ecuaciones lineales
En el Ejemplo 2.7 realizamos la factorizacion LU de la matriz A.
Ly = b
_
_
_
1 0 0
2 1 0
1 1 1
_
_
_
_
_
_
y
1
y
2
y
3
_
_
_
=
_
_
_
0
1
5
_
_
_
= y =
_
_
_
0
1
4
_
_
_
Ux = y
_
_
_
3 1 2
0 1 2
0 0 4
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
=
_
_
_
0
1
4
_
_
_
= x =
_
_
_
1
1
1
_
_
_

2.3.2 Factorizacion de Cholesky
Es conocido que toda matriz hermtica y denida positiva tiene sus autovalores
reales y positivos y, ademas, en la factorizacion LU todos los pivotes son reales
y positivos.
Teorema 2.15 [Factorizaci on de Cholesky]
Toda matriz A hermtica y denida positiva puede ser descompuesta de la
forma A = R

R siendo R una matriz triangular superior.


Demostracion. Por tratarse de una matriz hermtica y denida positiva,
sabemos que admite factorizacion LU. Sea
A =
_
_
_
_
_
_
1 0 0
l
21
1 0
.
.
.
.
.
.
.
.
.
.
.
.
l
n1
l
n2
1
_
_
_
_
_
_
_
_
_
_
_
_
u
11
u
12
u
1n
0 u
22
u
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
nn
_
_
_
_
_
_
=
=
_
_
_
_
_
_
1 0 0
l
21
1 0
.
.
.
.
.
.
.
.
.
.
.
.
l
n1
l
n2
1
_
_
_
_
_
_
_
_
_
_
_
_
u
11
0 0
0 u
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
nn
_
_
_
_
_
_
_
_
_
_
_
_
1
u
12/
u
11

u
1n/
u
11
0 1
u
2n/
u
22
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
=
= L
_
_
_
_
_
_
u
11
0 0
0 u
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
nn
_
_
_
_
_
_
V =
Metodos directos de resolucion de sistemas lineales 85
= L
_
_
_
_
_
_

u
11
0 0
0

u
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0

u
nn
_
_
_
_
_
_
_
_
_
_
_
_

u
11
0 0
0

u
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0

u
nn
_
_
_
_
_
_
V
A = BR
B = L
_
_
_
_
_
_
_
_

u
11
0 0 0
0

u
22
0 0
0 0

u
33
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0

u
nn
_
_
_
_
_
_
_
_
es triangular inferior.
R =
_
_
_
_
_
_
_
_

u
11
0 0 0
0

u
22
0 0
0 0

u
33
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0

u
nn
_
_
_
_
_
_
_
_
V es triangular superior.
Como A es hermtica, BR = A = A

= R

, por lo que (R

)
1
B = B

R
1
, y
dado que (R

)
1
B es triangular inferior y B

R
1
es triangular superior, ambas
han de ser diagonales.
Por otra parte,
B

R
1
= (LD)

(DV )
1
= D

V
1
D
1
= DL

V
1
D
1
= L

V
1
ya que las matrices diagonales conmutan.
Dado que la matriz L

V
1
tiene unos en la diagonal y es igual a B

R
1
que
es diagonal, debe ser B

R
1
= I, por lo que B

= R o, lo que es lo mismo,
B = R

, es decir A = R

R con R = DV .
Hemos visto que toda matriz hermtica y denida positiva admite factorizacion
de Cholesky, pero podemos llegar mas lejos y enunciar el siguiente teorema.
Teorema 2.16 Una matriz hermtica y regular A es denida positiva si, y
solo si, admite factorizacion de Cholesky.
Demostracion. Si es hermtica y denida positiva admite factorizacion LU
con todos los elementos diagonales de U (pivotes) positivos, por lo que admite
factorizacion de Cholesky.
86 Sistemas de ecuaciones lineales
Recprocamente, si A admite factorizacion de Cholesky es A = R

R por lo que
A

= (R

R)

= R

R = A = A es hermtica
Para cualquier vector x no nulo es
x

Ax = x

Rx = (Rx)

(Rx) = |Rx|
2
0
siendo cero solo si Rx = 0 pero al ser R regular (si no lo fuese tampoco lo
sera A en contra de la hipotesis) Rx = 0 = x = 0 en contra de la hipotesis
de que x no es el vector nulo.
Se tiene pues que x

Ax > 0 para cualquier vector x no nulo, es decir, A es


denida positiva.
La unicidad de las matrices L y U implica la unicidad de la matriz R y, por
tanto, esta puede ser calculada por un metodo directo.
Ejemplo 2.9 Consideremos el sistema
_
_
_
4 2i 4 + 2i
2i 2 2 2i
4 2i 2 + 2i 10
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
=
_
_
_
0
0
4
_
_
_
Realicemos la factorizacion R

R directamente, es decir
_
_
_
4 2i 4 + 2i
2i 2 2 2i
4 2i 2 + 2i 10
_
_
_
=
_
_
_
r
11
0 0
r
12
r
22
0
r
13
r
23
r
33
_
_
_
_
_
_
r
11
r
12
r
13
0 r
22
r
23
0 0 r
33
_
_
_
Se obtiene multiplicando, que r
2
11
= 4 = r
11
= 2.
Utilizando este resultado tenemos que
_
_
_
2r
12
= 2i = r
12
= i
2r
13
= 4 + 2i = r
13
= 2 +i
r
2
12
+r
2
22
= 2 = r
2
22
= 1 = r
22
= 1.
r
12
r
13
+r
22
r
23
= 2 2i = 1 2i +r
23
= 2 2i = r
23
= 1.
r
2
13
+r
2
23
+r
2
33
= 10 = 5 + 1 +r
2
33
= 10 = r
2
33
= 4 = r
33
= 2.
As pues, el sistema nos queda de la forma
_
_
_
2 0 0
i 1 0
2 i 1 2
_
_
_
_
_
_
2 i 2 +i
0 1 1
0 0 2
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
=
_
_
_
0
0
4
_
_
_
Metodos iterados de resolucion de sistemas lineales 87
R

y = b
_
_
_
2 0 0
i 1 0
2 i 1 2
_
_
_
_
_
_
y
1
y
2
y
3
_
_
_
=
_
_
_
0
0
4
_
_
_
= y =
_
_
_
0
0
2
_
_
_
Rx = y
_
_
_
2 i 2 +i
0 1 1
0 0 2
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
=
_
_
_
0
0
2
_
_
_
= x =
_
_
_
1
1
1
_
_
_

2.4 Metodos iterados de resolucion de siste-


mas lineales
Un metodo iterado de resolucion del sistema Ax = b es aquel que genera, a
partir de un vector inicial x
0
, una sucesion de vectores (x
n
) con x
n+1
= f(x
n
).
Denicion 2.10 [Consistencia]
Un metodo iterado se dira que es consistente con el sistema Ax = b, si el lmite
de dicha sucesion, en caso de existir, es solucion del sistema.
Denicion 2.11 [Convergencia]
Un metodo iterado para la resolucion del sistema Ax = b se dira que es con-
vergente si la sucesion generada por cualquier vector inicial x
0
es convergente
a la solucion del sistema.
Es evidente que si un metodo es convergente es consistente, sin embargo, el
recproco no es cierto como prueba el siguiente ejemplo.
Ejemplo 2.10 El metodo x
n+1
= 2x
n
A
1
b es consistente con al sistema
Ax = b pero no es convergente. En efecto:
x
n+1
x = 2x
n
A
1
b x = 2x
n
2x A
1
b +x = 2(x
n
x) (A
1
b x)
y como A
1
b = x, se tiene que
x
n+1
x = 2(x
n
x)
Si existe lim
n
x
n
= x

tendremos que
x

x = 2(x

x) = x

x = 0 = x

= x
88 Sistemas de ecuaciones lineales
es decir, el lmite es solucion del sistema Ax = b, por lo que el metodo es
consistente.
Sin embargo, de x
n+1
x = 2(x
n
x) obtenemos que
|x
n+1
x| = 2|x
n
x|
es decir, el vector x
n+1
dista de x el doble de lo que distaba x
n
, por lo que el
metodo no puede ser convergente.
Los metodos iterados que trataremos son de la forma
x
n+1
= Kx
n
+c
en los que K sera la que denominemos matriz del metodo y que dependera de
A y de b y en el que c es un vector que vendra dado en funcion de A, K y b.
Teorema 2.17 Un metodo iterado, de la forma x
n+1
= Kx
n
+c, es consistente
con el sistema Ax = b si, y solo si, c = (I K)A
1
b y la matriz I K es
invertible
Demostracion.
Supongamos que el metodo es consistente con el sistema Ax = b.
Como x = Kx + (I K)x = Kx + (I K)A
1
b, se tiene que
x
n+1
x = K(x
n
x) +c (I K)A
1
b (2.1)
Por ser consistente el metodo, de existir x

= lim
n
x
n
ha de ser x

= x.
Pasando al lmite en la Ecuacion (2.1) obtenemos que
x

x = K(x

x) +c (I K)A
1
b
por lo que
(I K)(x

x) = c (I K)A
1
b (2.2)
y dado que x

= x nos queda que 0 = c (I K)A


1
b, es decir,
c = (I K)A
1
b.
Ademas, dado que x = Kx + c, el sistema (I K)x = c posee solucion
unica x y, por tanto, la matriz I K es invertible.
Metodos iterados de resolucion de sistemas lineales 89
Si c = (I K)A
1
b y la matriz I K es invertible, cuando exista
lim
n
x
n
= x

se tendra de (2.2) que


(I K)(x

x) = 0
Como I K es invertible, x

= x, y el metodo es consistente.
Teorema 2.18 Un metodo iterado de la forma x
n+1
= Kx
n
+ c consistente
con el sistema Ax = b es convergente si, y solo si, lim
n
K
n
= 0.
Demostracion. Por tratarse de un metodo consistente con el sistema Ax = b,
se verica que c = (I K)A
1
b, por lo que
x
n+1
= Kx
n
+ (I K)A
1
b
restando el vector solucion x a ambos miembros, podemos escribir
x
n+1
x = Kx
n
(K+I K)x+(I K)A
1
b = K(x
n
x)+(I K)(A
1
bx)
y dado que A
1
b x = 0 obtenemos que x
n+1
x = K(x
n
x).
Reiterando el proceso se obtiene:
x
n
x = K(x
n1
x) = K
2
(x
n2
x) = = K
n
(x
0
x)
lim
n
(x
n
x) = ( lim
n
K
n
)(x
0
x) (2.3)
Si el metodo es convergente, lim
n
(x
n
x) = x x = 0, por lo que de la
ecuacion (2.3) obtenemos que
lim
n
K
n
= 0
Si lim
n
K
n
= 0, obtenemos de la ecuacion (2.3) que
lim
n
(x
n
x) = 0 lim
n
x
n
= x
por lo que el metodo es convergente.
Teorema 2.19 [Teorema del punto fijo]
Si para alguna norma matricial es |K| < 1, la sucesion (x
n
) denida por
x
n+1
= Kx
n
+c, donde x
0
R
n
es un vector cualquiera, converge a la solucion
de la ecuacion x = Kx +c que existe y es unica.
90 Sistemas de ecuaciones lineales
Demostracion.
Existencia y unicidad
Veamos, en primer lugar, que la ecuacion x = Kx + c posee solucion
unica.
En efecto: x = Kx + c = (I K)x = c. Este sistema tiene solucion
unica si, y s olo si, el sistema homogeneo asociado (I K)z = 0 admite
solo la solucion trivial z = 0, es decir, si I K es invertible.
La solucion z no puede ser distinta del vector nulo ya que de serlo, como
|K| < 1 se tiene que al ser (I K)z = 0, o lo que es lo mismo, z = Kz
|z| = |Kz| |K||z| < |z|
lo cual es un absurdo, por lo que el sistema homogeneo solo admite la
solucion trivial y, por tanto, el sistema completo x = Kx + c posee
solucion unica.
Convergencia
Probaremos ahora que la sucesion (x
n
) converge a x.
Dado que x
n+1
x = (Kx
n
+ c) (Kx + c) = K(x
n
x), podemos
reiterar el proceso para obtener que x
n
x = K
n
(x
0
x) por lo que
|x
n
x| |K
n
||x
0
x| |K|
n
|x
0
x|
y dado que |K| < 1, pasando al lmite se obtiene
lim
n
|x
n
x| = 0 = lim
n
x
n
= x
Teorema 2.20 [Condici on necesaria y suficiente de convergencia]
La sucesion (x
n
) denida por x
n+1
= Kx
n
+ c, donde x
0
R
n
es un vector
cualquiera, es convergente si, y solo si, la matriz K tiene radio espectral menor
que 1.
x
n+1
= Kx
n
+c con x
0
R
n
convergente (K) < 1
Metodos iterados de resolucion de sistemas lineales 91
Demostracion.
Condici on suficiente
Si
1
, . . . ,
m
son los autovalores de la matriz K, los de la matriz K
n
son

n
1
, . . . ,
n
m
.
(K) < 1 = [
i
[ < 1 (i = 1, . . . , m) =
i
,
2
i
, . . . ,
n
i
, . . . 0
por lo que los autovalores de la matriz lmite lim
n
K
n
son todos nulos,
es decir, lim
n
K
n
= 0 por lo que
(K) < 1 = el proceso es convergente.
Condici on necesaria
El teorema del punto jo establece como condicion necesaria para la
convergencia que |K| < 1 y dado que (K) es una cota inferior de
cualquier norma multiplicativa, es (K) |K| < 1, por lo que
El proceso es convergente = (K) < 1.
M etodos de descomposici on
Los metodos que vamos a estudiar consisten en descomponer la matriz inver-
tible A del sistema Ax = b de la forma A = M N de manera que la matriz
M sea facilmente invertible, por lo que reciben el nombre generico de metodos
de descomposicion.
El sistema queda entonces de la forma
(M N)x = b = Mx = Nx +b = x = M
1
Nx +M
1
b
es decir, expresamos el sistema de la forma
Ax = b x = Kx +c con
_
_
_
K = M
1
N
c = M
1
b
Dado que
(I K)A
1
b = (I M
1
N)(MN)
1
b = M
1
(MN)(MN)
1
b=M
1
b=c
y la matriz (I K) = (I M
1
N) = M
1
(M N) = M
1
A es invertible,
estamos en las condiciones del Teorema 2.17 por lo que x
n+1
= Kx
n
+ c es
consistente con el sistema Ax = b.
92 Sistemas de ecuaciones lineales
Es decir, si el proceso converge, lo hace a la solucion del sistema.
Sabemos tambien, por el Teorema 2.19, que el proceso sera convergente si se
verica que |K| = |M
1
N| < 1 para alguna norma.
Para el estudio de los metodos que trataremos a continuacion, vamos a des-
componer la matriz A de la forma A = D E F siendo
D =
_
_
_
_
_
_
_
_
a
11
0 0 0
0 a
22
0 0
0 0 a
33
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
nn
_
_
_
_
_
_
_
_
E =
_
_
_
_
_
_
_
_
0 0 0 0
a
21
0 0 0
a
31
a
32
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
0
_
_
_
_
_
_
_
_
F =
_
_
_
_
_
_
_
_
0 a
12
a
13
a
1n
0 0 a
23
a
2n
0 0 0 a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0
_
_
_
_
_
_
_
_
2.4.1 Metodo de Jacobi
Consiste en realizar la descomposicion
A = M N = D (E +F)
El sistema queda de la forma
Ax = b = Dx = (E +F)x +b = x = D
1
(E +F)x +D
1
b
Metodo de Jacobi x
n+1
= Jx
n
+c con
_
J = D
1
(E +F)
c = D
1
E
La matriz J recibe el nombre de matriz de Jacobi.
Teorema 2.21 Si A es una matriz de diagonal dominante, el metodo de Ja-
cobi es convergente.
Metodos iterados de resolucion de sistemas lineales 93
Demostracion. La matriz J = D
1
(E +F) tiene todos los elementos diago-
nales nulos y las sumas de los modulos de los elementos de sus las son todas
menores que 1 ya que
[a
ii
[ >
n

k = 1
k = i
[a
ik
[ i = 1, 2, . . . , n =
n

k = 1
k = i
[a
ik
[
[a
ii
[
< 1
por lo que los crculos de Gerschgorin estan todos centrados en el origen y
tienen radios menores que 1 es decir, todos los autovalores de J son menores
que 1, por lo que (J) < 1 y el metodo converge.
2.4.2 Metodo de Gauss-Seidel
Este metodo es el resultado de realizar la descomposicion
A = M N = (D E) F
El sistema nos queda
Ax = b = (D E)x = Fx +b = x = (D E)
1
Fx + (D E)
1
b
Metodo de Gauss-Seidel x
n+1
= L
1
x
n
+c con
_
L
1
= (D E)
1
F
c = (D E)
1
b
La matriz L
1
recibe el nombre de matriz de Gauss-Seidel.
Teorema 2.22 Si A es una matriz de diagonal dominante, el metodo de
Gauss-Seidel es convergente.
Teorema 2.23 Si A es una matriz simetrica y denida positiva, el metodo de
Gauss-Seidel es convergente.
2.4.3 Metodos de relajacion (SOR)
Estos metodos realizan la descomposicion
A =
1

D
1

D E F =
1

(D E)
_
1

D +F
_
= M N
94 Sistemas de ecuaciones lineales
El sistema se transforma entonces en
1

(D E)x =
_
1

D +F
_
x +b =
(D E)x =
_
(1 )D +F
_
x +b =
x = (D E)
1
_
(1 )D +F
_
x +(D E)
1
b
Metodos de relajacion x
n+1
= L

x
n
+c con
_
L

= (D E)
1
_
(1 )D +F
_
c = (D E)
1
b
La matriz L

recibe el nombre de matriz de relajacion.


Si = 1 la matriz se reduce a L
1
= (D E)
1
F, es decir, se trata del
metodo de Gauss Seidel.
Si > 1 se dice que se trata de un metodo de sobre-relajacion
Si < 1 se dice que se trata de un metodo de sub-relajacion
Teorema 2.24 Una condicion necesaria para que converja el metodo de rela-
jacion es que (0, 2).
Teorema 2.25 Si A es de diagonal dominante, el metodo de relajacion es
convergente cualquiera que sea (0, 1].
Teorema 2.26 Si A es simetrica y denida positiva, el metodo de relajacion
converge si, y solo si, (0, 2)
Factorizaciones ortogonales 95
2.5 Factorizaciones ortogonales
Si tratamos de resolver un sistema Ax = b mediante la factorizacion LU (o la
de Cholesky), lo que hacemos es transformar el sistema en Ax = LUx = b para
hacer Ux = L
1
b que es un sistema triangular que se resuelve por sustitucion
regresiva. Sin embargo, la matriz del nuevo sistema es U = L
1
A y dado que
L
1
no es una matriz unitaria (ortogonal en el caso real) el n umero de condicion
de la matriz del sistema ha cambiado pudiendo estar peor condicionada que
la matriz A del sistema original.
Vamos a estudiar, a continuacion, otro tipo de factorizacion A = QR donde
R es, al igual que U, una matriz triangular superior, pero donde Q va a ser
una matriz unitaria, por lo que el sistema Ax = b lo transformaremos en
Rx = Q
1
b = Q

b y, a diferencia del caso anterior, R = Q

A tiene el mismo
n umero de condicion que la matriz A del sistema original, ya que Q

es unitaria.
2.5.1 Factorizacion QR de Gram-Schmidt
Consideremos la matriz regular A =
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
= (a
1
a
2
a
n
)
donde a
i
representa a su columna i-esima.
Aplicando Gram-Schmidt existe un sistema ortonormal y
1
, y
2
, . . . , y
n
tal que
Ly
1
, y
2
, . . . , y
k
= La
1
, a
2
, . . . , a
k
, por lo que y
k+1
L

a
1
, a
2
, . . . , a
k
.
Sea Q la matriz cuyas columnas son los vectores y
i
, Q = (y
1
y
2
y
n
).
Entonces,
Q

A =
_
_
_
y

1
.
.
.
y

n
_
_
_
(a
1
a
n
) Q

A =
_
_
_
a
1
, y
1
) a
n
, y
1
)
.
.
.
.
.
.
.
.
.
a
1
, y
n
) a
n
, y
n
)
_
_
_
Como y
k+1
L

a
1
, a
2
, . . . , a
k
, se tiene que a
i
, y
j
) = 0 si, y solo si, i < j,
por lo que la matriz Q

A es una triangular superior.


Q

A = R =
_
_
_
_
_
_
r
11
r
12
r
1n
0 r
22
r
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 r
nn
_
_
_
_
_
_
96 Sistemas de ecuaciones lineales
Como las columnas de Q constituyen un sistema ortonormal de vectores, Q es
unitaria, es decir Q

Q = I, por lo que A = QR.


El problema que plantea la descomposicion QR es que la matriz Q no es otra
que la constituida por una base ortonormal obtenida a partir de las columnas
de A por el metodo de Gram-Schmidt. Las transformaciones que se realizan
para ortonormalizar los vectores columna de la matriz A mediante el metodo
de Gram-Schmidt son transformaciones no unitarias, por lo que aunque el
resultado sea una factorizacion ortogonal, los pasos que se han dado para
llegar a ella han sido transformaciones no ortogonales. Ello nos lleva a tratar
de buscar un metodo por el que podamos realizar una factorizacion QR en la
que todos los pasos que se realicen sean transformaciones ortogonales.
2.5.2 Factorizacion QR mediante rotaciones
Consideremos la matriz
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
1i
a
1j
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
ii
a
ij
a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j1
a
ji
a
jj
a
jn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
ni
a
nj
a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y tratemos de anular el elemento a
ji
,= 0. Para ello vamos a aplicar una
rotacion
Q
ji
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 cos sen 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 sen cos 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
La matriz Q
ji
A nos queda
Factorizaciones ortogonales 97
Q
ji
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a

11
a

1i
a

1j
a

1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a

i1
a

ii
a

ij
a

in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a

j1
a

ji
a

jj
a

jn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a

n1
a

ni
a

nj
a

nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
con a

ji
= a
ii
sen +a
ji
cos , por lo que
Si a
ii
= 0 = a

ji
= a
ji
cos y si queremos anularlo a
ji
cos = 0.
Dado que suponemos que a
ji
,= 0, basta con hacer cos = 0, es decir:
= /2.
Si a
ii
,= 0 tendremos que hacer a
ii
sen + a
ji
cos = 0, por lo que
t = tg =
a
ji
a
ii
y, por tanto,
sen =
t

1 +t
2
cos =
1

1 +t
2
Observese ademas que los unicos elementos que se alteran en la matriz Q
ji
A
son los correspondientes a la las y columnas i y j.
Podemos, por tanto, mediante rotaciones, anular todos los elementos subdia-
gonales y llegar a una matriz R triangular superior
Q
k
Q
2
Q
1
A = R Q

A = R con Q

= Q
k
Q
2
Q
1
Dado que las matrices Q
i
de las rotaciones son ortogonales, su producto
tambien los es, por lo que Q

es una matriz ortogonal y, por tanto, A = QR.


En este metodo de factorizacion QR, a diferencia del aplicado anteriormente
mediante el metodo de Gram-Schmidt todos los pasos que se dan estan asocia-
dos a transformaciones ortogonales, sin embargo resulta costoso ya que cada
rotacion hace un unico cero en la matriz A, por lo que para una matriz de
orden n seran necesarias
n
2
n
2
rotaciones.
Otra posibilidad es hacer reexiones en vez de rotaciones, ya que estas consi-
guen anular todos los elementos situados por debajo de uno prejado de una
determinada columna. Este tipo de transformaciones vamos a estudiarlas a
continuacion con las denominadas transformaciones de Householder.
98 Sistemas de ecuaciones lineales
2.5.3 Factorizacion QR de Householder
Consideremos un espacio vectorial de dimension n denido sobre un cuerpo
K, que denotaremos por K
n
(en general trabajaremos en R
n
o C
n
).
Denicion 2.12 [Transformaciones de Householder]
Dado un vector v K
n
se dene la transformacion H de Householder asociada
al vector v a la que viene denida por la matriz:
H =
_

_
I K
nn
si v = 0
I
2
v

v
vv

si v ,= 0
Proposicion 2.27 La transformacion H de Householder asociada a un vector
v K
n
posee las siguientes propiedades:
a) H es hermtica (H

= H).
b) H es unitaria (H

H = HH

= I).
c) H
2
= I o lo que es lo mismo, H
1
= H.
Demostracion.
a) H

=
_
I
2
v

v
vv

= I

_
2
v

v
_
(vv

= I
2
v

v
vv

= H
Observese que v

v = v, v ) = |v|
2
R, por lo que v

v = v

v
b) Teniendo en cuenta que H

= H
HH

= HH =
_
I
2
v

v
vv

__
I
2
v

v
vv

_
=
= I
4
v

v
vv

+
_
2
v

v
_
2
vv

vv

=
= I
4
v

v
vv

+
4
(v

v)
2
v(v

v)v

= I
4
v

v
vv

+
4
(v

v)
vv

= I
c) H
2
= HH = HH

= I.
Factorizaciones ortogonales 99
Interpretaci on geom etrica en R
n
Sean v R
n
un vector tal que |v|
2
= 1 y H la transformacion de Householder
asociada a el:
H = I 2vv
T
Dado un vector x R
n
se tiene que
Hx =
_
I 2vv
T
_
x = x 2vv
T
x = x 2v x, v ) =
= x 2v(|x| |v| cos ) = x 2v(|x| cos ) =
= x 2v con = |x| cos
donde representa el angulo que forman los vectores x y v.

v
x


Figura 2.2: = |x| cos .
Sea y el vector simetrico de x respecto del hiperplano perpendicular a v.

v
x
y
`
`
`
`
`
`
`
`
v
v v

` `
x v y +v
Figura 2.3: Un vector x y su transformado y = Hx.
Podemos observar que
y +v = x v y = x 2v = Hx
100 Sistemas de ecuaciones lineales
H reeja al vector x respecto del hiperplano perpendicular al vector v, por lo
que las transformaciones de Householder son tambien conocidas como ree-
xiones.
El siguiente resultado, valido para cualquier espacio vectorial (real o complejo),
es facil de comprobar, geometricamente, en el caso real.
Proposicion 2.28 Sea H la transformacion de Householder asociada a un
vector no nulo v.
a) x v = Hx = x.
b) x | v = Hx = x en particular Hv = v.
Demostracion.
a) Por ser x v, su producto escalar v

x es nulo, por lo que


Hx = (I
2
v

v
vv

)x = x
2
v

v
v(v

x) = x
b) x | v = x = v
Hx = (I
2
v

v
vv

)v = v
2
v

v
vv

v = v
2
v

v
v(v

v) =
= v 2v = v = x
En particular, para x = v se obtiene Hv = v.
Interpretaci on geom etrica en C
n
Cualquier vector x C
n
puede ser descompuesto de forma unica en la suma
de uno proporcional a v y otro w perteneciente a la variedad W ortogonal a
v, es decir
x = v +w con w v
As pues,
Hx = H(v +w) = H(v) +Hw = v +w
Hx es el vector simetrico de x respecto del hiperplano ortogonal a v.
Factorizaciones ortogonales 101
Determinaci on de las transformaciones
Caso real
Proposicion 2.29 Si x ,= y son dos vectores de R
n
con |x| = |y|, la
transformacion de Householder asociada al vector v = x y transforma
al vector x en el vector y, es decir, Hx = y.
Demostracion. Dado que ambos vectores tienen la misma norma,
x +y, x y ) = |x|
2
x, y ) + y, x ) |y|
2
= 0
`
`
`
`
`
`

`
x +y
y
x
x y
Figura 2.4: H
xy
transforma x en y.
Ademas, los vectores x e y son simetricos respecto de la direccion del vec-
tor x+y (vease la Fig. 2.4), por lo que la transformacion de Householder
asociada al vector v = x y transforma a x en y.
Considerense los vectores de igual norma
_
_
_
x = (x
1
, x
2
, . . . , x
n
)
T
y = (x
1
, x
2
, . . . , x
k
, |(x
k+1
, . . . , x
n
)
T
|, 0, . . . , 0)
T
La transformacion de Householder asociada al vector v = x y trans-
forma x en y y deja invariante a cualquier vector que tenga nulas todas
sus coordenadas a partir de la k + 1-esima.
Ejemplo 2.11 Sean
_
_
_
x = (1, 1, 1, 2, 2)
T
y = (1, 1,

1
2
+ 2
2
+ 2
2
, 0, 0)
T
= (1, 1, 3, 0, 0)
T
102 Sistemas de ecuaciones lineales
La transformacion de Householder asociada al vector
v = x y = (0, 0, 2, 2, 2)
T
H = I
2
v

v
vv

= I
2
12
vv

verica que:
Hx = (I
2
12
vv

)x = x
2
12
v(v

x) = x
2
12
v6 = x v = y
y para cualquier vector que tenga sus tres ultimas coordenadas nulas
w = (a, b, 0, 0, 0)
T
Hw = (I
2
12
vv

)w = w
2
12
v(v

w) = w
2
12
v 0 = w

Caso complejo
Considerense los vectores de igual norma
_

_
x = (x
1
, x
2
, . . . , x
n
)
T
y = (x
1
, x
2
, . . . , x
k
,
|(x
k+1
, . . . , x
n
)
T
|
[x
k+1
[
x
k+1
, 0, . . . , 0)
T
La transformacion de Householder asociada al vector v = x y trans-
forma x en y y deja invariante a cualquier vector que tenga nulas todas
sus coordenadas a partir de la k + 1-esima.
Ejemplo 2.12 Sean
_

_
x = (i, 3i, 4i)
T
y = (i,
_
[3i[
2
+[4i[
2
[3i[
3i, 0)
T
= (i, 5i, 0)
T
La transformacion de Householder asociada al vector
v = x y = (0, 2i, 4i)
T
H = I
2
v

v
vv

= I
2
12
vv

Factorizaciones ortogonales 103


verica que:
Hx = (I
2
20
vv

)x = x
2
20
v(v

x) = x
2
20
v10 = x v = y
y para cualquier vector que tenga su ultima coordenada nula
w = (a, b, 0)
T
Hw = (I
2
20
vv

)w = w
2
20
v(v

w) = w
2
20
v 0 = w

Factorizaci on QR de Householder
Sea A = (a
1
a
2
a
n
), donde a
i
representa la columna i-esima de la matriz.
Sean x
1
= a
1
=
_
_
_
_
_
_
a
11
a
21
.
.
.
a
n1
_
_
_
_
_
_
e y
1
=
_
_
_
_
_
_
|x
1
|
0
.
.
.
0
_
_
_
_
_
_
=
_
_
_
_
_
_
r
11
0
.
.
.
0
_
_
_
_
_
_
.
La transformacion de Householder H
1
, asociada al vector v
1
= x
1
y
1
, trans-
forma x
1
en y
1
, es decir, anula a todos los elementos de la primera columna
situados debajo de a
11
.
H
1
A =
_
_
_
_
_
_
r
11
a
(1)
12
a
(1)
1n
0 a
(1)
22
a
(1)
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 a
(1)
n2
a
(1)
nn
_
_
_
_
_
_
= (a
(1)
1
a
(1)
2
a
(1)
n
)
en la que a
(1)
i
representa la columna i-esima de la matriz H
1
A.
Busquemos ahora otro vector v
2
tal que la transformacion de Householder H
2
asociada a el, deje invariante al vector a
(1)
1
y transforme al vector a
(1)
2
en otro
de la forma (r
12
, r
22
, 0, . . . , 0)
T
.
Tomando x
2
= a
(1)
2
=
_
_
_
_
_
_
_
_
a
(1)
21
a
(1)
22
a
(1)
32
.
.
.
a
(1)
n2
_
_
_
_
_
_
_
_
e y
2
=
_
_
_
_
_
_
_
_
a
(1)
21
|(a
(1)
22
, . . . , a
(1)
n2
)
T
|
0
.
.
.
0
_
_
_
_
_
_
_
_
, la trans-
formacion H
2
asociada al vector v
2
= x
2
y
2
deja invariante al vector a
(1)
1
y
transforma x
2
= a
(1)
2
en y
2
.
104 Sistemas de ecuaciones lineales
Reiterando al procedimiento se puede transformar la matriz A en una trian-
gular superior R en, a lo mas, n 1 transformaciones.
Llegados a ese paso se tiene que
H
k
H
k1
H
1
A = R Q

A = R con Q

= H
k
H
k1
H
1
de donde
A = QR. con Q = H
1
H
2
H
k
Si lo que nos interesa es resolver el sistema aplicamos las transformaciones al
sistema y no solo a la matriz A.
H
k
H
k1
H
1
Ax = H
k
H
k1
H
1
b Rx = b

sistema triangular de facil resolucion.


Ejemplo 2.13 Consideremos la matriz A =
_
_
_
1 1 1
2 0 1
2 7 1
_
_
_
.
Como x
1
=
_
_
_
1
2
2
_
_
_
e y
1
=
_
_
_
_
1
2
+ 2
2
+ (2)
2
0
0
_
_
_
=
_
_
_
3
0
0
_
_
_
, se tiene que
v
1
= x
1
y
1
=
_
_
_
2
2
2
_
_
_
H
1
= I
2
v

1
v
1
v
1
v

1
= I
2
12
_
_
_
2
2
2
_
_
_
_
2 2 2
_
=
_
_
_
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
_
_
_
H
1
A =
_
_
_
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
_
_
_
_
_
_
1 1 1
2 0 1
2 7 1
_
_
_
=
_
_
_
3 5
1
/
3
0 4
1
/
3
0 3
5
/
3
_
_
_
x
2
=
_
_
_
5
4
3
_
_
_
y
2
=
_
_
_
5

4
2
+ 3
2
0
_
_
_
=
_
_
_
5
5
0
_
_
_
= v
2
= x
2
y
2
=
_
_
_
0
1
3
_
_
_
H
2
= I
2
v

2
v
2
v
2
v

2
= I
2
10
_
_
_
0
1
3
_
_
_
_
0 1 3
_
=
_
_
_
1 0 0
0
4
/
5
3
/
5
0
3
/
5

4
/
5
_
_
_
Factorizaciones ortogonales 105
H
2
H
1
A =
_
_
_
1 0 0
0
4
/
5
3
/
5
0
3
/
5

4
/
5
_
_
_
_
_
_
3 5
1
/
3
0 4
1
/
3
0 3
5
/
3
_
_
_
=
_
_
_
3 5
1
/
3
0 5
19
/
15
0 0
17
/
15
_
_
_
= R
Q = H
1
H
2
=
_
_
_
1
/
3
2
/
15
14
/
15
2
/
3
2
/
3

1
/
3

2
/
3
11
/
15
2
/
15
_
_
_
Vericandose que A = QR con Q unitaria y R triangular superior.
Observese que H
1
A =
_
_
_
_
_
_

11
a
(1)
12
a
(1)
1n
0
.
.
. A
(1)
0
_
_
_
_
_
_
siendo A
(1)
una matriz de
un orden inferior al de la matriz A.
El vector v
2
tiene la primera coordenada nula, por lo que
H
2
= I
2
v

2
v
2
v
2
v

2
=
_
_
_
_
_
_
1 0 0
0
.
.
. H
(2)
0
_
_
_
_
_
_
H
2
(H
1
A) =
_
_
_
_
_
_
1 0 0
0
.
.
. H
(2)
0
_
_
_
_
_
_
_
_
_
_
_
_

11
a
(1)
12
a
(1)
1n
0
.
.
. A
(1)
0
_
_
_
_
_
_
=
H
2
H
1
A =
_
_
_
_
_
_

11
a
(1)
12
a
(1)
1n
0
.
.
. H
(2)
A
(1)
0
_
_
_
_
_
_
Es decir, H
2
deja invariantes a los elementos de la primera la y la primera
columna de H
1
A.
106 Sistemas de ecuaciones lineales
Analogamente, H
3
=
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0
.
.
.
.
.
. H
(3)
0 0
_
_
_
_
_
_
_
_
dejara invariantes a los elemen-
tos de las dos primeras las y las dos primeras columnas de H
2
H
1
A y as
sucesivamente.
Podemos, por lo tanto, trabajar, para cada transformacion, en un espacio de
una dimension inferior que en la transformacion anterior.
Ejemplo 2.14 Para la matriz del Ejemplo 2.13 se tiene:
x
1
=
_
_
_
1
2
2
_
_
_
y
1
=
_
_
_
_
1
2
+ 2
2
+ (2)
2
0
0
_
_
_
=
_
_
_
3
0
0
_
_
_
=
v
1
= x
1
y
1
=
_
_
_
2
2
2
_
_
_
H
1
= I
2
v

1
v
1
v
1
v

1
= I
2
12
_
_
_
2
2
2
_
_
_
_
2 2 2
_
=
_
_
_
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
_
_
_
H
1
A =
_
_
_
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
_
_
_
_
_
_
1 1 1
2 0 1
2 7 1
_
_
_
=
_
_
_
3 5
1
/
3
0 4
1
/
3
0 3
5
/
3
_
_
_
Hasta aqu, igual que en el Ejemplo 2.13.
Nos jamos ahora en la matriz A
(1)
=
_
4
1
/
3
3
5
/
3
_
.
Tomando
x
2
=
_
4
3
_
y
2
=
_

4
2
+ 3
2
0
_
=
_
5
0
_
= v
2
= x
2
y
2
=
_
1
3
_
H
(2)
= I
2

2
v

2
v
2
v
2
v

2
= I
2

2
10
_
1
3
_
_
1 3
_
=
_
4
/
5
3
/
5
3
/
5

4
/
5
_
Sistemas superdeterminados. Problema de los mnimos cuadrados 107
Por lo que H
2
=
_
_
_
1 0 0
0
4
/
5
3
/
5
0
3
/
5

4
/
5
_
_
_
Teniendo en cuenta que
H
(2)
A
(1)
=
_
4
/
5
3
/
5
3
/
5

4
/
5
__
4
1
/
3
3
5
/
3
_
=
_
5
19
/
15
0
17
/
15
_
Podramos obtener
H
2
H
1
A =
_
_
_
3 5
1
/
3
0 5
19
/
15
0 0
17
/
15
_
_
_
que es el mismo resultado que el obtenido en el Ejemplo 2.13 pero trabajando
cada vez con una dimension menos.
2.6 Sistemas superdeterminados. Problema de
los mnimos cuadrados
Sea A = (a
1
a
2
a
n
) una matriz cuadrada de orden n, A K
nn
, donde a
i
representa la columna i-esima de la matriz A, y sean x y b son vectores de K
n
.
Sabemos, por el teorema de Rouche-Frobenius, que el sistema Ax = b tiene
solucion si, y solo si, existen x
1
, x
2
, . . . , x
n
K
n
tales que
x
1
a
1
+x
2
a
2
+ +x
n
a
n
= b
Es decir, el vector b puede expresarse como una combinacion lineal de las
columnas a
i
de la matriz A, por lo que b C(A) (espacio columna de A).
Sin embargo, existen problemas en los que no ocurre as. Supongamos que
se tienen tres puntos en el plano y se desea calcular la recta que pasa por
ellos. Evidentemente, y dado que una recta la determinan solo dos puntos, el
problema no tiene solucion (salvo que los tres puntos esten alineados). Desde
el punto de vista algebraico este problema se expresa de la siguiente forma:
sean P = (a
1
, b
1
), Q = (a
2
, b
2
) y R = (a
3
, b
3
). Si tratamos de hallar la ecuacion
de la recta y = mx +n que pasa por ellos se obtiene
ma
1
+n = b
1
ma
2
+n = b
2
ma
3
+n = b
3

_
_
_
a
1
1
a
2
1
a
3
1
_
_
_
_
m
n
_
=
_
_
_
b
1
b
2
b
3
_
_
_
108 Sistemas de ecuaciones lineales
Decir que el sistema no posee solucion equivale a decir que el vector
b =
_
_
_
b
1
b
2
b
3
_
_
_
no pertenece al espacio columna de la matriz A =
_
_
_
a
1
1
a
2
1
a
3
1
_
_
_
.
Denicion 2.13 [Sistema superdeterminado]
Se dene un sistema superdeterminado como aquel sistema de ecuaciones li-
neales Ax = b en el que A K
mn
con m > n, x K
n
y b K
m
.
Supongamos que se tiene un sistema superdeterminado
_
_
_
_
_
_
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
.
.
.
.
.
.
a
m1
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
=
_
_
_
_
_
_
_
_
_
b
1
.
.
.
b
n
.
.
.
b
m
_
_
_
_
_
_
_
_
_
con m > n, en el que rg A = n es decir, en el que la matriz del sistema tiene
rango maximo, y denotemos por a
1
, a
2
, . . . , a
n
las columnas de A.
Si el sistema es incompatible es debido a que el vector b no pertenece al espacio
columna de A. Tomando cualquier vector b C(A) se sabe que el sistema
Ax = b posee solucion unica.
Denicion 2.14 [Problema de los mnimos cuadrados]
Se conoce como problema de los mnimos cuadrados al problema de encontrar,
de entre todos los vectores del espacio columna de A, aquel que minimiza su
distancia al vector b, es decir, aquel vector

b C(A) tal que |b

b| es mnima.
Dicho vector es la proyeccion ortogonal de b sobre el espacio C(A) y, respecto
de la base formada por las columnas a
i
(1 i n) de la matriz A, tiene por
coordenadas

b = ( b, a
1
), b, a
2
), . . . , b, a
n
)
Dado que b , C(A) y

b C(A) (

b proyeccion ortogonal de b sobre C(A)),


podemos expresar b como suma de

b mas otro vector c de la variedad ortogonal
a C(A) y, ademas, de forma unica.
Entonces:
b, a
i
) =

b +c, a
i
) =

b, a
i
) + c, a
i
) =

b, a
i
) 1 i n
Sistemas superdeterminados. Problema de los mnimos cuadrados 109
b
C(A)

b
`
c

Figura 2.5: La proyeccion de b en el espacio columna de A.


El sistema Ax =

b posee solucion unica es decir, existen (
1
,
2
, . . . ,
n
) unicos,
tales que

1
a
1
+
2
a
2
+ +
n
a
n
=

b A
_
_
_

1
.
.
.

n
_
_
_
=

b
Multiplicando esta ecuacion por a
1
, a
2
, . . ., a
n
, obtenemos

1
a
1
, a
1
) + +
n
a
1
, a
n
) =

b, a
1
) = b, a
1
)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1
a
n
, a
1
) + +
n
a
n
, a
n
) =

b, a
n
) = b, a
n
)
que equivale a
_
_
_
a

1
a
1
a

1
a
n
.
.
.
.
.
.
.
.
.
a

n
a
1
a

n
a
n
_
_
_
_
_
_

1
.
.
.

n
_
_
_
=
_
_
_
a

1
b
.
.
.
a

n
b
_
_
_
es decir
_
_
_
a

1
.
.
.
a

n
_
_
_
_
a
1
a
n
_
_
_
_

1
.
.
.

n
_
_
_
=
_
_
_
a

1
.
.
.
a

n
_
_
_
b
o, lo que es lo mismo:
A

A
_
_
_

1
.
.
.

n
_
_
_
= A

b
As pues, la solucion del sistema A

Ax = A

b nos proporciona las coordenadas,


respecto de la base formada por las columnas de la matriz A, del vector

b
proyeccion ortogonal de b sobre el espacio columna C(A).
110 Sistemas de ecuaciones lineales
Denicion 2.15 [Ecuaciones normales de un sistema]
Las ecuaciones A

Ax = A

b reciben el nombre de ecuaciones normales del


sistema superdeterminado Ax = b.
Denicion 2.16 [Sol. en mnimos cuadrados: Pseudosoluci on]
Las soluciones del sistema determinado por las ecuaciones normales de un sis-
tema superdeterminado Ax = b reciben el nombre de solucion(es) en mnimos
cuadrados y de todas las posibles soluciones en mnimos cuadrados, la de me-
nor norma recibe el nombre de pseudosolucion del sistema.
Observese que si la matriz A no tiene rango maximo, lo unico que se dispone del
espacio columna de A es de un sistema generador y no de una base, por lo que
las coordenadas del vector proyeccion respecto de dicho sistema generador no
son unicas obteniendose innitas soluciones en mnimos cuadrados del sistema.
2.6.1 Transformaciones en sistemas superdeterminados
Sabemos que dado un sistema compatible Ax = b y mediante transformaciones
elementales puede obtenerse otro sistema BAx = Bb equivalente al anterior,
es decir, obtenemos un sistema que posee la misma (o las mismas) soluciones
que el sistema dado.
Si partimos de un sistema superdeterminado y realizamos, al igual que antes,
transformaciones elementales, puede que el sistema obtenido no posea la misma
pseudosolucion que el sistema dado.
Observese que para que los sistemas superdeterminados
Ax = b y BAx = Bb
posean la misma pseudosolucion, han de tener igual solucion (han de ser equi-
valentes) los sistemas
A

Ax = A

b
(BA)

BAx = (BA)

Bb A

(B

B)Ax = A

(B

B)b
por lo que solo podremos garantizar que ambos sistemas son equivalentes si
B

B = I ya que, en dicho caso, ambos sistemas son el mismo.


Es decir, las unicas transformaciones que podemos garantizar que no alteraran
la solucion de un sistema superdeterminado son las unitarias.
Sistemas superdeterminados. Problema de los mnimos cuadrados 111
Dado que las transformaciones de Householder son unitarias, podemos utili-
zarlas para resolver sistemas superdeterminados.
Consideremos el sistema superdeterminado Ax = b (en el que suponemos A
de rango maximo). Mediante transformaciones de Householder H
1
, H
2
, . . . , H
n
podemos transformar la matriz A en otra de la forma
HA = H
n
H
1
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
t
11
t
12
t
1n
0 t
22
t
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 t
nn
0 0 0
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
T

_
La pseudosolucion de este sistema superdeterminado es la solucion del sistema
(HA)

(HA)x = (HA)

Hb
_
T


_
_
T

_
x =
_
T


_
Hb
o llamando Hb = b

=
_
_
_
_
_
_
_
_
_
b

1
.
.
.
b

n
.
.
.
b

m
_
_
_
_
_
_
_
_
_
,
_
T


_
_
T

_
x =
_
T


_
b

.
Es facil comprobar que
_
T


_
_
_
_
_
_
_
_
_
_
b

1
.
.
.
b

n
.
.
.
b

m
_
_
_
_
_
_
_
_
_
= T

_
_
_
b

1
.
.
.
b

n
_
_
_
, por lo que el calculo
de la pseudosolucion del sistema superdeterminado Ax = b se hace resolviendo
el sistema
T

Tx = T

_
_
_
b

1
.
.
.
b

n
_
_
_
y dado que estamos suponiendo que A tiene rango maximo, la matriz T posee
inversa y por tanto T

, por lo que la solucion es la misma que la del sistema


112 Sistemas de ecuaciones lineales
triangular
Tx =
_
_
_
b

1
.
.
.
b

n
_
_
_
Tx =

b
Una vez calculada la pseudosolucion, la norma del error esta representada por
la distancia |b

b| que viene dada por


_
_
_
_
_
_
_
_
_
_
_
_
_
_
T

_
x
_
_
_
_
_
_
_
_
_
b

1
.
.
.
b

n
.
.
.
b

m
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b

1
.
.
.
b

n
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
_
_
_
b

1
.
.
.
b

n
b

n+1
.
.
.
b

m
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
b

n+1
.
.
.
b

m
_
_
_
_
_
_
_
_
_
_
Por ultimo, si la matriz A no tiene rango maximo, sus columnas no son li-
nealmente independientes, por lo que solo constituyen un sistema generador
(no una base) del espacio columna C(A). Ello nos lleva a la existencia de
innitas n-uplas (
1
,
2
, . . . ,
n
) soluciones del sistema Ax =

b y, por tanto, a
innitas soluciones en mnimos cuadrados del sistema superdeterminado, pero
teniendo en cuenta que al ser unica la proyeccion ortogonal

b de b sobre el es-
pacio columna C(A), todas ellas representan diferentes coordenadas del vector

b respecto del sistema generador de C(A) dado por las columnas de A.


Sin embargo, el error cometido |b

b| es el mismo para todas las soluciones


en mnimos cuadrados del sistema. De entre todas ellas, la de menor norma
eucldea es la pseudosolucion.
2.7 Ejercicios resueltos
Ejercicio 2.1 Estudiar el n umero de condicion de Frobenius de la matriz
A =
_
a b
a + b
_
.
Soluci on: El determinante de A es [A[ = ab +b(a +) = b .
Si b ,= 0 y ,= 0 es [A[ , = 0 y, por tanto, A es invertible, siendo su inversa:
A
1
=
1
b
_
b b
a a
_
Ejercicios resueltos 113
El n umero de condicion de Frobenius viene dado por
F
(A) = |A|
F
|A
1
|
F
.
|A|
2
F
= a
2
+b
2
+ (a +)
2
+b
2
= 2a
2
+ 2b
2
+ 2a +
2
|A
1
|
2
F
=
b
2
+b
2
+ (a )
2
+a
2
b
2

2
=
2a
2
+ 2b
2
+ 2a +
2
b
2

2
Por lo que:

2
F
(A) =
(2a
2
+ 2b
2
+ 2a +
2
)
2
b
2

2
=
F
(A) =
[2a
2
+ 2b
2
+ 2a +
2
[
[b [
.
Observese que cuando tiende a cero, el n umero de condicion de Frobenius

F
(A) lo hace a innito, por lo que la matriz A esta mal condicionada.
Por ejemplo: para a = 10 y b = 1 se tiene que

F
(A) =
202 + 20 +
2
[[
=
202
[[
20 +[[
Si = 10
8

F
(A) 2 10
10
.
Ejercicio 2.2 Dado el sistema:
_
3x + 4y = 7
3x + 5y = 8
a) Calcular su n umero de condicion eucldeo.
b) Sustituir la segunda ecuacion por una combinacion lineal de ambas, de
forma que el n umero de condicion sea mnimo.
Soluci on:
a) La matriz del sistema es A =
_
3 4
3 5
_
.
A

A =
_
3 3
4 5
__
3 4
3 5
_
=
_
18 27
27 41
_
P() =

18 27
27 41

= ( 18)( 41) 27
2
=
2
59 + 9.
114 Sistemas de ecuaciones lineales
Las races de P() son: =
59

3481 36
2
=
59

3445
2
=

1
=

59

3445
2
y
2
=

59 +

3445
2

2
(A) =

2

1
=

59 +

3445
59

3445
=

(59 +

3445)
2
36
=
59 +

3445
6
=

2
(A) = 19.61568707 . . .
b) La matriz resultante de la combinacion lineal es
B =
_
3 4
3a + 3b 4a + 5b
_
.
Una matriz tiene n umero de condicion eucldeo mnimo (y vale 1) si, y
solo si, es proporcional a una matriz unitaria. Por tanto, B debe tener
las las (o las columnas) ortogonales y de igual norma.
(3 4)
_
3a + 3b
4a + 5b
_
= 0 3(3a + 3b) + 4(4a + 5b) = 0 =
25a + 29b = 0
Ambas las han de tener la misma norma, por lo que
(3 4)
_
3
4
_
= (3a + 3b 4a + 5b)
_
3a + 3b
4a + 5b
_
=
25 = 25a
2
+ 34b
2
+ 58ab
Las condiciones que tenemos son:
25a + 29b = 0
25a
2
+ 34b
2
+ 58ab = 25
_
_
_
=
_

_
a =
29
3
b =
25
3
Tomando, por ejemplo, a =
29
3
y b =
25
3
(el otro caso es analogo),
obtenemos:
Ejercicios resueltos 115
B =
_
3 4
4 3
_
= 5 U con U =
_
0.6 0.8
0.8 0.6
_
unitaria.
El sistema resultante es
_
3x + 4y = 7
4x 3y = 1
y su n umero de condicion
eucldeo es
2
(B) = 1.
Ejercicio 2.3 Sea 0.5, 1.5, 2.5 y consideremos el sistema iterado
_
x
n+1
y
n+1
_
=
_
_
_
_
_
1

1 1
1
1

+ 1
_
_
_
_
_
_
x
n
y
n
_
+
_
_
_
_
_
1
1

1
1

_
_
_
_
_
Se pide
a) Resolver el sistema resultante de tomar lmites para probar que, en caso
de que converja, el lmite de la sucesion
_ _
x
0
y
0
_
,
_
x
1
y
1
_
,
_
x
2
y
2
_
. . .
_
no depende de .
b) Para que valores de converge la sucesion?
c) Para los valores anteriores que hacen que la sucesion sea convergente,
con cual lo hace mas rapidamente?
d) Comenzando con el vector
_
x
0
y
0
_
=
_
0.5
0.5
_
, aproximar iteradamente
el lmite de la sucesion utilizando el valor de que acelere mas la con-
vergencia.
Soluci on:
a) En caso de que converja, tomando lmites obtenemos que
_
1 0
0 1
__
x
y
_
=
_
_
_
1

1 1
1
1

+ 1
_
_
_
_
x
y
_
+
_
_
_
1
1

1
1

_
_
_
o lo que es lo mismo
_
_
_
2
1

1
1
1

_
_
_
_
x
y
_
=
_
_
_
1
1

1
1

_
_
_
=
116 Sistemas de ecuaciones lineales
_
_
_
1
1

1 +
1

1
1

_
_
_
_
x
y
_
=
_
_
0
1
1

_
_
por lo que
_

_
x = y
_
1
1

_
x = 1
1

= x = y = 1 ya que ,= 1
es decir, la solucion (el lmite de la sucesion) no depende de .
b) El polinomio caracterstico de la matriz
_
_
_
1

1 1
1
1

+ 1
_
_
_
del metodo
iterado es P() =
2

+
1

2
que admite la raz doble
1

.
Dado que el radio espectral de la matriz debe ser menor que 1, ha de
ser mayor que 1, por lo que converge para = 1.5 y para = 2.5, pero
no lo hace para = 0.5.
c) El metodo converge mas rapidamente para el valor de que hace menor
el radio espectral de la matriz, es decir, para = 2.5.
d) Partiendo de
_
x
0
y
0
_
=
_
0.5
0.5
_
y tomando = 2.5 se obtiene:
_
x
1
y
1
_
=
_
4
/
5
4
/
5
_ _
x
2
y
2
_
=
_
23
/
25
23
/
25
_ _
x
3
y
3
_
=
_
121
/
125
121
/
125
_
. . .
que podemos observar como converge a
_
x
y
_
=
_
1
1
_
que era la
solucion del sistema.
Ejercicio 2.4 Dado el sistema:
4x + 5y = 13
3x + 5y = 11
a) Realizar la factorizacion QR de la matriz, y resolverlo basandose en ella
a.1) Mediante el metodo de Gram-Schmidt,
Ejercicios resueltos 117
a.2) Mediante transformaciones de Householder.
b) Calcular el n umero de condicion eucldeo del sistema inicial y del trans-
formado, comprobando que son iguales.
Soluci on:
a) El sistema a resolver es Ax = b
_
4 5
3 5
__
x
y
_
=
_
13
11
_
a.1) Utilizando el metodo de Gram-Schmidt:
v
1
=
_
4
3
_
v
2
=
_
5
5
_
+
_
4
3
_
v
1
v
2
= v
1
, v
2
) = 0 = 35 + 25 = 0 = =
7
/
5
por tanto,
v
2
=
1
5
__
25
25
_
7
_
4
3
__
=
_

3
/
5
4
/
5
_
Q =
_
4
/
5

3
/
5
3
/
5
4
/
5
_
R = Q

A =
_
4
/
5
3
/
5

3
/
5
4
/
5
__
4 5
3 5
_
=
_
5 7
0 1
_
Se obtiene, por tanto, que A = QR donde Q es unitaria y R trian-
gular superior. El sistema se transforma en otro triangular de la
manera siguiente:
Ax = b QRx = b Rx = Q

b
En nuestro caso:
Q

b =
_
4
/
5
3
/
5

3
/
5
4
/
5
__
13
11
_
=
_
17
1
_
quedandonos el sistema triangular
_
5 7
0 1
__
x
y
_
=
_
17
1
_
cuya solucion es
x = 2 y = 1.
118 Sistemas de ecuaciones lineales
a.2) Utilizando transformaciones de Householder se obtiene:
x =
_
4
3
_
y =
_

4
2
+ 3
2
0
_
=
_
5
0
_
v = x y =
_
1
3
_
H = I
2
v

v
vv

=
_
1 0
0 1
_

1
5
_
1 3
3 9
_
=
_
4
/
5
3
/
5
3
/
5

4
/
5
_
Al solo ser necesaria una transformacion de Householder, se tiene
que
Q = H

= H =
_
4
/
5
3
/
5
3
/
5

4
/
5
_
R = Q

A = HA =
_
4
/
5
3
/
5
3
/
5

4
/
5
__
4 5
3 5
_
=
_
5 7
0 1
_
Transformando el sistema obtenemos:
Ax = b QRx = b Rx = Q

b = Hb
Dado que
Hb =
_
4
/
5
3
/
5
3
/
5

4
/
5
__
13
11
_
=
_
17
1
_
nos queda el sistema triangular
_
5 7
0 1
__
x
y
_
=
_
17
1
_
cuya solucion
x = 2 y = 1.
b) El n umero de condicion eucldeo viene dado por
2
(A) =

2

1
donde
2
el
mayor y
1
el menor de los valores singulares de la matriz A.
Los valores singulares son las races cuadradas positivas de los autovalo-
res de la matriz A

A.
Cuando calculamos el n umero de condicion de la matriz R del sistema
transformado, realizaremos el mismo proceso con esta nueva matriz, es
decir, debemos calcular los autovalores de la matriz R

R.
Ejercicios resueltos 119
Dado que
A

A =
_
4 3
5 5
__
4 5
3 5
_
=
_
25 35
35 50
_
R

R =
_
5 0
7 1
__
5 7
0 1
_
=
_
25 35
35 50
_
los valores singulares de las matrices A y R son los mismos, por lo que
se obtiene el mismo n umero de condicion eucldeo.
El polinomio caracterstico de A

A es p() =
2
75 + 25, por
lo que sus autovalores son
1
74.665 y
2
0.335 y, por tanto,
los valores singulares de la matriz A son
2

74.665 8.64 y

0.335 0.58, de donde

2
(A) =
2
(R) =

2

1
14.9
Ejercicio 2.5 Resolver por el metodo de Householder el sistema:
_
_
_
1 1 1
2 0 1
2 7 1
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
0
4
7
_
_
_
Soluci on:
x =
_
_
_
1
2
2
_
_
_
y =
_
_
_
3
0
0
_
_
_
v
1
= x y =
_
_
_
2
2
2
_
_
_
H
1
= I
3

2
v

1
v
1
v
1
v

1
= I
3

2
12
_
_
_
2
2
2
_
_
_
_
2 2 2
_
=
= I
3

1
3
_
_
_
2 2 2
2 2 2
2 2 2
_
_
_
=
_
_
_
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
_
_
_
Aplicando la transformacion al sistema se obtiene
_
_
_
3 5
1
/
3
0 4
1
/
3
0 3
5
/
3
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
22
/
3

10
/
3
1
/
3
_
_
_
120 Sistemas de ecuaciones lineales
Dado que la segunda transformacion no va a afectar ni a la primera ecuacion
ni a la primera columna de la matriz A, la calculamos solo para el menor
asociado al elemento a
11
.
x =
_
4
3
_
y =
_
5
0
_
v
2
= x y =
_
1
3
_
H
2
= I
2

2
v

2
v
2
v
2
v

2
= I
2

1
5
_
1
3
_
_
1 3
_
=
_
4
/
5
3
/
5
3
/
5

4
/
5
_
H
2
_
4
1
/
3
3
5
/
3
_
=
_
5
19
/
15
0
17
/
15
_
H
2
_

10
/
3
1
/
3
_
=
_

37
/
15

34
/
15
_
Por lo que nuestro sistema ha quedado reducido a
_
_
_
3 5
1
/
3
0 5
19
/
15
0 0
17
/
15
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
22
/
3

37
/
15

34
/
15
_
_
_
cuya solucion es x = 1, y = 1, z = 2.
Ejercicio 2.6 Buscar la solucion de mnimos cuadrados del sistema Ax = b,
siendo:
A =
_
_
_
3 1
4 2
0 1
_
_
_
y b =
_
_
_
0
2
1
_
_
_
a) A traves de sus ecuaciones normales.
b) Por el metodo de Householder.
Soluci on:
a) Las ecuaciones normales, dadas por A

Ax = A

b son
_
3 4 0
1 2 1
_
_
_
_
3 1
4 2
0 1
_
_
_
_
x
y
_
=
_
3 4 0
1 2 1
_
_
_
_
0
2
1
_
_
_
Es decir:
_
25 5
5 6
__
x
y
_
=
_
8
5
_
Ejercicios resueltos 121
sistema que es equivalente a
_
25 5
0 5
__
x
y
_
=
_
8
17
/
5
_
y cuya solucion (la solucion en mnimos cuadrados buscada) es
x =
23
125
, y =
17
25
.
b)
x
1
=
_
_
_
3
4
0
_
_
_
= y
1
=
_
_
_
|x
1
|
0
0
_
_
_
=
_
_
_
5
0
0
_
_
_
= v
1
= x
1
y
1
=
_
_
_
2
4
0
_
_
_
H
1
= I
3

2
v

1
v
1
2v
1
v

1
= I
3

2
20
_
_
_
2
4
0
_
_
_
_
2 4 0
_
=
=
_
_
_
3
/
5
4
/
5
0
4
/
5

3
/
5
0
0 0 1
_
_
_
Aplicando la transformacion al sistema, se obtiene
_
_
_
5 1
0 2
0 1
_
_
_
_
x
y
_
=
_
_
_
8
/
5

6
/
5
1
_
_
_
Para que x
(1)
2
=
_
2
1
_
se transforme en y
(1)
2
=
_
|x
(1)
2
|
0
_
=
_

5
0
_
construimos la transformacion H
(2)
2
de Householder asociada al vector
v
2
= x
(1)
2
y
(1)
2
=
_
2

5
1
_
H
(2)
2
=
_

2

5
/
5

5
/
5

5
/
5
2

5
/
5
_
=H
2
=
_
_
_
1 0 0
0
2

5
/
5

5
/
5
0

5
/
5
2

5
/
5
_
_
_
122 Sistemas de ecuaciones lineales
que aplicada al sistema anterior nos da
_
_
_
5 1
0

5
0 0
_
_
_
_
x
y
_
=
_
_
_
8
/
5
17
/
5

5
4
/
5

5
_
_
_
porlo que la pseudosolucion del sistema es x =
23
125
, y =
17
25
y el error
viene dado por

4
5

0.3578.
2.8 Ejercicios propuestos
Ejercicio 2.7 Dado el sistema
_
x + y = 2
2x + y = 3
a) Calcular su n umero de condicion de Frobenius.
Sol :
F
(A) = 7.
b) Calcular a para que el n umero de condicion del sistema resultante de
sumarle a la segunda ecuacion la primera multiplicada por dicha cons-
tante a, sea mnimo.
Sol : a = 3/2.
Ejercicio 2.8 Comprobar que la matriz:
A =
_
_
_
_
_
_
_
_
1 2 0 0 0
1 4 3 0 0
0 4 9 4 0
0 0 9 16 5
0 0 0 16 25
_
_
_
_
_
_
_
_
admite factorizacion LU y realizarla.
Sol : L =
_
_
_
_
_
_
_
_
1 0 0 0 0
1 1 0 0 0
0 2 1 0 0
0 0 3 1 0
0 0 0 4 1
_
_
_
_
_
_
_
_
y U =
_
_
_
_
_
_
_
_
1 2 0 0 0
0 2 3 0 0
0 0 3 4 0
0 0 0 4 5
0 0 0 0 5
_
_
_
_
_
_
_
_
. Todas sus matrices
fundamentales son regulares.
Ejercicios propuestos 123
Ejercicio 2.9 Resolver, por el metodo de Cholesky, el sistema de ecuaciones:
_
_
_
6 1 + 3i 1 2i
1 3i 3 1 + i
1 + 2i 1 i 2
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_
=
_
_
_
1 2i
1 + i
1 2i
_
_
_
Sol : x
1
= 1 2i, x
2
= 3 i, x
3
= 1 + 2i.
Ejercicio 2.10 Dada la matriz A =
_
_
_
p p 2p
p p + 2 1
2p 1 6p 1
_
_
_
se pide:
a) Determinar para que valores de p es hermtica y denida positiva.
Sol : p (
1
/
2
,
3
/
2
).
b) Para p = 1, efectuar la descomposicion de Cholesky y utilizarla para
resolver el sistema Ax = b siendo b = (1 0 3)
t
.
Sol : x
1
= 1, x
2
= 0, x
3
= 1.
Ejercicio 2.11 Resolver, utilizando MatLab y comenzando con el vector nulo,
el sistema:
10x
1
x
2
+ 2x
3
= 6
x
1
+ 11x
2
x
3
+ 3x
4
= 25
2x
1
x
2
+ 10x
3
x
4
= 11
3x
2
x
3
+ 8x
4
= 15
por los metodos de Jacobi, Gauss-Seidel y SOR con = 1.2.
Sol : (x
1
, x
2
, x
3
, x
4
) = (1, 2, 1, 1). Jacobi 42 iteraciones, Gauss-Seidel 16 y
SOR 24.
Ejercicio 2.12 Al resolver el sistema
_

_
x 3y + 5z = 5
8x y z = 8
2x + 4y + z = 4
por el metodo de Gauss-Seidel, utilizando MATLAB, observamos que el pro-
grama se detiene en la iteracion 138 dandonos el vector (inf inf -inf)
T
.
124 Sistemas de ecuaciones lineales
a) El metodo de Gauss-Seidel realiza el proceso x
n+1
= L
1
x
n
+c. Determina
la matriz L
1
.
Sol : L
1
=
_
_
_
0 3 5
0 24 41
0 90 154
_
_
_
b) Utilizar los crculos de Gerschgorin para estimar el modulo de los auto-
valores de L
1
.
Sol : [
i
[ 244.
c) Justicar el porque de la divergencia del metodo.
Sol : (L
1
) > 1.
d) Existe alguna condicion suciente que deba cumplir la matriz de un
sistema para garantizar la convergencia del metodo de Gauss-Seidel?
Hacer uso de ella para modicar el sistema de forma que el proceso sea
convergente?
Sol : Llevando la primera ecuacion al ultimo lugar, la matriz del sistema
resultante es de diagonal dominante y por tanto converge el metodo.
Ejercicio 2.13
a) Dado un sistema Ax = b, el metodo de Gauss-Seidel consiste en cons-
truir la sucesion x
n+1
= L
1
x
n
+ c, a partir de un vector inicial x
0
. Si
conocemos el valor de x
n+1
podramos determinar el de x
n
haciendo
x
n
= L
1
1
(x
n+1
c)?
Sol : No. L
1
no tiene inversa. Porque?, justifcalo.
b) Si la matriz A del sistema es de diagonal estrictamente dominante,
puede ser el radio espectral de L
1
mayor que 1?
Sol : No. Porque?, justifcalo.
c) Si, para un determinado sistema y comenzando con un determinado vec-
tor x
0
, el metodo de Gauss-Seidel requiere 50 iteraciones para aproximar
la solucion con un error menor que y en la iteracion 49 se pierde la pri-
mera coordenada del vector x
49
y la sustituimos por un valor arbitrario,
se obtendra en el paso siguiente la solucion buscada con el mismo error
que si no hubiesemos perdido el dato? que ocurrira si la coordenada
que perdemos del vector x
49
es la segunda en vez de la primera?
Ejercicios propuestos 125
Sol : Si se pierde la primera: S. Si se pierde la segunda: No.
d) Tomando como vector inicial x
0
= (2, 1, 2)
T
, realizar dos pasos del
metodo de Gauss-Seidel para el sistema
_
_
_
4 2 1
0 2 1
1 0 2
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
16
0
0
_
_
_
.
Podras decir cual es la solucion exacta del sistema?
Sol : (4,-1,2).
Ejercicio 2.14 Considerese el sistema Ax = b en el que
A =
_
a b
c d
_
, x =
_
x
y
_
y b =
_

_
con , R.
a) Determinar la matriz B
1
, para que el metodo iterativo x
n+1
= B
1
x
n
+c
1
sea el que se obtiene con el metodo de Jacobi aplicado al sistema Ax = b.
Sol : B
1
=
_
0
b
/
a

c
/
d
0
_
.
b) Hallar los autovalores de B
1
y probar, en este caso particular, que si la
matriz A es simetrica y denida positiva, entonces el metodo de Jacobi
converge.
Sol :
i
=
_
bc
/
ad
= (B
1
) = +
_
bc
/
ad
. Si A es simetrica y denida
positiva (B
1
) < 1 y converge.
c) Determinar la matriz B
2
, para que el metodo iterativo x
n+1
= B
2
x
n
+c
2
sea el que se obtiene con el metodo de Gauss-Seidel aplicado al sistema
Ax = b.
Sol : B
2
=
_
0
b
/
a
0
bc
/
ad
_
.
d) Hallar los autovalores de B
2
y dar un ejemplo de matriz A (con a ,= 1)
para la que el metodo de Gauss-Seidel no converja. Puede, en tal caso,
ser convergente el metodo de Jacobi?
Sol :
1
= 0,
2
=
bc
/
ad
. Uno de los innitos ejemplos para A sera
A =
_
0 2
1 1
_
. Jacobi tambien diverge.
126 Sistemas de ecuaciones lineales
e) Comprobar la matriz A =
_
1 2
1 1
_
es otro ejemplo para la no conver-
gencia del metodo de Gauss-Seidel.
Calcular, para dicha matriz y el vector b =
_
1
1
_
el termino general
de la sucesion x
k
obtenida por el metodo de Gauss-Seidel a partir del
vector x
0
=
_
m
n
_
y comprobar que dicha sucesion no converge para
valores arbitrarios de m y n.
Existe alg un vector inicial x
0
para el que converja el metodo? y, en
caso de existir, contradice dicho ejemplo el hecho de que el metodo no
sea convergente?
Sol : x
k
=
_
2
k
n + 1
2
k
n
_
que diverge si n ,= 0. No existe contradiccion
porque? Justifcalo.
Ejercicio 2.15 Se quiere encontrar una funcion de la forma f(x) = ax
3
+bx+c
que pase por los puntos (1, 4), (2, 23) y (2, 21).
a) Plantear un sistema de ecuaciones para calcular los coecientes de f y
resolverlo usando la descomposicion LU de la matriz del sistema.
Sol : f(x) = 2x
3
+ 3x 1.
b) Usar una sucesion de Sturm para saber cuantas races reales tiene la
ecuacion f(x) = 0.
Sol : Solo una.
c) Separar dichas races por intervalos adecuados para que se den las hipo-
tesis de las condiciones de Fourier.
Sol : x [0.3, 0.4]
d) Cuantas iteraciones son necesarias para obtener las races reales con 6
cifras decimales exactas usando para su calculo el metodo de Newton?
Sol : Tres.
e) Aplicar dicho metodo para calcularlas con una precision de 12 cifras
decimales exactas asegurando en cada paso del metodo el n umero de
cifras que se van obteniendo.
Ejercicios propuestos 127
Sol : x = 0.312908409479.
Ejercicio 2.16 Se considera el sistema de ecuaciones Ax = b con
A =
_
_
_
_
_
1 2
1 0
1 1
1 1
_
_
_
_
_
y b =
_
_
_
_
_
3
2
0
1
_
_
_
_
_
.
Se pide:
a) Calcular la pseudosolucion, a traves de las ecuaciones normales, utili-
zando el metodo de Cholesky.
Sol : x = 1, y = 1/2.
b) Sea v = (1, 1, 1, 1)
T
. Demostrar que la transformacion de Householder
asociada al vector v transforma la primera columna de la matriz A en el
vector (2, 0, 0, 0)
T
dejando invariante la segunda columna de A as como
al vector b.
c) Calcular la pseudosolucion del sistema utilizando transformaciones de
Householder, as como la norma del error.
Sol : x = 1, y = 1/2, E = 3

2/2.
d) Si la matriz A del sistema fuese cuadrada y su n umero de condicion fuese
mayor que 1, que ventajas e inconvenientes tendra el resolver el sistema
multiplicando por la traspuesta de A y el resolverlo por transformaciones
de Householder?
Sol : Si (A) > 1, (A
T
A) >> 1 mientras que Householder no altera el
condicionamiento.
Ejercicio 2.17 Hallar la recta de regresion de los puntos:
(1.1, 5), (1, 5.1), (2, 7.3), (1.8, 6.9), (1.5, 6.1), (3, 8.8), (3.1, 9) y (2.9, 9.1)
Sol : y = mx +n = 1.959803x + 3.1449029.
Ejercicio 2.18 Hallar la parabola de regresion de los puntos:
(1, 0), (0, 0), (1, 0), (1, 2) y (2, 3)
Sol : y = ax
2
+bx +c =
1
2
x
2
+
1
2
x.
128 Sistemas de ecuaciones lineales
Ejercicio 2.19 Dado el sistema superdeterminado:
_
_
_
_
_
1 1 0
1 0 1
1 1 1
1 2 1
_
_
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
_
_
1
2
0
1
_
_
_
_
_
calcular, mediante transformaciones de Householder, la solucion en mnimos
cuadrados (pseudosolucion) as como la norma del error.
Sol : x = 5/2, y = 3/2, z = 2/3, |E| =

6/6.
Ejercicio 2.20 Resolver el sistema
_
_
_
2 1
2 0
1 2
_
_
_
_
x
y
_
=
_
_
_
1
1
5
_
_
_
y obtener la norma del error:
a) Mediante sus ecuaciones normales.
b) Mediante transformaciones de Householder.
Sol : x = 1, y = 9/5, |E| = 3

5/5.
Ejercicio 2.21 Se considera el sistema superdeterminado Ax = b con
A =
_
_
_
_
_
1 7 15
1 4 8
1 0 1
1 3 6
_
_
_
_
_
y b =
_
_
_
_
_
7
7
5
9
_
_
_
_
_
Resolverlo mediante transformaciones de Householder, dando la norma del
vector error.
Sol : x
1
= 8, x
2
= 2, x
3
= 2, |E| = 10.
Ejercicio 2.22 Dado sistema superdeterminado Ax = b con
A =
_
_
_
_
_
1 5 5
1 2 3
1 1 3
1 2 1
_
_
_
_
_
y b =
_
_
_
_
_
7
16
3
10
_
_
_
_
_
Ejercicios propuestos 129
Resolverlo mediante transformaciones de Householder, dando la norma del
vector error.
Sol : x = 9, y = 3, z = 3, |E| = 12.
Ejercicio 2.23 Consideremos el sistema de ecuaciones Ax = b, con
A =
_
_
_
2 2
1 1
2 2
_
_
_
, x =
_
x
1
x
2
_
y b =
_
_
_
6
3
3
_
_
_
,
y un vector unitario u. Se pide:
a) Demostrar que si H = I 2uu
T
es la matriz de Householder, asociada al
vector u, entonces: H es ortogonal, H
2
= I y |Ha|
2
= |a|
2
cualquiera
que sea el vector a.
b) Obtener la matriz de Householder que transforma el vector (2, 1, 2)
T
en otro de la forma (, 0, 0)
T
, con > 0.
Sol : H =
_
_
_
2 1 2
1 2 2
2 2 1
_
_
_
.
c) Aplicando el metodo de Householder, probar que el sistema Ax = b
posee innitas soluciones en cuadrados mnimos y que el error cometido,
al considerar cualquiera de ellas, es el mismo.
Sol : x = (1 +, )
T
R, |E| = 3.
d) Obtener la pseudosolucion del sistema Ax = b.
Sol : (
1
/
2
,
1
/
2
)
T
.
Ejercicio 2.24 Sea el sistema Ax = b, donde
A =
_
_
_
0 3
3 5
4 0
_
_
_
, x =
_
x
y
_
y b =
_
_
_
10
6
8
_
_
_
.
a) Probar que la matriz A
T
A es denida positiva, obteniendo la factori-
zacion de Cholesky.
Sol : A
T
A =
_
25 15
15 34
_
=
_
5 0
3 5
__
5 3
0 5
_
.
130 Sistemas de ecuaciones lineales
b) Plantear la iteracion X
n+1
= L
1
X
n
+ c que se obtiene de aplicar el
metodo de Gauss-Seidel a las ecuaciones normales del sistema Ax = b.
Sera convergente el proceso iterativo a la pseudosolucion?
Sol : x
n+1
=
_
0
3
/
5
0
9
/
34
__
x
n
y
n
_
+
_
2

15
/
17
_
. Convergente por ser un
sistema de diagonal dominante.
c) Hallar la matriz H
u
= I uu
T
de la reexion que transforma el vector
a = (0, 3, 4)
T
en el vector r = (5, 0, 0).
Sol : H
u
=
1
25
_
_
_
0 15 20
15 16 12
20 12 9
_
_
_
.
d) Obtener la solucion en mnimos cuadrados del sistema Ax = b, utilizando
el metodo de Householder, y determinar la norma del error.
Sol : x = 68/25, y = 6/5, |E| = 8.
e) Sin haber resuelto el apartado anterior, podran predecirse H
u
A y H
u
b
de las relaciones geometricas entre L =< u >, L

y los vectores columnas


implicados?
Sol : S. Si A = (a
1
a
2
), H
u
a
1
= (5, 0, 0)
T
, H
u
a
2
= a
2
, H
u
b = b.
Ejercicio 2.25 Se considera el sistema superdeterminado Ax = b con
A =
_
_
_
3 2
4 5
12 0
_
_
_
y b =
_
_
_
3
1
13
_
_
_
a) Calcular la pseudosolucion (solucion de mnimos cuadrados) as como la
norma del error utilizando transformaciones de Householder.
Sol : x = 71/65, y = 3/5, |E| = 1.
b) Sea T =
_
_
_
1 0 0
0 1 0
0 0
1
/
12
_
_
_
la matriz asociada a la transformacion elemen-
tal que divide por 12 la tercera de las ecuaciones del sistema:
TAx = Tb
_
_
_
3 2
4 5
1 0
_
_
_
_
x
y
_
=
_
_
_
3
1
13
/
12
_
_
_
Ejercicios propuestos 131
Calcular su pseudosolucion haciendo uso de las ecuaciones normales. De-
terminar la norma del error.
Sol : x = 113/72, y = 37/36, |E| = 5

78/72.
c) A que se debe que no coincidan las pseudosoluciones obtenidas en los
dos apartados anteriores? Que habra ocurrido si la matriz T hubiese
sido unitaria?
Sol : T no es unitaria. Si T hubiese sido unitaria se hubiesen obtenido
las mismas pseudosoluciones.
Ejercicio 2.26 Sea el sistema Ax = b, donde
A =
_
_
_
3 2
0 3
4 4
_
_
_
, x =
_
x
y
_
y b =
_
_
_
2
0
1
_
_
_
.
a) Probar que la matriz B = A
T
A es denida positiva, obteniendo la fac-
torizacion de Cholesky B = G
T
G.
Sol : B =
_
25 10
10 29
_
, G =
_
5 2
0 5
_
.
b) Hacer uso de la factorizacion obtenida en el apartado anterior para hallar
la pseudosolucion mediante las ecuaciones normales del sistema. Calcular
el n umero de condicion,

(B), de la matriz B para la norma | |

.
Hasta que punto se podra considerar able la pseudosolucion obtenida
con aritmetica de ordenador?
Sol : x = 58/125, y = 4/25,

(B) = 1521/625 2.4336. Es able.


c) Hallar la matriz de la reexion (matriz de Householder) H
u
que trans-
forma el vector a = (3, 0, 4)
T
en el vector r = (5, 0, 0)
T
. Una vez de-
terminado el vector u, justicar que se pueden conocer H
u
A y H
u
b sin
necesidad de efectuar los productos.
Sol : H
u
=
_
_
_

3
/
5
0
4
/
5
0 1 0

4
/
5
0
3
/
5
_
_
_
. Si A = (a
1
a
2
), H
u
a
2
= a
2
H
2
b = b.
d) Obtener la solucion en mnimos cuadrados del sistema Ax = b, utilizando
el metodo de Householder y determinar la norma del error. Operando
con el ordenador, puede obtenerse una pseudosolucion distinta de la
132 Sistemas de ecuaciones lineales
obtenida en el apartado b? Si as ocurriera, puede ser mayor el error?
Sol : x = 58/125, y = 4/25, |E| = 3/5. Es posible obtener en el
ordenador soluciones distintas. Nunca, ya que las transformaciones de
Householder son unitarias.
Ejercicio 2.27 Sea el sistema Ax = b, donde
A =
_
_
_
1 1 2
0 3 3
0 4 4
_
_
_
, x =
_
_
_
x
y
z
_
_
_
y b =
_
_
_
0
1
2
_
_
_
.
a) Hallar |A|

. Que se puede decir sobre el n umero de condicion de la


matriz A para la norma innito? Que estimacion dara MATLAB para
el n umero de condicion espectral obtenido con el comando cond(A)?
Sol : cond(A) = .
b) Utilizar la descomposicion LU de la matriz A
T
A para resolver el sistema
A
T
Ax = A
T
b. Que propiedad caracteriza a las soluciones en relacion al
sistema Ax = b? Interpreta geometricamente el resultado.
Sol : x = t 1/5, y = 3t 1/5, z = t.
c) Encontrar una matriz ortogonal Q que transforme el vector a=(0, 3, 4)
T
en el vector r = (0, 5, 0)
T
. Obtener la norma del error para las soluciones
en mnimos cuadrados del sistema QAx = Qb.
Sol : Q =
_
_
_
1 0 0
0
3
/
5

4
/
5
0
4
/
5

3
/
5
_
_
_
. |E| = 2.
d) Que relacion hay entre las soluciones obtenidas en los apartados ante-
riores?
Si se obtienen las soluciones en mnimos cuadrados del sistema Ax = b,
escalonando previamente la matriz A, se debe obtener mismo resultado
que en alguno de los apartados anteriores?
Sol : Son las mismas. No, el escalonado no se hace mediante transforma-
ciones unitarias.
Ejercicios propuestos 133
Ejercicio 2.28
a) En lo que sigue, H
v
denota la transformacion de Householder asociada al
vector v. Sean x, y, v, z vectores no nulos, con H
v
x = y y z v. Probar
que H
v
v = v y H
v
z = z. Determinar razonadamente todos los vectores
w tales que H
w
x = y.
b) Se considera el sistema de ecuaciones dado por
_
_
_

1
2
1 0
1 2 1
1 0 1
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
2
1
1
_
_
_
b.1) Estudiar el condicionamiento del sistema, utilizando la norma 1.
Sol :
1
(A) = 6.
b.2) Resolver el sistema por medio de transformaciones de Householder.
Sol : x = 2, y = 1, z = 1.
b.3) Desde un punto de vista numerico, sera razonable resolver el sis-
tema escalonando por Gauss? Razonar la respuesta.
Sol : No.
c) Demostrar que el vector c = (
4
3
,
1
2
,
4a
3
1)
T
y la matriz
L
1
=
_
_
_
0
2
3
0
0 0
1
2
0
2a
3
0
_
_
_
son los propios del metodo de Gauss-Seidel asociado al sistema
_
_
_
3
2
1 0
0 2 1
a 0 1
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
2
1
1
_
_
_
d) Estudiar, en funcion del parametro a, el caracter diagonal dominante
por las de la matriz de coecientes del sistema dado, as como el radio
espectral de L
1
. Para que valores de a es convergente el metodo ante-
rior?
Sol : Diagonal dominante si [a[ < 1, (L
1
) =
_
a
/
3
. Converge si [a[ < 3.
134 Sistemas de ecuaciones lineales
e) Para a = 0 el metodo resulta convergente. Utilizando aritmetica exacta,
y tomando como vector inicial x
0
= (0, 0, 0)
T
, realizar dos iteraciones,
acotando el error cometido. Razonar que ocurre cuando se itera por
tercera vez. Hubiera ocurrido otro tanto al trabajar con aritmetica de
ordenador?
Sol : x
1
=
_
_
_

4
/
3
1
/
2
1
_
_
_
y x
2
=
_
_
_

5
/
3
1
1
_
_
_
, |E| = 1/2. x
3
es la solucion
exacta pero con aritmetica de ordenador es solo una buena aproximacion.
Ejercicio 2.29 Sea el sistema Ax = b, donde
A =
_
_
_
1 1
0
2 2
_
_
_
, x =
_
x
y
_
y b =
_
_
_
2

_
_
_
con > 0 y , R
a) Hallar sabiendo que que existe una matriz de Householder, H
v
, que
transforma la primera columna de la matriz A en el vector r = (3, 0, 0)
T
.
Quien es H
v
?
Sol : = 2, H
v
=
_
_
_
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
2
/
3

2
/
3
2
/
3
1
/
3
_
_
_
.
b) Determinar el conjunto de vectores b para los que se verica H
v
b = b,
siendo H
v
la matriz del apartado anterior. Encontrar, entre ellos, el que
tiene menor norma eucldea.
Sol : b = (2, , 2)
T
con R. (2, 1, 1)
T
.
c) Hallar la pseudosolucion del sistema Ax = b
m
, para = 2 y b
m
=
(2, 1, 1)
T
, utilizando transformaciones ortogonales para determinar el
error.
Sol : x = 5/6, y = 1/2, |E| = 1.
d) Probar que si una matriz real B tiene sus columnas linealmente inde-
pendientes, entonces B
T
B es denida positiva.
e) Sea el sistema A
T
Ax = A
T
b
m
, con y b
m
como en el apartado (c).
e.1) Sera posible utilizar una descomposicion A
T
A = GG
T
, con G
triangular inferior, para resolver el sistema?
Ejercicios propuestos 135
Sol : S, A
T
A admite factorizacion de Cholesky.
e.2) Utilizando la norma | |

para medir el condicionamiento, es un


sistema mal condicionado para utilizar aritmetica de ordenador en
su resolucion?
Sol : No.
e.3) Sea (s
0
, s
1
, s
2
, . . .) la sucesion que se obtiene al aplicar el metodo
de Gauss-Seidel al sistema, con s
0
= (0, 0)
T
. Probar que, operando
en aritmetica exacta, la sucesion (s
n
) es convergente y obtener su
lmite s.
Sol : A
T
A simetrica y denida positiva = Gauss-Seidel converge.
Al tratarse de las ecuaciones normales, lo hace a la pseudosolucion.
Ejercicio 2.30 Se considera el sistema Ax = b con
A =
_
_
_
0 5
3 0
4 0
_
_
_
, x =
_
x
y
_
y b =
_
_
_
5
2
11
_
_
_
a) Existe alguna transformacion de Householder que permute las columnas
de la matriz A? Justicar la respuesta.
Sol : S, ambas tienen igual norma.
b) Calcular la pseudosolucion del sistema mediante transformaciones de
Householder dando la norma del vector error.
Sol : x = 2, y = 1, |E| = 5.
Ejercicio 2.31 Se considera el sistema Ax = b con
A =
_
_
_
1 2
4 8
1 2
_
_
_
, x =
_
x
y
_
y b =
_
_
_
1
5
3
_
_
_
Determinar la pseudosolucion del sistema dando la norma del error mediante
transformaciones de Householder.
Sol : x = 1/5, y = 2/5, |E| =

17.
136 Sistemas de ecuaciones lineales
Ejercicio 2.32 Se considera el sistema superdeterminado Ax = b con
A =
_
_
_
_
_
2 1
2 0
1 2
0 2
_
_
_
_
_
x =
_
x
y
_
y b =
_
_
_
_
_
3
6
0
3
_
_
_
_
_
a) Encontrar una transformacion de Householder que transforme la primera
columna de la matriz A en el vector r = (3, 0, 0, 0)
T
.
Sol : H =
_
_
_
_
_
2
/
3
2
/
3
1
/
3
0
2
/
3

1
/
3

2
/
3
0
1
/
3

2
/
3
2
/
3
0
0 0 0 1
_
_
_
_
_
.
b) Probar que el producto de dos matrices de Householder es una matriz
unitaria.
Hallar una matriz ortogonal Q tal que A = QR siendo R una matriz
triangular superior de las mismas dimensiones que A.
Sol : Q =
_
_
_
_
_
2
/
3
1
/
3
0
2
/
3
2
/
3
0
1
/
3

2
/
3
1
/
3

2
/
3
2
/
3
0
0 2 2
1
/
3
_
_
_
_
_
.
c) Probar que si Q es ortogonal, los sistemas Ax = b y Q
T
Ax = Q
T
b tienen
las mismas soluciones en mnimos cuadrados.
Hallar el error cometido al obtener la pseudosolucion del sistema Ax = b,
utilizando transformaciones ortogonales.
Sol : x = 2, y = 1, |E| = 3.
d) Sea x
n+1
= L
1
x
n
+c la sucesion resultante de aplicar el metodo de Gauss-
Seidel a la resolucion de las ecuaciones normales del sistema Ax = b.
Cuantas iteraciones son necesarias para la convergencia del metodo?
Determina la pseudosolucion as como la norma del error.
Sol : Solo una iteracion.
Ejercicio 2.33 El equipo Astronoma para acionados, adquirido por el pro-
fesor Dana este verano, permita determinar el plano x + y + z = 1
Ejercicios propuestos 137
donde se encuentra la trayectoria de Marte alrededor del Sol. En las instruc-
ciones indicaba introducir en el calculador magico una serie de coordenadas
locales (x
i
, y
i
, z
i
), obtenidas con el telescopio marciano, y automaticamente
proporcionara los coecientes , , . Entre otras cosas, sugera introducir
entre 5 y 10 coordenadas para que el ajuste obtenido en el sentido de
los mnimos cuadrados promediara cientcamente los errores de obser-
vacion...
a) Plantear el sistema superdeterminado, A= b, con =(, , )
T
, para
determinar el plano , cuando las coordenadas locales son
(2, 1, 0), (1, 2, 1), (0, 1, 2), (1, 0, 1), (0, 1, 0).
Puede ser nulo el error cometido para la pseudosolucion del sistema?
Sol : El error no puede ser nulo.
b) Poniendo A = [a
1
a
2
a
3
], donde a
i
indica la correspondiente columna de
A, razonar si es posible encontrar una transformacion de Householder
que transforme a
1
en a
2
. Hallar una matriz unitaria, Q, de modo que
Qa
1
= a
3
.
Sol : Q =
_
_
_
_
_
_
0 0 1 0 0
0 1 0 0 0
1 0 0 0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
.
c) Obtener las ecuaciones normales, B= c, del sistema inicial A= b.
Esta la matriz B mal condicionada para la norma [[ [[

?
Sol :

(B) = 15/2. Bien condicionada.


d) Probar que los metodos iterados de Jacobi y Gauss-Seidel aplicados al
sistema B= c son convergentes. Cual de ellos converge mas rapido?
Sol : Gauss-Seidel mas rapido que Jacobi.
e) Partiendo de
0
= (0, 0, 0)
T
, obtener la aproximacion
3
, al aplicar 3
pasos del metodo de Gauss-Seidel al sistema B= c, operando con dos
cifras decimales. Cual es el error obtenido al tomar
3
como la solucion
en mnimos cuadrados de A= b?
Sol :
3
= (0.09, 0.55, 0.33)
T
con |E
3
| 1.01.
138 Sistemas de ecuaciones lineales
Ejercicio 2.34 Dada la matriz A =
_
_
_
1 5 5
1 2 1
1 2 3
_
_
_
, se pide:
a) Estudiar si admite factorizaciones LU y/o de Cholesky.
Sol : Solo LU.
b) Utilizar dichas factorizaciones (en caso de existir) para resolver el sistema
Ax = b con x =
_
_
_
x
y
z
_
_
_
y b =
_
_
_
3
2
1
_
_
_
.
Sol : x = 1/2, y = 1, z = 1/2.
c) Resolver, mediante transformaciones de Householder el sistema superde-
terminado resultante de a nadir a nuestro sistema la ecuacion x+y+3z =
. Hallar la norma del error.
Sol : x = (2 + 3)/6, y = (3 )/3, z = ( 2)/4, |E| = [[/2.
d) Se puede calcular el valor de que minimiza la norma del error sin
resolver el sistema anterior?
Sol : S, = 0.
Ejercicio 2.35 En R
4
se busca un hiperplano de la forma x + y + z = t
que pase por los puntos
_
_
_
_
_
x
y
z
t
_
_
_
_
_

_

_
_
_
_
_
_
1
0
0
0
_
_
_
_
_
_
_
_
_
_
1
2
4
1
_
_
_
_
_
_
_
_
_
_
1
0
1
2
_
_
_
_
_
_

_
a) Plantear el sistema de ecuaciones y resolverlo usando la factorizacion LU
de la matriz del sistema.
Sol : El hiperplano buscado es 7y 4z + 2t = 0.
b) Comenzando por el vector x
0
= (2, 2, 2)
T
, resolverlo iterativamente por
los metodos de Jacobi y Gauss-Seidel. Que metodo es mas rapido?
Razona la respuesta.
Sol : Jacobi 3, Gauss-Seidel 1 aunque ambos son igualmente convergentes.
Ejercicios propuestos 139
c) Al obligar que, ademas, pase por el punto (1, 2, 0, 1) se obtiene una
ecuacion mas que hace incompatible al sistema.
Usar transformaciones de Householder para encontrar la pseudosolucion
del sistema incompatible dando la norma del error.
Sol : x = 2/3, y = 8/9, z = 8/9, |E| =
_
2/3.
Ejercicio 2.36 Se sabe que un movil en R
3
sigue una velocidad instantanea
dada por una expresion de la forma V (x, y, z) = ax + by + cz con a, b, c R.
Con un velocmetro se han tomado los datos siguientes:
V (1, 2,
5
3
) = 3
V (1, 2, 4) = 2
V (2, 1, 2) = 2
V (1, 0, 2) = 1
V (3, 2, 1) = 2
a) Demostrar que el velocmetro esta desajustado. Es decir, que los datos
obtenidos son incompatibles.
b) Una vez planteado el sistema incompatible y usando las ecuaciones nor-
males de dicho sistema, usar el metodo de Cholesky para calcular el
grado de desajuste del velocmetro. Es decir, el error al suponer la pseu-
dosolucion como los verdaderos valores de a, b y c.
Sol : |E| = 3.0651.
c) Calcular el error usando transformaciones de Householder en el sistema
incompatible.
Sol : |E| = 3.0651.
3. Interpolacion
Denicion 3.1 Interpolar una funcion f(x) es encontrar otra funcion g(x)
con determinadas caractersticas (un polinomio, un cociente de polinomios,
una funcion trigonometrica, etc.) tal que g(x
i
) = f(x
i
) en un conjunto de
puntos S = x
0
, x
1
, . . . , x
n
con x
0
< x
1
< < x
n
que recibe el nombre de
soporte.
La funcion g(x) recibe el nombre de funcion de interpolacion de la funcion
f(x) en el soporte x
0
, x
1
, . . . , x
n
.
Diremos que el soporte es regular si la diferencia entre dos puntos consecutivos
del soporte es siempre la misma, es decir, si x
i
x
i1
es constante cualquiera
que sea i = 1, 2, . . . , n.
La nalidad la interpolacion es la de aproximar la funcion f(x) en un punto
x , S de tal forma que se pueda decir que f(x) g(x) una vez encontrada la
funcion g(x).
Si x [x
0
, x
n
] se dice que estamos interpolando.
Si x , [x
0
, x
n
] se dice que estamos extrapolando.
Ejemplo 3.1 Supongamos conocidos los valores de una determinada funcion
f(x) en el soporte 0, 1, 2, es decir, se dispone de la tabla
x 0 1 2
f(x) 1 3 7
Si queremos calcular el polinomio de segundo grado P(x) = ax
2
+ bx + c que
interpola a f(x), en dicho soporte, se obtiene el sistema
c = 1
a + b +c = 3
4a + 2b +c = 7
_

_
= a = b = c = 1
141
142 Interpolacion
por lo que P(x) = x
2
+x + 1.
Podemos ahora interpolar el valor de f(1.5) P(1.5) = 4.75 o extrapolar el
valor de f(4) P(4) = 21.
En este captulo solo trataremos la interpolacion polinomial y la interpolacion
polinomial a trozos (splines).
3.1 Interpolacion polinomial
Teorema 3.1 Existencia y unicidad
Dada una funcion f(x), existe un unico polinomio de grado no superior a n
que la interpola en el soporte x
0
, x
1
, , x
n
.
Demostracion. Obligando a que el polinomio
P
n
(x) = a
0
+a
1
x +a
2
x
2
+ a
n
x
n
tome los valores f
0
= f(x
0
), . . . , f
n
= f(x
n
) en el soporte x
0
, x
1
, . . . , x
n

obtenemos el sistema
a
0
+a
1
x
0
+a
2
x
2
0
+ a
n
x
n
0
= f
0
a
0
+a
1
x
1
+a
2
x
2
1
+ a
n
x
n
1
= f
1
.
.
.
a
0
+a
1
x
n
+a
2
x
2
n
+ a
n
x
n
n
= f
n
es decir,
_
_
_
_
_
_
1 x
0
x
n
0
1 x
1
x
n
1
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
n
n
_
_
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
n
_
_
_
_
_
_
=
_
_
_
_
_
_
f
0
f
1
.
.
.
f
n
_
_
_
_
_
_
Dado que el determinante de la matriz del sistema es un Vandermonde, y por
tanto no nulo, el sistema es compatible determinado, es decir, admite solucion
unica.
Sea P(x) el polinomio de interpolacion de una funcion f(x) en el soporte
x
0
, x
1
, . . . , x
n
:
Que error se cometera al aproximar f(x) por el valor de P(x)?
Interpolacion polinomial 143
Teorema 3.2 [Error de interpolaci on]
Sea P(x) el polinomio de interpolacion de una funcion f(x) en el soporte
x
0
, x
1
, . . . , x
n
.
Si f(x) es una funcion n + 1 veces derivable, con f
(n + 1
(x) continua, y x un
n umero real cualquiera, el error que se comete al aproximar f(x) por P(x)
viene dado por
(x) = [f(x) P(x)[ =
[f
(n + 1
(c)[
(n + 1)!
[x x
0
[ [x x
n
[
siendo c un punto del intervalo determinado por los puntos x, x
0
, x
1
, . . . , x
n
.
Demostracion. Sean d(x) = f(x) P(x), z(x) = (x x
0
) (x x
n
) y x un
punto cualquiera. Consideremos la funcion g(t) = d(t) d(x)
z(t)
z(x)
g(x
i
) = 0 cualquiera que sea 0 i n ya que
g(x
i
) = d(x
i
) d(x)
z(x
i
)
z(x)
= 0
por serlo d(x
i
) y z(x
i
).
g(x) = 0 ya que g(x) = d(x) d(x)
z(x)
z(x)
= 0
Por tanto, la funcion g(x) se anula en x, x
0
, . . . , x
n+1
, es decir, en n + 2 pun-
tos. Si ordenamos estos puntos y los denotamos por t
1
, t
2
, . . . , t
n+2
, en cada
intervalo (t
i
, t
i+1
) el teorema de Rolle nos garantiza la existencia de un punto
c
i
tal que g

(x
i
) = 0 (Figura 3.1)
u u u u
t
1
t
2
t
3
t
n+2
c
1
c
2
c
3
c
n+1
Figura 3.1: Los n + 1 puntos en los que se anula g

(x).
Razonando de igual forma obtenemos n puntos donde se anula la derivada
segunda g

(x), n 1 donde se anula la derivada tercera, y as sucesivamente


hasta obtener un punto c en el que se anula la derivada de orden n+1, siendo
c un punto del intervalo que determinan los puntos x, x
0
, x
1
, . . . , x
n
.
144 Interpolacion
Como g
(n + 1
(t) = d
(n + 1
(t)
d(x)
z(x)
z
(n + 1
(t), podemos particularizar en t = c y
obtenemos
0 = d
(n + 1
(c)
d(x)
z(x)
z
(n + 1
(c) = f
(n + 1
(c) P
(n + 1
(c)
d(x)
z(x)
(n + 1)!
por lo que
d(x)
z(x)
(n + 1)! = f
(n + 1
(c)
o lo que es lo mismo,
f(x) P(x) = d(x) =
f
(n + 1
(c)
(n + 1)!
z(x) =
f
(n + 1
(c)
(n + 1)!
(x x
0
) (x x
n
) =
(x) = [f(x) P(x)[ =
[f
(n + 1
(c)[
(n + 1)!
[x x
0
[ [x x
n
[
Es decir, si podemos acotar la derivada de orden n + 1 de la funcion f(x) en
el intervalo I determinado por los puntos x, x
0
, x
1
, . . . , x
n
[f
(n + 1
(x)[ k x I
se tiene que
(x)
k
(n + 1)!
[x x
0
[ [x x
1
[ [x x
n
[
Ejemplo 3.2 Supongamos que queremos aproximar el valor de sen 1 y para
ello interpolamos la funcion f(x) = sen x en el soporte 0, /4, /2.
El polinomio que obtenemos es
P(x) = 1.16401285994663 x 0.33574886736281 x
2
y la aproximacion obtenida para
sen 1 P(1) = 0.82826399258382
Teniendo en cuenta que f

(x) 1, el error vendra dado por


[ sen 1 P(1)[
1
3!
[1 0[ [1

/
4
[ [1

/
2
[ 4.08 10
2
< 10
1
es decir, hemos obtenido el valor de sen 1 con una cifra decimal exacta.
Interpolacion polinomial 145
Proposicion 3.3 Sean P(x), Q(x) y R(x) los polinomios de interpolacion de
la funcion f(x) en los soportes x
0
, . . . , x
n
, x
0
, . . . , x
n1
y x
1
, . . . , x
n

respectivamente. Se verica entonces que


P(x) = Q(x) +
x x
0
x
n
x
0
_
R(x) Q(x)
_
Demostracion. Consideremos el polinomio
T(x) = Q(x) +
x x
0
x
n
x
0
_
R(x) Q(x)
_
.
Es obvio que como los grados de Q(x) y R(x) no son superiores a n 1, T(x)
no puede tener grado superior a n.
T(x
0
) = Q(x
0
) = f
0
Si x
i
x
1
, x
2
, . . . , x
n1

T(x
i
) = Q(x
i
) +
x
i
x
0
x
n
x
0
_
R(x
i
) Q(x
i
)
_
= f
i
+
x
i
x
0
x
n
x
0
(f
i
f
i
) = f
i
.
T(x
n
) = Q(x
n
) +
x
n
x
0
x
n
x
0
_
R(x
n
) Q(x
n
)
_
= R(x
n
) = f
n
.
Por lo que T(x) es el polinomio, de grado no superior a n, que interpola a f(x)
en el soporte x
0
, . . . , x
n
, es decir, T(x) = P(x).
Como determinamos el polinomio de interpolacion?
Hemos visto que se puede plantear un sistema de n + 1 ecuaciones con n + 1
incognitas (los coecientes del polinomio) que admite solucion unica y deter-
mina su polinomio de interpolacion. Sin embargo, no es siempre el metodo
mas practico.
3.1.1 Interpolacion de Lagrange
Denicion 3.2 Polinomios de Lagrange
Dado un soporte x
0
, x
1
, . . . , x
n
, se denominan polinomios de Lagrange a los
polinomios denidos por
L
i
(x) =
n

j = 0
j = i
x x
j
x
i
x
j
i = 0, 1, 2, . . . , n
146 Interpolacion
Llamando z(x) = (x x
0
)(x x
1
) (x x
n
) se tiene que
z

(x) = 1 (x x
1
) (x x
n
) + (x x
0
)
_
(x x
1
) (x x
n
)
_

por lo que
z

(x
0
) = (x
0
x
1
) (x
0
x
n
)
y de manera analoga se obtiene que
z

(x
i
) = (x
i
x
1
) (x
i
x
i1
)(x
i
x
i+1
) (x
i
x
n
)
por lo que los polinomios de Lagrange pueden escribirse de la forma
L
i
(x) =
z(x)
(x x
i
)z

(x
i
)
(3.1)
Teorema 3.4 [Propiedades de los polinomios de Lagrange]
L
i
(x
j
) =
_
0 si i ,= j
1 si i = j
gr(L
i
(x)) = n cualquiera que sea 0 i n.
El polinomio P
n
(x) = y
0
L
0
(x) + y
1
L
1
(x) + + y
n
L
n
(x) interpola a la
funcion f(x) tal que f(x
i
) = y
i
en el soporte x
0
, x
1
, , x
n
, siendo
gr(P(x)) n.
Demostracion.
Las dos primeras son triviales.
Para la tercera basta con observar que (haciendo uso de la primera)
P
n
(x
i
) = y
i
y que P
n
(x), al ser una combinacion lineal de polinomios
de grado n (segunda propiedad), no puede ser de grado superior a n
(aunque s inferior).
Ejemplo 3.3 Sea f(x) una funcion que, en el soporte
x
0
, x
1
, x
2
, x
3
= 1, 2, 3, 4
toma los valores
f
0
, f
1
, f
2
, f
3
= 0, 1, 2, 5
Interpolacion polinomial 147
Los polinomios de Lagrange para dicho soporte vienen dados por
L
0
(x) =
(x 2)(x 3)(x 4)
(1 2)(1 3)(1 4)
=
1
6
(x
3
9x
2
+ 26x 24)
L
1
(x) =
(x 1)(x 3)(x 4)
(2 1)(2 3)(2 4)
=
1
2
(x
3
8x
2
+ 19x 12)
L
2
(x) =
(x 1)(x 2)(x 4)
(3 1)(3 2)(3 4)
=
1
2
(x
3
7x
2
+ 14x 8)
L
3
(x) =
(x 1)(x 2)(x 3)
(4 1)(4 2)(4 3)
=
1
6
(x
3
6x
2
+ 11x 6)
y el polinomio de interpolacion de la funcion f(x) por
P
3
(x) = f
0
L
0
(x) +f
1
L
1
(x) +f
2
L
2
(x) +f
3
L
3
(x) =
= 0 L
0
(x) + (1) L
1
(x) + 2 L
2
(x) + (5) L
3
(x)
por lo que
P
3
(x) =
7
3
x
3
+ 16x
2

98
3
x + 19
Observese que los polinomios de Lagrange dependen unicamente del soporte y
no de los valores de la funcion.
As pues, si queremos interpolar cualquier funcion en el soporte 1, 2, 3, 4
los polinomios de Lagrange son los que se han obtenido en el Ejemplo 3.3,
debiendo modicar unicamente los valores de f
i
i = 0, 1, 2, 3 en la expresion
P
3
(x) = f
0
L
0
(x) +f
1
L
1
(x) +f
2
L
2
(x) +f
3
L
3
(x)
Sin embargo, el calculo de los polinomios de Lagrange (tambien puede verse con
el Ejemplo 3.3) no es un proceso dinamico, en el sentido de que si a nadieramos
un nuevo punto al soporte, habra que comenzar de nuevo todo el proceso.
Se puede encontrar un proceso dinamico que permita a nadir puntos en el
soporte aprovechando los calculos realizados hasta ese momento?
148 Interpolacion
3.1.2 Interpolacion de Newton
Proposicion 3.5 El polinomio de interpolacion de una funcion f(x) en el
soporte x
0
, x
1
, . . . , x
n
es de la forma
P(x) = c
0
+ c
1
(x x
0
)+
+ c
2
(x x
0
)(x x
1
)+
+ c
3
(x x
0
)(x x
1
)(x x
2
)+
.
.
.
+ c
n
(x x
0
)(x x
1
)(x x
2
) (x x
n1
)
donde los coecientes c
0
, c
1
, . . . , c
n
dependen de x
0
, . . . , x
n
y los valores que
toma la funcion en dichos puntos f
0
= f(x
0
), . . . , f
n
= f(x
n
).
Demostracion. Como el polinomio P(x) interpola a la funcion f(x) en el
soporte, se tiene que
P(x
0
) = f
0
= c
0
= f
0
P(x
1
) = f
1
= f
1
= f
0
+c
1
(x
1
x
0
) = c
1
=
f
1
f
0
x
1
x
0
P(x
2
) = f
2
= f
2
= f
0
+
f
1
f
0
x
1
x
0
(x
2
x
0
) +c
2
(x
2
x
0
)(x
2
x
1
) =
c
2
puede determinarse de manera unica y depende de x
0
, x
1
, x
2
, f
0
, f
1
y f
2
.
Supuesto que c
k1
depende de x
0
, . . . , x
k1
, f
0
, . . . , f
k1
y dado que
P(x
k
) = f
k
= c
0
+c
1
(x
k
x
0
) + +c
k
(x
k
x
0
) (x
k
x
k1
) =
c
k
=
1
(x
k
x
0
) (x
k
x
k1
)
_
f
k
c
0
c
k1
(x
k
x
0
) (x
k
x
k2
)
_
por lo que c
k
puede determinarse de forma unica y depende de x
0
, x
1
, . . . , x
k
y f
0
, f
1
, . . . , f
k
.
En lo que sigue utilizaremos la notacion c
k
= f[x
0
, x
1
, . . . , x
k
], con lo que el
polinomio quedara de la forma
P(x) = f[x
0
]+f[x
0
, x
1
](xx
0
)+ +f[x
0
, x
1
, . . . , x
n
](xx
0
)(xx
1
) (xx
n
)
y quedara determinado una vez que se determinen los valores de los coecientes
f[x
0
, x
1
, . . . , x
k
] con k = 0, 1, . . . , n.
Vamos a estudiar, a continuacion, dos metodos para calcular dichos coecien-
tes, que son conocidos como el de las diferencias divididas y el de las diferencias
nitas.
Interpolacion polinomial 149
Proposicion 3.6 [M etodo de las diferencias divididas]
Para cualquiera que sea k = 0, 1, . . . , n se verica que
f[x
0
, x
1
, . . . , x
k
] =
f[x
1
, . . . , x
k
] f[x
0
, . . . , x
k1
]
x
k
x
0
siendo f[x
i
] = f
i
para 0 i n.
Demostracion. Observese que f[x
0
, x
1
, . . . , x
k
] es el coeciente c
k
del termino
de mayor grado del polinomio de interpolacion de la funcion f(x) en el soporte
x
0
, x
1
, . . . , x
k
.
Basta ir haciendo tomar a k los valores de 0 a n para que la Proposicion 3.3
nos justique el resultado.
Ejemplo 3.4 Calculemos, por el metodo de las diferencias divididas de New-
ton, el polinomio de interpolacion de la funcion f(x) que toma los valores
0, 1, 1, 2 en el soporte 1, 3, 4, 5.
Teniendo en cuenta que
f[x
i
] = f
i
f[x
0
, x
1
, . . . , x
k
] =
f[x
1
, . . . , x
k
] f[x
0
, . . . , x
k1
]
x
k
x
0
obtenemos:
f[x
0
, x
1
] =
f[x
1
] f[x
0
]
x
1
x
0
=
f
1
f
0
x
1
x
0
=
1 0
3 1
=
1
2
f[x
1
, x
2
] =
f[x
2
] f[x
1
]
x
2
x
1
=
f
2
f
1
x
2
x
1
=
1 1
4 3
=
2
1
f[x
2
, x
3
] =
f[x
3
] f[x
2
]
x
3
x
2
=
f
3
f
2
x
3
x
2
=
2 (1)
5 4
=
3
1
f[x
0
, x
1
, x
2
] =
f[x
1
, x
2
] f[x
0
, x
1
]
x
2
x
0
=
2
1
/
2
4 1
=
5
6
f[x
1
, x
2
, x
3
] =
f[x
2
, x
3
] f[x
1
, x
2
]
x
3
x
1
=
3 (2)
5 3
=
5
2
f[x
0
, x
1
, x
2
, x
3
] =
f[x
1
, x
2
, x
3
] f[x
0
, x
1
, x
2
]
x
3
x
0
=
5
/
2
(
5
/
6
)
5 1
=
5
6
150 Interpolacion
Que podemos disponer en la siguiente tabla:
x
i
f[x
i
] f[x
i
, x
i+1
] f[x
i
, x
i+1
, x
i+2
] f[x
i
, x
i+1
, x
i+2
, x
i+3
]
1 0
1
/
2
3 1
5
/
6

2
/
1
5
/
6
4 1
5
/
2
3
/
1
5 2
Por lo que el polinomio de interpolacion es
P(x) =
1
2
(x 1)
5
6
(x 1)(x 3) +
5
6
(x 1)(x 3)(x 4)
=
1
6
(5x
3
45x
2
+ 118x 78)

La ventaja de este metodo es que si ahora a nadimos un nuevo punto en el so-
porte, solo habra que a nadir una nueva la en la tabla que tenamos elaborada
para calcular el coeciente f[x
0
, x
1
, x
2
, x
3
, x
4
] y determinar el polinomio
Q(x) = P(x) +f[x
0
, x
1
, x
2
, x
3
, x
4
](x 1)(x 3)(x 4)(x 5)
Ejemplo 3.5 Supongamos que a nadimos el punto x
4
= 7 con f
4
= f(x
4
) = 3
en el soporte del Ejemplo 3.4.
Bastara con completar la tabla
x
i
f[x
i
] f[x
i
, x
i+1
] f[x
i
, x
i+1
, x
i+2
] f[x
i
, x
i+1
, x
i+2
, x
i+3
] f[x
i
, x
i+1
, x
i+2
, x
i+3
, x
i+4
]
1 0
1
/
2
3 1
5
/
6

2
/
1
5
/
6
4 1
5
/
2

5
/
18
3
/
1

5
/
6
5 2
5
/
6
1
/
2
7 3
Interpolacion polinomial 151
Resultando que el polinomio de interpolacion es ahora
Q(x) = P(x)
5
18
(x 1)(x 3)(x 4)(x 5) =
=
1
18
(5x
4
80x
3
+ 430x
2
889x + 534)

Sean P
n
(x) y P
n1
(x) los polinomios de interpolacion de la funcion f(x) en los
soportes x
0
, x
1
, . . . , x
n
y x
0
, x
1
, . . . , x
n1
respectivamente.
Sabemos que
P
n
(x) = P
n1
(x) +f[x
0
, . . . , x
n
](x x
0
) (x x
n1
)
y ademas (vease el Teorema 3.2)
f(x) P
n1
(x) =
f
(n
()
n!
(x x
0
) (x x
n1
)
Sustituyendo x por x
n
tenemos:
f(x
n
) P
n1
(x
n
) =
f
(n
()
n!
(x
n
x
0
) (x
n
x
n1
)
y dado que f(x
n
) = f
n
= P
n
(x
n
), se tiene que:
P
n
(x
n
) P
n1
(x
n
) =
f
(n
()
n!
(x
n
x
0
) (x
n
x
n1
).
Podemos, por tanto, enunciar la siguiente proposicion.
Proposicion 3.7 Dado el soporte x
0
, x
1
, . . . , x
n
, existe un punto c del in-
tervalo [x
0
, x
n
] tal que el coeciente f[x
0
, . . . , x
n
] para una funcion f(x) n veces
derivable y con derivada n-esima continua, viene dado por
f[x
0
, . . . , x
n
] =
f
(n
(c)
n!
Denicion 3.3 [Diferencias finitas]
Dados y
0
, y
1
, . . . , y
n
, se denen las diferencias nitas
k
y
i
como
y
i
= y
i+1
y
i

k
y
i
= (
k1
y
i
)
152 Interpolacion
As, por ejemplo, para y
0
, y
1
, y
2
, y
3
se tendran:
y
0
= y
1
y
0

2
y
0
= y
1
y
0
y
1
= y
2
y
1

3
y
0
=
2
y
1

2
y
0

2
y
1
= y
2
y
1
y
2
= y
3
y
2
Cuando se trabaja con un soporte regular los coecientes f[x
0
, . . . , x
k
] pueden
calcularse de forma mas rapida utilizando el metodo de las diferencias nitas.
Proposicion 3.8 [M etodo de las diferencias finitas]
Sea x
0
, x
1
, . . . , x
n
un soporte regular en el que x
i+1
x
i
= h cualquiera que
sea i = 0, 2, . . . , n1 y sean f
i
= f(x
i
) los valores que toma una funcion f(x)
en dicho soporte.
Para cualquier valor de k = 1, 2, . . . , n, es:
f[x
0
, . . . , x
k
] =

k
f
0
h
k
k!
Demostracion. Haremos induccion en k.
Para k = 1 sabemos que f[x
0
, x
1
] =
f
1
f
0
x
1
x
0
=
f
0
h 1!
.
Supuesto cierto para k vamos a probarlo para k + 1.
f[x
0
, . . . , x
k+1
] =
f[x
1
, . . . , x
k+1
] f[x
0
, . . . , x
k
]
x
k+1
x
0
=

k
f
1
h
k
k!


k
f
0
h
k
k!
k h
=
=

k
f
1

k
f
0
h
k
k! k h
=

k+1
f
0
h
k+1
(k + 1)!
El polinomio de interpolacion de f(x) en un soporte regular x
0
, x
1
, . . . , x
n

es, por tanto:


P
n
(x) = f
0
+ f
0
_
x x
0
h
_
+

2
f
0
2!
_
x x
0
h
__
x x
1
h
_
+
+

n
f
0
n!
_
x x
0
h
_

_
x x
n1
h
_
Interpolacion polinomial 153
Teniendo en cuenta que x x
k
= x (x
0
+k h) = (x x
0
) k h, podemos
poner
P
n
(x) = f
0
+ f
0
_
x x
0
h
_
+

2
f
0
2!
_
x x
0
h
__
x x
0
h
1
_
+
+

n
f
0
n!
_
x x
0
h
_

_
x x
0
h
(n 1)
_
por lo que, si denotamos por t =
x x
0
h
, se tiene que
P
n
(x) = f
0
+
f
0
1!
t +

2
f
0
2!
t(t 1) + +

n
f
0
n!
t(t 1) (t (n 1))
Es decir:
P
n
(x) = f
0
+
_
t
1
_
f
0
+
_
t
2
_

2
f
0
+ +
_
t
n
_

n
f
0
Ejemplo 3.6 Sea f(x) una funcion que toma los valores 3, 45, 175, 441 en
el soporte regular 2, 4, 6, 8.
Las diferencias nitas vienen dadas por
f
i
f
i

2
f
i

3
f
i
3 42 88 48
45 130 136
175 266
441
por lo que
P
3
(x) = 3 + 42
_
t
1
_
+ 88
_
t
2
_
+ 48
_
t
3
_
=
= 3 + 42 t + 44 t (t 1) + 8 t (t 1) (t 2) con t =
x 2
2
de donde se obtiene que el polinomio de interpolacion de la funcion f(x) en
dicho soporte es
P
3
(x) = x
3
x
2
x + 1

154 Interpolacion
Observese que si aumentamos el soporte en un n umero bastara, al igual que
ocurra con el metodo de las diferencias divididas, con completar la tabla que
ya tenemos realizada para obtener la diferencia nita del orden siguiente y
a nadir un sumando a la expresion del polinomio interpolador.
Ejemplo 3.7 Si a nadimos el punto 10 al soporte del Ejemplo 3.6 con
f(10) = 915 completamos la tabla
f
i
f
i

2
f
i

3
f
i

4
f
i
3 42 88 48 24
45 130 136 72
175 266 208
441 474
915
y obtenemos que P
4
(x) = P
3
(x)+
_
t
4
_

4
f
0
= P
3
(x)+t(t1)(t2)(t3) =
P
4
(x) = x
3
x
2
x + 1 +
1
16
(x 2)(x 4)(x 6)(x 8) =
P
4
(x) =
1
16
x
4

1
4
x
3
+
31
4
x
2
26x + 25

Cuando debemos realizar la interpolacion de Lagrange y cuando la de Newton?
Si queremos calcular el polinomio de interpolacion de varias funciones
en un mismo soporte, utilizaremos los polinomios de Lagrange, ya que
no dependen de la funcion a interpolar sino solo del soporte utilizado.
Si lo que queremos es interpolar una funcion en un determinado soporte
e ir a nadiendo puntos a este ultimo, obviamente utilizaremos la interpo-
lacion de Newton, donde distinguimos dos casos:
Si el soporte (o posteriores soportes ampliados) no es regular, uti-
lizaremos el metodo de las diferencias divididas.
Si el soporte (y posteriores soportes ampliados) es regular, utiliza-
remos el metodo de las diferencias nitas.
Hay que destacar que cuando hablamos de a nadir puntos al soporte, hablamos
de pasar, por ejemplo, del soporte regular 0, 2, 4, 6 al 0, 2, 4, 6, 8, 10 es
decir, de pasar del soporte
x
0
, x
1
, . . . , x
n
al x
0
, x
1
, . . . , x
n
, x
n+1
, . . . , x
n+k
con x
j
> x
i
si j > i
Interpolacion polinomial 155
Otro problema diferente es el siguiente: supongamos que se quiere aproxi-
mar una funcion f(x) en el intervalo [a, b] y para ello construimos un soporte
x
0
, x
1
, . . . , x
n
con x
0
= a y x
n
= b.
Si posteriormente pretendemos anar la aproximacion a nadiendo mayor canti-
dad de puntos al soporte pero con la condicion de que el primero siga siendo a
y el ultimo b, el proceso, tanto si lo hemos realizado mediante la interpolacion
de Lagrange o la de Newton, hay que realizarlo de nuevo desde el principio.
Hasta que punto es bueno anar un soporte?
Fen omeno de Runge
Dada una funcion continua en [a, b], podra pensarse que la sucesion P
n
(x) con
n N de polinomios de interpolacion, obtenidos al aumentar el n umero de
puntos del soporte, converge a la funcion f(x) es decir, podramos pensar que
lim
n
[f(x) P
n
(x)[ = 0 x [a, b]
cosa que, sin embargo, no es cierta.
En realidad, al aumentar el n umero de puntos del soporte se mejora la aproxi-
macion en la parte central del intervalo, pero la diferencia entre la funcion y el
polinomio interpolador puede aumentar rapidamente en los extremos. Ello nos
dice que no es bueno hacer demasiado extenso el soporte, ya que ademas de
aumentar el n umero de operaciones con la consecuente acumulacion de errores,
podemos aumentar la perdida de precision en los extremos. Este fenomeno es
conocido como fenomeno de Runge.
Ejemplo 3.8 Si aproximamos la funcion f(x) =
1
1 +x
2
por un polinomio de
segundo grado, en el soporte 4, 0, 4, obtenemos que
P
2
(x) = 1
1
17
x
2
En la Figura 3.2 (Izda.) podemos ver ambas gracas.
Si la aproximacion la hacemos mediante un polinomio de grado 4 en el soporte
4, 2, 0, 2, 4 obtenemos
P
4
(x) =
1
85
(85 21x
2
+x
4
)
que podemos ver representada junto a la funcion f(x) en la Figura 3.2 (Dcha.).
156 Interpolacion
Figura 3.2: Las funciones f(x), P
2
(x) y f(x), P
4
(x)
Si anamos a un mas y aproximamos mediante un polinomio de grado 8 en el
soporte 4, 3, 2, 1, 0, 1, 2, 3, 4 obtenemos
P
8
(x) =
1
1700
(1700 1124x
2
+ 304x
4
31x
6
+x
8
)
cuya graca podemos observar en la Figura 3.3.
Figura 3.3: Las funciones f(x) y P
8
(x)
Puede verse el hecho comentado anteriormente del fenomeno de Runge. Va-
mos mejorando la aproximacion en la parte central del intervalo, pero vamos
empeorandola en los extremos.
Ejemplo 3.9 Si construimos con MATHEMATICA el polinomio de interpo-
lacion de la funcion log(1 + x) en el soporte 0, 1, 2, 3, 4 y representamos el
resultado en el intervalo [0.5,1.5] obtenemos la graca de la Figura 3.4 (Izda.).
Si utilizamos los nueve puntos del soporte 0, 0.5, 1, 1.5, 2, 2.5, 3, 3.5, 4 y repre-
sentamos el polinomio obtenido en el intervalo [0.5, 1.5] obtenemos la graca
de la Figura 3.4 (Dcha.).
Intercalando los puntos medios para obtener ahora un soporte de 17 puntos
y realizando la graca correspondiente obtenemos como resultado el que se
muestra en la Figura 3.5 (Izda.).
Interpolacion polinomial 157
Figura 3.4: Las funciones log(1 +x), P
4
(x) y log(1 +x), P
8
(x)
Figura 3.5: Las funciones log(1 +x), P
16
(x) y log(1 +x), P
32
(x)

Sin embargo, si volvemos a utilizar los puntos medios para obtener un soporte
de 33 puntos, podemos ver en la Figura 3.5 (Dcha.) que el fenomeno de Runge
junto a la acumulacion de errores hace que el polinomio obtenido deje de ser
una buena aproximacion de la funcion
3.1.3 Interpolacion de Hermite
Hasta ahora, las unicas condiciones que le hemos exigido al polinomio de in-
terpolacion es que coincida con la funcion en los puntos del soporte.
Se pueden exigir otro tipo de condiciones, entre las que destaca la de exigir
que ademas de coincidir los valores del polinomio lo hagan tambien los de su
primera derivada, es decir, que
P (x
i
) = f (x
i
)
P

(x
i
) = f

(x
i
)
_
en los puntos del soporte x
0
, x
1
, . . . , x
n

158 Interpolacion
Consideremos, por tanto, la tabla
x x
0
x
1
x
n
f(x) f
0
f
1
f
n
f

(x) f

0
f

1
f

n
donde f
i
= f(x
i
) y f

i
= f

(x
i
) para 0 i n.
Se tienen, en este caso, 2n + 2 condiciones, por lo que debemos buscar un
polinomio de grado 2n + 1
P(x) = a
2n+1
x
2n+1
+a
2n
x
2n
+ +a
1
x +a
0
que verique las condiciones:
P(x
0
) = f
0
P(x
1
) = f
1
.
.
.
P(x
n
) = f
n
P

(x
0
) = f

0
P

(x
1
) = f

1
.
.
.
P

(x
n
) = f

n
Teorema 3.9 [Polinomios de Hermite]
El polinomio
P
2n+1
(x) =
n

k=0
_
a
k
+b
k
(x x
k
)
_
L
2
k
(x)
en el que L
k
(x) representan los polinomios de Lagrange y
a
k
= f
k
b
k
= f

k
2f
k
L

k
(x
k
)
es el unico polinomio de grado 2n + 1 que interpola a la funcion f(x) en el
soporte x
0
, x
1
, . . . , x
n
cumpliendo las condiciones
P
2n+1
(x
k
) = f
k
= f(x
k
)
P

2n+1
(x
k
) = f

k
= f

(x
k
)
_
k = 0, 1, . . . , n
Dicho polinomio recibe el nombre de polinomio de Hermite.
La demostracion debe realizarla el alumno a modo de ejercicio.
Interpolacion polinomial 159
Teorema 3.10 [Error de interpolaci on de Hermite]
Sea f(x) una funcion 2n + 2 veces derivable con derivada de orden 2n + 2
continua y sea P
2n+1
el polinomio de Hermite que interpola a f(x) en el soporte
x
0
, x
1
, . . . , x
n
.
Existe un punto c del intervalo que determinan los puntos x, x
0
, . . . , x
n
en el
que se verica que
f(x) P
2n+1
(x) =
f
(2n + 2
(c)
(2n + 2)!
(x x
0
)
2
(x x
n
)
2
Demostracion. Sean d(x) = f(x) P
2n+1
(x) y z(x) = (x x
0
) (x x
n
) y
considerese la funcion
g(t) = d(t)
d(x)
z
2
(x)
z
2
(t)
La demostracion es similar a la del Teorema 3.2.
Ejemplo 3.10 Si aplicamos este metodo a la funcion del Ejercicio 3.8, en el
soporte 4, 2, 0, 2, 4 obtenemos el polinomio de grado 8 (en realidad se
busca de grado 9 pero al ser una funcion par, el termino de grado 9 se anula)
P
8
(x) =
1
7225
(7225 3129x
2
+ 569x
4
41x
6
+x
8
)
cuya graca puede verse en la Figura 3.6 (Izda.).
Figura 3.6: Las funciones f(x), P
8
(x) y f(x), P
16
(x)
Si lo hacemos en el soporte 4, 3, 2, 1, 0, 1, 2, 3, 4 obtenemos
P
16
(x)=
1
2890000
(2890000 2558224x
2
+ 1613584x
4
626688x
6
+ 144408x
8
19527x
10
+ 1507x
12
61x
14
+x
16
)
que podemos ver en la Figura 3.6 (Dcha.).
160 Interpolacion
Si comparamos con los resultados obtenidos en el Ejercicio 3.8, podemos ob-
servar la mejora que produce la imposicion de que coincidan no solo los valores
de la funcion, sino que tambien lo hagan los de su derivada, en los puntos del
soporte. Sin embargo, sigue manifestandose el fenomeno de Runge, es decir,
se mejora el resultado en la parte central del intervalo, pero en los extremos,
la diferencia entre el polinomio interpolador y la funcion es considerable.
Es posible interpolar una funcion sin que aparezca el fenomeno de Runge?
La manera de evitarlo es hacer una interpolacion polinomial a trozos, es decir,
lo que se conoce como una interpolacion por splines.
3.2 Interpolacion por splines
Consideremos una particion del intervalo [a, b]
= x
0
= a < x
1
< < x
n1
< x
n
= b
en la que los puntos x
i
reciben el nombre de nodos.
Una interpolacion por splines consiste en tomar un soporte en cada subinter-
valo [x
i1
, x
i
] y construir un polinomio de interpolacion, de grado no superior
a k (para un k prejado) sobre dicho soporte, por lo que el metodo se conoce
tambien como interpolacion polinomial a trozos. Damos a continuacion una
denicion formal de lo que denominaremos funcion spline.
Denicion 3.4 [Funci on spline]
Una funcion spline de grado k con nodos en x
0
, x
1
, . . . , x
n
es una funcion S(x)
formada por varios polinomios, cada uno de ellos denido sobre un subintervalo
y que se unen entre s bajo ciertas condiciones de continuidad. Las condiciones
que debe cumplir S(x) son las siguientes:
En cada intervalo [x
i1
, x
i
), S(x) es un polinomio de grado gr[S(x)] k,
S(x) admite derivada continua de orden k 1 en [x
0
, x
n
].
En general, pueden crearse funciones spline de grado k, pero la interpolacion
mas frecuente es a traves de funciones spline de grado 3, es decir, de splines
c ubicos.
Interpolacion por splines 161
3.2.1 Splines c ubicos
Dado que a partir de ahora vamos a trabajar con splines c ubicos, vamos a
concretar la Denicion 3.4 al caso de k = 3.
Denicion 3.5 [Funci on spline c ubico]
Dado el conjunto de puntos = x
0
, x
1
, . . . , x
n
, diremos que la funcion S

es un spline c ubico asociado a si cumple las siguientes condiciones:


a) La restriccion de S

a cada intervalo [x
i1
, x
i
) para i = 1, 2, . . . n es
un polinomio de grado no superior a tres. Es decir, S
|
[x
i1
,x
i
]
T
3
[x],
donde T
3
[x] representa al conjunto de los polinomios de grado menor o
igual a tres.
b) S

(
2
[a, b], es decir, S

es una funcion continua, dos veces derivable


y con derivadas continuas en el intervalo [a, b].
Denicion 3.6 [Spline de interpolaci on]
Diremos que S

(x) es un spline de interpolacion en x seg un la particion , si


a) S

(x) es un spline c ubico asociado a .


b) S

(x
i
) = f(x
i
) = y
i
para i = 0, 1, . . . , n, es decir, cumple las condiciones
de interpolacion.
Cuantas incognitas apareceran en el spline en funcion de las condiciones que
se han de cumplir?
Si en cada intervalo de la particion intentamos construir un polinomio de
grado tres que aproxime a la funcion, deberemos calcular cuatro incognitas
(los cuatro coecientes del polinomio de grado tres) por intervalo, es decir, 4n
incognitas.
Por otro lado, estos polinomios deben cumplir, en cada uno de los nodos, las
condiciones:
S
|
[
x
i1
,x
i
]
(x
i
) = S
|
[
x
i
,x
i+1
]
(x
i
)
S

|
[
x
i1
,x
i
]
(x
i
) = S

|
[
x
i
,x
i+1
]
(x
i
)
S

|
[
x
i1
,x
i
]
(x
i
) = S

|
[
x
i
,x
i+1
]
(x
i
)
i = 1, 2, . . . , n 1 (3.2)
Es decir, se deben cumplir un total de 3(n1) condiciones ademas de las n+1
condiciones de interpolacion
S

(x
i
) = f(x
i
) i = 0, 1, . . . , n
162 Interpolacion
Dado que tenemos un total de 4n incognitas para 4n2 condiciones, debemos
imponer dos nuevas condiciones para poder determinar los coecientes de la
funcion spline. Dependiendo de las condiciones que impongamos, obtendremos
un tipo de spline u otro.
Si exigimos que las derivadas segundas se anulen en los extremos, es
decir, si
S

(a) = S

(b) = 0
diremos que S

(x) es el spline natural asociado a la particion .


Si exigimos que
S

(a) = S

(b), S

(a) = S

(b)
diremos que se trata de un spline periodico.
C alculo de los splines c ubicos de interpolaci on
Nos centraremos en el calculo de los splines naturales y con al n de simplicar
la notacion, llamaremos
h
i
= x
i
x
i1
i = 1, 2, . . . , n
M
i
= S

(x
i
) i = 0, 1, . . . , n
Los valores M
i
se denominan momentos y determinaran completamente los
splines c ubicos.
Observese, en primer lugar, que como en cada intervalo [x
i
, x
i+1
] el spline S

es un polinomio de grado tres, su segunda derivada es una recta (un polinomio


de grado uno). En consecuencia, al imponer las condiciones (3.2) sobre la
igualdad de las derivadas segundas en los nodos, obligamos a que la segunda
derivada de la funcion spline S

(x) constituya un conjunto de rectas que se


intersecan en los nodos de la particion elegida. Ahora bien, dado que cada
recta queda determinado por dos puntos, podemos escribir el valor de las
restricciones (3.2) sobre S

|
[x
i
,x
i+1
]
como
S

|
[x
i
,x
i+1
]
(x) = M
i
x
i+1
x
h
i+1
+M
i+1
x x
i
h
i+1
.
Integrando respecto a x obtenemos el valor de la primera derivada del spline
en este intervalo
S

|
[x
i
,x
i+1
]
(x) =
M
i
2
(x
i+1
x)
2
h
i+1
+
M
i+1
2
(x x
i
)
2
h
i+1
+A
i
.
Interpolacion por splines 163
Volviendo a integrar respecto a x obtenemos
S
|
[x
i
,x
i+1
]
(x) =
M
i
6
(x
i+1
x)
3
h
i+1
+
M
i+1
6
(x x
i
)
3
h
i+1
+A
i
(x x
i
) +B
i
.
Si imponemos ahora las condiciones de interpolacion
S

(x
i
) = y
i
, S

(x
i+1
) = y
i+1
obtenemos
M
i
6
h
2
i+i
+B
i
= y
i
=B
i
= y
i

M
i
6
h
2
i+1
M
i+1
6
h
2
i+i
+A
i
h
i+1
+B
i
= y
i+1
=A
i
=
y
i+1
y
i
h
i+1

h
i+1
6
(M
i+1
M
i
).
Podemos, por tanto, determinar los valores de las constantes A
i
y B
i
, que
determinan el valor de S

(x) en el intervalo [x
i
, x
i+1
], en funcion de los mo-
mentos.
El problema se reduce, por tanto, a calcular los momentos para cada uno de los
intervalos, para lo que utilizaremos la unica condicion de (3.2) que no hemos
utilizado:
S

|
[x
i1
,x
i
]
(x
i
) = S

|
[x
i
,x
i+1
]
(x
i
).
Esta condicion nos da, para cada i = 1, 2, . . . , n 1, una ecuacion:
h
i
h
i
+h
i+1
M
i1
+ 2M
i
+
h
i+1
h
i
+h
i+1
M
i+1
=
6
h
i
+h
i+1
_
y
i+1
y
i
h
i+1

y
i
y
i1
h
i
_
En el caso del spline natural tenemos que M
0
= M n = 0, quedandonos el
sistema tridiagonal de n 1 ecuaciones con n 1 incognitas
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2
h
2
h
1
+h
2
h
2
h
2
+h
3
2
h
3
h
2
+h
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
h
n1
h
n2
h
n1
h
n1
h
n1
+h
n
2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
M
1
M
2
.
.
.
.
.
.
M
n1
_
_
_
_
_
_
_
_
_
=
164 Interpolacion
=
_
_
_
_
_
_
_
_
_
_
_
_
_
6
h
1
+h
2
_
y
2
y
1
h
2

y
1
y
0
h
1
_
6
h
2
+h
3
_
y
3
y
2
h
3

y
2
y
1
h
2
_
.
.
.
.
.
.
6
h
n1
+h
n
_
y
n
y
n1
h
n

y
n1
y
n2
h
n1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Este sistema puede resolverse por cualquiera de los metodos iterados estudia-
dos en el Captulo 2 ya que, al ser la matriz del sistema de diagonal dominante,
todos ellos son convergentes.
Ejemplo 3.11 Si aplicamos le interpolacion por splines c ubicos a la funcion
del Ejemplo 3.8
f(x) =
1
1 +x
2
en la particion = 4, 3, 2, 1, 0, 1, 2, 3, 4
obtenemos, utilizando MATHEMATICA, el resultado de la Figura 3.7, que
puede verse que, independientemente de ser mejor que el que se obtuvo en
la Figura 3.6 (Dcha.) con el metodo de Hermite, no aparece el fenomeno de
Runge.
Figura 3.7: Las funciones f(x) y S

(x)

3.3 Ejercicios resueltos


Ejercicio 3.1 Obtener el polinomio de interpolacion de Hermite de la funcion
f(x) = ln x en el soporte S = 1, 2 y, supuesto conocido ln 2, aproximar el
valor de ln 1.5 acotando el error cometido.
Ejercicios resueltos 165
Soluci on:
f(x) = ln x = f(1) = 0 f(2) = ln 2
f

(x) =
1
x
= f

(1) = 1 f

(2) = 0.5
Los polinomios de Lagrange en el soporte 1, 2
L
0
(x) =
x 2
1 2
= 2 x y L
1
(x) =
x 1
2 1
= x 1
P
2n+1
(x) =
n

k=0
_
a
k
+b
k
(xx
k
)
_
L
2
k
(x) con
_
_
_
a
k
= f(x
k
)
b
k
= f

(x
k
) 2f(x
k
)L

k
(x k)
Para n = 1 se tiene: P
3
(x) =
_
a
0
+ b
0
(x 1)
_
L
2
0
(x) +
_
a
1
+ b
1
(x 2)
_
L
2
1
(x)
con
a
0
= f(1) = 0 b
0
= f

(1) 2f(1)L

1
(1) = 1 2 0 1 = 1
a
1
= f(2) = ln 2 b
1
= f

(2) 2f(2)L

2
(2) = 0.5 2 ln 2 1 = 0.5 2 ln 2
de donde
P
3
(x) = (x 1)L
2
0
(x) +
_
ln 2 + (0.5 2 ln 2)(x 2)
_
L
2
1
(x)
y sustituyendo los valores de L
0
(x) y L
1
(x) obtenemos
P
3
(x) = (x 1)(2 x)
2
+
_
ln 2 + (0.5 2 ln 2)(x 2)
_
(x 1)
2
Para x = 1

5
P
3
(1.5) = 0.5 0.5
2
+
_
ln 2 + (0.5 2 ln 2)(0.5)
_
0.5
2
0.409073590
El error viene dado por:
(x)
2
(x) max
x[1,2]
[f
(v
(x)[
(2n + 2)!
= (x 1)
2
(x 2)
2
max
x[1,2]
[f
(v
(x)[
4!
=
=
(x 1)
2
(x 2)
2
24
max
x[1,2]

6
x
4

=
(x 1)
2
(x 2)
2
4
(1.5)
0.5
2
(0.5
2
)
4
= 0.015625
Es decir:
ln 1.5 = 0.409073590 con un error 0.015625.
166 Interpolacion
Ejercicio 3.2 Obtener el polinomio de interpolacion de los puntos:
(0, 5), (1, 3), (2, 1), (3, 13)
a) Mediante resolucion de un sistema de ecuaciones.
b) Mediante la formula de Lagrange
c) Mediante la formula de Newton para diferencias divididas.
d) Mediante la formula de Newton para diferencias nitas.
Soluci on:
a) Al tener cuatro puntos, el polinomio que debemos buscar es de grado
tres, P(x) = a
3
x
3
+a
2
x
2
+a
1
x +a
0
.
P
3
(0) = a
0
= 5
P
3
(1) = a
3
+ a
2
+ a
1
+a
0
= 3
P
3
(2) = 8a
3
+ 4a
2
+ 2a
1
+a
0
= 1
P
3
(3) = 27a
3
+ 9a
2
+ 3a
1
+a
0
= 13
Obtenemos el sistema:
_
_
_
_
_
1 0 0 0
1 1 1 1
1 2 4 8
1 3 9 27
_
_
_
_
_
_
_
_
_
_
a
0
a
1
a
2
a
3
_
_
_
_
_
=
_
_
_
_
_
5
3
1
13
_
_
_
_
_
que resolviendolo nos da
a
0
= 5, a
1
= 3, a
2
= 2 y a
3
= 1
por lo que el polinomio de interpolacion es
P
3
(x) = x
3
2x
2
+ 3x 5
b) Dado que el soporte es el canonico para n = 3, los polinomios de La-
grange (vease la solucion del Ejercicio 3.3) son:
L
0
(x) =
1
6
x
3
+x
2

11
6
x + 1 L
2
(x) =
1
2
x
3
+ 2x
2

3
2
x
L
1
(x) =
1
2
x
3

5
2
x
2
+ 3x L
3
(x) =
1
6
x
3

1
2
x
2
+
1
3
x
Ejercicios resueltos 167
Como P
3
(x) = y
0
L
0
(x) +y
1
L
1
(x) +y
2
L
2
(x) +y
3
L
3
(x), se tiene:
P
3
(x) = 5 (
1
6
x
3
+x
2

11
6
x + 1) 3 (
1
2
x
3

5
2
x
2
+ 3x)+
+ 1 (
1
2
x
3
+ 2x
2

3
2
x) + 13 (
1
6
x
3

1
2
x
2
+
1
3
x) =
P
3
(x) = x
3
2x
2
+ 3x 5
c) Comenzamos por construir la tabla de diferencias divididas:
x
i
f(x
i
) f[x
i
x
j
] f[x
i
x
j
x
k
] f[x
i
x
j
x
k
x
h
]
0 -5
2
1 3 1
4 1
2 1 4
12
3 13
P
3
(x) = f(x
0
) + (x x
0
)f[x
0
x
1
] + (x x
0
)(x x
1
)f[x
0
x
1
x
2
]+
+ (x x
0
)(x x
1
)(x x
2
)f[x
0
x
1
x
2
x
3
] =
P
3
(x) = 5+2(xx
0
)+1(xx
0
)(xx
1
)+1(xx
0
)(xx
1
)(xx
2
) =
= 5 + 2x +x(x 1) +x(x 1)(x 2) =
P
3
(x) = x
3
2x
2
+ 3x 5
d) La tabla de diferencias nitas es
x
1
f(x
i
) f(x
i
)
2
f(x
i
)
3
f(x
i
)
0 -5 2 2 6
1 3 4 8
2 1 12
3 13
P
3
(x) =
_
t
0
_
f(x
0
) +
_
t
1
_
f(x
0
) +
_
t
2
_

2
f(x
0
) +
_
t
3
_

3
f(x
0
)
168 Interpolacion
donde t =
x x
0
h
=
x 0
1
= x, por lo que:
P
3
(x) = 5
_
x
0
_
+ 2
_
x
1
_
+ 2
_
x
2
_
+ 6
_
x
3
_
=
= 5 + 2x + 2
x(x 1)
2!
+ 6
x(x 1)(x 2)
3!
=
= 5 + 2x +x(x 1) +x(x 1)(x 2) =
P
3
(x) = x
3
2x
2
+ 3x 5
3.4 Ejercicios propuestos
Ejercicio 3.3 Calcular los polinomios de Lagrange para el soporte canonico
con 1 n 3.
Sol :
n = 1 n = 2 n = 3
L
0
(x) x + 1
1
2
(x
3
3x + 2)
1
6
(x
3
6x
2
+ 11x 6)
L
1
(x) x x
2
+ 2x
1
2
(x
3
5x
2
+ 6x)
L
2
(x)
1
2
(x
2
x)
1
2
(x
3
4x
2
+ 3x)
L
3
(x)
1
6
(x
3
3x
2
+ 2x)
Ejercicio 3.4 Hallar el polinomio de interpolacion de la funcion f(x) = 2x
4
en el soporte canonico S = 0, 1, 2, 3. Obtener una expresion del error.
Sol : P
3
(x) = 12x
3
22x
2
+ 12x con (x) = 2x(x 1)(x 2)(x 3).
Ejercicio 3.5 Hallar el polinomio de interpolacion de la funcion f(x) = e
x
en
el soporte 0, 1 y con el, aproximar

e estimando el error cometido.
Sol : P
1
(x) = (e 1)x + 1 con
e
2
x(x 1).

e 1.85914 con 0.34.
Ejercicios propuestos 169
Ejercicio 3.6 Obtener el polinomio de interpolacion de los puntos:
(7, 3), (8, 1), (9, 1), (10, 9)
basandose en los polinomios de Lagrange para el soporte canonico.
Sol : P
3
(x) = x
3
23x
2
+ 174x 431.
Ejercicio 3.7 Probar que F(n) = 1
2
+ 2
2
+ 3
2
+ +n
2
es un polinomio en
n y obtenerlo por interpolacion.
Sol : F(n) =
1
6
n(n + 1)(2n + 1).
Ejercicio 3.8 Dada la funcion f(x) = e
x
, se pide:
a) Hallar el polinomio de interpolacion en el soporte 1, 0, 1 y una cota
del error en el intervalo [1, 1].
Sol : P
2
(x) =
e
2
2e + 1
2e
x
2
+
e
2
1
2e
x + 1 0.54308x
2
+ 1.17520x + 1.

3e
27
< 0.175.
b) Calcular P(0.01) y compararlo con el valor dado por la calculadora para
e
0.01
.
Sol : P
2
(0.01) 1.01181, e
0.01
1.01005, [P
2
(0.01) e
0.01
[ = 0.00176.
Ejercicio 3.9 Dada la tabla
x 0 1 2 3
y 1 6 31 98
se pide:
a) Hallar su polinomio de interpolacion por el metodo de los polinomios de
Lagrange.
Sol : P
3
(x) = 4x
3
3x
2
+ 6x 1.
b) Determinar la forma general de todos los polinomios de cuarto grado que
satisfacen dicha tabla, determinando aquel que verica que para x = 4
es y = 255.
Sol : P(x) = 4x
3
3x
2
+ 6x 1 + x(x 1)(x 2)(x 3).
P(x) = x
4
2x
3
+ 8x
2
1
c) Determinar los polinomios anteriores (para los soportes 0, 1, 2, 3 y
0, 1, 2, 3, 4) por el metodo de las diferencias divididas de Newton.
4. Integracion numerica
Se pretende, en este tema, dar una aproximacion numerica del valor de una
integral
_
b
a
f(x)dx en los distintos problemas que se presentan en la practica,
como son:
Conocida una primitiva F(x) de la funcion f(x) sabemos que
_
b
a
f(x)dx = F(b) F(a)
pero necesitamos aproximar el valor de F(b) F(a).
As, por ejemplo,
_
2
1
1
x
dx =
_
log x
_
2
1
= log 2 log 1 = log 2
pero hay que aproximar el valor de log 2.
Si se conoce la funcion f(x), pero no se conoce ninguna primitiva suya,
se busca otra funcion g(x) que aproxime a la funcion f(x) y de la cual
s se conozcan primitivas.
As, por ejemplo, para calcular
_
2
1
e
x
x
dx, se desarrolla en serie de poten-
cias
f(x) =
e
x
x
=
1 +x + +
x
n
n!
x
+(x) =
1
x
+ 1 + +
x
n1
n!
+(x) =
= g(x) +(x)
_
2
1
f(x)dx =
_
2
1
g(x)dx +
_
2
1
(x)dx
en donde habra que evaluar
_
2
1
(x)dx.
171
172 Integracion numerica
Solo se conocen los valores de f(x) en un soporte x
0
, x
1
, . . . , x
n
.
En este caso, se interpola la funcion (por ejemplo mediante la interpo-
lacion polinomica).
_
b
a
f(x)dx =
_
b
a
P
n
(x)dx +
_
b
a
f
(n + 1
(c)
(n + 1)!
(x x
0
)(x x
1
) (x x
n
)dx
4.1 Formulas de cuadratura
Si realizamos la interpolacion de Lagrange, y llamamos
z(x) = (x x
0
)(x x
1
) (x x
n
),
el polinomio de interpolacion es
P
n
(x) = y
0
L
0
(x) +y
1
L
1
(x) + +y
n
L
n
(x)
donde los polinomios de Lagrange L
i
(x) pueden expresarse (vease (3.1)) de la
forma
L
i
(x) =
z(x)
(x x
i
) z

(x
i
)
Ademas,
_
b
a
P
n
(x) =
n

i=0
_
b
a
y
i
L
i
(x)dx =
n

i=0
y
i
_
b
a
L
i
(x)dx =
n

i=0
a
i
y
i
donde los coecientes a
i
=
_
b
a
L
i
(x)dx no dependen de la funcion, sino solo del
soporte.
Ademas, si f(x) es un polinomio de grado no superior a n, f(x) P(x) = 0,
por lo que para polinomios es
_
b
a
P(x)dx =
n

i=1
a
i
P(x
i
)
Por tanto:
P(x) = 1 = b a = a
0
+a
1
+ +a
n
P(x) = x =
b
2
a
2
2
= a
0
x
0
+a
1
x
1
+ +a
n
x
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
P(x) = x
n
=
b
n+1
a
n+1
n + 1
= a
0
x
n
0
+a
1
x
n
1
+ +a
n
x
n
n
_

_
(4.1)
Formulas de cuadratura 173
sistema, que en forma matricial es
_
_
_
_
_
_
1 1 1
x
0
x
1
x
n
.
.
.
.
.
.
.
.
.
.
.
.
x
n
0
x
n
1
x
n
n
_
_
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
n
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
b a
b
2
a
2
2
.
.
.
a
n+1
b
n+1
n + 1
_
_
_
_
_
_
_
_
admite solucion unica ya que el determinante de su matriz es un Vandermonde
y, por tanto, no nulo.
Una vez calculados los coecientes a
i
se obtiene una formula de aproximacion
que solo dependera del soporte.
Para cada soporte, las formulas reciben el nombre de formulas de cuadratura.
Ejemplo 4.1 Vamos a integrar una funcion f(x) en [0, 1] considerando los
soportes:
S
1
= 0,
1
/
3
,
1
/
2
y S
2
=
1
/
4
,
1
/
2
,
3
/
4
.
a) En el soporte S
1
= 0,
1
/
3
,
1
/
2

_
1
0
f(x)dx a
0
f(0) +a
1
f(
1
/
3
) +a
2
f(
1
/
2
)
El sistema a resolver es, en este caso:
P(x) = 1 = a
0
+a
1
+a
2
= 1
P(x) = x = 0 a
0
+
1
3
a
1
+
1
2
a
2
=
1
2
P(x) = x
2
= 0 a
0
+
1
9
a
1
+
1
4
a
2
=
1
3
cuya solucion es
a
0
=
1
2
a
1
=
3
2
a
2
= 2
luego
_
1
0
f(x)dx
1
2
f(0)
3
2
f(
1
/
3
) + 2f(
1
/
2
)
174 Integracion numerica
b) En el soporte S
2
=
1
/
4
,
1
/
2
,
3
/
4

_
1
0
f(x)dx b
0
f(
1
/
4
) +b
1
f(
1
/
2
) +b
2
f(
3
/
4
)
El sistema a resolver es, en este caso:
P(x) = 1 = b
0
+b
1
+b
2
= 1
P(x) = x =
1
4
b
0
+
1
2
b
1
+
3
4
b
2
=
1
2
P(x) = x
2
=
1
16
b
0
+
1
4
b
1
+
9
16
b
2
=
1
3
cuya solucion es
b
0
=
2
3
b
1
=
1
3
b
2
=
2
3
luego
_
1
0
f(x)dx
2
3
f(
1
/
4
)
1
3
f(
1
/
2
) +
2
3
f(
3
/
4
)

4.2 Formulas de Newton-Cotes


Las formas mas generalizadas de aproximacion de la integral de una funcion
f(x) se realizan mediante uno de los dos procesos siguientes:
Dando un soporte (generalmente regular) y los valores de la funcion en
los puntos del soporte. Formulas de Newton-Cotes.
Dando diferentes soportes y buscando el polinomio P(x) que hace mas
peque na la integral
_
b
a
(f(x)P(x))dx. Formulas de Gauss que no se
veran en este curso.
C alculo de los coeficientes de Newton-C otes
Partamos del soporte regular x
0
, x
1
, . . . , x
n
con
x
0
= a x
1
= a +h x
i
= a +ih x
n
= a +nh = b
Formulas de Newton-Cotes 175
Si llamamos z(x) = (x x
0
)(x x
1
) (x x
n
) se tiene que los polinomios
de Lagrange son
L
i
(x) =
(x x
0
)(x x
1
) (x x
n
)
(x x
i
)(x
i
x
0
) (x
i
x
i1
)(x
i
x
in1
) (x
i
x
n
)
=
=
(x a)(x a h) (x a nh)
(x a ih) ih(i 1)h h(h) (2h) ((n i)h)
=
=
(x a)(x a h) (x a nh)
(x a ih) i! (n i)! h
n1
(1)
ni
=
= h
_
x a
h
__
x a
h
1
_

_
x a
h
n
_
(x a ih) i! (n 1)! (1)
ni
=
=
_
x a
h
__
x a
h
1
_

_
x a
h
n
_
_
x a
h
i
_
i! (n 1)! (1)
ni
Por lo que haciendo t =
x a
h
se tiene que
L
i
(x) =
t(t 1) (t n)
(t i) i! (n i)! (1)
ni
Por tanto:
a
i
=
_
n
0
L
i
(x)dx =
_
n
0
t(t 1) (t n)
(t i) i! (n i)! (1)
ni
hdt =
=
(1)
ni
h
i! (n i)!
_
n
0
t(t 1) (t n)
t i
dt =
a
i
= h(1)
ni
_
n
i
_
n!
_
n
0
z(t)
t i
dt
que son los coecientes de Newton-Cotes.
Proposicion 4.1 [Simetra de los coeficientes de Newton-C otes]
Los coecientes de Cotes verican que a
k
= a
nk
.
176 Integracion numerica
Demostracion.
a
nk
= h(1)
k
_
n
n k
_
n!
_
n
0
z(t)
t (n k)
dt
Haciendo t n = u = dt = du se tiene que
a
nk
= h(1)
k+1
_
n
n k
_
n!
_
n
0
(u +n)(u +n 1) (u)
u +k
du =
= h(1)
k+1+n+1
_
n
n k
_
n!
_
n
0
u(u 1) (u n)
u k
du =
= h(1)
n+k
_
n
k
_
(1)
2k
n!
_
n
0
u(u 1) (u n)
u k
du =
= h(1)
nk
_
n
k
_
n!
_
n
0
z(u)
u k
du = a
k
Teniendo en cuanta la Proposicion 4.1, solo hay que calcular la mitad de los
coecientes.
Teorema 4.2 [Error de aproximaci on]
Al aplicar la formula de Newton-Cotes para un entero n, el error que se comete
viene dado por:
Si n es par:

n
=

h
n+3
f
(n + 2
(c)
(n + 2)!
_
n
0
t t(t 1) (t n)dt

Si n es impar:

n
=

h
n+2
f
(n + 1
(c)
(n + 1)!
_
n
0
(t 1) (t n)dt

Formulas de Newton-Cotes 177


Las Formulas de Newton-Cotes en los casos n = 1 y n = 2 son conocidas como
Formula del trapecio y Formula de Simpson respectivamente.
4.2.1 Formula del trapecio
La formula de Newton-Cotes para el caso n = 1 solo tiene dos coecientes, a
0
y a
1
.
Como por la Proposicion 4.1 es a
0
= a
1
y por las ecuaciones (4.1) es
a
o
+a
1
= b a = a
0
= a
1
=
b a
2
por lo que
_
b
a
f(x)dx
b a
2
f(a) +
b a
2
f(b) = (b a)
_
f(a) +f(b)
2
_
El metodo del trapecio nos aproxima la integral por el area de la region plana
limitada por las rectas x = a, x = b, y = 0 y la recta que pasa por los puntos
(a, f(a)) y (b, f(b)), es decir, el area de un trapecio (ver Figura 4.1).
f(b)
f(a)
a
b
f(x)

Figura 4.1: Metodo del trapecio


El error de aproximacion viene dado (vease el Teorema 4.2) por
=
(b a)
3
[f

(c)[
12

(b a)
3
12
max
x[a,b]
[f

(x)[
178 Integracion numerica
Ejemplo 4.2 Al aplicar la formula del trapecio a la integral
_
2
1
ln x dx
obtenemos:
_
2
1
ln x dx 1
ln 2 + ln 1
2
=
ln 2
2
0.34657359027997
El error vendra dado por

(b a)
3
12
max
x[1,2]
[f

(x)[ =
1
12
max
x[1,2]

1
x
2

=
1
12
1 =
1
12
= 0.08333333333333

4.2.2 Formula de Simpson


Para el caso n = 2 tenemos que x
0
= a, x
1
=
a +b
2
y x
2
= b.
a
0
= h(1)
n0
_
n
0
_
n!
_
2
0
t(t 1)(t 2)
t 0
dt =
b a
4
_
t
3
3
3
t
2
2
+ 2t
_
2
0
=
b a
6
a
2
= a
0
=
b a
6
Dado que a
0
+a
1
+a
2
= b a, se tiene que a
1
= b a 2
b a
6
=
2(b a)
3
.
Se tiene, por tanto, que
_
b
a
f(x)dx
b a
6
f(a) +
2(b a)
3
f(
a +b
2
) +
b a
6
f(b)
o, lo que es lo mismo:
_
b
a
f(x)dx
b a
6
_
f(a) + 4f
_
a +b
2
_
+f(b)
_
El error cometido en la aproximacion numerica de la integral vendra dado
(vease el Teorema 4.2) por
=
_
b a
2
_
5
[f
(v
(c)[
90
=
(b a)
5
2880
[f
(v
(c)[
(b a)
5
2880
max
x[a,b]
[f
(v
(x)[
Formulas compuestas 179
Ejemplo 4.3 Para calcular la integral del Ejemplo 4.2 por el metodo de Simp-
son obtenemos
_
2
1
ln x dx
1
6
(ln 1 + 4 ln
3
2
+ ln 2) =
1
6
(4 ln 3 3 ln 2) 0.38583460216543
y el error vendra dado por
=
(b a)
5
2880
max
x[a,b]
[f
(v
(x)[ =
1
2880
max
x[1,2]

6
x
4

=
1
2880
6 = 0.00208333333333

4.3 Formulas compuestas


4.3.1 Simpson para n par
Descomponiendo el soporte en x
0
, x
1
, x
2
x
2
, x
3
, x
4
x
n2
, x
n1
, x
n

se obtiene que
_
b
a
f(x)dx
x
2
x
0
6
_
f(x
0
) + 4f(x
1
) +f(x
2
)
_
+
+
x
4
x
2
6
_
f(x
2
) + 4f(x
3
) +f(x
4
)
_
+ +
+
x
n
x
n2
6
_
f(x
n2
) + 4f(x
n1
) +f(x
n
)
_
=
=
h
3
_
f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + 2f(
4
) + +
+ 2f(x
n2
) + 4f(x
n1
) +f(x
n
)
_
=
=
h
3
_
_
f(x
0
) +f(x
n
)
_
+ 2
_
f(x
2
) + +f(x
n2
)
_
+
+ 4
_
f(x
3
) + +f(x
n1
)
_
_
Llamando
E = f(x
0
) +f(x
n
) P =

i par
i = 0
i = n
f(x
i
) I =

impar
f(x
i
)
se tiene que
_
b
a
f(x)dx
h
3
(E + 2P + 4I)
180 Integracion numerica
El error viene dado por
=
h
5
90
[f
(v
(c
1
) +f
(v
(c
2
) + +f
(v
(c
n
2
)[
h
5
90
max
x[a,b]
[f
(v
(x)[
n
2
=

(b a)
5
180 n
4
max
x[a,b]
[f
(v
(x)[
Ejemplo 4.4 Volvamos a calcular la integral del Ejemplo 4.2 por la formula
compuesta de Simpson para n = 10.
E = ln 1 + ln 2 = ln 2 0.69314718055995
P = ln 1.2 + ln 1.4 + ln 1.6 + ln 1.8 1.57658408756302
I = ln 1.1 + ln 1.3 + ln 1.5 + ln 1.7 + ln 1.9 1.93562168961455
por lo que
_
2
1
ln x dx
1
30
(0.69314718055995+21.57658408756302+41.93562168961455)
_
2
1
ln x dx 0.38629340380481
con una cota de error de

(b a)
5
180 n
4
max
x[a,b]
[f
(v
(x)[ =
1
1800000
max
x[1,2]

6
x
4

=
1
1800000
6 3.3334 10
6

4.3.2 Trapecios para n impar


Con un proceso analogo al anterior obtenemos que
_
b
a
f(x)dx
h
2
_
_
f(x
0
) +f(x
1
)
_
+
_
f(x
1
) +f(x
2
)
_
+ +
_
f(x
n1
+f(x
n
)
_
_
_
b
a
f(x)dx
b a
2n
_
_
f(x
0
) +f(x
n
)
_
+ 2
_
f(x
1
) +f(x
2
) + +f(x
n1
)
_
_
El error que se comete viene dado por

h
3
12
[f

(c
1
) +f

(c
2
) + +f

(c
n
)[
h
3
12
n max
x[a,b]
[f

(x)[ =
Ejercicios resueltos 181

(b a)
3
12 n
2
max
x[a,b]
[f

(x)[
Ejemplo 4.5 Calculemos de nuevo la integral del Ejemplo 4.2 por la formula
compuesta de los trapecios para n = 5.
_
2
1
ln x dx
1
10
[(ln 1 + ln 2) + 2(ln 1.2 + ln 1.4 + ln 1.6 + ln 1.8)]

1
10
3.84631535568599 = 0.38463153556860
con una cota de error de

(b a)
3
12 n
2
max
x[a,b]
[f

(x)[ =
1
300
max
x[1,2]

1
x
2

=
1
300
0.0034

4.4 Ejercicios resueltos


Ejercicio 4.1 Probar que los coecientes a
k
de las formulas de Newton-Cotes
verican que
n

k=0
(1)
k
a
k

n
k

= 0.
Soluci on: Como la expresion de los coecientes es
a
k
= h(1)
nk

n
k

n!
_
n
0
z(t)
t k
dt donde z(t) = t(t 1) (t n),
el sumatorio se transforma en
n

k=0
(1)
k
a
k

n
k

=
n

k=0
_
(1)
k

n
k

h(1)
nk

n
k

n!
_
n
0
z(t)
t k
dt
_
=
=
n

k=0
_
h
(1)
n
n!
_
n
0
z(t)
t k
dt
_
= h
(1)
n
n!
_
n
0
_
n

k=0
z(t)
t k
_
dt.
Podemos ver que el integrando es precisamente z

(t)
n

k=0
z(t)
t k
=
z(t)
t
+
z(t)
t 1
+
z(t)
t 2
+ +
z(t)
t k
=
=
_
(t 1)(t 2) (t n)
_
+ +
_
t(t 1) (t n + 1)
_
= z

(t)
182 Integracion numerica
y, en consecuencia,
n

k=0
(1)
k
a
k

n
k

= h
(1)
n
n!
_
n
0
z

(t)dt = h
(1)
n
n!
_
z(t)
_
n
0
= h
(1)
n
n!
_
z(n) z(0)
_
.
Al ser z(n) = z(0) = 0, podemos asegurar que
n

k=0
(1)
k
a
k

n
k

= 0.
Ejercicio 4.2 Dada la integral
_
1
0
1 x
2
1 +x
2
dx se pide:
a) Calcularla exactamente.
b) Calcularla, aproximadamente, por la formula basica de Simpson.
c) Calcularla por la formula compuesta de Simpson de 11 sumandos.
d) Aplicar la siguiente formula:
_
1
1
f(x) dx
1
9
_
5f(
_
3
/
5
) + 8f(0) + 5f(
_
3
/
5
)
_
comprobando que integra, exactamente, polinomios de grado 5.
Soluci on:
a)
_
1
0
1 x
2
1 +x
2
dx =
_
1
0
_
1 +
2
1 +x
2
_
dx =
_
x + 2 arctg x
_
1
0
= 1 +

2
_
1
0
1 x
2
1 +x
2
dx = 1 +

2
2.57079632679490
b) La formula basica de Simpson (n = 2) establece que:
_
1
0
f(x) dx
h
3
_
f(0) + 4f(0.5) +f(1)
_
donde h =
1 0
2
=
1
2
.
por lo que
_
1
0
1 x
2
1 +x
2
dx
1
6
(1 + 4 0.6 + 0) 0.56666666666667
con una cota de error

(b a)
5
2880
max
x[a,b]
[f
(v
(x)[ =
1
2880
48 =
1
240
0.00416666666667
Ejercicios resueltos 183
c) La formula compuesta de Simpson de once sumandos (n = 10) es:
_
1
0
f(x) dx
h
3
_
f(0) +f(1) +4
_
f(0.1) +f(0.3) +f(0.5) +f(0.7) +f(0.9)
_
+
+2
_
f(0.2) + f(0.4) + f(0.6) + f(0.8)
_
_
donde h =
1
/
10
. En nuestro caso:
_
1
0
1 x
2
1 +x
2
dx
1
30
(1 + 11.44925864003328 + 4.67463056905495) =
_
1
0
1 x
2
1 +x
2
dx 0.57079630696961
Con un error

(b a)
5
180 n
4
max
x[a,b]
[f
(v
(x)[ =
1
1800000
48 2.6667 10
5
d) Aunque los lmites de la integral que nos piden son 0 y 1, al ser el
integrando una funcion par, podemos hacer:
_
1
0
1 x
2
1 +x
2
dx =
1
2
_
1
1
1 x
2
1 +x
2
dx, por lo que puede aplicarse la formula.
f(0) = 1 f(
_
3
/
5
) = f(
_
3
/
5
) =
1
3
/
5
1 +
3
/
5
=
1
4
_
1
0
1 x
2
1 +x
2
dx
1
2

1
9
_
5
1
4
+ 8 1 + 5
1
4
_
=
1
18

21
2
=
7
12
_
1
0
1 x
2
1 +x
2
dx 0.58333333333333
Veamos. por ultimo, que la formula es exacta para polinomios de grado
no superior a cinco.
_
1
1
x
k
dx =
_
x
k+1
k + 1
_
1
1
=
1 (1)
k+1
k + 1
=
_

_
2
k + 1
si k es par,
0 si k es impar.
184 Integracion numerica
Por tanto:
_
1
1
1 dx = 2
_
1
1
x dx = 0
_
1
1
x
2
dx =
2
3
_
1
1
x
3
dx = 0
_
1
1
x
4
dx =
2
5
_
1
1
x
5
dx = 0
La suma de cuadratura (formula a aplicar) para estas funciones es:
f(x) = 1; S =
1
9
(5 1 + 8 1 + 5 1) = 2
f(x) = x; S =
1
9
_
5 (
_
3
/
5
) + 8 0 + 5 (
_
3
/
5
)
_
= 0
f(x) = x
2
; S =
1
9
(5
3
5
+ 8 0 + 5
3
5
) =
2
3
f(x) = x
3
; S =
1
9
_
5 (
_
3
/
5
)
3
+ 8 0 + 5 (
_
3
/
5
)
3
_
= 0
f(x) = x
4
; S =
1
9
(5
9
25
+ 8 0 + 5
9
25
) =
2
5
f(x) = x
5
; S =
1
9
_
5 (
_
3
/
5
)
5
+ 8 0 + 5 (
_
3
/
5
)
5
_
= 0
Al ser exacta para las funciones 1, x, x
2
, x
3
, x
4
y x
5
, tambien lo es para
cualquier combinacion lineal de ellas y, por tanto, la formula integra,
exactamente, cualquier polinomio de grado no superior a cinco.
Es facil observar que:
_
1
1
x
6
dx =
2
7
S =
1
9
_
5
27
125
+ 8 0 + 5
27
185
_
=
1
9

54
25
=
6
25
,=
2
7
Por lo que la funcion no integra, exactamente, a x
6
y, por tanto, a poli-
nomios de grado superior a cinco.
Ejercicio 4.3 Probar que la formula compuesta de los trapecios para el in-
tervalo [0, 2]:
_
2
0
f(x) dx =
h
2
[f(0) + 2f(h) + 2f(2h) + + 2f((n 1)h) +f(2)] +
(h = 2/n) integra, exactamente, las funciones:
1, sin x, cos x, sin 2x, cos 2x, . . . , sin(n 1)x, cos(n 1)x.
Ejercicios resueltos 185
Soluci on: Observemos, en primer lugar, que:
I
k
=
_
2
0
sin kx dx = 0 para k = 0, 1, . . .
J
k
=
_
2
0
cos kx dx =
_
_
_
0 para k = 1, 2, . . .
2 para k = 0
La formula de los trapecios es:
T
n
=
h
2
_
f(0) + 2f(h) + 2f(2h) + + 2f((n 1)h) +f(2)
_
Pero al ser f(2) = f(0) podemos escribir:
T
n
=
h
2
_
2f(0) + 2f(h) + + 2f((n 1)h)
_
= h
n1

j=0
f(jh) =
T
n
=
2
n
n1

j=0
f(
2j
n
)
Estudiemos el sumatorio para f(x) = e
ikx
.
n1

j=0
e
ik
2j
n
=
n1

j=0
e
i
2jk
n
Se trata de una suma geometrica de razon r = e
i
2k
n
. Para r = 1
cos
2k
n
= 1
sin
2k
n
= 0
_
_
_

2k
n
= 0, 2, 4, . . . k = 0, n, 2n, . . .
Por tanto, si 0 < k < n se tiene que:
n1

j=0
e
ik
2j
n
=
e
i
2nk
n
1
e
i
2k
n
1
=
1 1
e
i
2k
n
1
= 0.
Si k = 0 es
n1

j=0
e
ik
2j
n
= n por lo que T
n
(e
ikn
) =
2n
n
= 2. Por tanto:
T
n
(sin x) = Img
_
T
n
(e
ikx
)
_
= 0 para k = 0, 1, 2, . . .
T
n
(cos x) = Re
_
T
n
(e
ikx
)
_
=
_
_
_
0 para k = 1, 2, . . . , n 1
2 para k = 0
que coinciden con los valores de las integrales.
186 Integracion numerica
4.5 Ejercicios propuestos
Ejercicio 4.4 Se considera el soporte 1, c, 1 donde c (1, 1) es jo.
Sea f(x) ([1, 1]
a) Obtener el polinomio de interpolacion de f(x) acotando del error.
Sol : P
2
(x) =
f(1)(1 c) 2f(c) + f(1)(1 + c)
2(1 c
2
)
x
2

f(1) f(1)
2
x +
f(1)(c c
2
) + 2f(c) f(1)(c + c
2
)
2(1 c
2
)
(x)
[x + 1[[x c[[x 1[
6
max
[1,1]
[f

()[
.
b) Determinar los coecientes a
0
, a
1
, a
2
en la formula de cuadratura
_
1
1
f(x) dx a
0
f(1) +a
1
f(c) +a
2
f(1)
para que integre, exactamente, polinomios del mayor grado posible.
Sol :
_
1
1
f(x) dx
1 + 3c
3(1 +c)
f(1) +
4
3(1 c
2
)
f(c) +
1 3c
3(1 c)
f(1).
c) Dar una condicion, necesaria y suciente, para que dicha formula sea
exacta para polinomios de tercer grado.
Sol : c = 0.
d) Aplicar la formula a f(x) =
_
5x + 13
2
con c = 0.1 y comparar con el
valor exacto.
Sol : Aplicando la formula 5.06474910, el valor exacto
76
/
15
5.06666666,
el error 0.0019176.
Ejercicio 4.5 Calcular
_
1
0
f(x) ln x dx interpolando f(x), por un polinomio
de tercer grado, en el soporte 0,
1
/
3
,
2
/
3
, 1 y aplicar el resultado al calculo de
_
1
0
sen x ln x dx.
Ayuda:
_
1
0
x
m
ln x dx =
1
(m+ 1)
2
(m 0).
Ejercicios propuestos 187
Sol :
_

_
_
1
0
f(x) ln x dx
1
32
_
11f(0) + 19f(
1
3
) +f(
1
3
) +f(1)
_
_
1
0
sin x ln x dx 0.239891875.
Ejercicio 4.6 Determinar el n umero de sumandos necesarios, en las formulas
compuestas de los trapecios y Simpson, para calcular, con seis cifras decimales
exactas, las siguientes integrales:
a)
_
2
1
ln x dx Sol : Trapecios 289, Simpson 14
b)
_
3
2
e
x
x
dx Sol : Trapecios 652, Simpson 20
Ejercicio 4.7 Se considera la integral
_
1
0
e
x
(4 x) dx :
a) Calcularla exactamente (se supone conocido el n umero e).
Sol : 4e 5 5.873127.
b) Determinar el n umero mnimo de sumandos necesarios, en la formula
compuesta de Simpson, para que el error de discretizacion sea menor
que 10
m
con m = 2, 3, 4, 5 y 6.
Sol :
m 2 3 4 5 6
n 2 2 4 8 12
c) Calcular la integral, por la formula compuesta de Simpson, con cuatro
cifras decimales exactas.
Sol : 5.8731
Ejercicio 4.8 El recinto de la gura adjunta, que se encuentra inmerso en
una cuadrcula, esta limitado por una recta y una curva de la que se conoce
que se trata de un polinomio de cuarto grado.
188 Integracion numerica
a) Calcular el area exacta del recinto sin determinar el polinomio que la
delimita.
Sol : 328/45.
b) Determinar, por el metodo de las diferencias divididas, el polinomio que
la delimita y comprobar que el area calculada en el apartado anterior
coincide con la que se obtiene por integracion directa del polinomio.
Sol : P(x) =
1
12
x
4

13
12
x
2
+ 3.
Bibliografa
[1] Ledanois, J.M., Lopez, A y Pimentel, J. Metodos Numericos Aplicados a
la Ingeniera. Ed. McGraw Hill.
[2] Burden, R. y Douglas Faires, J. Metodos Numericos (3 edicion). Ed.
Thomson - Paraninfo.
[3] Demidovich, B.P. y Maron, I.A. Calculo Numerico Fundamental. Ed.
VAAP. 1977.
[4] Froberg, C.E. Introduccion al Analisis Numerico. Ed. Vicens Vives. 1977.
[5] Kincaid, D. y Cheney, W. Analisis Numerico. Ed. Addison-Wesley Ibe-
roamericana. 1994.
[6] Mathews, J.H. y Fink, K.D. Metodos Numericos con MATLAB. (Tercera
edicion). Prentice Hall. 1999.
189

You might also like