You are on page 1of 29

Tabla de contenido

1.

Errores............................................................................................................................ 3

1.1.

Error de Truncamiento................................................................................................. 3

1.2.

Error de Redondeo....................................................................................................... 3

1.3.

Error Absoluto.............................................................................................................. 3

1.4.

Error Relativo............................................................................................................... 3

1.5.

Cifras Significativas..................................................................................................... 3

1.6.

Redondeo Simtrico.................................................................................................... 3

1.7.

Redondeo Truncado..................................................................................................... 3

1.8.

Estable........................................................................................................................ 4

1.9.

Condicionalmente Estable........................................................................................... 4

1.10.
2.

Soluciones de Ecuaciones de una Variable.....................................................................4

2.1.

Biseccin..................................................................................................................... 4

2.1.1.
3.

Teorema: Sobre la cantidad de iteraciones...............................................................4

Interpolacin de Curvas.................................................................................................. 5

3.1.

Mtodo de Lagrange................................................................................................... 5

3.1.1.
4.

Rapidez de convergencia......................................................................................... 4

Desventajas del mtodo........................................................................................... 5

Derivacin Numrica...................................................................................................... 5

4.1.

Frmulas de tres puntos.............................................................................................. 5

4.1.1.

Frmula de tres puntos del punto extremo..............................................................5

4.1.2.

Frmula de tres puntos del punto medio..................................................................5

4.2.

Frmulas de cinco puntos............................................................................................ 6

4.2.1.

Frmula de cinco puntos del punto medio...............................................................6

4.2.2.

Frmula de los cinco puntos extremos.....................................................................6

4.3.

Frmula de la segunda derivada del punto medio......................................................6

4.4.

Extrapolacin de Richardson....................................................................................... 6

4.4.1.
5.

Precisin de las aproximaciones............................................................................... 6

Integracin Numrica..................................................................................................... 7

5.1.

Regla Compuesta del Trapecio.................................................................................... 7

5.2.

Regla Compuesta de Simpson..................................................................................... 7

5.3.

Integracin de Romberg.............................................................................................. 7
1

5.4.

Frmulas de Newton Cotes.......................................................................................... 7

5.4.1.

Frmulas Cerradas Comunes de Newton Cotes........................................................7

5.4.2.

Frmulas Abiertas de Newton Cotes.........................................................................8

5.4.3.

Cuadratura de Gauss............................................................................................... 8

6.

Problemas a Valores Iniciales.......................................................................................... 9

6.1.

Existencia y Unicidad de la Solucin........................................................................... 9

6.2.

Mtodo de Euler.......................................................................................................... 9

6.2.1.

Error de Truncamiento Local..................................................................................... 9

6.2.2.

Error global............................................................................................................. 10

6.2.3.

Consistencia........................................................................................................... 10

6.2.4.

Estabilidad............................................................................................................. 10

6.2.5.

Convergencia......................................................................................................... 10

n ................................................................................10

6.3.

Mtodo de Taylor de Orden

6.4.

Mtodo de Runge-Kutta............................................................................................. 10

6.4.1.

Mtodo de Runge-Kutta de orden dos....................................................................10

6.4.2.

Mtodo de Runge-Kutta de Orden Cuatro...............................................................11

6.5.

Mtodo explcito de Adams-Moulton.........................................................................11

6.5.1.

Mtodo explcito de Adams-Moulton de dos pasos.................................................11

6.5.2.

Mtodo Explcito de Adams-Moulton de tres pasos................................................11

6.5.3.

Mtodo Explcito de Adams-Moulton de cuatro pasos............................................12

6.6.

Mtodo implcito de Adams Bashforth.......................................................................12

6.6.1.

Mtodo Implcito de Adams Bashforth de dos pasos..............................................12

6.6.2.

Mtodo Implcito de Adams Bashforth de tres pasos..............................................12

6.7.

Mtodo Predictor-Corrector de Milne.........................................................................13

1.Errores
1.1.

Error de Truncamiento

Se refiere al error implcito al usar una suma truncada o finita, para aproximar la
suma de una serie infinita.

1.2.

Error de Redondeo

Se refiere al error debido a que la aritmtica de una mquina solo usa nmeros con
una cantidad finita de cifras, de modo que los clculos se realizan nicamente con
representaciones aproximadamente de los nmeros verdaderos.

1.3.

Error Absoluto

Si

es una aproximacin de

el error absoluto de

es:

p p
1.4.

Error Relativo

Si

es una aproximacin de

con

el error relativo de

es:

p con p 0
p p

1.5.

Cifras Significativas

El nmero

aproxima a

entero no negativo para el cual, el

cifras significativas si

es el mayor

p 5.10t
pp
.

1.6.

Redondeo Simtrico

El ltimo dgito significativo o el ms significativo, si existe, se deja tal cual, si el


primer dgito no significativo es menor a 5 o se incrementa en 1 caso contrario.

1.7.

Redondeo Truncado

Se escribe hasta el ltimo dgito significativo o el ms significativo si existe.


Nota: Los errores se expresan con 1 o a lo sumo 2 dgitos.

1.8.

Estable

El trmino indica que un pequeo cambio en las condiciones iniciales no resulta en


un cambio dramtico en la solucin del problema.

1.9.

Condicionalmente Estable

Son algoritmos que slo son estables para ciertas elecciones de datos iniciales.

1.10.

Rapidez de convergencia

Suponga que,

{ n }n=1

es una sucesin que converge a cero y que

converge a un nmero

| n | k| n|
converge a

, para

. Si existe una constante positiva

grande, entonces decimos que la sucesin

{ n }n=1
tal que

{ n }n=1

O( n) .

con rapidez u orden de convergencia

2.Sistemas de Ecuaciones Lineales (SEL)


2.1.

Mtodos Directos

El objetivo es resolver el sistema del tipo


2.1.1.

Ax=b

Sistema de Solucin Inmediata

El sistema se presenta con la forma de las matrices

donde

la primera

es una triangular inferior, por lo que el sistema se resuelve por sustitucin directa; y
la segunda es una matriz triangular superior por lo que el sistema se resuelve por
sustitucin inversa.
4

2.1.2.

Eliminacin de Gauss

Transforma cualquier matriz en una matriz triangular superior y luego aplica


sustitucin inversa para obtener la solucin del sistema. El procedimiento en lneas
generales sera

Se fija la primer fila de la matriz

Se transforman las filas siguientes de manera de que el coeficiente

a11

anule, es decir, se utiliza el coeficiente

ai 1

se

de la diagonal principal como

pivote
Se fija la siguiente fila, se fija el pivote en la diagonal principal y se repite el
paso anterior
Se continua hasta que la matriz transformada queda en una triangular
superior

Para achicar el multiplicador se utiliza un pivoteo


2.1.2.1.

Pivoteo Parcial

Intercambia las filas de la matriz. Se busca el pivote ms grande tal que el

PA= A PERMUTADA

multiplicador sea lo ms chico posible

con

una matriz que es

la matriz identidad permutada. El resultado es el mismo, slo cambia el vector

b .

2.1.2.2.
Pivoteo Total
Permuta filas y columnas, o slo columnas, ubicando el elemento ms grande como
pivote.
2.1.3.

AP=A

PER MUTADA

. No cambia el vector

, pero si el vector resultado

x .

Factorizacin LU

Consiste en descomponer la matriz


una triangular inferior

A original en un producto de dos matrices;

(contiene 1s en su diagonal y en la parte inferior los

multiplicadores) y una triangular superior

Ax=b ) para amar el sistema

(sale de la eliminacin de Gauss en

Ax=LUx=b con

A=LU . De esta forma,

obtenemos dos sistemas de ecuaciones

Ly=b

Ux= y
Para los pivoteos

2.2.

PA=LU

donde

es la matriz de permutacin

Refinamiento Iterativo

Se ocupa de los errores de redondeo, y mejora las soluciones obtenidas por algn
mtodo directo.
Sea

Ax=b b Ax=0 , pero

bA ~x 0 r =bA ~
x

donde

es el residuo (en

este caso, se trabaja con doble precisin)


Entonces

x=r
Ax A ~
x= A ( x~
x )= A ~
x=r nuevo SEL A ~
LU ~
x=r
U ~
x=y
donde

Por lo tanto queda el sistema

Ly=r

U ~
x=y
De donde se obtiene

2.3.

~
x

Condicin de una matriz

El nmero de condicin

K (A)

de una matriz es nico, da una idea de cuan cerca

est la matriz de ser singular, es decir, de que el sistema no tenga solucin o sean
infinitas.

Se define

K ( A )= A A

~
x
| ~x|10t
K ( A )

Si

K ( A)

Si

K ( A ) >1 est mal condicionada

est cerca de 1 la matriz

est bien condicionada

Para poder mejorar la condicin, los dgitos de mejora

q=t p

con

p=log 10 (K ( A ))
2.4.

Mtodos Iterativos

En estos mtodos, la solucin la obtenemos a partir de una solucin inicial, la cual


va corrigiendo en sucesivas iteraciones hasta obtener la solucin correcta. Buscan

mejorar el tiempo de convergencia, no propagan errores de redondeo y son


eficientes en matrices con muchos ceros.
Se convierte un sistema

Ax=b

n+1

=T x +C

formada por los nmeros de la diagonal de A (

l ij =aij i> j

formada por

, donde,

aii =d ii ),

uij =aij i< j .

L
y

A=DLU

con D

formada por

dependen del

mtodo.
2.4.1.

Jacobi

( k+1 )

1
1
( L+U ) x k +
=D
D b

CJ
TJ

2.4.2.

Gauss Seidel

DL
1 b

1
( k+1 )
x =(
DL ) U x k +

2.4.3.

SOR

x k+1x k =R ki GS
x k+1=x k + R i

Donde

es el factor de relajacin tal que

=1 entonces es solucin por Gauss Seidel

<1

subrelajacin

>1

sobrerelajacin

DL
1
b

1
k
( k+1 )
x =
( DL ) [( 1 ) D+U ]x +

2.4.4.

Convergencia

Teorema de la Convergencia: Cualquier

( T ) <1

con

(T )

x 0 converge a la solucin nica sii

el radio espectral de la matriz, esto es, el mximo

autovalor el mdulo. Esto vale para cualquier mtodo

T <1 converge. Vlido para cualquier mtodo. Si

Si

no se puede asegurar que diverge

a ij
n

Si

T no es 1

es estrictamente diagonal dominante, esto es,

|aii|>

Jacobi y

j=1
i j

Gauss Seidel convergen

Si

es definida positiva, es decir, todos los subdeterminantes son

0< <2

SOR converge

Si A es simtrica, definida positiva y tridiagonal dominante entonces

ptim o=

2.4.5.

2
1+ 1(T GS)

Orden de Convergencia
Una sucesin converge a

asinttica del error

x k+1x
lim

con orden de convergencia

p y constante

si

=
p
|x x|
k

e k+1
=lim
e (k ) p k
= (1)
p
|x x|
y
x k+1
( k ) p =
x

x k+1x
Como

xk
=( 2)
x( k1) p

k +1

x
)
k
x
p=
k
x
ln
k 1
x
ln (

Por

(1)

(2)

3.Ecuaciones No Lineales
3.1.

Mtodos de Arranque

3.1.1.

Son fcil de implementarlos


Casi siempre convergen
Son lentos, y en la prctica pueden no converger
Biseccin

Supongamos que
y

f (b)

I=[a , b]

es una funcin continua definida en el

con

f (a)

de signos diferentes. De acuerdo con el Teorema del Valor Intermedio,

existe un nmero

(a , b)

en

f ( p )=0 . Suponemos que la raz en este

tal que

intervalo es nica. El mtodo requiere dividir varias veces a la mitad los

(a , b)

subintervalos de

y, en cada paso, localizar la mitad que contenga a

a1=a

Para empezar supongamos que

[a ,b ] ; es decir,

p1=a 1+

Si

f ( p1 ) =0 p=p 1 y se finaliza

Si

f ( p1 ) 0 f ( p1)
Si

Si

f ( p1 )

f ( p1 )

b1=b , y sea

el punto medio de

tiene el mismo signo que

f ( a1 ) o de

f ( a1 ) tienen igual signo entonces,


y

p1

( b a2 )= a +b2

p .

f ( a1 )

tienen

f (b1 )

p ( p1 ,b 1 ) a2 =p 1 y b2=b1

distinto

signo

entonces,

p ( a1 , p 1 ) a2 =a1 y b 2= p1

3.1.2.

Teorema: Sobre la cantidad de iteraciones

f C [a , b]

Supongamos que

sucesin

cuando
3.1.3.

{ pn }n=1

f ( a ) f ( b ) <0 . El mtodo de biseccin genera una

que aproxima un cero

de

tal que

| pn p|

n 1 .

Regula Falsi

Es un mtodo ms rpido que biseccin. Se basa en trazar la recta que une

f (b)

ba
n
2

pk+1 =ak f ( ak )

3.2.

hasta obtener

tal que

f (a)

f ( x )=0 . Siempre converge.

b k ak

f ( bk ) f (ak )

Mtodos Iterativos

3.2.1.

Punto Fijo

Un punto fijo de una funcin


Dado el problema

es un nmero

p para el cual

f ( p )=0 , se puede definir una funcin

g ( p )= p .

g ( x ) =xf ( x)

entonces

x=g( x ) .

se busca

Se define

tal que

g ( ) =

entonces

es un punto fijo de

g , por lo tanto

g ( ) =f ()
=f ( )

f ( )=0
Entonces

es raz de

f .

La idea bsica del mtodo es

Elegir una semilla

x 0 [a , b]
10


3.2.1.1.

x k+1=g( x k )

Construir la sucesin

Teorema de Existencia y Unicidad del Punto Fijo

g( x)C [a , b]

Si

Si adems, existe

g ( x ) [ a , b ] x [ a , b ] g ( x)

g' ( x ) [a , b ] y existe

tiene un punto fijo en

0< k <1 tal que

[a ,b ] .

|g' ( x )| k 1 x [a , b]

entonces el punto fijo es nico.


3.2.1.2.

Teorema del Punto Fijo

g [a , b ] tal que

Si

Si existe

'

g ( x ) (a , b)

x 0 (a , b)

g ( x ) [ a , b ] x (a , b) .
y existe

x (k+1 )=g ( x k ) , k 0

la sucesin

|g' ( x )| k 1 x (a , b)

entonces

converge al nico punto fijo

(a , b)

0< k <1 tal que

.
3.2.1.3.

Corolario

Una

cota

para

el

error

cometido

al

por

g ( p n1 )= pn1

f ( pn1)
f ' ( pn1)

aproximar

xn

es

|x n| k n mx {x 0a , bx 0 }
n

k
|x n| 1k
|x 1x 0| n 1

3.2.2.

Newton Raphson

Es una tcnica de iteracin funcional de la forma


Los pasos para mostrar que converge son

g ( a , b ) x (a , b)

|g' ( x )|<1 (a .b)

f'(x)

f ' ' ( x)

incluida

(a , b)

tal que

f ' ( x ) 0 x (a , b )

11

Observacin: Este mtodo tiene un grave problema, la necesidad de conocer el


valor de la derivada de
3.2.3.

en cada aproximacin.

Secante

Este mtodo elimina el problema que traa Newton Raphson de conocer la derivada
en cada punto. Utiliza dos semillas, el mtodo es de la forma

x k+1=x k (x k x k1 )

f ( xk )
f ( x k ) f ( x k1 )

4.Aproximacin de Funciones
4.1.

Teora Lineal de Aproximacin

Aproximamos

por

f tal que

f f

f ( x )=C 0 0 ( x ) ++ Cn n ( x )= C j j
j=1

4.2.

Cuadrados Mnimos
2

e 2j =( f ( x j ) f ( x j) )
n

e= e = [ f ( x i ) f ( x i ) ]
i=0

2
i

i=0

Para que exista mnimo

e
=0 k=0, ,n
C k

De esto sale que

j , k >C j= f , j >
j=0

llamadas ecuaciones normales.

Para asegurar a existencia y unicidad de la solucin hay que usar una base

{ j }

LI.
Al utilizar una base ortogonal u ortonormal tiene la ventaja de poder agregar ms
trminos sin necesidad de calcular todo desde 0.

12

5.Interpolacin de Curvas
5.1.

Mtodo de Lagrange
x0 , x1 , x2 , , xn

Sean

n+1

nmeros diferentes y sea

valores se obtengan a partir de los nmeros dados

Pn (x)

existe un nico polinomio

f ( x k ) =P ( x k )

k =0,1, n

para cada

de grado

una funcin tal que sus

(f ( x 0 ) ; f ( x 1 ) ; ; f (x n ))

entonces

, que cumple con la propiedad

, y este polinomio est dado por la siguiente

expresin
n

Pn ( x )=f ( x 0 ) L n, 0 ( x ) + f ( x1 ) Ln ,1 ( x ) + +f ( x n ) Ln ,n ( x ) = f ( xi ) Ln , i ( x )
i=0

Donde

5.1.1.

Ln ,i ( x ) =
j=0
j i

xx j
x ix j

i=0,1, n .

para

Desventajas del mtodo


Cada

evaluacin

del

Pn ( x)

polinomio

requiere

O(n2 )

operaciones

aritmticas.

Agregar un par de datos

x n+1 f ( x n+1 )

requiere rehacer todos los polinomios

Ln ,i ( x ) .

5.2.

Es numricamente inestable.

Mtodo de Newton (Mtodo de Diferencias Divididas)


n

Pn ( x )=f ( x 0 ) + f ( x 0 , x1 , , xk ) ( xx 0 ) ( xx k1)
k=1

Para la k-sima diferencia dividida

f ( x i , x i+1 , , xi +k1 , x i+k ) =

f ( x i+1 , x i+2 , , xi +k )f ( x i , x i+1 , , xi +k1)


xi +k x i
13

5.2.1.

Ventajas del mtodo

5.3.

Propaga menos errores que el de Lagrange

Mtodo de Hermite
f C 1 [ a ,b ]

Sea

y sean

x 0 , x 1 , , x n [a , b]

menor grado que concuerda con

i=0

i=0

f'

en

x0 , x1 , , xn

es el polinomio de

2 n+1 , que est dado por la siguiente expresin

Hermite de grado a lo sumo


n

distintos, el polinomio nico de

H 2 n+1 ( x ) = f ( x i ) H n ,i (x)+ f ' ( x i) ^


H n ,i ( x)
H n ,i ( x )=[ 12 ( xx i ) L'n ,i ( xi ) ] L2n , i (x)

Donde

Ln ,i

Donde

5.4.

^
H n ,i ( x )=(xx i ) L2n , i( x)

es el i-simo polinomio de Lagrange de grado n.

Fenmeno de Runge

Es una dificultad asociada a la interpolacin en una malla de nodos equidistantes.


La solucin a este fenmeno son las Abscisas de Tchebychef.
Primero, se aplica una transformacin lineal del tipo

( a , b ) (1,1)

para los

puntos que se encuentran en los extremos de la curva. Entonces se aplica el

cambio

t=

a+b ab
+
x
2
2

Luego se aplica el polinomio de Tchebychef.


5.4.1.

Polinomio de Tchebychef

Este

polinomio

T 2 ( x )=2 x21 ,
5.4.1.1.

presenta

las

siguientes

races

T 0 ( x )=1 ,

T 1 ( x )=x

T 3 ( x )=4 x3 3 x ,

Ventajas
Sirven para reducir al mnimo el error de aproximacin
Una colocacin ptima de los puntos interpolantes para reducir al

mnimo el error en la interpolacin de Lagrange.


Un medio de reducir el grado de un polinomio de una aproximacin con
una prdida de exactitud mnima.
14

5.5.

Errores

Cualquiera sea el mtodo utilizado, el error se expresa

Rn=Pn +1 ( x )P(x )

6.Derivacin Numrica
6.1.

Aproximacin por Diferencias

1.1.1 Diferencias Progresivas

f ' ( x )=

Donde

f ( x+ h )f ( x) ' ' h2
f ( )
h
2!
O ( h )=f '' ( )

h2
2!

es el orden de convergencia.

1.1.2 Diferencias Regresivas

f ' ( x )=

Donde

f ( x )f ( xh) ' ' h2


+f ( )
h
2!
O ( h )=f '' ( )

h2
2!

es el orden de convergencia.

1.1.3 Diferencias Centradas

f ' ( x )=

Donde

6.2.

f ( x+ h )f ( xh) '' ' h2


f ( )
2h
3!
O ( h2 )=f ' ' ' ( )

h
3!

es el orden de convergencia.

Frmulas de tres puntos

6.2.1.

Frmula de tres puntos del punto extremo

f ' ( x 0 )=
Donde

1
[3 f ( x 0 ) + 4 f ( x 0 +h ) f ( x 0 +2 h ) ] + h3 f (3 ) ( 0 )
2h
0

se encuentra entre

x0 y

x 0+ 2h .

15

6.2.2.

f ' ( x 0 )=

Frmula de tres puntos del punto medio

1
h2 (3 )
f
x
+
h
f
x
h

(
)
(
)
[ 0
] 6 f (1)
0
2h
1 se encuentra entre

Donde

6.3.

x 0h

x 0+ h .

Frmulas de cinco puntos

6.3.1.

Frmula de cinco puntos del punto medio

f ' ( x 0 )=

Donde
6.3.2.

1
h
f ( x0 2 h )8 f ( x 0h ) + 8 f ( x 0+ h )f ( x 0 +2 h ) ] + f (5 )( )
[
12 h
30
y

x 0+ 2h .

Frmula de los cinco puntos extremos

f ' ( x 0 )=

6.4.

1
h4
25 f ( x0 ) + 48 f ( x 0 +h ) 36 f ( x 0 +2 h ) +16 f ( x0 +3 h )3 f ( x 0 + 4 h ) + f ( 5) ()
12 h
5

Frmula de la segunda derivada del punto medio


''

f ( x0 ) =

1
h2 ( 4 )

f
x
h
2
f
x
+
f
(x
+
h)

f ( )
(
)
(
)
0
0
0
12
h2
, donde

Para alguna

6.5.

x 0h< < x 0 +h

Extrapolacin de Richardson

Sea

Nj

la aproximacin de orden

N j ( h ) =N j1

6.5.1.

x 02 h

est entre

h
+
2

()

N j1

( h2 )N

j 1

O(h2 j)

para cada

j=2,3,

(h)

4 j11

Precisin de las aproximaciones

Regla prctica

N=OD +OP

orden de la derivada y

OP

donde

es la cantidad de puntos,

OD

es el

es el orden de la precisin.

16

Excepcin

para

aproximar

OP=NOD1

centradas

si

paridad ( N ) paridad(OD) .
Agregar mtodo de coeficientes indeterminados
Ventajas de centradas.

7.Integracin Numrica
7.1.

Regla Compuesta del Trapecio

Sean

h=

f C [a , b] ,

( a , b)

ba
n

x j=a+ jh

j=0,1, ,n . Existe una

para cada

tal que la regla compuesta del trapecio para

sub-intervalos puede

escribirse con su trmino de error como


b

f ( x ) dx=
a

7.2.

n1

( ba ) h
h
f ( a ) +2 f ( x j )+ f ( b )
f ' ' ()
2
12
j=1

Regla Compuesta de Simpson

Sean

f C [a ,b ] ,

( a , b)

Existe una

h=

par,

ba
n

x j=a+ jh

para cada

j=0,1, ,n .

tal que la regla compuesta de Simpson para

sub-

intervalos puede escribirse con su trmino de error como


b

f ( x ) dx= h3
a

7.3.

n
1
2

n
2

f ( a ) +2 f ( x 2 j ) + 4 ( x 2 j1 ) + f (b)
j=1

j=1

ba 4 4
h f ()
180

Integracin de Romberg
b

Para aproximar la integral

del trapecio con

f ( x) dx
a

n=1,2,4,8,16

usamos los resultados de la regla compuesta

, y se denotan las aproximaciones resultantes,


17

respectivamente, por

R1,1 , R 2,1 , R3,1 ,

etc. Luego, aplicamos extrapolacin de

Rk , j1 han sido

Richardson. En general, despus de que las aproximaciones


obtenidos, determinamos las aproximaciones

Rk , j=R k , j1 +

7.4.

O(h2 j)

a partir de

Rk , j1Rk1, j1
4

j1

Frmulas de Newton Cotes

7.4.1.

Frmulas Cerradas Comunes de Newton Cotes


b

La frmula cerrada de Newton Cotes adopta la forma

xn

xn

ai= Li ( x ) dx =
x 0 j=0
j i

x0

f ( x)dx= ai f ( x i )
a

i=0

donde

xx j
dx
x ix j
n

a i f ( xi )

Supongamos que

i=0

Newton Cotes, con

x 0=a ,

denota la frmula cerrada de

x n=b

h=

ba
. Existe una
n

(n+1)

puntos de

(a , b)

para la

cual
Si n es par, si
b

f C n+2 [ a ,b ]
n

h n+3 f (n+2) () 2
f (x)dx= ai f ( x i )+ ( n+2 ) ! t ( t1 ) ( tn ) dt
i=0
a
0
Si n es impar y si
b

f C n+1 [ a , b ]
n

h n+3 f (n+1) ( )
f ( x)dx= ai f ( x i )+ ( n+1 ) ! t ( t1 ) ( tn ) dt
i=0
a
0

18

7.4.2.

Frmulas Abiertas de Newton Cotes

La

frmula

abierta

x n+1

Newton

i=0

x1

Cotes

adopta

la

forma

f (x) dx= f (x )dx ai f ( x i )


a

de

ai= Li ( x ) dx .

donde

a i f ( xi )

Supongamos que

i=0

x1=a ,

Newton Cotes, con

(n+1)

denota la frmula abierta de

x n+1=b

h=

ba
n+2 . Existe una

puntos de

(a , b)

para la

cual
Si n es par, si
b

f C

n+2

n+1

f (x) dx= ai f ( x i )+
i=0

Si n es impar y si
b

[ a ,b ]
h n+3 f (n+2) ( )
t 2 ( t1 ) ( tn ) dt
( n+2 ) ! 1

f C

n+1

[a , b ]
n+1

h n+3 f (n+1) ( )
f (x)dx= ai f ( x i )+ ( n+1 ) ! t ( t1 ) ( tn ) dt
i=0
a
1
7.4.3.

Cuadratura de Gauss

Supongamos que

x1 , x2 , , xn

son las races del polinomio de Legendre

de n-simo grado y que para cada

por

Si
1

c j =
1 i=1
j i

P( x)

i=1,2 , n

los nmeros

cj

Pn (x)

estn definidos

xx j
xi x j

es un polinomio cualquiera de grado menor que

2 n , entonces

P ( x ) dx= c i P (xi )
1

j=1

19

Una integral

de

t=

[1,1]

f ( x) dx
a

en un intervalo arbitrario

[a ,b ]

se puede en otra integral

usando el cambio de variables

2 xab
1
x= [ ( ba ) t +a+ b]
ba
2

Esto nos permite aplicar la cuadratura gaussiana a cualquier intervalo

que la

[a ,b ] , ya

dt
f (x) dx= f ( 12 [ ( ba ) t+ a+b ]) ba
2

La expresin del error cometido al aproximar una integral mediante cuadratura de

22 n+1 ( n ! )4

Gauss en el intervalo

f 2 n ( )
[ 1,1 ] es E=
2
( 2 n+1 ) [ ( 2n ) ! ]

La expresin del error cometido al aproximar la integral mediante cuadratura de

Gauss en el intervalo

[a ,b ]

es

E=

( ba )2 n+1 ( n ! )4
2

( 2 n+1 ) [ ( 2n ) ! ]

f 2 n ( )

En ambos casos, el error cometido es proporcional a la derivada de orden

2n .

8.Problemas a Valores Iniciales


Clasificacion de metodos

20

8.1.

Existencia y Unicidad de la Solucin

Se dice que un problema de valor inicial

dy
=f (t , y) ,
dt

at b ,

y ( a )=

es un

problema bien planteado si:

El problema tiene una solucin nica ,

Para cualquier
que siempre

> 0 , existe una constante positiva

| 0|<

una solucin nica

dz
=f ( t , z )+ ( t ) ,
dt
Con

8.2.

y (t)

(t )

z (t)

| ( t )|<

con la propiedad de
en

[a ,b ] , existe

al problema

at b ,

|z ( t ) y ( t )|<k ( )

es continua con

k()

z ( a )= + 0

para toda

at b

Error global
i=wi y (t i )

8.3.

Consistencia
lim i=0
h0

8.4.

Estabilidad

Sean

wi

wi+1

tal que

w i wi + wi
w i+1 w i+1 + w i+1
Entonces si el factor de amplificacin

gi=

wi+1
wi

Es tal que

|gi|>1 Inestable
21

|gi|=1 Marginalmente estable


|gi|<1 Estable
8.5.

Convergencia
lim wi= y (t i )
h0

Como esto es difcil de probar, se recurre al Teorema de LAX


Si la solucin es consistente y estable, entonces converge.

8.6.

Mtodo de Euler

8.6.1.

Mtodo de Euler Explcito

El mtodo de Euler tiene por objetivo obtener una aproximacin de un problema


bien planteado con valores iniciales

dy
=f ( t , y ) ,
dt

at b ,

El mtodo construye

y ( a )=

w i y (t i)

para cada

i=1, 2, , N

w 0=
w i+1=wi +hf (t i , w i)
Para

8.6.2.

i=0,1, N1

Mtodo de Euler Implcito

w i+1=wi +hf (t i+1 , wi+ 1)


i=0,1, N1

Para
8.6.3.

Error de Truncamiento Local.

El mtodo de Euler tiene un error de truncamiento local para el

i +1 ( h ) =

i -simo paso

y i +1 y i
f (t i , y i)
h

Este es un error local, porque mide la exactitud del mtodo en un paso


determinado, suponiendo que el mtodo fue exacto en el paso anterior. As pues,

22

depende de la ecuacin diferencial, el tamao del paso y el paso particular de la


aproximacin.

h '
f [ , y ()]
2

En este caso la expresin es

8.6.4.
Sea
en

[t i , t i+1 ] .

Teorema sobre el error cometido al resolver la ecuacin diferencial

f (t , y)

continua, que satisface la condicin de Lipschitz con la constante

D= { (t , y ) :a t b ; y + }

para toda
con

con

t [a , b] . Si

at b

funcin

y ( a )= y 0

obtenidas

hM

es la solucin nica del PVI dado por

y los

por

| y ( ti ) w i| 2 L [e L (t a )1]
8.6.5.

y (t)

el

y existe una constante M, tal que

w0, w1, . , wN

mtodo

de

|y ' ' ( t )| M
dy
=f (t , y)
dt

son las aproximaciones a nuestra

Euler

entonces

se

cumple

que

Orden de Convergencia

El error local del mtodo de Euler es

O(h) , es decir tiene una convergencia lineal,

lo mismo sucede con el mtodo de Euler Implcito y con el predictor corrector.

8.7.

Mtodo de Taylor de Orden

w 0=
( n)

w i+1=wi +h T (t i , w i) , para cada

i=0, 1, , N 1 ,

Donde
n1

h
h
T ( n) ( t i , wi ) =f ( t i , wi ) + f ' ( t i , wi ) ++
f ( n1) (t i , w i)
2
n!
8.7.1.

Error Local
n

El error local queda determinado por la siguiente expresin


con

e L=

h
f n [ , y ( i)]
( n+1 ) !

[t i , t i+1 ] .

23

8.8.

Mtodo de Runge-Kutta

8.8.1.
8.8.1.1.

Mtodo de Runge-Kutta de orden dos


Mtodo del Punto Medio

w 0=

h
h
w i+1=wi +hf t i + , wi + f ( t i , w i )
2
2

Para
8.8.1.2.

i=0, 1, , N 1
Mtodo modificado de Euler

w 0=

w i+1=wi +
Para
8.8.1.3.

h
f ( t i , wi ) + f ( t i+1 , wi +hf ( t i , w i ) )
2

i=0, 1, , N 1 .

Mtodo implcito ponderado o de Crank-Nicolson

w 0=

w i+1=wi +
Para
8.8.1.4.

h
f ( t , w ) + f ( t i +1 , w i+1 ) ]
2[ i i

i=0, 1, , N 1
Mtodo de Heun

w 0=

w i+1=wi +
Para
8.8.2.

h
2
2
f ( t i , wi ) +3 f t i + h , w i + hf ( t i , wi )
4
3
3

)]

i=0, 1, , N 1
Mtodo de Runge-Kutta de Orden Cuatro

w 0=
k 1=hf ( t i , wi )
h
1
k 2=hf t i+ , wi + k 1
2
2

h
1
k 3 =hf t i+ , wi + k 2
2
2

k 4=hf ( t i+1 , wi +k 3 )
24

1
w i+1=wi + ( k 1+2 k 2 +2 k 3 + k 4 )
6
Para cada

i=0, 1, , N 1 .

8.9.

Mtodos de Paso Mltiple

8.9.1.

Mtodo del Salto de la Rana

w 0= y 0
w i+1=wi1+ 2hf ( t i , wi )
Para
El

i=0,1 , n1

valor

de

wi

debemos

calcularlo

con

otro

mtodo.

Como

las

aproximaciones que obtenemos por el mtodo del salto de la rana son del
mismo orden que las que se obtienen por cualquier mtodo de Runge-Kutta de
orden 2, es conveniente aproximar

8.10.
8.10.1.

w 1 con alguno de esos mtodos.

Mtodo explcito de Adams-Moulton


Mtodo explcito de Adams-Moulton de Orden 1

w i+1=wi +h f n +1
8.10.2.

Mtodo explcito de Adams-Moulton de dos pasos

0 =
i +1= i+
Donde

h
[5 f ( t i +1 , i+1 ) +8 f ( t i , i )f ( t i 1 , i1 ) ]
12

i=1,2, N 1

El orden de convergencia es 3.
8.10.3.

Mtodo Explcito de Adams-Moulton de tres pasos

0 =
1 = 1
2 = 2

25

i +1= i+

h
[9 f ( t i+ 1 , i +1 ) +19 f ( t i , i) 5 f ( t i1 , i1) + f ( t i2 , i 2 ) ]
24
Donde

i=1,2, N 1

El orden de convergencia es de 4.
8.10.4.

Mtodo Explcito de Adams-Moulton de cuatro pasos

0 =
1 = 1
2 = 2
3 = 3
i +1= i+
Donde
8.10.5.

h
[251 f ( t i +1 , i+1 ) +646 f ( t i , i )264 f ( t i1 , i 1 ) +106 f ( t i2 , i2 )19 f (t i3 , i3 )]
720

i=1,2, N 1

Mtodo de Adams Moulton de Orden 2


Es el mtodo de Crank Nicolson.

8.11.
8.11.1.

Mtodo implcito de Adams Bashforth


Mtodo Implcito de Adams Bashforth de Orden 1

w i+1=wi +h f n
8.11.2.

Mtodo Implcito de Adams Bashforth de dos pasos

0 =
1 = 1
i +1= i+
Donde

h
3 f ( t i , i )f ( t i1 , i1 ) ]
2[

i=1,2, N 1

El orden de convergencia es 2.
8.11.3.

Mtodo Implcito de Adams Bashforth de tres pasos

0 =
1 = 1
26

2 = 2
i +1= i+
Donde

h
[23 f ( t i , i ) 16 f ( t i1 , i1 ) +5 f ( t i2 , i2 ) ]
12

i=2,3, N 1

El orden de convergencia es 3.
8.11.4.

Mtodo Implcito de Adams Bashforth de cuatro pasos

0 =

1 = 1
2 = 2
3 = 3
i +1= i+

Donde

h
[ 55 f ( t i , i )59 f ( t i1 , i1 ) +37 f ( t i2 , i2) 9 f (t i 3 , i3 )]
24

i=3,4, N 1

El orden de convergencia es 4.
8.11.5.
Mtodo predictor-Corrector de Adams
8.11.5.1. Mtodo predictor-corrector de Orden 2

w i+1=wi +

h
3 f ( t i , wi )f ( t i1 , wi 1 ) ]
2[

w 0i+1=wi +

h
f ( t i +1 , w i+1 ) + f ( t i , wi ) ]
[
2

h
n
w n+1
i+1 =wi + [f ( t i +1 , w i+1 ) + f ( wi , wi )]
2
8.11.5.2.

Mtodo predictor-corrector de Orden 4

w i+1=wi +

h
55 f ( t i , wi ) 59 f ( t i 1 , wi1 ) +37 f ( t i2 , wi2 )9 f (t i3 , wi3) ]
24 [

w 0i+1=wi +

h
9 f ( t i +1 , wi+1 ) +19 f ( t i , wi ) 5 f ( t i1 , wi1 ) + f (t i2 , w i2) ]
[
24

w n+1
i+1 =wi +

h
[9 f (t i+1 , wni+1 ) + 19 f ( w i , w i )5 ( t i1 , w i1 ) + f (t i2 , w i2)]
24

27

8.12.

Mtodo Predictor-Corrector de Milne

i +1= i3 +

8.13.

4h
[2 f ( t i , i )f ( t i1 , i1 ) +2 f (t i2 , i2 )]
3

Anlisis de Estabilidad

8.13.1.
Mtodos Condicionalmente Estables
Aquellos en los que la estabilidad est condicionada a la eleccin del paso,
generalmente mtodos explcitos.
8.13.2.
Mtodos Incondicionalmente Estables
Aquellos que no tienen ningn tipo de condicionamiento para su estabilidad,
generalmente mtodos implcitos.

9.Ecuaciones

Diferenciales

Ordinarias

de

Orden

Superior
9.1.

Problemas a Valores Iniciales Conservativos

9.1.1.

Mtodo de Taylor

w i+1=wi +v i h+ f ( t i , wi , v i )

h2
2!

v i +1=v i +h [f ( t i , wi , v i )+(1 )f (t i+1 , wi +1 , vi +1)]


9.1.2.

Mtodo de Newmark
2

w i+1=wi +v i h+

h
[f ( t i , wi , v i ) +(1) f (t i +1 , w i+1 , v i+1 )]
2!

v i +1=v i +h [f ( t i , wi , v i )+(1 ) f (t i+1 , wi +1 , vi +1)]


9.1.3.

Mtodo de Nystrm

w 1=w 0+ v 0 h+f (t 0 , w 0 , v 0 )

h2
2!

w i+1=2 wi wi 1 +h 2 f t i , w i ,

wi +1w i1
2h

El orden de convergencia es 2.
9.1.4.
Clasificacin

28

De acuerdo a los autovalores

que se obtienen del sistema que resulta de

aplicar alguno de los mtodos mencionados anteriormente, los problemas se


pueden clasificar de la siguiente manera

9.2.

Si los

Si

| i|=1

Conservativo

Si

| i|<1

Discipativo

Si

| i|>1

Inestable

son complejos Oscilatorio

Problemas a Valores Iniciales con Condiciones de Contorno

9.2.1.
Mtodo del tiro
Si el problema lineal con valor en la frontera

y ' ' = p ( x ) y ' +q ( x ) y +r ( x )


Con

a x b , y ( a )= , y ( b )=

Satisface

p ( x ) , q ( x ) y r ( x ) son continuas en

q ( x ) >0

en

[a ,b ]

[a ,b ]

Entonces el problema tiene solucin nica.


Para aproximar la solucin nica consideramos los problemas con valor inicial

y ' ' = p ( x ) y ' +q ( x ) y +r ( x ) , a x b , y ( a )= , y ' ( a )=0 (1)


''
'
'
y = p ( x ) y +q ( x ) y , a x b , y ( a )=0, y ( a )=1(2)

Si

y 1 (x)

denota la solucin de

(1)

y 2 (x)

denota la solucin de

(2)

entonces

y ( x ) = y 1 ( x )+

y1 ( b )
y 2(x )
y2(b )

29

You might also like