Professional Documents
Culture Documents
Se denomina método del punto fijo a la construcción de una sucesión mediante el siguiente
procedimiento:
𝑥0 dado
La clave del método de punto fijo es transformar la ecuación f(x)=0 en otra equivalente de
punto fijo, g(x)=x y construir la sucesión de iterados 𝑥𝑛+1 = 𝑔(𝑥𝑛 ) a partir de una estimación
inicial x1 de la solución.
Sea g: [a, b] → ℝ continuamente derivable tal que g(x) ∈ [𝑎, 𝑏] para todo x ∈ [𝑎, 𝑏]. Además,
supongamos que |𝑔′ (𝑥)| < 𝐾 < 1. Entonces, la iteración de punto fijo 𝑥𝑛+1 = 𝑔(𝑥𝑛 ), n=1, 2,
…, converge al único punto fijo 𝑥 ∗ para cualquier punto de partida 𝑥1 ∈ [𝑎, 𝑏]. Además, podemos
acotar el error de la iteración n-ésima por
𝐾𝑛
|𝑥𝑛 − 𝑥 ∗ | ≤ |𝑥 − 𝑥2 |
1−𝐾 1
para 𝑛 ≥ 2.
En la práctica, si la derivada de g es continua, sucede que:
El método de punto fijo es un método iteración abierto. Sólo requiere uno o un par de valores
iniciales para empezar a iterar. Si un método abierto converge a la solución, usualmente lo hace
con mayor rapidez que los métodos cerrados.
Procedimiento:
- Consiste en reordenar los términos en la función, primero la función igualamos a cero para que
la variable x quede a la izquierda, de tal forma que encontremos una función g(x).
Primero:
𝑓(𝑥) = 𝑥 2 − 2𝑥 + 3
𝑓(𝑥) = cos(𝑥)
x = cos(𝑥) + 𝑥
Existe un criterio de convergencia nos dice, que el valor absoluto de la primera derivada de g
debe ser menor a 1.
(𝑎𝑏𝑠(𝑔′ (𝑥)) < 1 evaluada en 𝑥0 , entonces podemos continuar con el método porque será
convergente.
Ejemplo en Excel: La función a trabajar será 𝑒 −𝑥 − 𝑥
Caso a)
it. x g(x)
0 1.0000000000 1.0894000064
1 1.0894000064 1.0848763667
2 1.0848763667 1.0851052628
3 1.0851052628 1.0850936807
4 1.0850936807 1.0850942667
function puntofij
global fun
fprintf('Métod de Punto Fijo:\n');
fun=input('Ingrese a la función:\n','s');
x0=input('Ingrese el punto inicial:\n');
n=input('Ingrese el número de iteraciones:\n');
it=0;
fprintf(' it x0 x1 |x0-x1|');
while(it<n)
it=it+1;
x=x0;
x1=eval(fun);
fprintf('\n%3.0f%15.10f%15.10f%15.10f\n',it,x0,x1,abs(x1-x0));
x0=x1;
end
fprintf('\n El punto fijo aproximado es=%10.6f\n',x1);
clf
hold on
ezplot(fun)
legend('y=x','fun')
hold off
grid on
En Command Window:
>>puntofij
Métod de Punto Fijo:
Ingrese a la función:
>> (x^2-exp(x))/5
Ingrese el punto inicial:
0
Ingrese el número de iteraciones:
10
>> puntofij
Método del Punto Fijo:
Ingrese a la función:
cos(x)/3
Ingrese el punto inicial:
pi/8
Ingrese el número de iteraciones:
5
En Command Window, contol de ejes de la gráfica:
x=-4:0.1:4;
y=cos(x);
z=3*x;
t=zeros(size(x));
plot(x,y)
axis([-4 4 -2 2])
hold on
plot(x,z)
plot(x,t)
grid on
MÉTODO DE NEWTON-RAPSON
El método de Newton-Rapson se debe inicializar en un valor de x cercano a una raíz. El método
asume que la función es aproximadamente lineal en ese valor y, por lo tanto, toma como una
mejor aproximación a la raíz en la intersección de la línea tangente a f(x) y su intersección con
el eje x, como se muestra en la figura siguiente:
𝑓(𝑥(𝑡))
De la figura podemos ver que: tan(𝜃) = 𝑓 ′ (𝑥(𝑡)) =
𝑥(𝑡)−𝑥(𝑡+1)
𝑓(𝑥(𝑡))
De donde tenemos la regla recursiva: 𝑥(𝑡 + 1) = 𝑥(𝑡) − 𝑓′ (𝑥(𝑡))
𝑓(𝑥)
O lo que es lo mismo: 𝑥 ← 𝑥 − 𝑓′ (𝑥)
Tomando la idea de la condición de convergencia de iteración simple, la condición para Newton-
𝑑 𝑓(𝑥)
Rapson es la siguiente:| (𝑥 − ′ )| <1
𝑑𝑥 𝑓 (𝑥)
𝑓(𝑥) 𝑓′′ (𝑥)
Que es equivalente a: | [𝑓′ (𝑥)]2 | < 1
Solución:
Programación en MATLAB:
disp('Newton-Raphson')
syms x
a=input('Introduzca la función: ');
%xd=input('Introduzca la derivada de la función: ','s');
xi=input('Introduzca el valor de xi: ');
Es=input('Introduzca el valor del error límite: ');
xd=diff(a);
derivada=inline(xd);
formula=inline(a);
Ea(1)=100;
i=1;
fxi=feval(formula,xi);
fdxi=feval(derivada,xi);
xi1=xi-(fxi/fdxi);
fprintf(' It xi Función de xi Derivada de xi Error
aproximada\n');
fprintf('%2d\t %11.6f\t %11.6f\t %11.6f\t %11.6f\n',i,xi,fxi,fdxi,Ea);
xi=xi1;
i=i+1;
while (Ea>Es)
fxi=feval(formula,xi);
fdxi=feval(derivada,xi);
xi1=xi-(fxi/fdxi);
Ea=abs(((xi1-xi)/xi1)*100);
fprintf('%2d\t %11.6f\t %11.6f\t %11.6f\t %11.6f\n',i,xi,fxi,fdxi,Ea);
xi=xi1;
i=i+1;
end
fprintf('\nRaiz= %f\n\n',xi)
Raiz= 3.174280
Bibliografía:
METODO DE BISECCION:
disp('METODO DE BISECCION');
disp('-------------------');
f=input('Ingrese función: ','s');
xai=input('Ingrese límite inferior del intervalo:');
xbi=input('Ingrese límite superior del intervalo:');
tol=input('Ingrese porcentaje de error:');
f=inline(f);
i=1;
ea(1)=100;
if f(xai)*f(xbi)<0
xa(1)=xai;
xb(1)=xbi;
xr(1)=(xa(1)+xb(1))/2;
fprintf('It. Xa Xr Xb Error aprox \n');
fprintf('%2d \t %11.7f \t %11.7f \t %11.7f \n',i,xa(i),xr(i),xb(i));
while abs(ea(i)) >= tol,
if f(xa(i))*f(xr(i))<0
xa(i+1)=xa(i);
xb(i+1)=xr(i);
end
if f(xa(i))*f(xr(i))>0
xa(i+1)=xr(i);
xb(i+1)=xb(i);
end
xr(i+1)=(xa(i+1)+xb(i+1))/2;
ea(i+1)=abs((xr(i+1)-xr(i))/(xr(i+1))*100);
fprintf('%2d \t %11.7f \t %11.7f \t %11.7f \t %7.3f \n',...
i+1,xa(i+1),xr(i+1),xb(i+1),ea(i+1));
i=i+1;
end
else
fprintf('No existe una raíz en este intervalo');
end
METODO NEWTON-RAPHSON
El método de Newton-Raphson es un método iterativo que nos
permite las raíces de una ecuación, función o polinomio. Se con
estimación inicial de la solución x0 y construimos una sucesión de
aproximaciones siguiendo la fórmula del método;
xj+1 = xj − (f(xj)/f”(xj))
Ejemplo;
disp('Newton-Raphson');
disp('--------------');
a=input('Introduzca el valor de la funcion');
%xd=input('Introduzca la derivada de la funcion','s');
xi=input('Introduzca el valor de xi:');
Es=input('Introduzca el valor del error limite:');
syms x
sd=diff(a);
derivada =inline(xd);
formula=inline(a);
Ea(1)=100;
i=1;
fxi=feval(formula,xi);
fds1=fedal(derivada,x1);
xi1-xi-(fxi/fdxi);
fprintd('it xi Funcion de xi Derivada de xi Error aproximado\n');
fprintf('%2d\t %11.7f\t %11.7f\t %11.7f\t %11.7f\n',i,xi,fxi,fdxi,Ea);
xi=xi1;
i=i+1;
while (Ea>Es)
fxi=feval(formula,xi);
fdx1=feval(derivada,x1);
xi1=xi-(fxi/fdxi);
Ea=abs(((xi1-xi)/xi1)*100);
fprintf('%2d\t %11.7f\t %11.7f\t %11.7f\t %11.7f\n',i,xi,fxi,fdxi,Ea);
xi=xi1;
i=i+1;
end
Other example: https://www.youtube.com/watch?v=KO8vcocUBpo
https://www.youtube.com/watch?annotation_id=annotation_3434608077&feature=iv&src_vi
d=ATt-pSR93zY&v=R2XQ_6UcUnQ Youtube
http://es.slideshare.net/velezmoro123/mtodos-para-resolucion-de-ecuaciones-no-lineales pdf
Division Sintetica
También conocida como la Regla de Ruffini (debida al italiano Paolo Ruffini) nos permite dividir un
polinomio entre un binomio de la forma (x − r) (siendo r un número real). También nos permite
localizar raíces de un polinomio y factorizarlo en binomios de la forma (x − r) (siendo r un número
real).
La regla de Ruffini establece un método para división del polinomio
entre el binomio
y el resto s.
1. Trazamos dos líneas a manera de ejes. Cogemos los coeficientes de P(x) y los escribimos
ordenados. Entonces escribimos r en la parte inferior izquierda del eje, encima de la línea:
2. Pasamos el coeficiente más pegado a la izquierda (an) abajo, justo debajo de la línea para
obtener el primero de los coeficientes b:
3. Multiplicamos el número más pegado a la derecha debajo de la línea por r y lo escribimos sobre la
línea en la primera posición de la derecha:
o Ingresas coeficientes..
o Numero a evaluar.
3. Luego de ingresado los valores requieridos solo tenemos que dar un enter para que corra el
programa nos dice si el numero ingresado es o no una raiz de la funcion dada
Método de bisección
Con este método, como con todos los que se explican en esta pagina, lo que se busca es
determinar la raíz de una ecuación, o sea, su intersección con el eje de las X o su solución, por lo
que se debe tener en cuenta que no todas las ecuaciones tienen una sola solución, y que no todas
tienen solución, así que se debe tener una idea de la forma de la curva de la ecuación antes de
comenzar a aplicar el método
Procedimiento
Es el método más elemental y antiguo para determinar las raíces de una ecuación. Está basado
directamente en el teorema de BolzanoConsiste en partir de un intervalo [x0,x1]tal que f(x0)f(x1) <>
y y determinamos en qué subintervalo se encuentra la raíz
(comprobando de nuevo el producto de las funciones). Repetimos el proceso hasta alcanzar la
convergencia o bien hasta que se excede el número de iteraciones permitidas , en cuyo caso es
necesario imprimir un mensaje de error indicando que el método no converge.
. Se sigue de este modo una estrategia general al efectuar cálculos numéricos que
indica que es mejor calcular una cantidad añadiendo un pequeño término de corrección a una
aproximación obtenida previamente. Por ejemplo, en un computador de precisión limitada, existen
valores de x0 y x1 para los cuales xm calculado mediante se sale del intervalo [x0,x1].
para a la aplicación del metodo he creado un programa en el software matemático "Matlab V7.01" la
cual nos ayuda a programa los diversos metodos numericos existentes.
Donde hemos agregado la línea recta que une los puntos extremos de la gráfica en el intervalo
.
Es claro que si en lugar de considerar el punto medio del intervalo, tomamos el punto donde cruza al
eje esta recta, nos aproximaremos mucho más rápido a la raíz; ésta es en sí, la idea central del
método de la regla falsa y ésta es realmente la única diferencia con el método de bisección, puesto
que en todo lo demás los dos métodos son prácticamente idénticos.
Este punto es el que toma el papel de en lugar del punto medio del método de bisección.
Así pues, el método de la regla falsa sigue los siguientes pasos:
Sea contínua,
En este caso, tenemos que y tienen signos opuestos, y por lo tanto la raíz se encuentra
en el intervalo .
En este caso, tenemos que y tienen el mismo signo, y de aquí que y tienen
o Ingresas la Función.
o Ingresas el valor inicial.
o Ingresas el valor final.
o Ingresas el Tolerancia
3. luego de ingresado los valores requieridos solo tenemos que dar un enter para que corra el
programa y obtenga la raiz que se desea y la grafica de función
Método de la secante
El Método de la secante es un método para encontrar los ceros de una función de forma iterativa.
Es una variación del método de Newton-Raphson donde en vez de calcular la derivada de la función
en el punto de estudio, teniendo en mente la definición de derivada, se aproxima la pendiente a la
recta que une la función evaluada en el punto de estudio y en el punto de la iteración anterior. Este
método es de especial interés cuando el coste computacional de derivar la función de estudio y
evaluarla es demasiado elevado, por lo que el método de Newton no resulta atractivo.
Fórmula
Se define una recurrencia mediante la siguiente fórmula:
Como se puede ver, este método necesitará dos aproximaciones iniciales, para poder inducir una
pendiente inicial.
Metodo de Newton
En el análisis numérico, el método de Newton (conocido también como el método de Newton-
Raphson o el método de Newton-Fourier) es un algoritmo eficiente para encontrar
aproximaciones de los ceros o raíces de una función real. También puede ser usado para encontrar
el máximo o mínimo de una función, encontrando los ceros de su primera derivada.
Supóngase f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un
valor inicial x0 y definimos para cada número natural n
En la ilustración adjunta del método de Newton se puede ver que xn+ 1 es una mejor aproximación
que xn para el cero (x) de la funciónf.
Una forma alternativa de obtener el algoritmo es desarrollando la función f(x) en serie de Taylor, para
un entorno del punto xn:
Entonces, si se trunca el desarrollo a partir del término de grado 2, y evaluamos en xn + 1:
Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un método
de iteración de punto fijo. Así, dada la ecuación f(x) = 0, se puede considerar el siguiente método de
iteración de punto fijo:
g(x) = x + h(x)f(x)
Se escoge h(x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:
Entonces:
Como h(x) no tiene que ser única, se escoge de la forma más sencilla:
Mínimos cuadrados
Mínimos cuadrados es una técnica de optimización matemática que, dada una serie de mediciones,
intenta encontrar una función que se aproxime a los datos (un "mejor ajuste"). Intenta minimizar la
suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados
por la función y los correspondientes en los datos
Formulación del problema
Se trata de hallar los m coeficientes cj que hagan que la función aproximante f(x) sea la mejor
aproximación a los puntos (xk,yk). El criterio de mejor aproximación puede variar, pero en general se
basa en aquél que dé un menor error en la aproximación. El error en un punto (xk,yk) se podría
definir como:
ek = yk − f(xk)
En este caso se trata de medir y minimizar el error en el conjunto de la aproximación. Dicho error
podrá ser
Error Medio:
Para llegar a este objetivo, suponemos que la función f es de una forma particular que contenga
algunos parámetros que necesitamos determinar. Por ejemplo, supongamos que es cuadrática, lo
Esto explica el nombre de mínimos cuadrados. A las funciones que multiplican a los coeficientes
buscados, esto es, a x2, x y 1, se les conoce con el nombre de funciones base de la aproximación.
Dichas funciones base pueden ser cualesquiera funciones, y para ese caso se deduce a continuación
la fórmula general en el caso de que la aproximación sea discreta y lineal.
Esto es: Ac = b
r = b − Ac
De manera que el mínimo error cuadrático supone minimizar el residuo, definiendo su tamaño en
base a la norma euclídea o usual del residuo:
siendo (r,r)2 el producto interior o escalar del vector residuo sobre sí mismo.
Entonces, de los infinitos vectores del span(A1,A2,...,Am) que son combinación lineal de los vectores
de la base, se tratará de hallar el más cercano al vector b.
El programa te muestra el nombre del metodo "MINIMOS CUADRADOS" y los valores a ingresar:
Luego de ingresado los valores requieridos solo tenemos que dar un enter para que corra el
programa nos muestra los coeficientes de la ecuacion que se mas se aproxime a los datos
ingresados sea lineal o exponencial .