Professional Documents
Culture Documents
+
c c
k
k
x x
x x
1 , 0
*
* 1
> > s
+
p c c
p
k
k
x x
x x
Sper lineal
.5.4
(Usualmente rpido en prctica)
Para una funcin de una variable sola
( )
<
+
k
k como 0 c y c o 0 lim
k k
* k
* 1 k
x x
x x
x x x
i
= =
2
5.3.1.- Mtodo de Newton
La primera condicin necesaria para que f(x) tenga un
mnimo local es que f(x)=0 . Por consiguiente, se puede
resolver la ecuacin f(x)=0 por el mtodo de Newton
haciendo:
.5.5
Asegurando en cada etapa k que para un
mnimo. Ver fig. 5.2
Para ver si el mtodo de Newton aplica acerca de f(x) , se
supone que f(x) es aproximada por una funcin cuadrtica
a x
k
:
) ( ' '
) ( '
1
k
k
k k
x f
x f
x x =
+
( ) ( )
k k
x f x f <
+1
( ) ( ) ( )( ) ( )( )
2
' '
2
1
'
k k k k k
x x x f x x x f x f x f + + =
..5.6
Haciendo df (x)/dx = 0, se encuentra un punto estacionario
del modelo cuadrtico de la funcin. El resultado de
diferenciar la Eq. (5.6) es:
.5.7
el cual se puede rearreglar produciendo la Eq. (5.5). Por
consiguiente, el mtodo de Newton es equivalente a usar un
modelo cuadrtico para una minimizacin (o maximizacin)
de una funcin, aplicando las condiciones necesarias.
( ) ( ) ( )( ) 0 ' ' 2
2
1
' =
|
.
|
\
|
+
k k k
x x x f x f
Tangente de en x
k
x
k
x
k+1
x
*
( ) x f '
( ) x f '
Figura 5.2 Mtodo de Newton aplicado a
la solucin de f(x)=0
Las ventajas del mtodo de Newton son:
El procedimiento es localmente de una convergencia
cuadrtica [p= 2 en la Eq. (5.3) ]para el ptimo f (x)0
Para una funcin cuadrtica, el mnimo se obtiene en una
iteracin.
Las desventajas del mtodo son:
Se tiene que calcular f (0) y f (0)
Si f'' (x) 0, el mtodo converge muy lentamente.
Si ms de un ptimo existe, el mtodo no converge al
deseado y puede ciclarse.
5.3.2. Mtodo Quasi-Newton
El mtodo quasi-Newton es generalmente la imitacin del
mtodo de Newton. Si no es dado por una funcin, o si la
funcin es tan complicada analticamente que no se pueden
formular sus derivadas, se reemplazan por la Eq. (5.5) en
diferencias finitas.
..5.8
Se han usado diferencias centrales en la Eq. (5.8) pero las
diferencias hacia adelante o cualesquiera otras diferencias
bastaran mientras que el tamao del escaln h es
seleccionado para igualar la formula en diferencias y para la
precisin de la computadora.
( ) ( ) | |
( ) | |
2
1
/ ) ( ) ( 2
2 /
h h x f x f h x f
h h x f h x f
x x
k k
+ +
+
=
+
La seleccin de los valores de h, es una
desventaja adicional en el mtodo de
Quasi-Newton ya que hay que estar
adicionndola en cada etapa k (tres
para la frmula 5.8 y dos para la
frmula 5.5).
5.3.3 Mtodo de la Secante
En el mtodo de la secante anlogo al modelo aproximado de la Eq.
(5.7) para ser resuelta como:
(5.9)
Donde m es la secante de la lnea que une al punto x
p
y un
segundo punto x
q
dado por:
( ) ( ) 0 ' = +
k k
x x m x f
p q
p q
x x
x f x f
m
=
) ( ' ) ( '
Secante = m
x
x
q
x
p
x
*
( ) x f '
( ) x f '
Figura 5.3 Mtodo de la secante para la solucin
de f (x)=0
la secante aproxima f (x)a una lnea recta (ver Fig. 5.3);
cuando x
q
x
p
, m se acerca a la segunda derivada de f(x).
As la Eq. (5.9) imita el mtodo de Newton (en este sentido
el mtodo de la secante es tambin un mpodo quasi-Newton;
podra ser considerado como un mtodo de eliminacin por
regin como se describe en la Sec. 5.4)
5.10
donde es la aproximacin a x* determinada en una etapa k.
Note que f(x) puede por s misma ser aproximada por una
substitucin de diferencias finitas.
| | ( )
p q p q
q
q
x x x f x f
x f
x x
=
/ ) ( ' ) ( '
) ( '
~
*
El mtodo de la secante empieza usando dos puntos x
p
y x
q
segmentando el intervalo de x, puntos en los cuales la
primera derivada de es de signo opuesto. El cero de la Eq.
(5.9) se predice por la Eq. (5.10), y la derivada de la funcin
es entonces evaluada en el nuevo punto. Los dos puntos
empleados para el siguiente paso son y cualquiera sea x
q
o
x
p
, la seleccin es hecha para que el par de derivadas de
f(x
*
) y f (x
p
) o f(x
q
), tengan signos opuestos para
mantener el grupo en x*. (Esta variacin es llamada "regula
falsi" o mtodo de la falsa posicin). En la Fig. 5.3, para la
bsqueda en la etapa (k+1), y x
q
podran seleccionarse como
los puntos finales de la lnea secante.
El mtodo de la secante parecera crudo, pero
trabaja muy bien en la prctica. El orden de
convergencia es para una variable. Su convergencia
es ms lenta que la seleccionada en diferencias
finitas o mtodo quasi-Newton, pero es usualmente
ms eficiente en trminos de la evaluacin de una
funcin total para alcanzar un precisin especificada
(ver Dennis y Schnabel, 1983, Captulo 2).
( ) x f ' '
Para cualquiera de los tres procedimientos anteriores, en la
minimizacin se asume que la funcin es unimodal, agrupando el
mnimo, escoger un punto inicial, aplicar la formula de la iteracin
para obtener xk+1 (o ) de xk (o xp y xq), y se asegura que
en cada iteracin para llegar al mnimo.
Hasta que , o sus aproximaciones, sean positivas, y
disminuir. Por supuesto, que se debe comenzar en la
direccin correcta para reducir (a un mnimo)
comprobando una perturbacin inicial en x. Para una
maximizacin se minimiza
( ) ( )
k k
x f x f <
+1
( ) x f ' '
( ) x f
( ) x f
( ) x f
EJEMPLO 5.1 COMPARACION DEL MTODO DE
NEWTON, DIFERENCIAS FINITAS Y MTODO DE LA
SECANTE SECANTE APLICADO A LA FUNCIN
CUADRATICA
En este ejemplo se minimiza una funcin cuadrtica simple
esta es ilustrada en Fig. E5.1a usando cada uno
de los tres mtodos indirectos presentados en la Secc. 5.3.
Solucin. Por inspeccin se puede determinar que el mnimo
se encuentra en
x= -3 a x = 3 se asume x0 = 3 como punto de inicial para la
minimizacin.
Mtodo de Newton. La secuencia del mtodo de Newton es
aplicando la Eq. (5.5). ver Fig. 5.1b para y
; . Ntese es siempre positiva
definida. Para este ejemplo Eq. (5.5) es:
( ) x x x f =
2
( ) x x x f =
2
( ) 1 2 ' = x x f ( ) 2 ' ' = x f ( ) x f ' '
) x ( ' ' f
) x ( ' f
x x
0
0
0 1
=
..(a)
5 . 0
2
5
3 x
1
= =
y
Puesto que la funcin es cuadrtica y es lineal,
se obtiene el mnimo en un paso. Si la funcin no fuera
cuadrtica, se necesitan usar ms iteraciones como lo
muestra la Eq. (5.5).
( ) x f '
1
-1
-2 2
2
-1
4
6
3
x
x
*
= 0.5
.
( ) x f
Figura E5.1a
2
2
-2
-2
1 -1 3 -3
4
-4
-6
6
.
X
p
x
q
.
x
*
x
( ) 1 2 ' = x x f
Figura E5.1b
Mtodo Quasi- Newton. La aplicacin de la Eq. (5.8) a
se ilustra adelante. Sin embargo aqu se
ilustrar el uso de las diferencias finitas hacia adelante para
y la frmula de diferencias centrales para tres puntos
para .
( ) x x x f =
2
( ) x f '
( ) x f ' '
( ) ( ) | |
( ) ( ) ( ) | |
2
k 1 k
h / h x f x f 2 h x f
h / x f h x f
x x
+ +
+
=
+
(b)
Con h = 10 3
x
1
=
( ) ( ) | |
( ) ( ) ( ) | | ( )
2
3
3
10 / 999 . 2 0 . 3 2 001 . 3
10 / 0 . 3 001 . 3
3
f f f
f f
( )
( )
( ) 995001 . 5 000000 . 12 005001 . 6
000000 . 6 005001 . 6
10 3
3
+
=
( )
( )
( )
500500 . 2 3
000002 . 0
005001 . 0
10 3
3
= =
= 0.499500
Una iteracin ms podra mejorar el valor estimado de x*,
con un valor ms pequeo de h.
Mtodo de la secante. La aplicacin de la Eq. (5.10) para
empieza con dos puntos x = - 3 y x = 3
correspondientes a x
p
y x
q
, respectivamente, se ilustran en
la Fig. 5.3:
( ) x x x f =
2
( ) 7 3 ' = f
( ) 5 3 ' = f
( ) | | ( ) | |
5 . 0 5 . 2 3
3 3 / 7 5
5
3
1
= =
= x
Como antes el ptimo se alcanz en una sola iteracin porque
es lineal y la extrapolacin lineal es vlida. ( ) x f
EJEMPLO 5.2 MINIMIZANDO UNA FUNCIN DE
MAYOR DIFICULTAD
En este ejemplo se minimizamos una funcin no cuadrtica
esta es ilustrada en la Fig. E5.2a, usando
los mismos tres mtodos como en el ejemplo 5.1. Empezando
con un punto de x = 3, minimizando hasta que el cambio
en x sea menor que 10
-7
. Se usa h = 0.1 para el mtodo de
quasi-Newton mtodo. Para el mtodo de la secante se usa
x
q
= 3 y x
p
= 3.
( ) 1
4
+ = x x x f
( ) x f
1 4 '
3
= x f
Solucin.
El mtodo de Newton. Por el mtodo de Newton
y y la secuencia de pasos sera:
2
12 ' ' x f =
36015 . 1
4454 . 48
4465 . 31
00926 . 2 x
009259 . 2
108
107
3
x 12
1 x 4
x x
2
0
2
0
3
0 1
= =
= =
=
1
2 3
-3
-2 -1 0
x
30
10
20
40
50
60
70
80
.
x
0
.
x
1
.
x
2
.
x
9
( ) 1
4
+ = x x x f
Figura E5.2 a
Iteraciones adicionales producen los siguientes valores de x
* k
* 1 k
x x
x x
+
k x
k
0 3.00000
1 2.009259 0.582
2 1.3601480 0.529
3 0.9518103 0.440
4 0.7265254 0.300
5 0.6422266 0.148
6 0.6301933 0.016
7 0.6299606 0.000
8 0.6299605
9 0.6299605
Se puede ver de la
tercera columna que
la velocidad de
convergencia del
mtodo de Newton
es sper lineal para
esta funcin.
Mtodo de Quasi-Newton. La ecuacin (5.8) para este
ejemplo es:
2
h
x x
k 1 k
=
+
( ) ( ) | |
( ) ( ) ( ) | | h x f x f h x f
h x f h x f
+ +
+
2 2
..(b)
Para el mismo problema como se uso en el mtodo de Newton,
la primera iteracin usando la ec. (b) para h = 10-4 es:
x
1
= 3-
( ) ( ) | |
( ) ( ) ( ) | | 9999 . 2 f 000 . 3 f 2 0001 . 3 f
9999 . 2 f 0001 . 3 f
2
10
4
+
(
Otros valores de h dan:
x
k
K h=0.10 h=10 h=10
-7
0 3.00000 2.00926 3.00000
1 2.00833 1.36015 2.211568
2 1.35816 0.951811 1.46785
3 0.948531 0.726526 0.955459
4 0.721882 0.642227 0.736528
5 0.636823 0.630193 0.642986
6 0.624849 0.629960 0.631846
7 0.624668 0.6299605191 0.630035
8 0.624669 ................. 0.629964
9 0.624669313 .................. 0.629961
10 ................. .................. 0.629961
11 .................. ................... 0.629960525
Para h = 10
-8
, el procedimiento se eleva despus de la segunda
iteracin
0
1 2 3 -1
-2
-3
0
20
40
60
80
100
-20
-40
-60
-80
-100
x
x
.
.
x
p
x
q
x
*
= 0.6229
EMBED
Equation.3
Primera secante
( ) x f '
( ) 1 4 '
3
= x x f
( ) x f
Figura E5.2b
Mtodo de la Secante. La aplicacin de la Ec. (5.10) produce
los siguientes resultados (ver Fig. E5.2b) Ntese como la
forma de indica que se necesitan un gran nmero de
iteraciones para alcanzar el x*. Algunos de los valores de
y x durante la bsqueda se muestran abajo; ntese que x
q
permanece inalterado o sin cambiar con el objeto de mantener
el rango con
( ) x f '
( ) x f '
( ) 0 ' > x f
K x
q
x
p
f(x
p
)
0 3.0 -3.0 -109.0000
1 3.0 0.0277778 -0.9991
2 3.0 0.055296 -0.9992
3 3.0 0.0825434 -0.9977
4 3.0 0.1094966 -0.9899
5 3.0 0.1361213 -0.9899
20 3.0 0.4593212 -0.6124
50 3.0 0.6223007 -0.0360
100 3.0 0.6299311 -1.399 x 10
-4
132 3.0 0.6299597 -3.952 x 10
-6
5.4 MTODOS DE ELIMINACION POR SEGMENTO O
INTERVALO
Los mtodos de la eliminacin por segmento o intervalo para
una bsqueda unidimensional hacen posible eliminar una porcin
calculada del rango de x de consideracin en cada fase
sucesiva de la bsqueda para un extremo de . Cuando el
subintervalo restante es suficientemente pequeo, la bsqueda
termina.
El elemento bsico de los mtodos de eliminacin de la regin
subyacentes es la comparacin de valores de a dos o ms
puntos dentro del rango de x. Debemos asumir que la es
unimodal y tiene un mnimo (es convexo) en a < x < b. La Figura
5.4 ilustra los tres resultados posibles para valores de si
dos puntos son seleccionados en el rango de a a b.
( ) x f
( ) x f
( ) x f
( ) x f
En la Fig. 5.4a, la regin a la izquierda de x
1
debe contener
valores de f (x) > f (x
1
) y por tanto pueden ser eliminados en
una consideracin ms amplia al buscar el mnimo de f (x).
Semejantemente, en Fig. 5.4c, a la derecha de x
2
, f (x) > f (x
2
)
y la regin puede ser eliminada. Si el caso de Fig.5.4b aparece,
y la funcin se comporta bien (suave), el ptimo debe quedar
entre los puntos x
1
y x
2
. En la prctica actual, el caso (b) es
altamente improbable, simplemente a causa del error redondeo
inherente en computadoras digitales. Sin embargo, podemos
dejar alguna tolerancia pequea para la igualdad de f (x
1
) y f
(x
2
) y retener este caso.
La localidad de la prueba apunta que x
1
y x
2
se deben escoger
para hacer el mtodo de bsqueda eficaz. Si se usa un espacio
igual, esto es.
x
1
a = b - x
2
= x
2
x
1
,
El mtodo de la bsqueda es llamado bsqueda del intervalo
de dos puntos iguales. En este mtodo el intervalo de
incertidumbre es reducido por un tercero en cada iteracin.
As, si L
0
es el intervalo original (b - a) y L
k
es el intervalo
despus de k iteraciones (aqu (2/ 3)
k
emplea k como un
exponente potencial)
Lk =
0
k
L
3
2
|
.
|
\
|
..(5.11)
Notar que se requieren por iteracin dos evaluaciones de la
funcin.
f(x)
a x
1
x
2
b
(a): f
1
> f
2
(b): f
1
= f
2
(c): f
1
< f
2
f(x) f(x)
x x x
a x
1
x
2
b a x
1
x
2
b
Figura 5.4 Tres resultados posibles por f (x) despus de
dividir el intervalo (a, b) por dos puntos x
1
y x
2
.
Un mtodo ms eficiente usa x
1
-a = b-x
2
, pero los puntos x
1
y
x
2
se localizan muy cercanos el uno al otro. Este mtodo es
llamado el mtodo de biseccin. Como los dos puntos x
1
y x
2
llegan a estar separados por una distancia infinitesimal,
podemos ver que el intervalo de incertidumbre despus de k
iteraciones se aproxima.
0
k
k
L
2
1
L
|
.
|
\
|
=
.. (5.12)
una mejora distinta para valores grandes de k [comparar Eqs.
(5.12) y (5.11) para k = 8. ]
Los mtodos ms eficientes de eliminacin de regiones, tales
como los mtodos de bsqueda de Fibonacci y Seccin dorada
(Reklaitis et al., 1983; Beveridge y Schechter, 1970) usan una
relacin constante para dividir el intervalo en segmentos. El
mtodo de la seccin dorada que se desarroll de los nmeros
de Fibonacci se discute aqu.
La estrategia empleada en la bsqueda de la seccin dorada
es localizar los dos puntos interiores para que el intervalo
eliminado en una iteracin sea de la misma proporcin que el
total de intervalos considerando la longitud del intervalo.
Adems, solo un punto nuevo es calculado en cada iteracin
(contra dos en igual-intervalo y biseccin). Cmo es
conveniente dividir el intervalo (b- a) de una lnea en dos
segmentos x y y, era conocido en tiempos antiguos como la
"seccin dorada." La relacin de la lnea entera al segmento
ms grande es la misma como la relacin del segmento ms
grande al ms pequeo (ver Fig. 5.5). La relacin de x a y es
computada como sigue. Por la seccin dorada se admite que el
intervalo entero sea x + y = 1, y y sea el subintervalo ms
grande.
Entonces 1 / y = y/x o 1/ (1-x)= (1-x)/ x.
Rearreglando da x
2
- 3x +1= 0 la cual tiene dos races.
)
`
=
382 . 0
618 . 2
2
5 3
x
De el cual slo 0,382 es significativo. As, se divide el intervalo
inicial de 1 en dos segmentos
618 . 0 F
2
5 3
1 y
382 . 0 F
2
5 3
x
B
s
~ =
=
~ =
=
Condicin:
x
y
y
y x
=
+
a b
x
y
y
Figura 5,5 Dos segmentos de lnea (x, y) comprendiendo la
seccin dorada.
L
k
a
k
x
1
k
x
2
k
b
k
a
k+1
x
1
k+1
x
2
k+1
b
k+1
x
L
k+1
f (x)
Figura 5,6 Seleccin de puntos interiores en la bsqueda de la
seccin dorada.
Para cualquier intervalo particular L
k
, aplica la fraccin F
s
y F
B
,
para calcular las distancias propias. Si a
k
y b
k
es los lmites
presentes del intervalo en la etapa k en la bsqueda, entonces
se localizan los dos puntos interiores en
k
s
k k
1
L F a x + =
y
k
B
k k
s
k k
2
L F b L F b x + = + =
En la figura. 5.6, nota que por lo tanto en el
siguiente paso a
k+1
= x
1
k
y b
k+1
= b
k
. El punto interior
izquierdo reemplaza a, y seleccionamos el punto
interior derecho como = b
k +1
-F
s
( bk+1
ak+1)
. Por lo tanto
y los puntos son equidistantes.
( ) ( )
k
2
k
1
x f x f >
1 k
1
x
+
k
2
x
1 k
2
x
+
1 k
2
1 k 1 k 1 k
1
x b a x
+ + + +
=
El subintervalo final despus de k iteraciones puede ser
determinado como
L
k
= (0.618)
k
L
0
El nmero de evaluaciones de la funcin es N+1 para N ensayos.
Esta eficacia es un poco inferior a la del mtodo de Fibonacci,
como es discutido por Beveridge y Schechter (1970). As que,
se puede pre - especificar el intervalo final de incertidumbre y
determinar el nmero necesario de puntos de prueba
requeridos en la bsqueda. Se debe sealar que esto, en la
prctica, la reduccin del intervalo de incertidumbre a algn
valor final arbitrario es significativamente menor que este que
se pone dentro del contexto del valor de la funcin objetivo.
Esto sera ms realista en el proceso iterativo para comparar
valores sucesivos de la funcin objetivo y determinar en que
punto no es significante la disminucin ( para minimizar) en la
funcin objetivo razonable.
Ejemplo 5,3 Aplicacin de la bsqueda de la seccin
dorada.
La funcin a ser minimizada es de nuevo = x2- x como se
ilustr en el Ejemplo 5,1 Fig. E5.1a. Use el mtodo de bsqueda
de la seccin dorada despus localizar el mnimo (x
0
= 3, Ax =
0.1)
Solucin. Primero, localizamos el mnimo iniciando en x
0
= 3 y
Ax
0
= 0.1. Por una prueba preliminar (o por inspeccin), la
bsqueda debe comenzar en la direccin negativa de x.
( ) x f
0 1 1
2 x x
k k
A =
Iteracin Valor F (x
k
)
Inicio x
0
3 6
1 x
0
- Ax
0
2.9 5.51
2 x
1
- 2Ax
0
2.7 4.59
3 x
2
- 4Ax
0
2.3 2.99
4 x
3
- 8Ax
0
1.5 0.75
5 x
4
- 16Ax
0
-0.1 0.11
6 x
5
- 32Ax
0
-3.3 14.19
Porque la funcin aumenta tanto entre x
5
y x
6
, podemos probar
un paso intermedio retrocediendo para x
6
en x = (0.1+ (3.3))/
2=- 1,7 para reducir el rango de x.
Iteracin a
k
b
k
L
k
X
1
k
X
2
k
f(x
1
k
) f(x
2
k
)
0 -1.7 1.5 3.2 -0.477708 0.277708 0.705912 -0.200586
1 -0.477708 1.5 1.977708 0.277708 0.744582 -0.200586 -0.190179
2 -0.477708 0.744582 1.222291 -0.010835 0.277708 0.010952 -0.200586
3 -0.010835 0.744582 0.755417 0.277708 0.456038 -0.200586 -0.248067
4 0.277708 0.744582 0.466873 0.456038 0.566252 -0.248067 -0.245610
5 0.277708 0.566252 0.288543 0.387922 0.456038 -0.237438 -0.248067
8 0.456039 0.524155 0.068119 0.482057 0.488137 -0.249678 -0.249997
11 0.491994 0.508074 0.016079 0.498136 0.501932 -0.249996 -0.249996
15 0.498136 0.500482 0.002346 0.499032 0.499586 -0.249999 -0.249999
-9
-8
-7
-6
-5
-4
-3
-2
-1
0
0 2 4 6 8 10 12 14 16
Nmero de Iteraciones, k
l
o
g
1
0
|
f
(
x
1
k
)
-
f
(
x
2
k
)
|
Figura E5.3
En x = 1.7 , = 4,59 as la localizacin es mantenida por dos
de los tres puntos a ser usados nuevamente.
x
1
0
=-1.7 x
y L
0
= 3.2. Varias etapas de la bsqueda se listan en la tabla
E5.3 (con slo seis lugares decimales). Aqu es usada
F
s
= 0.38197.
La figura E5.3 muestra cmo la distancia para el ptimo cambia
de iteracin a iteracin.
( ) x f
5 . 1
0
2
=
5.4.1 NUMEROS DE FIBONACCI.
Este mtodo es muy similar al de la Seccin Dorada pues se
basa en reducir una regin de bsqueda inicial tanto como sea
posible de tal forma que cualquier punto en la regin
remanente sea el ptimo (dentro de la exactitud ingenieril).
Este mtodo usa la serie de Fibonacci que se define de
acuerdo a la siguiente relacin:
1
1 0
= = F F
2 1
+ =
n n n
F F F
para n > 1
Los primeros trminos de esta serie estn dados en la
siguiente tabla:
n 0 1 2 3 4 5 6 7 8 9 10
F
n
1 1 2 3 5 8 13 21 34 55 89
El mtodo considera lo siguiente.
Dado el intervalo de L de x donde se supone que existe un
mnimo de y limitado por a y b, calcule una reduccin de
este intervalo por la siguiente ecuacin:
( ) x F
n
n
F
F
2
2
= A
Calcular con este intervalo los valores de x
1
y x
2
de la siguiente
manera
2 2
2 1
A =
A + =
b x
a x
( )
1
x f
( )
2
x f
Calcular y y observar cual mejora en la funcin
objetivo. Eliminar un intervalo de o segn sea el
caso.
El nuevo L se calcula de acuerdo a la siguiente expresin:
1
x a
b x
2
(
=
(
=
|
|
.
|
\
|
=
|
|
.
|
\
|
= A =
n
n
n
n n
n
n
n
n
F
F
L
F
F F
L
F
F
L
F
F
L L L L
1
1
2
1
2
1
2
1 1 2 1 2
1
|
|
.
|
\
|
=
n
n
F
F
L L
1
1 2
por analoga el nuevo incremento ser:
(
= A
1
3
2 3
n
n
F
F
L
Y el nuevo intervalo ser:
(
=
(
=
|
|
.
|
\
|
=
(
= A =
1
2
2
1
3 1
2
1
3
2
1
3
2 2 3 2 3
1
n
n
n
n n
n
n
n
n
F
F
L
F
F F
L
F
F
L
F
F
L L L L
|
|
.
|
\
|
=
n
n
F
F
L L
2
1 3
Generando:
|
|
.
|
\
|
=
n
n
F
F
L L
0
11
Es decir el ltimo intervalo se va a reducir del
intervalo original, o sea si seleccionamos se puede deducir
la exactitud de la bsqueda.
n
L
n
F
1
n
F
Ejemplo 5.4.1 NUMEROS DE FIBONACCI
Minimice la siguiente expresin para encontrar el ptimo.
( ) x x x f =
2
A partir de n = 10 50 0 s s x
n
0
0 1 2 3 4 5 6 7 8 9 10
F
n
1 1 2 3 5 8 13 21 34 55 89
10 . 19
89
34
50
2
1 2
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
9 . 30 10 . 19 50
10 . 19 10 . 19 0
2 2
2 1
= = A =
= + = A + =
b x
a x
( )
( ) 91 . 923
71 . 345
2
1
=
=
x f
x f
Como:
( ) ( )
2 1
x f x f <
90 . 30
89
55
50
1
1 2
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b =30.90
80 . 11
55
21
9 . 30
1
3
2 3
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
10 . 19 80 . 11 90 . 30
80 . 11 80 . 11 0
3 2
3 1
= = A =
= + = A + =
b x
a x
( )
( ) 71 . 345
44 . 127
2
1
=
=
x f
x f
10 . 19
89
34
50
2
1 3
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b = 19.10
30 . 7
34
13
10 . 19
2
4
31 4
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
8 . 11 30 . 7 10 . 19
30 . 7 30 . 7 0
4 2
4 1
= = A =
= + = A + =
b x
a x
( )
( ) 44 . 127
99 . 45
2
1
=
=
x f
x f
80 . 11
89
21
50
3
1 4
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b = 11.80
50 . 4
21
8
80 . 11
3
5
41 5
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
30 . 7 50 . 4 80 . 11
50 . 4 50 . 4 0
5 2
5 1
= = A =
= + = A + =
b x
a x
( )
( ) 99 . 45
75 . 15
2
1
=
=
x f
x f
3 . 7
89
13
50
4
1 5
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b = 7.3
81 . 2
13
5
3 . 7
4
6
5 6
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
49 . 4 81 . 2 3 . 7
81 . 2 81 . 2 0
6 2
6 1
= = A =
= + = A + =
b x
a x
( )
( ) 6701 . 15
0861 . 5
2
1
=
=
x f
x f
49 . 4
89
8
50
5
1 6
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b = 4.49
68 . 1
8
3
49 . 4
5
7
61 7
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
81 . 2 68 . 1 49 . 4
68 . 1 68 . 1 0
7 2
7 1
= = A =
= + = A + =
b x
a x
( )
( ) 0861 . 5
1424 . 1
2
1
=
=
x f
x f
81 . 2
89
5
50
6
1 7
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L Por lo tanto b = 2.81
12 . 1
5
2
81 . 2
6
8
7 8
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
69 . 1 12 . 1 81 . 2
12 . 1 12 . 1 0
8 2
8 1
= = A =
= + = A + =
b x
a x
( )
( ) 1661 . 1
1344 . 0
2
1
=
=
x f
x f
69 . 1
89
3
50
7
1 8
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b = 1.69
56 . 0
3
1
69 . 1
7
9
8 9
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
13 . 1 56 . 0 69 . 1
56 . 0 56 . 0 0
9 2
9 1
= = A =
= + = A + =
b x
a x
( )
( ) 15 . 0
25 . 0
2
1
=
=
x f
x f
123 . 1
89
2
50
8
1 9
=
|
.
|
\
|
=
|
|
.
|
\
|
=
n
n
F
F
L L
Por lo tanto b = 1.123
561 . 0
2
1
13 . 1
8
10
9 10
=
|
.
|
\
|
=
|
|
.
|
\
|
= A
n
n
F
F
L
56 . 0 561 . 0 123 . 1
561 . 0 561 . 0 0
10 2
10 1
= = A =
= + = A + =
b x
a x ( )
( ) 2464 . 0
2462 . 0
2
1
=
=
x f
x f
5,5 MTODOS DE APROXIMACION POLINOMIAL
Otra clase de mtodos de minimizacin unidimensional localiza
un punto x cercano a x*, el valor de la variable independiente
correspondiente al mnimo de por extrapolacin e
interpolacin usando aproximaciones polinomiales como modelos
de .Ambos aproximaciones cbicas y cuadrticas son
propuestas usando valores de la funcin nicamente, y usando
ambas funciones y valores derivativos. Coggins (1964) seal
que varias de las tcnicas que involucran el montaje de un
polinomio para seleccionar puntos era un poco ms eficaz en la
prctica en localizar el mnimo de con una especificada
precisin que la seccin dorada, y la experiencia ha
comprobado esta conclusin.
( ) x f
( ) x f
( ) x f
5.5.1 Interpolacin Cuadrtica
Comenzamos con tres puntos x
1
, x
2
, y x
3
en orden
creciente que puede o no ser igualmente espaciado, pero los
puntos extremos deben localizar el mnimo.
Para el anlisis en el Capitulo 2, sabemos que una funcin
cuadrtica.
( ) x f
= a + bx + cx
2
puede ser pasada exactamente a travs de
los tres puntos, y que la funcin puede ser diferenciada y el
derivativo fijado igual a 0 para obtener el mnimo de la
aproximacin de la funcin.
x* = -
c 2
b
.(5.13)
( ) x f
Suponga que es evaluado en x
1
, x
2
y x
3
para obtener f (x
1
)=
f
1
, f (x
2
) f
2
, y f (x
3
) f
3
. Los coeficientes b y c pueden ser
evaluados de la solucin de las tres ecuaciones lineales
f(x
1
)= a+bx
1
+cx21
f(x
2
)= a+bx
2
+cx22
f(x
3
)= a+bx
3
+cx23
va determinantes o lgebra matricial. La introduccin de b y
c expresado en trminos de x
1
, x
2
, x
3
, f
1
, y f
2
y f
3
en la Eq.
(5.13) da
( ) ( ) ( )
( ) ( ) ( )
(
+ +
+ +
=
3 2 1 2 1 3 1 3 2
3
2
2
2
1 2
2
1
2
3 1
2
3
2
2
*
f x x f x x f x x
f x x f x x f x x
2
1
x
.(5.14)
x
1
x
2
x
3
x
x x
2
x
3
Etapa 1
Etapa 2
f(x)
f
1
f
2
f
*
f
3
Figura 5,7 Dos etapas de interpolacin cuadrtica
x
1
x
2
x
3
x
f(x)
Ib
x
1
x
2
x
3
x
f(x)
Ia
Si esta entre x
2
y x
3
:
(a) f* < f
2
Escoger x
2
, , x
3
f* < f
3
(b) f* > f
2
Escoger x
1
, x
2
,
f* < f
3
(c) f* > f
2
Error numrico
f* > f
3
x
1
x
2
x
3
x
f(x)
IIa
x
1
x
2
x
3
x
f(x)
IIb
Si esta entre x
1
y x
2
:
(a) f* < f
2
Escoger x
1
, , x
2
f* < f
1
(b) f* > f
2
Escoger x
3
, x
2
,
f* < f
1
(c) f* > f
2
Error numrico
f* > f
1
Figura 5,8 Cmo mantener una localizacin del mnimo en
interpolacin cuadrtica
Para ilustrar la primera etapa en el procedimiento de bsqueda,
examine los cuatro puntos en la Fig. 5,7 para la etapa 1.
Queremos reducir el intervalo inicial (x
1
, x
3
). Examinando los
valores de asumiendo que es unimodal y tiene un
mnimo), podemos descartar el intervalo de x
1
a x
2
y usar la
regin (x
2
, x
3
) como el nuevo intervalo. El nuevo intervalo
contiene tres puntos, (x2, x*, x3) estos pueden ser
introducidos en la Eq. (5.14) para estimar una x
opt
, y as
sucesivamente.
( ) x f
( ) x f
En general, evala f (x*) y descarta del grupo{ x
1
, x
2
, x
3
} el
punto correspondiente al valor mas grande de f(x), menor que
la localizacin del mnimo de f(x) en cada caso usted descarta
la x que no mantenga la localizacin del mnimo. Las pruebas
especificas y muestras de x1 para mantener la localizacin son
mostradas en la Fig.5.8 ,f* = f (x*) , Si x* y cada valor de { x
1
,
x
2
, x
3
} corresponden a la mas pequea diferencia de f (x),
menor que la exactitud prescrita en x, o la exactitud fijada en
los valores correspondientes de f(x) es lograda, termina la
bsqueda. Nota que estas funciones son solamente evaluadas
para ser utilizadas en la bsqueda, y que solo una evaluacin de
la funcin nueva (para x*) se tiene que llevar a cabo en cada
nueva iteracin.
5.5.2 Interpolacin Cbica
La interpolacin cbica para encontrar el mnimo de
se basa en aproximar la funcin objetivo por un polinomio de
tercer grado en el intervalo de inters , y entonces determinar
el punto estacionario asociado al polinomio.
f(x) = a
1
x
3
+ a
2
x
2
+ a
3
x+ a
4
Se deben computar cuatro puntos (localizacin del
mnimo) para estimar el mnimo, cualquiera de los cuatro
valores de , o los valores de y el derivado de , en
cada dos puntos.
En el caso anterior se obtienen cuatro ecuaciones
lineales con los cuatro coeficientes deseados desconocidos.
Permitiendo que la matriz de X sea
( ) x f
( ) x f ( ) x f ( ) x f
(
(
(
(
(
=
1
1
1
1
4
2
4
3
4
3
2
3
3
3
2
2
2
3
2
1
2
1
3
1
x x x
x x x
x x x
x x x
X
| | ) x ( f ) x ( f ) x ( f ) x ( f
4 3 2 1
F
T
=
A
T
=
| |
4 3 2 1
a a a a
F = X A .(5.15)
Entonces el extremo de f (x) es obtenido configurando el
derivativo de f (x) igual a cero y resolviendo para x*
0 a x a 2 x a 3
dx
) x ( df
3 2
2
1
= + + =
Para que
1
3 1 2
*
a 6
a a 12
2
2
a 4 a 2
x
=
+
+
=
| | | |
| |
2
1
2 1
2
2 1 1 2 2 1
.
/ 3
f f z w
f f x x f f z donde
' '
=
'
+
'
+ =
..(5.18)
En un problema del minimizacin, se requiere que x
1
< x
2
, f
'1
< 0,
y f '
2
> 0 (x
1
y x
2
frenan el mnimo), Para el punto nuevo (x*),
calcular f ' (x) para determinar cual de los dos puntos previos
reemplazar. La aplicacin de este mtodo en algoritmos de la
programacin no lineal la cual usa gradientes de informacin es
efectiva.
Si la funcin a ser minimizada no es unimodal localmente, como
se ha asumido sea verdadero en la discusin anterior, se debe
adicionar una lgica extra a la codificacin de la bsqueda
unidimensional para asegurar que el tamao del paso
se ajuste al sitio del optimo local. Por ejemplo, la Figura 5,9
ilustra cmo un paso grande inicial puede llevar a una solucin
ilimitada a un problema cuando, de hecho, se busca un mnimo
local.
Mnimo
Local
Paso
corto
x
0
0 x
f(x)
A
B
x
1
x
2
Mnimo
Global
Figura 5.9 Una bsqueda unidimensional para un mnimo
local de una funcin objetivo multimodal que lleva a una
solucin infinita.
5.6 METODO DE DAVID-SWAN-CAMPEY (D-S-C)
8Ax
4Ax 2Ax A x
x
0
x
m-3
x
m-2
x
m-1
x
m+1
x
m
f (x)
El mtodo de la seccin dorada puede tener el inconveniente de
que el ptimo quede fuera del intervalo de bsqueda si este no
se selecciona adecuadamente.
Un mtodo alterno es el DSC que propone lo siguiente:
A partir de un punto inicial x
0
buscar en dos sentidos x
0
+ Ax
y x
0
- Ax para ver hacia donde mejora la funcin objetivo. El
incremento Ax debe seleccionarse de acuerdo a la magnitud de
x (1/100 podra ser apropiado). Habiendo localizado el sentido
hacia donde mejorar la funcin objetivo se puede ir
duplicando Ax y observar que f(x) sigue mejorando. Cuando se
llegue al punto donde la funcin objetivo dejo de mejorar
significa que el optimo se ha rebasado y entonces hay que
cambiar la secuencia de bsqueda.
La descripcin formal del mtodo DSC es como sigue:
1.- Evaluar f(x) en el punto inicial x
0
. Si f(x
0
+ Ax) < f(x
0
). ir al
paso 2
si f(x
0
+ Ax) > f(x
0
) cambiar Ax = -Ax e ir al paso 2.
2.- Calcular x
k+1
= x
k
+ Ax
3.- Calcular f(x
k+1
)
4.- Si f(x
k+1
) < f(x
k
) doble Ax y regresar al paso 2 y k = k+1 , si
f(x
k+1
) > f(x
k
) cambiar x
k+1
por x
m
, x
k
por x
m-1
, etc
Reducir Ax a la mitad y regresar al paso 2 y 3 para un clculo
ms.
5.- De los cuatro igualmente espaciados puntos en el conjunto
x
m+1
, x
m
, x
m+1
, x
m+2
, eliminar algunos de x
m
o x
m-2
el que este ms
alejado de la x con menor valor de f(x).
6.- Los ltimos tres puntos sean x
a
, x
b
, x
c
, donde x
b
es el punto
central y x
a
= x
b
- x y x
a
= x
b
+ Ax.
7.- Llevar a cabo la interpolacin cuadrtica dada por
)) x ( f ) x ( f ) x ( f (
)) x ( f ) x ( f ( * x
x * x
c b a
c a
b
+
+ =
2 2
8.- Este valor ltimo encontrado se usa como punto inicial y se
vuelve al paso 2 pero reduciendo Ax.
Los pasos anteriores se describen con ms detalle en la
figura5.6.1.
5.7COMO ES APLICADA LA BUSQUEDA
UNIDIMENSIONAL EN UN ROBLEMA
MULTIDIMENSIONAL
En la minimizacin de una funcin f (x) de varias variables, el
procedimiento general es (a) calcular una direccin de
bsqueda, y (b) reducir el valor de f (x) tomando uno o ms
pasos en esa direccin de bsqueda. El capitulo 6 describe en
detalle como seleccionar la direccin de bsqueda. Aqu
explicamos como seguir los pasos en la direccin de bsqueda
como una funcin de una sola variable, la longitud del paso .
Usualmente la ejecucin de ste seguimiento es llamado
bsqueda unidimensional o bsqueda en lnea.
Examine la figura. 5,10 en la cual se muestran contornos de
una funcin de dos variables:
5 x 2 x x x 2 x ) x ( f
1
2
2
2
1 2
4
1
+ + =
Suponiendo que el gradiente negativo de f (x),- Vf (x), es
seleccionado como la direccin de bsqueda iniciando en el
punto xT =[1 2].
El gradiente negativo es la direccin la cual maximiza la razn
de cambio de f (x) en movimiento hacia el mnimo. Queremos
movernos en esta direccin para calcular una nueva x
x
new
= x
old
+ s
Donde s es la direccin de bsqueda, un vector, y es un
escalar denotando la distancia movida a lo largo de la direccin
de bsqueda. Note s Ax, se toma el vector para el paso
(incluyendo ambos direccin y distancia).
La ejecucin de una bsqueda unidimensional involucra el
calculo de un valor de , y entonces siguiendo pasos en cada una
de las direcciones coordenadas como sigue:
En la direccin de x
1
: X
1new
= X1old + s
1
En la direccin de x
2
: X
2new
= X2old + s
2
Donde s
1
y s
s
son los dos componentes de s en las direcciones
x
1
y x
2
, respectivamente. La repeticin de este procedimiento
completa la bsqueda unidimensional.
Ejemplo 5.7 Ejecucin de una bsqueda unidimensional
Ilustramos dos etapas en la obtencin del mnimo, minimizando
la funcin de Fox (1971)
5 x 2 x x x x 2 x ) x ( f
1
2
1
2
2
2
1 2
4
1
+ + + =
En la direccin del gradiente negativo
| |
2
2
1 1 1 2
3
1
x 2 x 2 2 x 2 x x 4 x 4 ) x ( f + + = V
iniciando en x
T
= |1 2| donde f(x) = 5. Aqu
s = -Vf(1,2)= -
(
2
4
Iniciamos para llegar al mnimo tomando =0.05
2 . 1 ) 4 )( 05 . 0 ( x x
0
1
1
1
= + =
9 . 1 ) 2 )( 05 . 0 ( x x
0
1
1
1
= + =
(a)
.(b)
Pasos (a) y (b) consisten de un paso general en la direccin s
=|4 -2|
T
y producir Ax
T
= |0.2 -0.1|. En x
1
, f(1.2, 1.9) = 4.25,
una mejora.
Para el siguiente paso, nosotros permitimos
1
= 2 = 0.1, y
tomamos otro paso en la misma direccin:
6 . 1 ) 4 ( 1 . 0 x x
1
1
1
1
= + =
7 . 1 ) 2 ( 1 . 0 x x
1
2
2
2
= + =
| |
T
2 . 0 4 . 0
1
= Ax
A x
2
, f (1.6, 1.7) = 5.10, as que el mnimo de f (x) en direccin
s ha sido puesto entre corchetes. Examine Fig.5.10. El valor
optimo de a lo largo de la direccin de bsqueda puede ser
encontrado para = 0.04875 por uno de los mtodos
descritos en este captulo.
*
~