You are on page 1of 94

UNIDAD 5

OPTIMIZACION DE FUNCIONES: BSQUEDA


UNI- DIMENSIONAL
OPTIMIZACION DE FUNCIONES: BSQUEDA UNI-
DIMENSIONAL
Una buena tcnica para la optimizacin de una funcin de
una sola variable es esencial en por lo menos tres
razones:

En muchos problemas las restricciones pueden ser involucradas
en la funcin objetivo para que dimensionalmente el problema
sea reducido a una variable.

Algunos problemas sin restricciones inherentes implican solo una
variable.

Tcnicas para problemas de optimizacin con y sin restricciones
generalmente implican el uso repetido de bsqueda
unidimensional
Antes de la llegada de computadoras de alta rapidez, algunos
mtodos de optimizacin estaban limitados, principalmente los
llamados mtodos indirectos, estos son mtodos de calculo de
un potencial ptimo que emplean las condiciones necesarias y
derivadas analticas tanto como los valores de la funcin
objetivo. Las computadoras modernas han hecho posibles los
mtodos directos, esto es, bsqueda de un extremo por
comparacin directa de valores de la funcin de con una
sucesin de puntos de prueba x(1), x(2),... sin suponer
derivadas analticas. Por supuesto, como se explicar en Sec.
6.5, se pueden sustituir frmulas diferenciales por derivadas
analticas en cuyo caso est la distincin entre mtodos
directos e indirectos.
Como un ejemplo, se considera la siguiente funcin de una
sola variable x (ver Fig. 5.1).

( ) 1 2
2
+ = x x x f
( )
0 =
dx
x df
1

2

3

4
1 2 3

4
Mtodo Directo:
Primera estimacin de
x
*

0
Mtodo Directo:
Segunda estimacin
de x
*

Mtodo Indirecto:
va
x
*

Inicio
Figura 5.1 Mtodo Directo vs Mtodo
Indirecto para encontrar un mnimo
Un mtodo analtico indirecto para determinar el ptimo x*,
el mnimo de f(x) , es igualar el gradiente de f(x) a cero.




y resuelve la ecuacin para obtener x*= 1; x* se puede
probar por las condiciones suficientes para determinar que
es realmente un mnimo:



Para llevar a cabo un mtodo directo de minimizacin
numrico, usar slo valores de la funcin objetivo. Comienza
con algunos valores iniciales de x, suponga x
0
= 0, y calcule
los valores sucesivos de para otros
valores de x, valores seleccionados acorde a cualquier
estrategia elegida.
2 2 0
) (
= = x
dx
x df
0 2
) 1 (
2
2
> =
dx
f d
( ) 1 2
2
+ = x x x f
Se hace alto cuando donde el exponente k
designa el nmero de iteraciones y es la tolerancia
preespecificada o criterio de precisin.
El mtodo indirecto tiene una ventaja inherente aun
cuando se usa para computar valores de funciones, es decir, la
convergencia es normalmente ms rpida.
Los mtodos directos numricos tienen la ventaja de
poder resolver ms fcilmente los problemas que involucran
funciones con discontinuidades, puntos de inflexin, y puntos
finales. Tambin, el carcter de f(x) en la vecindad del
extremo se puede explorar fcilmente por mtodos
numricos.
Debemos sealar que para funciones objetivo no lineales con
ms de una variable, los mtodos directos han resultado
superiores que los mtodos indirectos. Por ejemplo suponga
que la funcin no linear f(x) = f (x
1
, x
2
,..., xn) se va a
minimizar.
( ) ( ) c <
+ k k
x f x f
1
Las condiciones necesarias que se usan en un mtodo
indirecto son:


A cada una de las derivadas parciales igualadas a cero bien
produciran una ecuacin no linear. Por lo tanto, la
minimizacin de se convierte en un problema de resolucin de
un juego de ecuaciones no lineales con n variables, este
problema puede ser tan difcil resolver como el problema
original. Tambin, la matriz Hessiana de es simtrico
considerando que el Jacobiano de las ecuaciones de las
condiciones necesarias es arbitrario en estructura.

As, la mayora de los ingenieros prefieren atacar el problema
de minimizacin directamente por uno de los mtodos
numricos que se describen en el captulo 6, en lugar de usar
un mtodo indirecto.
0 ) (
) (
1
1
= =
c
c
x f
x
x f
x
0 ) (
) (
2
2
= =
c
c
x f
x
x f
x
0 ) (
) (
= =
c
c
x f
x
x f
n
x
n
5.1 METODOS NUMERICOS PARA OPTIMIZAR UNA
FUNCION DE UNA VARIABLE.
La mayora de los algoritmos para la optimizacin con y sin
restricciones hacen uso de una tcnica de optimizacin
unidimensional eficiente para localizar un mnimo local de una
funcin univariable; en algunos libros de optimizacin general
se han revisado tcnicas de bsqueda unidimensional la cual
calcula el intervalo en el cual mnimo de una funcin queda.
Para aplicar estos mtodos se necesita saber al inicio un grupo
inicial A
0
que contiene el mnimo de la funcin objetivo f(x), y
ese f(x) es unimodal en el intervalo. Es muy difcil determinar
si una funcin general es unimodal previo a la optimizacin,
pero en muchos casos importantes las funciones objetivo
exhiben unimodalidad. Hay distintos mtodos para variar el
intervalo inicial para alcanzar un intervalo final
n
. En la
prxima seccin describimos algunos de los mtodos que en
prctica resultan ser ms efectivos.
Un mtodo de optimizacin para una funcin de una sola
variable puede ser colocada como una rejilla para los valores
de x, y calcula el valor de la funcin para cada valor en la
rejilla. El ptimo sera el mejor valor de f(x) . Mientras este
procedimiento no es un mtodo muy eficaz para hallar el
ptimo, puede rendir resultados aceptables. En cambio, si
estamos utilizando esta aproximacin en la optimizacin una
funcin multivariable, el tiempo de la computadora es
bastante probable que llegue a ser prohibitivo.
Para seleccionar un mtodo para minimizar o
maximizar una funcin de una sola variable, se debe
considerar la complejidad del procedimiento y nmero de
evaluaciones de la funcin necesarias (la cual se relaciona
directamente al tiempo de la computadora usado y por lo
tanto costos).
Por ejemplo, en algunos problemas la simulacin puede ser
requerida para generar los valores de la funcin tal como
determinar el nmero de platos ptimos en una columna de
destilacin.


En otros casos donde no se tiene ninguna descripcin
funcional del modelo fsico-qumico del proceso a ser
optimizado, y el proceso es forzado a operar en varios
niveles de entrada para calcular el rendimiento del proceso.
La generacin de un valor nuevo de la funcin objetivo en
tales circunstancias sera sumamente costosa y sin duda el
nmero de pruebas de planta seran limitadas y tendran que
ser juiciosamente diseada. En tal circunstancias la
eficiencia es un criterio clave en la seleccin de una
estrategia de minimizacin.
5.2 EXPLORACION Y
PROCEDIMIENTOS DE SOPORTE
Casi cada procedimiento de bsqueda unidimensional
requiere que se obtenga como la primera parte de la
estrategia un rango de los mnimos, y entonces el rango es
limitado consecuentemente. Juntamente con la declaracin
de la funcin de objetivo f(x) debe haber algunas
declaraciones de lmites en x u otra suposicin implcita en
la que x es ilimitada (- ). Por ejemplo el problema:
Minimice
Tiene un valor optimo de x*= 100. Claramente no querra
comenzar en - (i.e., un nmero negativo grande) y tratar
de poner entre parntesis el mnimo. El sentido comn dira
estimar el x mnimo fijar un rango suficientemente grande
para contener el mnimo verdadero.
< < x
( ) ( )
2
100 = x x f
Claramente, si comete una equivocacin y selecciona un
rango de 0< x< 10, hallar que el mnimo ocurre a uno de los
lmites del rango, por lo tanto el rango debe ser revisado.
En el trabajo de ingeniera y cientfico, los lmites fsicos
en temperatura, presin, concentracin, y otras variables
fsicas significantes ponen lmites prcticos en la regin de
bsqueda que pueda usarse como un rango inicial.
Varias estrategias existen que podemos usar para examinar
el espacio de la variable independiente y determinar un
rango aceptable para la bsqueda del mnimo de f(x) . Como
un ejemplo, en la funcin arriba expresada, si nosotros
discretizamos la variable independiente por un espacio de la
reja de 0.01 e inicializamos la bsqueda con cero,
procediendo con valores de x consecuentemente altos, se
consumir mucho tiempo y esfuerzo para poner en orden el
rango inicial de x.
Por eso, procedimientos de aceleracin son usados en orden
de examinar rpidamente un rango satisfactorio de x. Una
tcnica puede implicar el uso de una transformacin
funcional (e.g., log x) en orden para observar un rango amplio
de la variable independiente. Otro mtodo puede usar un
espacio de la rejilla variable. Considere una sucesin en x
dada por la frmula siguiente:
5.1
Ecuacin (5.1) permite para un amplio espacio de valores
consecutivos dados algunos incrementos de la base (o). La
tabla 5.1 lista los valores de x en para Eq. (5.1) con o = 1.
Ntese que en nueve clculos se ha limitado el mnimo de .
Otro de procedimiento puede comenzar en x = 63, o x = 255,
con o reducida y as sucesivamente determinar el mnimo de
f(x).

1
2
1
+
+ =
+
k k
x x
k
o
Sin embargo tcnicas ms eficientes se discutirn ms
adelante en este captulo.
En optimizacin de una funcin de una sola variable,
reconocemos (como para problemas generales de
multivariable) no hay un buen substituto para una primera
suposicin para el punto inicial de la bsqueda. Por lo tanto,
en el problema es con frecuencia muy importante manejar la
experiencia previa en los factores que influyen en la
cantidad de tiempo y esfuerzo que se requiere para
resolver un problema de optimizacin dado.

Tabla 5.1 Aceleracin fijando un rango inicial

Los mtodos considerados en el resto de este
captulo son generalmente mtodos de una
secuencia lgica. Los cuales son llamados
mtodos lgicos puesto que un paso dado es
continuado solo si rinde un mejor valor para la
funcin objetiva; se refieren como
secuenciales porque solamente se toma un
paso.
5.3 MTODO DE NEWTON, QUASI-
NEWTON, Y SECANTE DE BSQUEDA
UNIDIMENSIONAL.
Tres procedimientos bsicos para determinar el ptimo
de una funcin de una variable, aplicando las
condiciones necesarias para la optimizacin de esa
funcin:
Mtodo de Newton.
Aproximacin de diferencias finitas del mtodo de
Newton
(a veces llamado mtodo quasi - Newton).
Mtodo de la Secante.
Comparando la efectividad de estas tcnicas, es til
examinar la velocidad de convergencia para cada
mtodo. Las velocidades pueden expresarse de
diferentes maneras, una clasificacin muy comn son
las siguientes:
Lineal

5.2
(usualmente lento en prctica)
Orden p

..5.3

(Ms rpido en prctica)

Si p = 2, se dice que el orden de convergencia es
cuadrtico.
1 0
*
* 1
s s s

+
c c
k
k
x x
x x
1 , 0
*
* 1
> > s

+
p c c
p
k
k
x x
x x
Sper lineal

.5.4


(Usualmente rpido en prctica)
Para una funcin de una variable sola



( )

<

+
k
k como 0 c y c o 0 lim
k k
* k
* 1 k
x x
x x
x x x
i
= =

2
5.3.1.- Mtodo de Newton
La primera condicin necesaria para que f(x) tenga un
mnimo local es que f(x)=0 . Por consiguiente, se puede
resolver la ecuacin f(x)=0 por el mtodo de Newton
haciendo:

.5.5
Asegurando en cada etapa k que para un
mnimo. Ver fig. 5.2
Para ver si el mtodo de Newton aplica acerca de f(x) , se
supone que f(x) es aproximada por una funcin cuadrtica
a x
k
:


) ( ' '
) ( '
1
k
k
k k
x f
x f
x x =
+
( ) ( )
k k
x f x f <
+1
( ) ( ) ( )( ) ( )( )
2
' '
2
1
'
k k k k k
x x x f x x x f x f x f + + =
..5.6
Haciendo df (x)/dx = 0, se encuentra un punto estacionario
del modelo cuadrtico de la funcin. El resultado de
diferenciar la Eq. (5.6) es:

.5.7

el cual se puede rearreglar produciendo la Eq. (5.5). Por
consiguiente, el mtodo de Newton es equivalente a usar un
modelo cuadrtico para una minimizacin (o maximizacin)
de una funcin, aplicando las condiciones necesarias.


( ) ( ) ( )( ) 0 ' ' 2
2
1
' =
|
.
|

\
|
+
k k k
x x x f x f
Tangente de en x
k

x
k

x
k+1

x
*





( ) x f '
( ) x f '
Figura 5.2 Mtodo de Newton aplicado a
la solucin de f(x)=0
Las ventajas del mtodo de Newton son:
El procedimiento es localmente de una convergencia
cuadrtica [p= 2 en la Eq. (5.3) ]para el ptimo f (x)0
Para una funcin cuadrtica, el mnimo se obtiene en una
iteracin.
Las desventajas del mtodo son:

Se tiene que calcular f (0) y f (0)
Si f'' (x) 0, el mtodo converge muy lentamente.
Si ms de un ptimo existe, el mtodo no converge al
deseado y puede ciclarse.

5.3.2. Mtodo Quasi-Newton
El mtodo quasi-Newton es generalmente la imitacin del
mtodo de Newton. Si no es dado por una funcin, o si la
funcin es tan complicada analticamente que no se pueden
formular sus derivadas, se reemplazan por la Eq. (5.5) en
diferencias finitas.


..5.8
Se han usado diferencias centrales en la Eq. (5.8) pero las
diferencias hacia adelante o cualesquiera otras diferencias
bastaran mientras que el tamao del escaln h es
seleccionado para igualar la formula en diferencias y para la
precisin de la computadora.
( ) ( ) | |
( ) | |
2
1
/ ) ( ) ( 2
2 /
h h x f x f h x f
h h x f h x f
x x
k k
+ +
+
=
+
La seleccin de los valores de h, es una
desventaja adicional en el mtodo de
Quasi-Newton ya que hay que estar
adicionndola en cada etapa k (tres
para la frmula 5.8 y dos para la
frmula 5.5).
5.3.3 Mtodo de la Secante
En el mtodo de la secante anlogo al modelo aproximado de la Eq.
(5.7) para ser resuelta como:

(5.9)
Donde m es la secante de la lnea que une al punto x
p
y un
segundo punto x
q
dado por:


( ) ( ) 0 ' = +
k k
x x m x f
p q
p q
x x
x f x f
m

=
) ( ' ) ( '
Secante = m
x
x
q

x
p

x
*

( ) x f '
( ) x f '
Figura 5.3 Mtodo de la secante para la solucin
de f (x)=0
la secante aproxima f (x)a una lnea recta (ver Fig. 5.3);
cuando x
q
x
p
, m se acerca a la segunda derivada de f(x).
As la Eq. (5.9) imita el mtodo de Newton (en este sentido
el mtodo de la secante es tambin un mpodo quasi-Newton;
podra ser considerado como un mtodo de eliminacin por
regin como se describe en la Sec. 5.4)


5.10
donde es la aproximacin a x* determinada en una etapa k.
Note que f(x) puede por s misma ser aproximada por una
substitucin de diferencias finitas.


| | ( )
p q p q
q
q
x x x f x f
x f
x x

=
/ ) ( ' ) ( '
) ( '
~
*
El mtodo de la secante empieza usando dos puntos x
p
y x
q

segmentando el intervalo de x, puntos en los cuales la
primera derivada de es de signo opuesto. El cero de la Eq.
(5.9) se predice por la Eq. (5.10), y la derivada de la funcin
es entonces evaluada en el nuevo punto. Los dos puntos
empleados para el siguiente paso son y cualquiera sea x
q
o
x
p
, la seleccin es hecha para que el par de derivadas de
f(x
*
) y f (x
p
) o f(x
q
), tengan signos opuestos para
mantener el grupo en x*. (Esta variacin es llamada "regula
falsi" o mtodo de la falsa posicin). En la Fig. 5.3, para la
bsqueda en la etapa (k+1), y x
q
podran seleccionarse como
los puntos finales de la lnea secante.
El mtodo de la secante parecera crudo, pero
trabaja muy bien en la prctica. El orden de
convergencia es para una variable. Su convergencia
es ms lenta que la seleccionada en diferencias
finitas o mtodo quasi-Newton, pero es usualmente
ms eficiente en trminos de la evaluacin de una
funcin total para alcanzar un precisin especificada
(ver Dennis y Schnabel, 1983, Captulo 2).
( ) x f ' '
Para cualquiera de los tres procedimientos anteriores, en la
minimizacin se asume que la funcin es unimodal, agrupando el
mnimo, escoger un punto inicial, aplicar la formula de la iteracin
para obtener xk+1 (o ) de xk (o xp y xq), y se asegura que
en cada iteracin para llegar al mnimo.

Hasta que , o sus aproximaciones, sean positivas, y

disminuir. Por supuesto, que se debe comenzar en la
direccin correcta para reducir (a un mnimo)
comprobando una perturbacin inicial en x. Para una
maximizacin se minimiza


( ) ( )
k k
x f x f <
+1
( ) x f ' '
( ) x f
( ) x f
( ) x f
EJEMPLO 5.1 COMPARACION DEL MTODO DE
NEWTON, DIFERENCIAS FINITAS Y MTODO DE LA
SECANTE SECANTE APLICADO A LA FUNCIN
CUADRATICA
En este ejemplo se minimiza una funcin cuadrtica simple
esta es ilustrada en Fig. E5.1a usando cada uno
de los tres mtodos indirectos presentados en la Secc. 5.3.
Solucin. Por inspeccin se puede determinar que el mnimo
se encuentra en
x= -3 a x = 3 se asume x0 = 3 como punto de inicial para la
minimizacin.
Mtodo de Newton. La secuencia del mtodo de Newton es
aplicando la Eq. (5.5). ver Fig. 5.1b para y
; . Ntese es siempre positiva
definida. Para este ejemplo Eq. (5.5) es:
( ) x x x f =
2
( ) x x x f =
2
( ) 1 2 ' = x x f ( ) 2 ' ' = x f ( ) x f ' '
) x ( ' ' f
) x ( ' f
x x
0
0
0 1
=
..(a)
5 . 0
2
5
3 x
1
= =
y
Puesto que la funcin es cuadrtica y es lineal,
se obtiene el mnimo en un paso. Si la funcin no fuera
cuadrtica, se necesitan usar ms iteraciones como lo
muestra la Eq. (5.5).
( ) x f '
1
-1
-2 2
2
-1
4
6
3
x
x
*
= 0.5
.
( ) x f
Figura E5.1a

2
2
-2
-2
1 -1 3 -3
4
-4
-6
6
.
X
p

x
q

.
x
*

x
( ) 1 2 ' = x x f
Figura E5.1b
Mtodo Quasi- Newton. La aplicacin de la Eq. (5.8) a
se ilustra adelante. Sin embargo aqu se
ilustrar el uso de las diferencias finitas hacia adelante para
y la frmula de diferencias centrales para tres puntos
para .

( ) x x x f =
2
( ) x f '
( ) x f ' '
( ) ( ) | |
( ) ( ) ( ) | |
2
k 1 k
h / h x f x f 2 h x f
h / x f h x f
x x
+ +
+
=
+
(b)
Con h = 10 3
x
1
=
( ) ( ) | |
( ) ( ) ( ) | | ( )
2
3
3
10 / 999 . 2 0 . 3 2 001 . 3
10 / 0 . 3 001 . 3
3

f f f
f f
( )
( )
( ) 995001 . 5 000000 . 12 005001 . 6
000000 . 6 005001 . 6
10 3
3
+

=

( )
( )
( )
500500 . 2 3
000002 . 0
005001 . 0
10 3
3
= =

= 0.499500

Una iteracin ms podra mejorar el valor estimado de x*,
con un valor ms pequeo de h.
Mtodo de la secante. La aplicacin de la Eq. (5.10) para
empieza con dos puntos x = - 3 y x = 3
correspondientes a x
p
y x
q
, respectivamente, se ilustran en
la Fig. 5.3:

( ) x x x f =
2
( ) 7 3 ' = f
( ) 5 3 ' = f
( ) | | ( ) | |
5 . 0 5 . 2 3
3 3 / 7 5
5
3
1
= =

= x
Como antes el ptimo se alcanz en una sola iteracin porque
es lineal y la extrapolacin lineal es vlida. ( ) x f
EJEMPLO 5.2 MINIMIZANDO UNA FUNCIN DE
MAYOR DIFICULTAD
En este ejemplo se minimizamos una funcin no cuadrtica
esta es ilustrada en la Fig. E5.2a, usando
los mismos tres mtodos como en el ejemplo 5.1. Empezando
con un punto de x = 3, minimizando hasta que el cambio
en x sea menor que 10
-7
. Se usa h = 0.1 para el mtodo de
quasi-Newton mtodo. Para el mtodo de la secante se usa
x
q
= 3 y x
p
= 3.
( ) 1
4
+ = x x x f
( ) x f
1 4 '
3
= x f
Solucin.
El mtodo de Newton. Por el mtodo de Newton
y y la secuencia de pasos sera:
2
12 ' ' x f =
36015 . 1
4454 . 48
4465 . 31
00926 . 2 x
009259 . 2
108
107
3
x 12
1 x 4
x x
2
0
2
0
3
0 1
= =
= =

=
1
2 3
-3
-2 -1 0
x
30
10
20
40
50
60
70
80
.
x
0

.
x
1

.
x
2
.
x
9

( ) 1
4
+ = x x x f
Figura E5.2 a
Iteraciones adicionales producen los siguientes valores de x
* k
* 1 k
x x
x x

+
k x
k

0 3.00000
1 2.009259 0.582
2 1.3601480 0.529
3 0.9518103 0.440
4 0.7265254 0.300
5 0.6422266 0.148
6 0.6301933 0.016
7 0.6299606 0.000
8 0.6299605
9 0.6299605
Se puede ver de la
tercera columna que
la velocidad de
convergencia del
mtodo de Newton
es sper lineal para
esta funcin.
Mtodo de Quasi-Newton. La ecuacin (5.8) para este
ejemplo es:
2
h
x x
k 1 k
=
+
( ) ( ) | |
( ) ( ) ( ) | | h x f x f h x f
h x f h x f
+ +
+
2 2
..(b)
Para el mismo problema como se uso en el mtodo de Newton,
la primera iteracin usando la ec. (b) para h = 10-4 es:
x
1
= 3-
( ) ( ) | |
( ) ( ) ( ) | | 9999 . 2 f 000 . 3 f 2 0001 . 3 f
9999 . 2 f 0001 . 3 f
2
10
4
+

(


Otros valores de h dan:
x
k

K h=0.10 h=10 h=10
-7

0 3.00000 2.00926 3.00000
1 2.00833 1.36015 2.211568
2 1.35816 0.951811 1.46785
3 0.948531 0.726526 0.955459
4 0.721882 0.642227 0.736528
5 0.636823 0.630193 0.642986
6 0.624849 0.629960 0.631846
7 0.624668 0.6299605191 0.630035
8 0.624669 ................. 0.629964
9 0.624669313 .................. 0.629961
10 ................. .................. 0.629961
11 .................. ................... 0.629960525
Para h = 10
-8
, el procedimiento se eleva despus de la segunda
iteracin
0
1 2 3 -1
-2
-3
0
20
40
60
80
100
-20
-40
-60
-80
-100
x
x
.
.
x
p

x
q

x
*
= 0.6229
EMBED
Equation.3
Primera secante
( ) x f '
( ) 1 4 '
3
= x x f
( ) x f
Figura E5.2b
Mtodo de la Secante. La aplicacin de la Ec. (5.10) produce
los siguientes resultados (ver Fig. E5.2b) Ntese como la
forma de indica que se necesitan un gran nmero de
iteraciones para alcanzar el x*. Algunos de los valores de
y x durante la bsqueda se muestran abajo; ntese que x
q

permanece inalterado o sin cambiar con el objeto de mantener
el rango con
( ) x f '
( ) x f '
( ) 0 ' > x f
K x
q
x
p
f(x
p
)
0 3.0 -3.0 -109.0000
1 3.0 0.0277778 -0.9991
2 3.0 0.055296 -0.9992
3 3.0 0.0825434 -0.9977
4 3.0 0.1094966 -0.9899
5 3.0 0.1361213 -0.9899
20 3.0 0.4593212 -0.6124
50 3.0 0.6223007 -0.0360
100 3.0 0.6299311 -1.399 x 10
-4

132 3.0 0.6299597 -3.952 x 10
-6

5.4 MTODOS DE ELIMINACION POR SEGMENTO O
INTERVALO
Los mtodos de la eliminacin por segmento o intervalo para
una bsqueda unidimensional hacen posible eliminar una porcin
calculada del rango de x de consideracin en cada fase
sucesiva de la bsqueda para un extremo de . Cuando el
subintervalo restante es suficientemente pequeo, la bsqueda
termina.
El elemento bsico de los mtodos de eliminacin de la regin
subyacentes es la comparacin de valores de a dos o ms
puntos dentro del rango de x. Debemos asumir que la es
unimodal y tiene un mnimo (es convexo) en a < x < b. La Figura
5.4 ilustra los tres resultados posibles para valores de si
dos puntos son seleccionados en el rango de a a b.
( ) x f
( ) x f
( ) x f
( ) x f
En la Fig. 5.4a, la regin a la izquierda de x
1
debe contener
valores de f (x) > f (x
1
) y por tanto pueden ser eliminados en
una consideracin ms amplia al buscar el mnimo de f (x).
Semejantemente, en Fig. 5.4c, a la derecha de x
2
, f (x) > f (x
2
)
y la regin puede ser eliminada. Si el caso de Fig.5.4b aparece,
y la funcin se comporta bien (suave), el ptimo debe quedar
entre los puntos x
1
y x
2
. En la prctica actual, el caso (b) es
altamente improbable, simplemente a causa del error redondeo
inherente en computadoras digitales. Sin embargo, podemos
dejar alguna tolerancia pequea para la igualdad de f (x
1
) y f
(x
2
) y retener este caso.
La localidad de la prueba apunta que x
1
y x
2
se deben escoger
para hacer el mtodo de bsqueda eficaz. Si se usa un espacio
igual, esto es.
x
1
a = b - x
2
= x
2
x
1
,

El mtodo de la bsqueda es llamado bsqueda del intervalo
de dos puntos iguales. En este mtodo el intervalo de
incertidumbre es reducido por un tercero en cada iteracin.
As, si L
0
es el intervalo original (b - a) y L
k
es el intervalo
despus de k iteraciones (aqu (2/ 3)
k
emplea k como un
exponente potencial)
Lk =
0
k
L
3
2
|
.
|

\
|
..(5.11)
Notar que se requieren por iteracin dos evaluaciones de la
funcin.
f(x)
a x
1
x
2
b
(a): f
1
> f
2
(b): f
1
= f
2
(c): f
1
< f
2

f(x) f(x)
x x x
a x
1
x
2
b a x
1
x
2
b
Figura 5.4 Tres resultados posibles por f (x) despus de
dividir el intervalo (a, b) por dos puntos x
1
y x
2
.
Un mtodo ms eficiente usa x
1
-a = b-x
2
, pero los puntos x
1
y
x
2
se localizan muy cercanos el uno al otro. Este mtodo es
llamado el mtodo de biseccin. Como los dos puntos x
1
y x
2

llegan a estar separados por una distancia infinitesimal,
podemos ver que el intervalo de incertidumbre despus de k
iteraciones se aproxima.
0
k
k
L
2
1
L
|
.
|

\
|
=
.. (5.12)
una mejora distinta para valores grandes de k [comparar Eqs.
(5.12) y (5.11) para k = 8. ]
Los mtodos ms eficientes de eliminacin de regiones, tales
como los mtodos de bsqueda de Fibonacci y Seccin dorada
(Reklaitis et al., 1983; Beveridge y Schechter, 1970) usan una
relacin constante para dividir el intervalo en segmentos. El
mtodo de la seccin dorada que se desarroll de los nmeros
de Fibonacci se discute aqu.
La estrategia empleada en la bsqueda de la seccin dorada
es localizar los dos puntos interiores para que el intervalo
eliminado en una iteracin sea de la misma proporcin que el
total de intervalos considerando la longitud del intervalo.
Adems, solo un punto nuevo es calculado en cada iteracin
(contra dos en igual-intervalo y biseccin). Cmo es
conveniente dividir el intervalo (b- a) de una lnea en dos
segmentos x y y, era conocido en tiempos antiguos como la
"seccin dorada." La relacin de la lnea entera al segmento
ms grande es la misma como la relacin del segmento ms
grande al ms pequeo (ver Fig. 5.5). La relacin de x a y es
computada como sigue. Por la seccin dorada se admite que el
intervalo entero sea x + y = 1, y y sea el subintervalo ms
grande.
Entonces 1 / y = y/x o 1/ (1-x)= (1-x)/ x.
Rearreglando da x
2
- 3x +1= 0 la cual tiene dos races.
)
`

=
382 . 0
618 . 2
2
5 3
x
De el cual slo 0,382 es significativo. As, se divide el intervalo
inicial de 1 en dos segmentos
618 . 0 F
2
5 3
1 y
382 . 0 F
2
5 3
x
B
s
~ =

=
~ =

=
Condicin:
x
y
y
y x
=
+
a b
x
y
y
Figura 5,5 Dos segmentos de lnea (x, y) comprendiendo la
seccin dorada.
L
k

a
k
x
1
k
x
2
k
b
k

a
k+1
x
1
k+1
x
2
k+1
b
k+1
x
L
k+1

f (x)
Figura 5,6 Seleccin de puntos interiores en la bsqueda de la
seccin dorada.
Para cualquier intervalo particular L
k
, aplica la fraccin F
s
y F
B
,
para calcular las distancias propias. Si a
k
y b
k
es los lmites
presentes del intervalo en la etapa k en la bsqueda, entonces
se localizan los dos puntos interiores en
k
s
k k
1
L F a x + =
y
k
B
k k
s
k k
2
L F b L F b x + = + =
En la figura. 5.6, nota que por lo tanto en el
siguiente paso a
k+1
= x
1
k
y b
k+1
= b
k
. El punto interior
izquierdo reemplaza a, y seleccionamos el punto
interior derecho como = b
k +1
-F
s
( bk+1

ak+1)
. Por lo tanto
y los puntos son equidistantes.
( ) ( )
k
2
k
1
x f x f >
1 k
1
x
+
k
2
x
1 k
2
x
+
1 k
2
1 k 1 k 1 k
1
x b a x
+ + + +
=
El subintervalo final despus de k iteraciones puede ser
determinado como
L
k
= (0.618)
k
L
0
El nmero de evaluaciones de la funcin es N+1 para N ensayos.
Esta eficacia es un poco inferior a la del mtodo de Fibonacci,
como es discutido por Beveridge y Schechter (1970). As que,
se puede pre - especificar el intervalo final de incertidumbre y
determinar el nmero necesario de puntos de prueba
requeridos en la bsqueda. Se debe sealar que esto, en la
prctica, la reduccin del intervalo de incertidumbre a algn
valor final arbitrario es significativamente menor que este que
se pone dentro del contexto del valor de la funcin objetivo.
Esto sera ms realista en el proceso iterativo para comparar
valores sucesivos de la funcin objetivo y determinar en que
punto no es significante la disminucin ( para minimizar) en la
funcin objetivo razonable.
Ejemplo 5,3 Aplicacin de la bsqueda de la seccin
dorada.
La funcin a ser minimizada es de nuevo = x2- x como se
ilustr en el Ejemplo 5,1 Fig. E5.1a. Use el mtodo de bsqueda
de la seccin dorada despus localizar el mnimo (x
0
= 3, Ax =
0.1)
Solucin. Primero, localizamos el mnimo iniciando en x
0
= 3 y
Ax
0
= 0.1. Por una prueba preliminar (o por inspeccin), la
bsqueda debe comenzar en la direccin negativa de x.
( ) x f
0 1 1
2 x x
k k
A =

Iteracin Valor F (x
k
)
Inicio x
0
3 6
1 x
0
- Ax
0
2.9 5.51
2 x
1
- 2Ax
0
2.7 4.59
3 x
2
- 4Ax
0
2.3 2.99
4 x
3
- 8Ax
0
1.5 0.75
5 x
4
- 16Ax
0
-0.1 0.11
6 x
5
- 32Ax
0
-3.3 14.19
Porque la funcin aumenta tanto entre x
5
y x
6
, podemos probar
un paso intermedio retrocediendo para x
6
en x = (0.1+ (3.3))/
2=- 1,7 para reducir el rango de x.
Iteracin a
k
b
k
L
k
X
1
k
X
2
k
f(x
1
k
) f(x
2
k
)
0 -1.7 1.5 3.2 -0.477708 0.277708 0.705912 -0.200586
1 -0.477708 1.5 1.977708 0.277708 0.744582 -0.200586 -0.190179
2 -0.477708 0.744582 1.222291 -0.010835 0.277708 0.010952 -0.200586
3 -0.010835 0.744582 0.755417 0.277708 0.456038 -0.200586 -0.248067
4 0.277708 0.744582 0.466873 0.456038 0.566252 -0.248067 -0.245610
5 0.277708 0.566252 0.288543 0.387922 0.456038 -0.237438 -0.248067
8 0.456039 0.524155 0.068119 0.482057 0.488137 -0.249678 -0.249997
11 0.491994 0.508074 0.016079 0.498136 0.501932 -0.249996 -0.249996
15 0.498136 0.500482 0.002346 0.499032 0.499586 -0.249999 -0.249999
-9
-8
-7
-6
-5
-4
-3
-2
-1
0
0 2 4 6 8 10 12 14 16
Nmero de Iteraciones, k
l
o
g
1
0

|
f
(
x
1
k
)

-

f
(
x
2
k
)
|
Figura E5.3
En x = 1.7 , = 4,59 as la localizacin es mantenida por dos
de los tres puntos a ser usados nuevamente.

x
1
0
=-1.7 x

y L
0
= 3.2. Varias etapas de la bsqueda se listan en la tabla
E5.3 (con slo seis lugares decimales). Aqu es usada
F
s
= 0.38197.

La figura E5.3 muestra cmo la distancia para el ptimo cambia
de iteracin a iteracin.
( ) x f
5 . 1
0
2
=
5.4.1 NUMEROS DE FIBONACCI.
Este mtodo es muy similar al de la Seccin Dorada pues se
basa en reducir una regin de bsqueda inicial tanto como sea
posible de tal forma que cualquier punto en la regin
remanente sea el ptimo (dentro de la exactitud ingenieril).

Este mtodo usa la serie de Fibonacci que se define de
acuerdo a la siguiente relacin:
1
1 0
= = F F
2 1
+ =
n n n
F F F
para n > 1


Los primeros trminos de esta serie estn dados en la
siguiente tabla:
n 0 1 2 3 4 5 6 7 8 9 10
F
n
1 1 2 3 5 8 13 21 34 55 89
El mtodo considera lo siguiente.

Dado el intervalo de L de x donde se supone que existe un
mnimo de y limitado por a y b, calcule una reduccin de
este intervalo por la siguiente ecuacin:
( ) x F
n
n
F
F
2
2

= A
Calcular con este intervalo los valores de x
1
y x
2
de la siguiente
manera
2 2
2 1
A =
A + =
b x
a x
( )
1
x f
( )
2
x f
Calcular y y observar cual mejora en la funcin
objetivo. Eliminar un intervalo de o segn sea el
caso.
El nuevo L se calcula de acuerdo a la siguiente expresin:
1
x a
b x
2
(

=
(


=
|
|
.
|

\
|
=
|
|
.
|

\
|
= A =

n
n
n
n n
n
n
n
n
F
F
L
F
F F
L
F
F
L
F
F
L L L L
1
1
2
1
2
1
2
1 1 2 1 2
1
|
|
.
|

\
|
=

n
n
F
F
L L
1
1 2
por analoga el nuevo incremento ser:
(

= A

1
3
2 3
n
n
F
F
L
Y el nuevo intervalo ser:
(

=
(


=
|
|
.
|

\
|
=
(

= A =

1
2
2
1
3 1
2
1
3
2
1
3
2 2 3 2 3
1
n
n
n
n n
n
n
n
n
F
F
L
F
F F
L
F
F
L
F
F
L L L L
|
|
.
|

\
|
=

n
n
F
F
L L
2
1 3
Generando:
|
|
.
|

\
|
=
n
n
F
F
L L
0
11
Es decir el ltimo intervalo se va a reducir del
intervalo original, o sea si seleccionamos se puede deducir
la exactitud de la bsqueda.
n
L
n
F
1
n
F
Ejemplo 5.4.1 NUMEROS DE FIBONACCI

Minimice la siguiente expresin para encontrar el ptimo.

( ) x x x f =
2
A partir de n = 10 50 0 s s x
n
0
0 1 2 3 4 5 6 7 8 9 10
F
n
1 1 2 3 5 8 13 21 34 55 89
10 . 19
89
34
50
2
1 2
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
9 . 30 10 . 19 50
10 . 19 10 . 19 0
2 2
2 1
= = A =
= + = A + =
b x
a x
( )
( ) 91 . 923
71 . 345
2
1
=
=
x f
x f
Como:
( ) ( )
2 1
x f x f <
90 . 30
89
55
50
1
1 2
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b =30.90
80 . 11
55
21
9 . 30
1
3
2 3
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
10 . 19 80 . 11 90 . 30
80 . 11 80 . 11 0
3 2
3 1
= = A =
= + = A + =
b x
a x
( )
( ) 71 . 345
44 . 127
2
1
=
=
x f
x f
10 . 19
89
34
50
2
1 3
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b = 19.10
30 . 7
34
13
10 . 19
2
4
31 4
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
8 . 11 30 . 7 10 . 19
30 . 7 30 . 7 0
4 2
4 1
= = A =
= + = A + =
b x
a x
( )
( ) 44 . 127
99 . 45
2
1
=
=
x f
x f
80 . 11
89
21
50
3
1 4
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b = 11.80
50 . 4
21
8
80 . 11
3
5
41 5
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
30 . 7 50 . 4 80 . 11
50 . 4 50 . 4 0
5 2
5 1
= = A =
= + = A + =
b x
a x
( )
( ) 99 . 45
75 . 15
2
1
=
=
x f
x f
3 . 7
89
13
50
4
1 5
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b = 7.3
81 . 2
13
5
3 . 7
4
6
5 6
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
49 . 4 81 . 2 3 . 7
81 . 2 81 . 2 0
6 2
6 1
= = A =
= + = A + =
b x
a x
( )
( ) 6701 . 15
0861 . 5
2
1
=
=
x f
x f
49 . 4
89
8
50
5
1 6
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b = 4.49
68 . 1
8
3
49 . 4
5
7
61 7
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
81 . 2 68 . 1 49 . 4
68 . 1 68 . 1 0
7 2
7 1
= = A =
= + = A + =
b x
a x
( )
( ) 0861 . 5
1424 . 1
2
1
=
=
x f
x f
81 . 2
89
5
50
6
1 7
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L Por lo tanto b = 2.81
12 . 1
5
2
81 . 2
6
8
7 8
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
69 . 1 12 . 1 81 . 2
12 . 1 12 . 1 0
8 2
8 1
= = A =
= + = A + =
b x
a x
( )
( ) 1661 . 1
1344 . 0
2
1
=
=
x f
x f
69 . 1
89
3
50
7
1 8
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b = 1.69
56 . 0
3
1
69 . 1
7
9
8 9
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
13 . 1 56 . 0 69 . 1
56 . 0 56 . 0 0
9 2
9 1
= = A =
= + = A + =
b x
a x
( )
( ) 15 . 0
25 . 0
2
1
=
=
x f
x f
123 . 1
89
2
50
8
1 9
=
|
.
|

\
|
=
|
|
.
|

\
|
=

n
n
F
F
L L
Por lo tanto b = 1.123
561 . 0
2
1
13 . 1
8
10
9 10
=
|
.
|

\
|
=
|
|
.
|

\
|
= A

n
n
F
F
L
56 . 0 561 . 0 123 . 1
561 . 0 561 . 0 0
10 2
10 1
= = A =
= + = A + =
b x
a x ( )
( ) 2464 . 0
2462 . 0
2
1
=
=
x f
x f
5,5 MTODOS DE APROXIMACION POLINOMIAL
Otra clase de mtodos de minimizacin unidimensional localiza
un punto x cercano a x*, el valor de la variable independiente
correspondiente al mnimo de por extrapolacin e
interpolacin usando aproximaciones polinomiales como modelos
de .Ambos aproximaciones cbicas y cuadrticas son
propuestas usando valores de la funcin nicamente, y usando
ambas funciones y valores derivativos. Coggins (1964) seal
que varias de las tcnicas que involucran el montaje de un
polinomio para seleccionar puntos era un poco ms eficaz en la
prctica en localizar el mnimo de con una especificada
precisin que la seccin dorada, y la experiencia ha
comprobado esta conclusin.
( ) x f
( ) x f
( ) x f
5.5.1 Interpolacin Cuadrtica

Comenzamos con tres puntos x
1
, x
2
, y x
3
en orden
creciente que puede o no ser igualmente espaciado, pero los
puntos extremos deben localizar el mnimo.
Para el anlisis en el Capitulo 2, sabemos que una funcin
cuadrtica.
( ) x f
= a + bx + cx
2
puede ser pasada exactamente a travs de
los tres puntos, y que la funcin puede ser diferenciada y el
derivativo fijado igual a 0 para obtener el mnimo de la
aproximacin de la funcin.
x* = -
c 2
b
.(5.13)
( ) x f
Suponga que es evaluado en x
1
, x
2
y x
3
para obtener f (x
1
)=
f
1
, f (x
2
) f
2
, y f (x
3
) f
3
. Los coeficientes b y c pueden ser
evaluados de la solucin de las tres ecuaciones lineales
f(x
1
)= a+bx
1
+cx21
f(x
2
)= a+bx
2
+cx22
f(x
3
)= a+bx
3
+cx23

va determinantes o lgebra matricial. La introduccin de b y
c expresado en trminos de x
1
, x
2
, x
3
, f
1
, y f
2
y f
3
en la Eq.
(5.13) da
( ) ( ) ( )
( ) ( ) ( )
(

+ +
+ +
=
3 2 1 2 1 3 1 3 2
3
2
2
2
1 2
2
1
2
3 1
2
3
2
2
*
f x x f x x f x x
f x x f x x f x x
2
1
x
.(5.14)
x
1
x
2
x
3
x
x x
2
x
3

Etapa 1
Etapa 2
f(x)
f
1

f
2
f
*




f
3

Figura 5,7 Dos etapas de interpolacin cuadrtica
x
1
x
2
x
3

x
f(x)
Ib
x
1
x
2
x
3

x
f(x)
Ia
Si esta entre x
2
y x
3
:
(a) f* < f
2
Escoger x
2
, , x
3

f* < f
3


(b) f* > f
2
Escoger x
1
, x
2
,
f* < f
3


(c) f* > f
2
Error numrico
f* > f
3

x
1
x
2
x
3

x
f(x)
IIa
x
1
x
2
x
3

x
f(x)
IIb
Si esta entre x
1
y x
2
:
(a) f* < f
2
Escoger x
1
, , x
2

f* < f
1


(b) f* > f
2
Escoger x
3
, x
2
,
f* < f
1


(c) f* > f
2
Error numrico
f* > f
1

Figura 5,8 Cmo mantener una localizacin del mnimo en
interpolacin cuadrtica
Para ilustrar la primera etapa en el procedimiento de bsqueda,
examine los cuatro puntos en la Fig. 5,7 para la etapa 1.
Queremos reducir el intervalo inicial (x
1
, x
3
). Examinando los
valores de asumiendo que es unimodal y tiene un
mnimo), podemos descartar el intervalo de x
1
a x
2
y usar la
regin (x
2
, x
3
) como el nuevo intervalo. El nuevo intervalo
contiene tres puntos, (x2, x*, x3) estos pueden ser
introducidos en la Eq. (5.14) para estimar una x
opt
, y as
sucesivamente.
( ) x f
( ) x f
En general, evala f (x*) y descarta del grupo{ x
1
, x
2
, x
3
} el
punto correspondiente al valor mas grande de f(x), menor que
la localizacin del mnimo de f(x) en cada caso usted descarta
la x que no mantenga la localizacin del mnimo. Las pruebas
especificas y muestras de x1 para mantener la localizacin son
mostradas en la Fig.5.8 ,f* = f (x*) , Si x* y cada valor de { x
1
,
x
2
, x
3
} corresponden a la mas pequea diferencia de f (x),
menor que la exactitud prescrita en x, o la exactitud fijada en
los valores correspondientes de f(x) es lograda, termina la
bsqueda. Nota que estas funciones son solamente evaluadas
para ser utilizadas en la bsqueda, y que solo una evaluacin de
la funcin nueva (para x*) se tiene que llevar a cabo en cada
nueva iteracin.

5.5.2 Interpolacin Cbica

La interpolacin cbica para encontrar el mnimo de
se basa en aproximar la funcin objetivo por un polinomio de
tercer grado en el intervalo de inters , y entonces determinar
el punto estacionario asociado al polinomio.
f(x) = a
1
x
3
+ a
2
x
2
+ a
3
x+ a
4
Se deben computar cuatro puntos (localizacin del
mnimo) para estimar el mnimo, cualquiera de los cuatro
valores de , o los valores de y el derivado de , en
cada dos puntos.
En el caso anterior se obtienen cuatro ecuaciones
lineales con los cuatro coeficientes deseados desconocidos.
Permitiendo que la matriz de X sea
( ) x f
( ) x f ( ) x f ( ) x f
(
(
(
(
(

=
1
1
1
1
4
2
4
3
4
3
2
3
3
3
2
2
2
3
2
1
2
1
3
1
x x x
x x x
x x x
x x x
X
| | ) x ( f ) x ( f ) x ( f ) x ( f
4 3 2 1
F
T
=
A
T
=
| |
4 3 2 1
a a a a
F = X A .(5.15)
Entonces el extremo de f (x) es obtenido configurando el
derivativo de f (x) igual a cero y resolviendo para x*
0 a x a 2 x a 3
dx
) x ( df
3 2
2
1
= + + =
Para que
1
3 1 2
*
a 6
a a 12
2
2
a 4 a 2
x

=

El signo usado antes de la raz cuadrada es gobernado por el


signo de la segunda derivada de f (x*), eso es, si se busca un
mnimo o mximo. El vector A puede ser computado para
XA = F

A = X-1 F
Despus el punto ptimo x* se predice, este es usado
como un punto nuevo en la prxima iteracin y el punto con el
ms alto [valor ms bajo de parar maximizacin] valor
de es descartado.
( ) x f ( ) x f
( ) x f
Si los primeros derivados de estn disponibles, slo son
necesarios dos puntos y la funcin cbica puede ser atacada
por las dos partes del la inclinacin y valores de la funcin.
Estas cuatro piezas de informacin pueden ser nicamente
relacionadas a los cuatro coeficientes en la ecuacin cbica,
que puede ser optimizada parar predecir el nuevo, punto
cercano al dato optimo. Si (x
1
, f
1
, f '
1
) y (x
2
, f
2
, f '
2
) estn
disponibles, entonces el ptimo x* (Fox, 1971) es:
) x x (
w 2 ' f ' f
z w ' f
x x
1 2
1 2
2
2
*

+
+
=

| | | |
| |
2
1
2 1
2
2 1 1 2 2 1
.
/ 3
f f z w
f f x x f f z donde
' '
=
'
+
'
+ =
..(5.18)
En un problema del minimizacin, se requiere que x
1
< x
2
, f
'1
< 0,
y f '
2
> 0 (x
1
y x
2
frenan el mnimo), Para el punto nuevo (x*),
calcular f ' (x) para determinar cual de los dos puntos previos
reemplazar. La aplicacin de este mtodo en algoritmos de la
programacin no lineal la cual usa gradientes de informacin es
efectiva.
Si la funcin a ser minimizada no es unimodal localmente, como
se ha asumido sea verdadero en la discusin anterior, se debe
adicionar una lgica extra a la codificacin de la bsqueda
unidimensional para asegurar que el tamao del paso
se ajuste al sitio del optimo local. Por ejemplo, la Figura 5,9
ilustra cmo un paso grande inicial puede llevar a una solucin
ilimitada a un problema cuando, de hecho, se busca un mnimo
local.
Mnimo
Local
Paso
corto
x
0

0 x
f(x)
A
B

x
1

x
2

Mnimo
Global
Figura 5.9 Una bsqueda unidimensional para un mnimo
local de una funcin objetivo multimodal que lleva a una
solucin infinita.
5.6 METODO DE DAVID-SWAN-CAMPEY (D-S-C)
8Ax
4Ax 2Ax A x
x
0
x
m-3
x
m-2
x
m-1
x
m+1
x
m
f (x)
El mtodo de la seccin dorada puede tener el inconveniente de
que el ptimo quede fuera del intervalo de bsqueda si este no
se selecciona adecuadamente.

Un mtodo alterno es el DSC que propone lo siguiente:

A partir de un punto inicial x
0
buscar en dos sentidos x
0
+ Ax
y x
0
- Ax para ver hacia donde mejora la funcin objetivo. El
incremento Ax debe seleccionarse de acuerdo a la magnitud de
x (1/100 podra ser apropiado). Habiendo localizado el sentido
hacia donde mejorar la funcin objetivo se puede ir
duplicando Ax y observar que f(x) sigue mejorando. Cuando se
llegue al punto donde la funcin objetivo dejo de mejorar
significa que el optimo se ha rebasado y entonces hay que
cambiar la secuencia de bsqueda.


La descripcin formal del mtodo DSC es como sigue:

1.- Evaluar f(x) en el punto inicial x
0
. Si f(x
0
+ Ax) < f(x
0
). ir al
paso 2
si f(x
0
+ Ax) > f(x
0
) cambiar Ax = -Ax e ir al paso 2.
2.- Calcular x
k+1
= x
k
+ Ax
3.- Calcular f(x
k+1
)
4.- Si f(x
k+1
) < f(x
k
) doble Ax y regresar al paso 2 y k = k+1 , si
f(x
k+1
) > f(x
k
) cambiar x
k+1
por x
m
, x
k
por x
m-1
, etc
Reducir Ax a la mitad y regresar al paso 2 y 3 para un clculo
ms.
5.- De los cuatro igualmente espaciados puntos en el conjunto
x
m+1
, x
m
, x
m+1
, x
m+2
, eliminar algunos de x
m
o x
m-2
el que este ms
alejado de la x con menor valor de f(x).
6.- Los ltimos tres puntos sean x
a
, x
b
, x
c
, donde x
b
es el punto
central y x
a
= x
b
- x y x
a
= x
b
+ Ax.
7.- Llevar a cabo la interpolacin cuadrtica dada por
)) x ( f ) x ( f ) x ( f (
)) x ( f ) x ( f ( * x
x * x
c b a
c a
b
+

+ =
2 2
8.- Este valor ltimo encontrado se usa como punto inicial y se
vuelve al paso 2 pero reduciendo Ax.
Los pasos anteriores se describen con ms detalle en la
figura5.6.1.
5.7COMO ES APLICADA LA BUSQUEDA
UNIDIMENSIONAL EN UN ROBLEMA
MULTIDIMENSIONAL
En la minimizacin de una funcin f (x) de varias variables, el
procedimiento general es (a) calcular una direccin de
bsqueda, y (b) reducir el valor de f (x) tomando uno o ms
pasos en esa direccin de bsqueda. El capitulo 6 describe en
detalle como seleccionar la direccin de bsqueda. Aqu
explicamos como seguir los pasos en la direccin de bsqueda
como una funcin de una sola variable, la longitud del paso .
Usualmente la ejecucin de ste seguimiento es llamado
bsqueda unidimensional o bsqueda en lnea.
Examine la figura. 5,10 en la cual se muestran contornos de
una funcin de dos variables:
5 x 2 x x x 2 x ) x ( f
1
2
2
2
1 2
4
1
+ + =
Suponiendo que el gradiente negativo de f (x),- Vf (x), es
seleccionado como la direccin de bsqueda iniciando en el
punto xT =[1 2].

El gradiente negativo es la direccin la cual maximiza la razn
de cambio de f (x) en movimiento hacia el mnimo. Queremos
movernos en esta direccin para calcular una nueva x

x
new
= x
old
+ s

Donde s es la direccin de bsqueda, un vector, y es un
escalar denotando la distancia movida a lo largo de la direccin
de bsqueda. Note s Ax, se toma el vector para el paso
(incluyendo ambos direccin y distancia).

La ejecucin de una bsqueda unidimensional involucra el
calculo de un valor de , y entonces siguiendo pasos en cada una
de las direcciones coordenadas como sigue:

En la direccin de x
1
: X
1new
= X1old + s
1
En la direccin de x
2
: X
2new
= X2old + s
2

Donde s
1
y s
s
son los dos componentes de s en las direcciones
x
1
y x
2
, respectivamente. La repeticin de este procedimiento
completa la bsqueda unidimensional.
Ejemplo 5.7 Ejecucin de una bsqueda unidimensional

Ilustramos dos etapas en la obtencin del mnimo, minimizando
la funcin de Fox (1971)
5 x 2 x x x x 2 x ) x ( f
1
2
1
2
2
2
1 2
4
1
+ + + =
En la direccin del gradiente negativo
| |
2
2
1 1 1 2
3
1
x 2 x 2 2 x 2 x x 4 x 4 ) x ( f + + = V
iniciando en x
T
= |1 2| donde f(x) = 5. Aqu

s = -Vf(1,2)= -
(

2
4
Iniciamos para llegar al mnimo tomando =0.05
2 . 1 ) 4 )( 05 . 0 ( x x
0
1
1
1
= + =
9 . 1 ) 2 )( 05 . 0 ( x x
0
1
1
1
= + =
(a)
.(b)
Pasos (a) y (b) consisten de un paso general en la direccin s
=|4 -2|
T
y producir Ax
T
= |0.2 -0.1|. En x
1
, f(1.2, 1.9) = 4.25,
una mejora.
Para el siguiente paso, nosotros permitimos
1
= 2 = 0.1, y
tomamos otro paso en la misma direccin:
6 . 1 ) 4 ( 1 . 0 x x
1
1
1
1
= + =
7 . 1 ) 2 ( 1 . 0 x x
1
2
2
2
= + =
| |
T
2 . 0 4 . 0
1
= Ax
A x
2
, f (1.6, 1.7) = 5.10, as que el mnimo de f (x) en direccin
s ha sido puesto entre corchetes. Examine Fig.5.10. El valor
optimo de a lo largo de la direccin de bsqueda puede ser
encontrado para = 0.04875 por uno de los mtodos
descritos en este captulo.
*
~

5.8 EVALUACIN DE MTODOSDE BSQUEDA


UNIDIMENSIONAL.
Unas codificaciones exigen casi la minimizacin exacta de una
funcin de varias variables por iteraciones sucesivas para
determinar el valor de la longitud del paso en la direccin de la
bsqueda escogida como se describe en el siguiente capitulo.
Otras codificaciones simplemente toman uno o unos pasos en la
direccin de la bsqueda, o en mas de una direccin, sin requisito
por exactitud solo se reduce f(x). Muchas evaluaciones
computacionales de grandes grupos de problemas de pruebas
muestran pequeas diferencias de cantidad de reduccin de
intervalos y algoritmos de Newton. Basados en selecciones hechas
por programas acadmicos, los mtodos de interpolacin
cuadrtica o cbica son favorecidos. Pero precaucin los cdigos
unidimensionales efectivos contienen muchas adiciones
heursticas no descritas en este capitulo acomodan extremos
mltiples, error de round-off, un alto grado de curvatura o no
curvatura esencialmente, y otras caractersticas indeseables de
funciones de variables sencillas encontradas en la practica.

You might also like