You are on page 1of 5

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA


MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA,
CIENCIA Y TECNOLOGÍA
UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA
ARMADA NACIONAL BOLIVARIANA
VICERRECTORADO ACADÉMICO
COORDINACIÓN DE EXTENSIÓN

Métodos de optimización
(Sin restricciones)
Trabajo #4

Nombre: IsamarSanchez
CI: V-20.513.393

Guacara, Noviembre del 2018


Método del gradiente

El método del gradiente (conocido también como método de Cauchy o del descenso más
pronunciado) consiste en un algoritmo específico para la resolución de modelos de PNL sin
restricciones, perteneciente a la categoría de algoritmos generales de descenso, donde la
búsqueda de un mínimo está asociada a la resolución secuencial de una serie de problemas
unidimensionales.

Método de Newton

En análisis numérico, el método de Newton (conocido también como el método de


Newton-Raphson o el método de Newton-Fourier) es un algoritmo para encontrar
aproximaciones de los ceros o raíces de una función real. También puede ser usado para
encontrar el máximo o mínimo de una función, encontrando los ceros de su primera
derivada.
El método de Newton-Raphson es un método abierto, en el sentido de que no está
garantizada su convergencia global. La única manera de alcanzar la convergencia es
seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de
comenzar la iteración con un valor razonablemente cercano al cero (denominado punto de
arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho
de la naturaleza de la propia función; si ésta presenta múltiples puntos de inflexión o
pendientes grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo
diverja aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una vez
que se ha hecho esto, el método linealiza la función por la recta tangente en ese valor
supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor
aproximaciónón de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta
que el método haya convergido lo suficiente.
Métodos de direcciones conjugadas

El propósito de esta familia de métodos es mejorar la tasa de convergencia del método


de des-censo más rápido, sin incurrir en la sobrecarga computacional del método de
Newton. Los métodos de direcciones conjugadas resuelven problemas en un máximo de n
iteraciones

Método de gradiente conjugado

En matemática, el método del gradiente conjugado es un algoritmo para resolver


numéricamente los sistemas de ecuaciones lineales cuyas matrices
son simétricas y definidas positivas. Es un método iterativo, así que se puede aplicar a los
sistemas dispersos que son demasiado grandes para ser tratados por métodos directos como
la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve
numéricamente las ecuaciones en derivadas parciales.

El método del gradiente conjugado se puede utilizar también para resolver los problemas
de optimización sin restricciones como la minimización de la energía.

Una de las propiedades más importantes del método de gradiente es suhabilidad de generar
direcciones conjugadas de una manera muy económica.La importancia de las direcciones
conjugadas radica en el hecho de quepodemos minimizar

φ(·) en n pasos por la sucesiva

Minimización a lo largo de direcciones individuales en un conjunto conjugado

Método de la Métrica Variable

Existe una gran similitud entre los esfuerzos actuales por mejorar los métodos de métrica
variable y aquellos que buscan mejorar los métodos de gradiente conjugado. Por tanto,
mucho de lo descrito en métodos de gradiente conjugado aplica también para los métodos
de métrica variable. Davidon (1975) ha propuesto una clase de actualizaciones que
permiten búsquedas lineales inexactas. Powell (1977) estableció posteriormente la
propiedad determinación cuadrática de estos métodos en la ausencia de búsquedas lineales.
Pareciera ser que un método de métrica variable con terminación cuadrática pero sin la
necesidad de búsquedas lineales costosas seria robusto y rápido en funciones generales.
Goldfarb(1977) se cuenta entre los que han explorado esta promisoria línea de
investigación.

Método de Davidon-Fletcher-Powel

En general, el método de Davidon-Fletcher-Powell suele reinicializarse (es decir,hacemos


A = I) después de N actualizaciones. Esto es usualmente una medida muy conservadora, ya
que pueden requerirse muchos más pasos antes de que realmente se requiera una re
inicialización. La necesidad de reinicializar se incrementa conforme empeora el valor de
condicionamiento de la matriz: Donde K(A) es el número de condicionamiento de la matriz
son los valores de mayor y menor modulo, respectivamente. Una matriz con un valor de
condicionamiento grande está mal condicionada. Una matriz con un valor de
condicionamiento cercano a 1 está bien condicionada. Es importante hacer notar que
aunque las re inicializaciones proporcionan un cierto grado de seguridad (o robustez) en los
métodos de métrica variable, estas típicamente hacen más lento el progreso a la solución,
puesto que se desecha una estimación de segundo orden.

Algoritmo de causi newton

En cada iteración del método de Newton es necesario calcular la inversa de la matriz


hessiana de f en xk de manera exacta, lo que es costoso computacionalmente, O(n3)
operaciones aritméticas. Por esto razon, se propone un método iterativo de la forma:
donde Sk es una matriz que aproxima a £ ∇2f(xk) ¤−1 y t k ≥ 0 minimiza f sobre xk − λgk
para λ ≥ 0 (paso exacto o aproximado). Se presentarán 2 métodos que permiten construir
iterativamente la matriz Sk de manera que se verifiquen las siguientes condiciones: i)
Definida Positiva: Si Sk es definida positiva =⇒ Sk+1 también lo es ii) Aproximación de la
matriz hessiana inversa de f: xk −→ x , Sk −→ £ ∇2f(x) ¤−1 para k −→ ∞. La forma de
construir estos métodos asegura: • Convergencia Global • Rapidez de convergencia mayor
que lineal • Convergencia a un mínimo loca

You might also like