Page 418 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 418
394 OPTIMIZACIÓN MULTIDIMENSIONAL NO RESTRINGIDA
perpendicular a la dirección original. Así, la técnica da muchos pasos pequeños cruzan-
do la ruta directa hacia la cima. Por lo tanto, aunque es confiable, existen otros métodos
que convergen mucho más rápido, particularmente en la vecindad de un valor óptimo.
En el resto de la sección se examinan esos métodos.
14.2.3 Métodos avanzados del gradiente
Método de gradientes conjugados (Fletcher-Reeves). En la sección 14.1.2, se ha
visto cómo en el método de Powell las direcciones conjugadas mejoran mucho la efi-
ciencia de la búsqueda univariada. De manera similar, se puede también mejorar el as-
censo de máxima inclinación linealmente convergente usando gradientes conjugados.
En efecto, se puede demostrar que un método de optimización, que usa gradientes con-
jugados para definir la dirección de búsqueda, es cuadráticamente convergente. Esto
también asegura que el método optimizará una función cuadrática exactamente en un
número finito de pasos sin importar el punto de inicio. Puesto que la mayoría de las
funciones que tienen buen comportamiento llegan a aproximarse en forma razonable
bien mediante una función cuadrática en la vecindad de un óptimo, los métodos de
convergencia cuadrática a menudo resultan muy eficientes cerca de un valor óptimo.
Se ha visto cómo, empezando con dos direcciones de búsqueda arbitrarias, el méto-
do de Powell produce nuevas direcciones de búsqueda conjugadas. Este método es cua-
dráticamente convergente y no requiere la información del gradiente. Por otro lado, si la
evaluación de las derivadas es práctica, se pueden buscar algoritmos que combinen las
ideas del descenso de máxima inclinación con las direcciones conjugadas, para lograr un
comportamiento inicial más sólido y de convergencia rápida conforme la técnica conduz-
ca hacia el óptimo. El algoritmo del gradiente conjugado de Fletcher-Reeves modifica
el método de ascenso de máxima inclinación al imponer la condición de que sucesivas
direcciones de búsqueda del gradiente sean mutuamente conjugadas. La prueba y el al-
goritmo están más allá del alcance del texto, pero se describen en Rao (1996).
Método de Newton. El método de Newton para una sola variable (recuerde la sección
13.3) se puede extender a los casos multivariados. Escriba una serie de Taylor de segun-
do orden para f(x) cerca de x = x ,
i
T
T
ƒ( )x = ƒ()x i + ∇ƒ ()(x i x − x i ) + 1 (x − x i ) H i (x − x i )
2
donde H i es la matriz hessiana. En el mínimo,
∂ƒ()x
= ,, 2 …
= 0 para j 1 , n
∂x
j
Así,
∇f = ∇f(x ) + H (x – x ) = 0
i
i
i
Si H es no singular,
–1
x = x – H ∇f (14.14)
i+l
i
i
6/12/06 13:55:34
Chapra-14.indd 394
Chapra-14.indd 394 6/12/06 13:55:34

