Page 418 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 418

394                     OPTIMIZACIÓN MULTIDIMENSIONAL NO RESTRINGIDA

                                      perpendicular a la dirección original. Así, la técnica da muchos pasos pequeños cruzan-
                                      do la ruta directa hacia la cima. Por lo tanto, aunque es confiable, existen otros métodos
                                      que convergen mucho más rápido, particularmente en la vecindad de un valor óptimo.
                                      En el resto de la sección se examinan esos métodos.

                                      14.2.3  Métodos avanzados del gradiente

                                      Método de gradientes conjugados (Fletcher-Reeves).  En la sección 14.1.2, se ha
                                      visto cómo en el método de Powell las direcciones conjugadas mejoran mucho la efi-
                                      ciencia de la búsqueda univariada. De manera similar, se puede también mejorar el as-
                                      censo de máxima inclinación linealmente convergente usando gradientes conjugados.
                                      En efecto, se puede demostrar que un método de optimización, que usa gradientes con-
                                      jugados para definir la dirección de búsqueda, es cuadráticamente convergente. Esto
                                      también asegura que el método optimizará una función cuadrática exactamente en un
                                      número finito de pasos sin importar el punto de inicio. Puesto que la mayoría de las
                                      funciones que tienen buen comportamiento llegan a aproximarse en forma razonable
                                      bien mediante una función cuadrática en la vecindad de un óptimo, los métodos de
                                      convergencia cuadrática a menudo resultan muy eficientes cerca de un valor óptimo.
                                         Se ha visto cómo, empezando con dos direcciones de búsqueda arbitrarias, el méto-
                                      do de Powell produce nuevas direcciones de búsqueda conjugadas. Este método es cua-
                                      dráticamente convergente y no requiere la información del gradiente. Por otro lado, si la
                                      evaluación de las derivadas es práctica, se pueden buscar algoritmos que combinen las
                                      ideas del descenso de máxima inclinación con las direcciones conjugadas, para lograr un
                                      comportamiento inicial más sólido y de convergencia rápida conforme la técnica conduz-
                                      ca hacia el óptimo. El algoritmo del gradiente conjugado de Fletcher-Reeves modifica
                                      el método de ascenso de máxima inclinación al imponer la condición de que sucesivas
                                      direcciones de búsqueda del gradiente sean mutuamente conjugadas. La prueba y el al-
                                      goritmo están más allá del alcance del texto, pero se describen en Rao (1996).

                                      Método de Newton.  El método de Newton para una sola variable (recuerde la sección
                                      13.3) se puede extender a los casos multivariados. Escriba una serie de Taylor de segun-
                                      do orden para f(x) cerca de x = x ,
                                                                i
                                                                            T
                                                        T
                                          ƒ( )x  = ƒ()x i  + ∇ƒ ()(x i  x  − x  i ) +  1  (x  − x i  ) H i (x  − x i )
                                                                    2
                                      donde H i  es la matriz hessiana. En el mínimo,
                                          ∂ƒ()x
                                                           = ,, 2 …
                                               = 0   para  j 1   , n
                                           ∂x
                                             j
                                      Así,

                                         ∇f = ∇f(x ) + H (x – x ) = 0
                                                     i
                                                          i
                                                 i
                                      Si H es no singular,
                                                   –1
                                         x  = x  – H ∇f                                               (14.14)
                                          i+l
                                                   i
                                               i

                                                                                                         6/12/06   13:55:34
          Chapra-14.indd   394
          Chapra-14.indd   394                                                                           6/12/06   13:55:34
   413   414   415   416   417   418   419   420   421   422   423