Page 420 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 420

396                     OPTIMIZACIÓN MULTIDIMENSIONAL NO RESTRINGIDA

                                      cuando se aproxima al óptimo. Por desgracia, el método también requiere la evaluación
                                      del hessiano y la inversión matricial en cada paso.
                                         Debe observarse que el método de Marquardt es, ante todo, útil para problemas no
                                      lineales de mínimos cuadrados. Por ejemplo, la biblioteca IMSL contiene una subrutina
                                      con este propósito.

                                      Métodos de cuasi-Newton.  Los métodos cuasi-Newton, o métodos de métrica va-
                                      riable, buscan estimar el camino directo hacia el óptimo en forma similar al método de
                                      Newton. Sin embargo, observe que la matriz hessiana en la ecuación (14.14) se compone
                                      de las segundas derivadas de f que varían en cada paso. Los métodos cuasi-Newton in-
                                      tentan evitar estas dificultades al aproximar H con otra matriz A, sólo las primeras de-
                                      rivadas parciales de f. El procedimiento consiste en comenzar con una aproximación
                                               –1
                                      inicial de H  y actualizarla y mejorarla en cada iteración. Estos métodos se llaman de
                                      cuasi-Newton porque no usan el hessiano verdadero, sino más bien una aproximación.
                                      Así, se tienen dos aproximaciones simultáneas: 1. la aproximación original de la serie
                                      de Taylor y 2. la aproximación del hessiano.
                                         Hay dos métodos principales de este tipo: los algoritmos de Davidon-Fletcher-Powell
                                      (DFP) y de Broyden-Fletcher-Goldfarb-Shanno (BFGS). Éstos son similares excepto en
                                      detalles concernientes a cómo manejan los errores de redondeo y su convergencia. BFGS
                                      es, por lo general, reconocido como superior en la mayoría de los casos. Rao (1996) pro-
                                      porciona detalles y declaraciones formales sobre ambos algoritmos, el DFP y el BFGS.


                     PROBLEMAS

              14.1  Repita el ejemplo 14.2 para la función siguiente, en el    b)   Haga una gráfica de los resultados del inciso a), en la que
              punto (0.8, 1.2).                                  se muestre la trayectoria de la búsqueda.
                                                              14.6  Encuentre el valor mínimo de
                                     2
                                         2
                 f(x, y) = 2xy + 1.5y – 1.25x  – 2y  + 5
                                                                             2
                                                                 ƒ(x, y) = (x – 3)  + (y – 2) 2
              14.2  Encuentre la derivada direccional de
                                                              comience con x = 1 y y = 1, utilice el método de descenso de
                            2
                        2
                 f(x, y) = x  + 2y
                                                              máxima inclinación con un criterio de detención de e s  = 1%.
              Si x = 2, y y = 2, en la dirección de h = 2i + 3j.  Explique sus resultados.
              14.3  Encuentre el vector gradiente y la matriz Hessiana para   14.7  Efectúe una iteración del método de ascenso de máxima
              cada una de las funciones siguientes:           inclinación para localizar el máximo de
                          2
               a) ƒ(x, y) = 3xy  + 2e xy                         f(x, y) = 4x + 2y + x  – 2x  + 2xy – 3y 2
                                                                                    4
                                                                                2
                           2
                              2
               b) ƒ(x, y, z) = 2x  + y  + z 2
                                   2
                           2
               c) ƒ(x, y) = ln(x  + 3xy + 2y )                con los valores iniciales de x = 0 y y = 0. Emplee  bisección para
                                                              encontrar el tamaño óptimo de paso en la dirección de búsqueda
              14.4 Dada                                       del gradiente.
                                       2
                 f(x, y) = 2.25xy + 1.75y – 1.5x  – 2y 2      14.8  Realice una iteración del método de descenso de máxima
                                                              inclinación del gradiente óptimo, para localizar el mínimo de
              Construya y resuelva un sistema de ecuaciones algebraicas li-  2        2
              neales que maximice f(x). Observe que esto se logra por medio   f(x, y) = –8x + x  + 12y + 4y  – 2xy
              de igualar a cero las derivadas parciales de f con respecto tan-  utilice valores iniciales de x = 0 y y = 0.
              to de x como de y.                              14.9  Con un lenguaje de programación o de macros, desarrolle un
              14.5                                            programa para implantar el método de búsqueda aleatoria. Diseñe
               a)   Comience con un valor inicial de x = 1 y y = 1, y realice dos   el subprograma de modo que esté diseñado en forma expresa para
                 aplicaciones del método de ascenso de máxima inclinación   localizar un máximo. Pruebe el programa con f(x, y) del problema
                 para f(x, y), como en el problema 14.4.      14.7. Utilice un rango de –2 a 2 tanto para x como para y.
                                                                                                         6/12/06   13:55:35
          Chapra-14.indd   396                                                                           6/12/06   13:55:35
          Chapra-14.indd   396
   415   416   417   418   419   420   421   422   423   424   425