Page 420 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 420
396 OPTIMIZACIÓN MULTIDIMENSIONAL NO RESTRINGIDA
cuando se aproxima al óptimo. Por desgracia, el método también requiere la evaluación
del hessiano y la inversión matricial en cada paso.
Debe observarse que el método de Marquardt es, ante todo, útil para problemas no
lineales de mínimos cuadrados. Por ejemplo, la biblioteca IMSL contiene una subrutina
con este propósito.
Métodos de cuasi-Newton. Los métodos cuasi-Newton, o métodos de métrica va-
riable, buscan estimar el camino directo hacia el óptimo en forma similar al método de
Newton. Sin embargo, observe que la matriz hessiana en la ecuación (14.14) se compone
de las segundas derivadas de f que varían en cada paso. Los métodos cuasi-Newton in-
tentan evitar estas dificultades al aproximar H con otra matriz A, sólo las primeras de-
rivadas parciales de f. El procedimiento consiste en comenzar con una aproximación
–1
inicial de H y actualizarla y mejorarla en cada iteración. Estos métodos se llaman de
cuasi-Newton porque no usan el hessiano verdadero, sino más bien una aproximación.
Así, se tienen dos aproximaciones simultáneas: 1. la aproximación original de la serie
de Taylor y 2. la aproximación del hessiano.
Hay dos métodos principales de este tipo: los algoritmos de Davidon-Fletcher-Powell
(DFP) y de Broyden-Fletcher-Goldfarb-Shanno (BFGS). Éstos son similares excepto en
detalles concernientes a cómo manejan los errores de redondeo y su convergencia. BFGS
es, por lo general, reconocido como superior en la mayoría de los casos. Rao (1996) pro-
porciona detalles y declaraciones formales sobre ambos algoritmos, el DFP y el BFGS.
PROBLEMAS
14.1 Repita el ejemplo 14.2 para la función siguiente, en el b) Haga una gráfica de los resultados del inciso a), en la que
punto (0.8, 1.2). se muestre la trayectoria de la búsqueda.
14.6 Encuentre el valor mínimo de
2
2
f(x, y) = 2xy + 1.5y – 1.25x – 2y + 5
2
ƒ(x, y) = (x – 3) + (y – 2) 2
14.2 Encuentre la derivada direccional de
comience con x = 1 y y = 1, utilice el método de descenso de
2
2
f(x, y) = x + 2y
máxima inclinación con un criterio de detención de e s = 1%.
Si x = 2, y y = 2, en la dirección de h = 2i + 3j. Explique sus resultados.
14.3 Encuentre el vector gradiente y la matriz Hessiana para 14.7 Efectúe una iteración del método de ascenso de máxima
cada una de las funciones siguientes: inclinación para localizar el máximo de
2
a) ƒ(x, y) = 3xy + 2e xy f(x, y) = 4x + 2y + x – 2x + 2xy – 3y 2
4
2
2
2
b) ƒ(x, y, z) = 2x + y + z 2
2
2
c) ƒ(x, y) = ln(x + 3xy + 2y ) con los valores iniciales de x = 0 y y = 0. Emplee bisección para
encontrar el tamaño óptimo de paso en la dirección de búsqueda
14.4 Dada del gradiente.
2
f(x, y) = 2.25xy + 1.75y – 1.5x – 2y 2 14.8 Realice una iteración del método de descenso de máxima
inclinación del gradiente óptimo, para localizar el mínimo de
Construya y resuelva un sistema de ecuaciones algebraicas li- 2 2
neales que maximice f(x). Observe que esto se logra por medio f(x, y) = –8x + x + 12y + 4y – 2xy
de igualar a cero las derivadas parciales de f con respecto tan- utilice valores iniciales de x = 0 y y = 0.
to de x como de y. 14.9 Con un lenguaje de programación o de macros, desarrolle un
14.5 programa para implantar el método de búsqueda aleatoria. Diseñe
a) Comience con un valor inicial de x = 1 y y = 1, y realice dos el subprograma de modo que esté diseñado en forma expresa para
aplicaciones del método de ascenso de máxima inclinación localizar un máximo. Pruebe el programa con f(x, y) del problema
para f(x, y), como en el problema 14.4. 14.7. Utilice un rango de –2 a 2 tanto para x como para y.
6/12/06 13:55:35
Chapra-14.indd 396 6/12/06 13:55:35
Chapra-14.indd 396

