Page 515 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 515

17.4  MÍNIMOS CUADRADOS LINEALES EN GENERAL                      491

                                         El vector columna {A} contiene los coeficientes desconocidos
                                            {A}  = ⎣ a   a   · · ·  a ⎦
                                               T
                                                        1
                                                                m
                                                    0
                                         y el vector columna {E} contiene los residuos
                                            {E}  = ⎣ e   e   · · ·  e ⎦
                                               T
                                                                n
                                                        2
                                                    1
                                            Como se dio a lo largo de este capítulo, la suma de los cuadrados de los residuos en
                                         este modelo se definen como
                                                      i ∑
                                             r ∑
                                             S =  n  ⎛ ⎜ y −  m  a z  ⎞  2
                                                             jji⎟
                                                 i=1  ⎝  j=0   ⎠
                                         Esta cantidad se minimiza tomando las derivadas parciales con respecto a cada uno de
                                         los coeficientes e igualando a cero la ecuación resultante. El resultado de este proceso
                                         son las ecuaciones normales, que se expresan en forma matricial como
                                               T
                                                            T
                                            [[Z] [Z]]{A} = {[Z] {Y}}                                     (17.25)
                                         Es posible mostrar que la ecuación (17.25) es, de hecho, equivalente a las ecuaciones nor-
                                         males desarrolladas antes para la regresión lineal simple, la polinomial y la múltiple.
                                            Nuestra principal motivación para lo anterior fue ilustrar la unidad entre los tres
                                         procedimientos y mostrar cómo se pueden expresar de manera simple en la misma no-
                                         tación matricial. También sienta las bases para el estudio de la siguiente sección, donde
                                         obtendremos un mejor conocimiento sobre las estrategias preferidas para resolver la
                                         ecuación (17.25). La notación matricial también tendrá relevancia cuando volvamos a
                                         la regresión no lineal en la última sección del presente capítulo.


                                         17.4.2  Técnicas de solución

                                         En los análisis anteriores en este capítulo tratamos el asunto de las técnicas numéricas
                                         específicas para resolver las ecuaciones normales. Ahora que hemos establecido la uni-
                                         dad de los diversos modelos, podemos explorar esta cuestión con mayor detalle.
                                            Primero, deberá quedar claro que el método de Gauss-Seidel no puede utilizarse aquí
                                         debido a que las ecuaciones normales no son diagonalmente dominantes. De esta manera,
                                         nos quedan solamente los métodos de eliminación. Para los propósitos actuales, podemos
                                         dividir esas técnicas en tres categorías: 1. métodos de descomposición LU, incluyendo
                                         eliminación de Gauss, 2. método de Cholesky y 3. método de la matriz inversa. En efecto,
                                         hay interrelaciones en esta clasificación. Por ejemplo, el método de Cholesky es, de hecho,
                                         una descomposición LU, y todos los procedimientos se pueden formular de tal manera que
                                         generen la matriz inversa. Sin embargo, el mérito de esta clasificación es que cada catego-
                                         ría ofrece ventajas respecto a la solución de ecuaciones normales.

                                         Descomposición LU.  Si usted está interesado sólo en aplicar un ajuste por mínimos
                                         cuadrados en un caso donde el modelo adecuado se conoce de antemano, cualquiera de
                                         los procedimientos de descomposición LU, descritos en el capítulo 9, son perfectamen-





                                                                                                         6/12/06   13:57:18
          Chapra-17.indd   491                                                                           6/12/06   13:57:18
          Chapra-17.indd   491
   510   511   512   513   514   515   516   517   518   519   520