Page 516 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 516

492                     REGRESIÓN POR MÍNIMOS CUADRADOS

                                      te aceptables. De hecho, también es posible emplear la formulación de la descomposi-
                                      ción LU de la eliminación de Gauss. Ésta es una tarea de programación relativamente
                                      sencilla para incorporar cualquiera de estos procedimientos en un algoritmo de mínimos
                                      cuadrados lineales. En realidad, si se ha seguido un enfoque modular, esto resulta casi
                                      trivial.

                                      Método de Cholesky.  El algoritmo de descomposición de Cholesky tiene varias
                                      ventajas para la solución del problema general de regresión lineal. Primero, está expre-
                                      samente diseñado para resolver matrices simétricas como las ecuaciones normales. Así
                                      que es rápido y se requiere de menos espacio de almacenamiento para resolver tales
                                      sistemas. Segundo, es ideal en casos donde el grado del modelo [es decir, el valor de m
                                      en la ecuación (17.23)] no se conoce de antemano (véase Ralston y Rabinowitz, 1978).
                                      Uno de estos casos sería la regresión polinomial. En ella, no podemos saber a priori si
                                      un polinomio lineal, cuadrático, cúbico o de grado superior es el “mejor” modelo para
                                      describir nuestros datos. Debido tanto a la forma en la que se construyen las ecuaciones
                                      normales como a la manera en la que se lleva a cabo el algoritmo de Cholesky (figura
                                      11.3), podemos desarrollar modelos sucesivos de grado superior de manera muy eficien-
                                      te. En cada paso es factible examinar la suma residual de los cuadrados del error (¡y una
                                      gráfica!), para examinar si la inclusión de términos de grado superior mejora el ajuste
                                      de manera significativa.
                                         En la regresión lineal múltiple la situación análoga se presenta cuando se agregan,
                                      una por una, variables independientes al modelo. Suponga que la variable dependiente
                                      de interés es función de varias variables independientes; por ejemplo, temperatura,
                                      contenido de humedad, presión, etc. Primero realizaríamos una regresión lineal con la
                                      temperatura y calcularíamos un error residual. En seguida, se podría incluir el conteni-
                                      do de humedad para llevar a cabo una regresión múltiple de dos variables y observar si
                                      la variable adicional resulta en una mejora del ajuste. El método de Cholesky vuelve
                                      eficiente el proceso, ya que la descomposición del modelo lineal tan sólo se completará
                                      al incorporar una nueva variable.

                                      Método de la matriz inversa.  De la ecuación (PT3.6), recuerde que la matriz inver-
                                      sa se emplea para resolver la ecuación (17.25), como se muestra a continuación:
                                                     –1
                                                  T
                                                           T
                                         {A} = [[Z] [Z]]  {[Z] {Y}}                                   (17.26)
                                      Cada uno de los métodos de eliminación se puede utilizar para determinar la inversa y,
                                      así, servir para implementar la ecuación (17.26). Sin embargo, como aprendimos en la
                                      parte tres, éste es un método ineficiente para resolver un conjunto de ecuaciones simul-
                                      táneas. Así, si estuviéramos solamente interesados en determinar los coeficientes de
                                      regresión, sería preferible utilizar el método de descomposición LU sin inversión. No
                                      obstante, desde una perspectiva estadística, existen varias razones por las cuales esta-
                                      ríamos interesados en obtener la inversa y examinar sus coeficientes. Tales razones se
                                      analizarán más adelante.

                                      17.4.3  Aspectos estadísticos de la teoría de mínimos cuadrados

                                      En la sección PT5.2.1, revisamos diversos estadísticos descriptivos que se utilizan para
                                      describir una muestra. Éstos son: la media aritmética, la desviación estándar y la varianza.





                                                                                                         6/12/06   13:57:19
          Chapra-17.indd   492
          Chapra-17.indd   492                                                                           6/12/06   13:57:19
   511   512   513   514   515   516   517   518   519   520   521