Page 516 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 516
492 REGRESIÓN POR MÍNIMOS CUADRADOS
te aceptables. De hecho, también es posible emplear la formulación de la descomposi-
ción LU de la eliminación de Gauss. Ésta es una tarea de programación relativamente
sencilla para incorporar cualquiera de estos procedimientos en un algoritmo de mínimos
cuadrados lineales. En realidad, si se ha seguido un enfoque modular, esto resulta casi
trivial.
Método de Cholesky. El algoritmo de descomposición de Cholesky tiene varias
ventajas para la solución del problema general de regresión lineal. Primero, está expre-
samente diseñado para resolver matrices simétricas como las ecuaciones normales. Así
que es rápido y se requiere de menos espacio de almacenamiento para resolver tales
sistemas. Segundo, es ideal en casos donde el grado del modelo [es decir, el valor de m
en la ecuación (17.23)] no se conoce de antemano (véase Ralston y Rabinowitz, 1978).
Uno de estos casos sería la regresión polinomial. En ella, no podemos saber a priori si
un polinomio lineal, cuadrático, cúbico o de grado superior es el “mejor” modelo para
describir nuestros datos. Debido tanto a la forma en la que se construyen las ecuaciones
normales como a la manera en la que se lleva a cabo el algoritmo de Cholesky (figura
11.3), podemos desarrollar modelos sucesivos de grado superior de manera muy eficien-
te. En cada paso es factible examinar la suma residual de los cuadrados del error (¡y una
gráfica!), para examinar si la inclusión de términos de grado superior mejora el ajuste
de manera significativa.
En la regresión lineal múltiple la situación análoga se presenta cuando se agregan,
una por una, variables independientes al modelo. Suponga que la variable dependiente
de interés es función de varias variables independientes; por ejemplo, temperatura,
contenido de humedad, presión, etc. Primero realizaríamos una regresión lineal con la
temperatura y calcularíamos un error residual. En seguida, se podría incluir el conteni-
do de humedad para llevar a cabo una regresión múltiple de dos variables y observar si
la variable adicional resulta en una mejora del ajuste. El método de Cholesky vuelve
eficiente el proceso, ya que la descomposición del modelo lineal tan sólo se completará
al incorporar una nueva variable.
Método de la matriz inversa. De la ecuación (PT3.6), recuerde que la matriz inver-
sa se emplea para resolver la ecuación (17.25), como se muestra a continuación:
–1
T
T
{A} = [[Z] [Z]] {[Z] {Y}} (17.26)
Cada uno de los métodos de eliminación se puede utilizar para determinar la inversa y,
así, servir para implementar la ecuación (17.26). Sin embargo, como aprendimos en la
parte tres, éste es un método ineficiente para resolver un conjunto de ecuaciones simul-
táneas. Así, si estuviéramos solamente interesados en determinar los coeficientes de
regresión, sería preferible utilizar el método de descomposición LU sin inversión. No
obstante, desde una perspectiva estadística, existen varias razones por las cuales esta-
ríamos interesados en obtener la inversa y examinar sus coeficientes. Tales razones se
analizarán más adelante.
17.4.3 Aspectos estadísticos de la teoría de mínimos cuadrados
En la sección PT5.2.1, revisamos diversos estadísticos descriptivos que se utilizan para
describir una muestra. Éstos son: la media aritmética, la desviación estándar y la varianza.
6/12/06 13:57:19
Chapra-17.indd 492
Chapra-17.indd 492 6/12/06 13:57:19

