Page 515 - Chapra y Canale. Metodos Numericos para Ingenieros 5edición_Neat
P. 515
17.4 MÍNIMOS CUADRADOS LINEALES EN GENERAL 491
El vector columna {A} contiene los coeficientes desconocidos
{A} = ⎣ a a · · · a ⎦
T
1
m
0
y el vector columna {E} contiene los residuos
{E} = ⎣ e e · · · e ⎦
T
n
2
1
Como se dio a lo largo de este capítulo, la suma de los cuadrados de los residuos en
este modelo se definen como
i ∑
r ∑
S = n ⎛ ⎜ y − m a z ⎞ 2
jji⎟
i=1 ⎝ j=0 ⎠
Esta cantidad se minimiza tomando las derivadas parciales con respecto a cada uno de
los coeficientes e igualando a cero la ecuación resultante. El resultado de este proceso
son las ecuaciones normales, que se expresan en forma matricial como
T
T
[[Z] [Z]]{A} = {[Z] {Y}} (17.25)
Es posible mostrar que la ecuación (17.25) es, de hecho, equivalente a las ecuaciones nor-
males desarrolladas antes para la regresión lineal simple, la polinomial y la múltiple.
Nuestra principal motivación para lo anterior fue ilustrar la unidad entre los tres
procedimientos y mostrar cómo se pueden expresar de manera simple en la misma no-
tación matricial. También sienta las bases para el estudio de la siguiente sección, donde
obtendremos un mejor conocimiento sobre las estrategias preferidas para resolver la
ecuación (17.25). La notación matricial también tendrá relevancia cuando volvamos a
la regresión no lineal en la última sección del presente capítulo.
17.4.2 Técnicas de solución
En los análisis anteriores en este capítulo tratamos el asunto de las técnicas numéricas
específicas para resolver las ecuaciones normales. Ahora que hemos establecido la uni-
dad de los diversos modelos, podemos explorar esta cuestión con mayor detalle.
Primero, deberá quedar claro que el método de Gauss-Seidel no puede utilizarse aquí
debido a que las ecuaciones normales no son diagonalmente dominantes. De esta manera,
nos quedan solamente los métodos de eliminación. Para los propósitos actuales, podemos
dividir esas técnicas en tres categorías: 1. métodos de descomposición LU, incluyendo
eliminación de Gauss, 2. método de Cholesky y 3. método de la matriz inversa. En efecto,
hay interrelaciones en esta clasificación. Por ejemplo, el método de Cholesky es, de hecho,
una descomposición LU, y todos los procedimientos se pueden formular de tal manera que
generen la matriz inversa. Sin embargo, el mérito de esta clasificación es que cada catego-
ría ofrece ventajas respecto a la solución de ecuaciones normales.
Descomposición LU. Si usted está interesado sólo en aplicar un ajuste por mínimos
cuadrados en un caso donde el modelo adecuado se conoce de antemano, cualquiera de
los procedimientos de descomposición LU, descritos en el capítulo 9, son perfectamen-
6/12/06 13:57:18
Chapra-17.indd 491 6/12/06 13:57:18
Chapra-17.indd 491

