Experiments s

Universidad Central de Venezuela Facultad de Agronomía W1 FRANI¿LIN CHACIN CONTENIDO CAPITULO 1.- OBJETIVOS Y FUNDA

Views 130 Downloads 3 File size 27MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Universidad Central de Venezuela Facultad de Agronomía

W1

FRANI¿LIN

CHACIN

CONTENIDO CAPITULO 1.- OBJETIVOS Y FUNDAMENTOS DE LA METODOLOGIA DE SUPERFICIES DE RESPUESTA (MSR) Introducción Fundamentos de la MSR Codificación de las variables controladas o regresoras Objetivos de la MSR Supuestos de la MSR

1 7 8 9 10

CAPITULO 2.- INTRODUCCION AL ALGEBRA DE MATRICES Introducción 11 Matriz- Conceptos y Definiciones 11 Matrices Iguales 12 Traza de una Matriz 13 Matriz Traspuesta 13 Operaciones con Matrices 14 Suma y Resta de Matrices 14 Producto de una Matriz por un Escalar 15 Producto de Vectores 16 Producto de Matrices 17 Tipos de Matrices : 18 Matriz Nula 18 Matriz Identidad 18 Matriz Diagonal. 19 Matriz Inversa 19 Determinantes 19 Matriz Inversa 22 Independencia Lineal de vectores 23 Rango de una Matriz 23 Matriz ortogonal.: 24 Raíces y Vectores Característicos 24 Forma Cuadrática Real 27 Tipos de Formas Cuadráticas 29 Diferenciación usando Matrices 31 Reglas de Derivación 32

Uso de Notación Matricial para Medias y Varianzas de Vectores Aleatorios 33 Matriz de Varianza-Covarianza 33 Algunas reglas para encontrar Medias y Varianzas 34 Fórmula de Taylor 35 Fórmula de Taylor para una Variable con remanente 35 Campo Escalar y Campo Vectorial ···········37 Bolas Abiertas ·· ············ 37 Gradiente de un Campo Escalar 37 Continuidad para Campos Escalares 38 Polínomío de Taylor en R · ·..·..·..·38 Fórmula de Taylor de 2° orden para campos Escalares. Teorema 38 Ejercicios de Aplicación · ·..· ·····..·..· 43 CAPITULO 3.- MODELO DE DISEÑO EXPERIMENTAL .45 Definición A ·.·· ..··· 47 Estimación puntual ·..· ·..······· .. 49 Definición B · 50 Teorema. Funciones estimables ·· ·.. 52 Clon C , ...52 D e finici Inversa generalizada , : 57 Algoritmo para el cálculo de la inversa generalizada 59 Inversa generalizada de Moore- Penrose Y condicional 61 Inversa de Moore-Penrose (Am) 61 Inversa condicional (Ac) 64 Matriz X'X ··..· · ··..··· 65 CAPITULO 4.- ANALISIS DE REGRESION Modelo de regresión lineal múltiple Descripción de los datos y del modelo Supuestos del modelo poblacional Métodos de los mínimos cuadrados Prueba de hipótesis en el Modelo de Regresión Estimador de cr2 Análisis de Residuales Gráficos total de residuales Secuencia gráfica del tiempo



Gráficos contra Gráficos contra las variables independientes Otros Gráficos de residuales

·..·

·

71 71 73 75 76 81 83 85 86 87 89 91 ·.. 92

Autocorrelación 93 Definición 93 Tipos de auto correlación 94 Consecuencia de la autocorrelación 94 Detección de la autocorrelación 95 Prueba de Durbin-Watson 95 Prueba de las Rachas 97 Uso de transformaciones para corregir Autocorrelación .98 Multicolinealidad 100 Selección de variables en la ecuación de regresión múltiple 101 Modelo de regresión 102 Consecuencias de la eliminación de variables 103 Efectos de la especificación incorrecta del modelo sobre la estimación 107 Consideraciones importantes 109 Usos de la ecuación de regresión 109 Descripción y construcción de modelos 109 Estimación y predicción 110 Control 110 Criterios para seleccionar Ecuaciones de Regresión 111 Coeficiente de Determinación Múltiple R2 113 Coeficiente de Determinación Múltiple ajustado 114 . Cuadrado Medio de Residuales CMEp 116 Uso del Estadístico Cp de Mallows 118 Interpretación Gráfica del Cp 124 Métodos de Selección de Variables 125 Todas las Regresiones Posibles 126 Procedimientos de Selección de Variables por Pasos (Forward, Backward, Stepwise) 129 Ventajas del uso de la distribución F 132 Desventajas 132 Pasos prácticos para la utilización del Método de Selección Progresiva 133 Ventajas 135 Desventajas 135 Selección Regresiva, eliminación hacia atrás (Backward) 136 Pasos prácticos del procedimiento 136 Ventajas 136 Desventajas 136 Selección paso a paso (Stepwise) 137 Procedimientos básico 137

Uso de Notación Matricial para Medias y Varianzas de Vectores Aleatorios 33 Matriz de Varianza-Covarianza 33 Algunas reglas para encontrar Medias y Varianzas 34 Fórmula de Taylor 35 Fórmula de Taylor para una Variable con remanente 35 Campo Escalar y Campo Vectorial ···········37 Bolas Abiertas ·· ············ 37 Gradiente de un Campo Escalar 37 Continuidad para Campos Escalares 38 Polínomío de Taylor en R · ·..·..·..·38 Fórmula de Taylor de 2° orden para campos Escalares. Teorema 38 Ejercicios de Aplicación · ·..· ·····..·..· 43 CAPITULO 3.- MODELO DE DISEÑO EXPERIMENTAL .45 Definición A ·.·· ..··· 47 Estimación puntual ·..· ·..······· .. 49 Definición B · 50 Teorema. Funciones estimables ·· ·.. 52 Clon C , ...52 D e finici Inversa generalizada , : 57 Algoritmo para el cálculo de la inversa generalizada 59 Inversa generalizada de Moore- Penrose Y condicional 61 Inversa de Moore-Penrose (Am) 61 Inversa condicional (Ac) 64 Matriz X'X ··..· · ··..··· 65 CAPITULO 4.- ANALISIS DE REGRESION Modelo de regresión lineal múltiple Descripción de los datos y del modelo Supuestos del modelo poblacional Métodos de los mínimos cuadrados Prueba de hipótesis en el Modelo de Regresión Estimador de cr2 Análisis de Residuales Gráficos total de residuales Secuencia gráfica del tiempo



Gráficos contra Gráficos contra las variables independientes Otros Gráficos de residuales

·..·

·

71 71 73 75 76 81 83 85 86 87 89 91 ·.. 92

Autocorrelación 93 Definición 93 Tipos de auto correlación 94 Consecuencia de la autocorrelación 94 Detección de la autocorrelación 95 Prueba de Durbin-Watson 95 Prueba de las Rachas 97 Uso de transformaciones para corregir Autocorrelación .98 Multicolinealidad 100 Selección de variables en la ecuación de regresión múltiple 101 Modelo de regresión 102 Consecuencias de la eliminación de variables 103 Efectos de la especificación incorrecta del modelo sobre la estimación 107 Consideraciones importantes 109 Usos de la ecuación de regresión 109 Descripción y construcción de modelos 109 Estimación y predicción 110 Control 110 Criterios para seleccionar Ecuaciones de Regresión 111 Coeficiente de Determinación Múltiple R2 113 Coeficiente de Determinación Múltiple ajustado 114 . Cuadrado Medio de Residuales CMEp 116 Uso del Estadístico Cp de Mallows 118 Interpretación Gráfica del Cp 124 Métodos de Selección de Variables 125 Todas las Regresiones Posibles 126 Procedimientos de Selección de Variables por Pasos (Forward, Backward, Stepwise) 129 Ventajas del uso de la distribución F 132 Desventajas 132 Pasos prácticos para la utilización del Método de Selección Progresiva 133 Ventajas 135 Desventajas 135 Selección Regresiva, eliminación hacia atrás (Backward) 136 Pasos prácticos del procedimiento 136 Ventajas 136 Desventajas 136 Selección paso a paso (Stepwise) 137 Procedimientos básico 137

Método del máximo coeficiente de determinación (Máximo R2) 137 Método de mínimo coeficiente de determinación 138 Procesamiento electrónico 138 138 Vana. bl es D ummy o falsas (ti ••••••••••••.•••••••••••••••.••••• 13: Uso de variables falsas en regresión múltiple Variables falsas en un grupo de datos 13 Validación de modelos de regresión :141 Procesamiento usados para validar modelos de Regresión : 142 Chequeo de las predicciones Y coeficientes del modelo 143 Recolección de datos nuevos 144Comparación de los resultados con la teoría y datos simulados 144 Validación cruzada 145 . (Out lier) Valores atipicos er y resridua 1es ..146 Outliers: Definición 14 6 147 Métodos gráficos para detectar outliers Procedimiento estadísticos para detectar outliers 149 Definición de residual · · 151 Tipos de residuales 156 Estadísticos utilizados para el análisis de residuales 158 . . d d .. , Criterios e eclslon . 162 162 Ejemplo ilustrativo del análisis de residuales , . trucci Modelos matemáticos y su cons ruccion . 164 Planificación del proceso de construcción de modelos 165 Definición del problema 165 Accesibilidad de las variables 166 Matnz. de corre Iaci ación . 166 Establecimiento de metas 166 Desarrollo del modelo matemático 167 Recolección de datos ··..·..· ·..·167 Validación del modelo matemático 167 Técnicas de validación 167 Falta de ajustes sistemáticos 172 Mantenimiento del modelo 172 Polinomios ortogonales 173 Modelo supuesto cuando utilizamos polinomios ortogonales 173

Determinación de los polinomios Ejemplo ilustrativo del uso de los polinomios ortogonales en regresión. . Ejemplo ilustrativo. Construcción de un modelo de predicción del rendimiento del cultivo de soya. .. CAPITULO 5.- DETERMINACION DE LAS CONDICIONES OPTIMAS DE OPERACIÓN Análisis de la Superficie Fijada Análisis Canónico Interpretación del Sistema Ejemplo Ilustrativo Análisis de Aristas o Cordilleras Sistema de Lomas Métodos utilizados para estudiar Superficies de Respuesta y determinar condiciones óptimas de operación Método del factor único Ejemplo Ilustrativo Método del Ascenso más pronunciado o Pendiente en ascenso Fundamentación teórica Ejemplo Ilustrativo Método del experimento único Selección al azar de puntos de prueba Comparación de los métodos Método secuencial sugerido por el autor para Experimentos agrícolas y otros campos de la ciencia Ejemplo Ilustrativo Referencias Bibliográficas

176 177 180

209 210 215 219 221 225 227 229 230 232 237 237 243 254 254 255

257 260 269

j

1

Método del máximo coeficiente de determinación (Máximo R2) 137 Método de mínimo coeficiente de determinación 138 Procesamiento electrónico 138 138 Vana. bl es D ummy o falsas (ti ••••••••••••.•••••••••••••••.••••• 13: Uso de variables falsas en regresión múltiple Variables falsas en un grupo de datos 13 Validación de modelos de regresión :141 Procesamiento usados para validar modelos de Regresión : 142 Chequeo de las predicciones Y coeficientes del modelo 143 Recolección de datos nuevos 144Comparación de los resultados con la teoría y datos simulados 144 Validación cruzada 145 . (Out lier) Valores atipicos er y resridua 1es ..146 Outliers: Definición 14 6 147 Métodos gráficos para detectar outliers Procedimiento estadísticos para detectar outliers 149 Definición de residual · · 151 Tipos de residuales 156 Estadísticos utilizados para el análisis de residuales 158 . . d d .. , Criterios e eclslon . 162 162 Ejemplo ilustrativo del análisis de residuales , . trucci Modelos matemáticos y su cons ruccion . 164 Planificación del proceso de construcción de modelos 165 Definición del problema 165 Accesibilidad de las variables 166 Matnz. de corre Iaci ación . 166 Establecimiento de metas 166 Desarrollo del modelo matemático 167 Recolección de datos ··..·..· ·..·167 Validación del modelo matemático 167 Técnicas de validación 167 Falta de ajustes sistemáticos 172 Mantenimiento del modelo 172 Polinomios ortogonales 173 Modelo supuesto cuando utilizamos polinomios ortogonales 173

Determinación de los polinomios Ejemplo ilustrativo del uso de los polinomios ortogonales en regresión. . Ejemplo ilustrativo. Construcción de un modelo de predicción del rendimiento del cultivo de soya. .. CAPITULO 5.- DETERMINACION DE LAS CONDICIONES OPTIMAS DE OPERACIÓN Análisis de la Superficie Fijada Análisis Canónico Interpretación del Sistema Ejemplo Ilustrativo Análisis de Aristas o Cordilleras Sistema de Lomas Métodos utilizados para estudiar Superficies de Respuesta y determinar condiciones óptimas de operación Método del factor único Ejemplo Ilustrativo Método del Ascenso más pronunciado o Pendiente en ascenso Fundamentación teórica Ejemplo Ilustrativo Método del experimento único Selección al azar de puntos de prueba Comparación de los métodos Método secuencial sugerido por el autor para Experimentos agrícolas y otros campos de la ciencia Ejemplo Ilustrativo Referencias Bibliográficas

176 177 180

209 210 215 219 221 225 227 229 230 232 237 237 243 254 254 255

257 260 269

j

1

PROLOGO

El presente texto es una contribución del autor al conocun.iento de la Teoría y Aplicaciones de la Metodología de la Superficie de Respuesta. Basado en los conocimientos impartidos en asignaturas que dicta el autor a nivel del Postgrado de Estadística, en los últimos 10 años. Fundamentalmente los cursos: Análisis de Regresión, Diseño y Análisis de Experimentos 1 y Il y Metodología de la Superficie de Respuesta. Los estudiantes han ayudado mucho para poder adquirir los conocimientos, incluso algunos de los ejercicios ilustrativos, han sido gracias a su colaboración. También el libro refleja los Métodos de Superficies de Respuesta que han sido útiles al autor en su práctica profesional, como investigador y consultor en el área de Estadística para muchos profesionales en Venezuela. Este libro "Análisis de Regresión y Superficies de Respuesta", puede ser útil para los investigadores y docentes con conocimientos del Diseño y Análisis de Experimentos, Teoría Estadística y Análjsis de Regresión y para el primer curso de Postgrado en el área de Superficies de Respuesta y Análisis de Regresión. Se presentan algunos ejemplos prácticos ilustrativos que ayudan a la compresión de los-aspectos teóricos.

Franklin. Chacín

Capítulo 1

DEFINICION, OBJETIVOS Y FUNDAMENTOS DE LA METODOLOGIA DE SUPERFICIES DE RESPUESTA

INTRODUCCION

La Metodología de Superficies de Respuesta tal como lo refiere Box y Hunter (1957), Myers (1971) y Martínez (1988), es un conjunto de métodos y procesamientos estadísticos y matemáticos, utilizados por los investigadores para resolver ciertos tipos de problemas científicos, procesos industriales y de ingeniería. Su mayor aplicación ha sido en el área industrial, química y agrícola. En esta última área tiene un futuro inmenso, por la situación particular de que es parte de la ciencia fáctica. En la experimentación agrícola generalmente una o varias respuestas están influenciadas por una gran cantidad de variables regresoras. Por supuesto, la metodología debe considerar las características propias en este campo incluyendo una mayor variabilidad y complejidad que en el campo industrial; es por eso, que es necesario introducir cambios evidentes en los procedimientos para la estimación válida y reducción del error experimental. La variable' respuesta se mide normalmente en una escala continua e indudablemente representa la función de mayor importancia en la metodología, lo cual no descarta la posibilidad de

Chacín I Análisis de Regresión y Superficies de Respuesta

2

Chacín I Análisis de Regresión y Superficies de Res'puesta

estudiar varias respuestas. El procesamiento incluye las variables independientes o regresoras las cuales producen posibles efectos sobre las respuestas y está sujeta al control del investigador, por consiguiente, son variables experimentales o de tratamiento, manipuladas por el investigador. La Metodología de Superficies de Respuesta contiene o envuelve estrategias experimentales, métodos matemáticos e inferencias estadísticas, las cuales al ser adecuadamente combinadas, capacitan al investigador para realizar una eficiente exploración empírica del sistema bajo estudio. Box y Wilson (1951), introdujeron las ideas originales de la Metodología de Superficies de Respuesta (MSR), y ha ido extendiéndose principalmente a través de Box, Wilson, Hunter, Draper y otros, y que han sido muy bien resumidas en Myers (1971), las publicaciones de Box y sus asociados, Wilson, Hunter, Draper, y otros, constituyen las más poderosas fuentes de ideas en la investigación de superficies de respuesta. Box y Wilson (1951), discuten los diseños experimentales, con el fin de encontrar, usando el menor número posible de tratamientos, el punto en el cual se obtiene la máxima respuesta. Estos autores, comparan algunos diseños experimentales e introducen el concepto de diseños compuestos por primera vez. Se refieren también al uso del Método del Ascenso más pronunciado en la búsqueda de la región estacionaria alrededor del óptimo. Box y Wilson confieren principal importancia a los problemas de estimación de condiciones óptimas en la investigación química pero expresan la esperanza de que el método sea de gran valor en otros campos donde la experimentación sea secuencial, y los errores pequeños, la más fructífera aplicación de los métodos de Box y Wilson, ha sido en el campo de la química y en la ingeniería química, donde los diseños experimentales y la técnica del ascenso más pronunciado han sido usados. Los biometrístas en la bioquímica y en las ciencias farmacológicas han usado y desarrollado el método del ascenso más pronunciado. En contraste, las ideas de este método no se han utilizado en agricultura; y esto es obvio, ya que se sabe que en investigación agrícola, específicamente en experimentación de campo, los errores son relativamente grandes, no cónsono s con los supuestos de la experimentación secuencial; no obstante, muchos de los diseños desarrollados tienen sus raíces en los primeros diseños propuestos por Box y Wilson.

3

El supuesto principal del trabajo de Box y Wilson, se refiere a qu~ la respue~ta obtenida puede ser aproximada por un polinomio de bajo ~rd~n. Diferentes diseños experimentales son luego comparados en .termmos de la Matriz Varianza-Covarianza de los parámetros estimados. Las ideas de Box y Wilson fueron extendidas y discutidas adici?nalmente por Box (1954), Box y Youle (1955); en esos trabajos se refería .que aunque ~a experimentación fuera bajo un proceso secue~cIal, se tendría que definir claramente los períodos ex~erlmentales durante los cuales, los procesos industriales estarían sujetos a experimentación completa. Los principales desarrollos de interés general de los trabajos de Box y. sus colaboradores, fueron en la parte referente a los diseños experimentales donde Box y Wilson, sugieren el uso de los diseños comp~~stos. ~ox y Hunter (1957), introducen el concepto de la r~ta~illdad; sin embargo uno de los trabajos más importantes en diseños .de superfici~ de respuestas es el de Box y Draper (1959), donde .dlscuten las difer~ntes ~azones para elegir un diseño con el que posteriormente puedan investigar una "Superficie de Respuesta". Las raz.ones., mcluy.en desde el simple interés en la superficie, la e~tlI~ac~on ~ficlente de ~os parámetros de un modelo, hasta posible discriminaciones entre diferentes ecuaciones. Una de las más importantes y útiles investigaciones de la escuela de Box a partir de los modelos polínomiales, es la que hacen Box y Lucas (1959), ellos consideraron la fijación de una función ge~~ral que envuelve "k" variables y "k" parámetros; el criterio ut~zado para la selección de un diseño, es la minimización de la varianza generalizada de los parámetros estimados. .. Ex:,cuanto al estímulo que ha proveído la escuela de Box, en la U~iliz~cI.onde estos métodos, se puede expresar que en el campo blOmetn~o ~e han usado los nuevos métodos y, en particular los nuevos diseños, aunque no con la intensidad prevista. En cuanto a las líneas de investigación estadísticas de la MSR se P~dr~a en P~imer término hacer referencia a la aproximació~ estocástica, las ld~as originales aparecen en trabajos de Robbins y ~?x:ro (1951) y Kiefe: ~ Wolfowitz (1952, 1959 y 1960), donde se tili~an reglas de optimizar en la presencia de errores; éstas fueron referidas por Box y Wilson y parecen aplicables a problemas prácticos

Chacín I Análisis de Regresión y Superficies de Respuesta

2

Chacín I Análisis de Regresión y Superficies de Res'puesta

estudiar varias respuestas. El procesamiento incluye las variables independientes o regresoras las cuales producen posibles efectos sobre las respuestas y está sujeta al control del investigador, por consiguiente, son variables experimentales o de tratamiento, manipuladas por el investigador. La Metodología de Superficies de Respuesta contiene o envuelve estrategias experimentales, métodos matemáticos e inferencias estadísticas, las cuales al ser adecuadamente combinadas, capacitan al investigador para realizar una eficiente exploración empírica del sistema bajo estudio. Box y Wilson (1951), introdujeron las ideas originales de la Metodología de Superficies de Respuesta (MSR), y ha ido extendiéndose principalmente a través de Box, Wilson, Hunter, Draper y otros, y que han sido muy bien resumidas en Myers (1971), las publicaciones de Box y sus asociados, Wilson, Hunter, Draper, y otros, constituyen las más poderosas fuentes de ideas en la investigación de superficies de respuesta. Box y Wilson (1951), discuten los diseños experimentales, con el fin de encontrar, usando el menor número posible de tratamientos, el punto en el cual se obtiene la máxima respuesta. Estos autores, comparan algunos diseños experimentales e introducen el concepto de diseños compuestos por primera vez. Se refieren también al uso del Método del Ascenso más pronunciado en la búsqueda de la región estacionaria alrededor del óptimo. Box y Wilson confieren principal importancia a los problemas de estimación de condiciones óptimas en la investigación química pero expresan la esperanza de que el método sea de gran valor en otros campos donde la experimentación sea secuencial, y los errores pequeños, la más fructífera aplicación de los métodos de Box y Wilson, ha sido en el campo de la química y en la ingeniería química, donde los diseños experimentales y la técnica del ascenso más pronunciado han sido usados. Los biometrístas en la bioquímica y en las ciencias farmacológicas han usado y desarrollado el método del ascenso más pronunciado. En contraste, las ideas de este método no se han utilizado en agricultura; y esto es obvio, ya que se sabe que en investigación agrícola, específicamente en experimentación de campo, los errores son relativamente grandes, no cónsono s con los supuestos de la experimentación secuencial; no obstante, muchos de los diseños desarrollados tienen sus raíces en los primeros diseños propuestos por Box y Wilson.

3

El supuesto principal del trabajo de Box y Wilson, se refiere a qu~ la respue~ta obtenida puede ser aproximada por un polinomio de bajo ~rd~n. Diferentes diseños experimentales son luego comparados en .termmos de la Matriz Varianza-Covarianza de los parámetros estimados. Las ideas de Box y Wilson fueron extendidas y discutidas adici?nalmente por Box (1954), Box y Youle (1955); en esos trabajos se refería .que aunque ~a experimentación fuera bajo un proceso secue~cIal, se tendría que definir claramente los períodos ex~erlmentales durante los cuales, los procesos industriales estarían sujetos a experimentación completa. Los principales desarrollos de interés general de los trabajos de Box y. sus colaboradores, fueron en la parte referente a los diseños experimentales donde Box y Wilson, sugieren el uso de los diseños comp~~stos. ~ox y Hunter (1957), introducen el concepto de la r~ta~illdad; sin embargo uno de los trabajos más importantes en diseños .de superfici~ de respuestas es el de Box y Draper (1959), donde .dlscuten las difer~ntes ~azones para elegir un diseño con el que posteriormente puedan investigar una "Superficie de Respuesta". Las raz.ones., mcluy.en desde el simple interés en la superficie, la e~tlI~ac~on ~ficlente de ~os parámetros de un modelo, hasta posible discriminaciones entre diferentes ecuaciones. Una de las más importantes y útiles investigaciones de la escuela de Box a partir de los modelos polínomiales, es la que hacen Box y Lucas (1959), ellos consideraron la fijación de una función ge~~ral que envuelve "k" variables y "k" parámetros; el criterio ut~zado para la selección de un diseño, es la minimización de la varianza generalizada de los parámetros estimados. .. Ex:,cuanto al estímulo que ha proveído la escuela de Box, en la U~iliz~cI.onde estos métodos, se puede expresar que en el campo blOmetn~o ~e han usado los nuevos métodos y, en particular los nuevos diseños, aunque no con la intensidad prevista. En cuanto a las líneas de investigación estadísticas de la MSR se P~dr~a en P~imer término hacer referencia a la aproximació~ estocástica, las ld~as originales aparecen en trabajos de Robbins y ~?x:ro (1951) y Kiefe: ~ Wolfowitz (1952, 1959 y 1960), donde se tili~an reglas de optimizar en la presencia de errores; éstas fueron referidas por Box y Wilson y parecen aplicables a problemas prácticos

4

ChacínI Análisisde Regresióny Superficiesde Respuesta

ChacínI Análisisde RegresiónYSuperficiesde Respuesta

.. .. n esta área desde de la MSR. Kiefer realizó vanas mvestlgaclOneS e 1958 al 1962.

1 investigaciones teóricas sobre as Tam ien bilí t· D arrollo s postediferentes formas de convergenc!~~o!~o~e: ~:¡ocá:~icas no contririores. en lo que se refiere ~ a~e la metodología de superficies de bié

se realizaron

~~::~~~ta~ ~:o lí~~::~:r;r;ctica dedinvesti~a~iÓnt'eSMlaucr~!:re:ete l~! ., d urvas e crecimien o. análisis y compa~aclOn e e d bid s a Rao (1958, 1959, 1965), el trabajos en esta area fueron ~ 1 a, multivariada basada en la . . d ' una aproxlmaclon investiga or genero ., li ios ortogonales Y fijación inicial de coeficientes de ~egreslOnde pOf·nomt de regresión. álisi e inferenclas de esos coe icien es subsecuentes ana SlS f .'n de respuesta es Como en otras investigaciones en MSR, la uncio li . de bajo asumida y sería adecuadamente descrita po~ ~n 1PO(l~~~r Y Elston orden; otros trabajos son los de Elston y rizz e (1964). Otros aspectos teóricos desarrollados son l.os referentes .a dla Ki ~ WOlfOWltzen una serie e teoría estadística, propuesta por eder y 11 h sido inevitabletrabaios entre 1958 Y 1962. Otros esarro os an . _ ment~ extensiones. de previas investigaciones en el diseño de .ex~,e. t tales como la forma de las superficies de respuesta, fijación rimen os, b . , d d tos de curvas de respuesta y el campo general de o tencion e a .

l

Nuevas áreas de especial valía son tratadas por ~sc~mbe Y el desarrollo de ~eto os el Tuk ey, (1963) sobre residuales '1 lí .t d gradlentes en e minimización de funciones sin el ca1cu o exp Cl o e 1965) cual los trabajos más importantes son los de Powell. (1~64, ctu~ Nelder y Mead (1965). Todos estos trabajos, ~an contnbUldo al a h Los trabaj os postenores a estas etapas an desarro 11o de· la MSR . .. al t al hecho énfasis en modelos no lineales, debido ~rmcIp men e desarrollo de la computación electrónica ..qu.e,ha sido un factor muy importante en la elección de métodos de fi)aCl0n Los procedimientos han sido desarrollados en todos ~os camt~s discutidos anteriormente, pero hasta el presente. no ha sido post t e encontrar una nueva área de investigación teó~lca en ~ste a.spe~óo~ Muchos de los trabajos recientes son trabajOS de .mvestlgacl aplicada en áreas específicas, los que han intr.oduc~do.conceptos nuevos. Nelder (1966) introdujo aportes sobre polinomios mv~~~ ~ funciones de respuestas, Herzberg (1966), propiedades de rota .1 1 a cilíndrica en algunos diseños de superficie de respuesta.' At~son y Hunter (1968), diseños de experimentos para la estlmaclOn de

5

los parámetros de modelos no lineales, Box (1971), sesgamiento en estimaciones no lineales, y Boyd (1972), en desarrollo de curvas de respuesta en estudios de fertilidad de suelos. También en los últimos años se ha producido un buen número de revisiones tales como la de Hill y Hunter (1966), sobre la metodología de superficies de respuesta, sin entrar a ·las definiciones referidas con anterioridad por otros autores, Box y Draper (1959) describen la práctica de MSR y su filosofía; Wasan (1969), hace una revisión bibliográfica de aproximación estocástica; Herzberh y Cox (1969) dan una revisión bibliográfica de recientes trabajos en diseños de . experimentos con áreas específicamente concernientes a exploración de superficie de respuesta; Villasmil, Casanova y Timm (1972), presentan un trabajo sobre replicación del diseño rotable central compuesto en un ensayo de fertilización con el pasto guinea, en el que presentan el análisis estadístico del rotable replicado; Federer y Balaam (1973) dan una revisión de diseños experimentales hasta al año 1968. Bliss (1970), discute el uso de funciones de respuesta con un magnífico rango de ejemplos; Finney (1964, 1965), da una revisión de ensayos biológicos. Sprent (1969), discute con algún detalle el uso de funciones de respuesta en el análisis de curvas de crecimiento. Willey y Heath (1969), revisan métodos de fijación de curvas que muestran las relaciones entre poblaciones de plantas y rendimiento. En el campo biométrico, la evidencia indica que la MSR se ha utilizado poco hasta el momento. En el campo agronómico se ha venido evidenciando un aumento progresivo en su uso, debido a los estudios cada vez mayores de varios factores en conjunto, Se han desarrollado inclusive varios diseños, tal es el caso de los diseños San Cristóbal (Rojas, 1962), específicamente para ser utilizados en investigación con fertilizantes, partiendo de la premisa principal de incluir un tratamiento testigo. Rojas (1962), presenta una descripción y discusión de la eficiencia del diseño San Cristóbal considerando necesario el establecimiento de una relación matemática entre el rendimiento y los nutrimentos agregados al suelo. Expresa en su trabajo que el San Cristóbal presenta una "región de exploración mayor que la de un factorial completo 33"; aumentando su eficiencia cuando el número de repeticiones es mayor o igual a 2. Explican que los diseños rotables generados en la investigación química industrial no cumplen con ciertos requisitos agronómicos como el de no incluir un tratamiento testigo, al compararlo con el factorial 33 establece que este diseño provee información sobre interacciones que no interesan.

4

ChacínI Análisisde Regresióny Superficiesde Respuesta

ChacínI Análisisde RegresiónYSuperficiesde Respuesta

.. .. n esta área desde de la MSR. Kiefer realizó vanas mvestlgaclOneS e 1958 al 1962.

1 investigaciones teóricas sobre as Tam ien bilí t· D arrollo s postediferentes formas de convergenc!~~o!~o~e: ~:¡ocá:~icas no contririores. en lo que se refiere ~ a~e la metodología de superficies de bié

se realizaron

~~::~~~ta~ ~:o lí~~::~:r;r;ctica dedinvesti~a~iÓnt'eSMlaucr~!:re:ete l~! ., d urvas e crecimien o. análisis y compa~aclOn e e d bid s a Rao (1958, 1959, 1965), el trabajos en esta area fueron ~ 1 a, multivariada basada en la . . d ' una aproxlmaclon investiga or genero ., li ios ortogonales Y fijación inicial de coeficientes de ~egreslOnde pOf·nomt de regresión. álisi e inferenclas de esos coe icien es subsecuentes ana SlS f .'n de respuesta es Como en otras investigaciones en MSR, la uncio li . de bajo asumida y sería adecuadamente descrita po~ ~n 1PO(l~~~r Y Elston orden; otros trabajos son los de Elston y rizz e (1964). Otros aspectos teóricos desarrollados son l.os referentes .a dla Ki ~ WOlfOWltzen una serie e teoría estadística, propuesta por eder y 11 h sido inevitabletrabaios entre 1958 Y 1962. Otros esarro os an . _ ment~ extensiones. de previas investigaciones en el diseño de .ex~,e. t tales como la forma de las superficies de respuesta, fijación rimen os, b . , d d tos de curvas de respuesta y el campo general de o tencion e a .

l

Nuevas áreas de especial valía son tratadas por ~sc~mbe Y el desarrollo de ~eto os el Tuk ey, (1963) sobre residuales '1 lí .t d gradlentes en e minimización de funciones sin el ca1cu o exp Cl o e 1965) cual los trabajos más importantes son los de Powell. (1~64, ctu~ Nelder y Mead (1965). Todos estos trabajos, ~an contnbUldo al a h Los trabaj os postenores a estas etapas an desarro 11o de· la MSR . .. al t al hecho énfasis en modelos no lineales, debido ~rmcIp men e desarrollo de la computación electrónica ..qu.e,ha sido un factor muy importante en la elección de métodos de fi)aCl0n Los procedimientos han sido desarrollados en todos ~os camt~s discutidos anteriormente, pero hasta el presente. no ha sido post t e encontrar una nueva área de investigación teó~lca en ~ste a.spe~óo~ Muchos de los trabajos recientes son trabajOS de .mvestlgacl aplicada en áreas específicas, los que han intr.oduc~do.conceptos nuevos. Nelder (1966) introdujo aportes sobre polinomios mv~~~ ~ funciones de respuestas, Herzberg (1966), propiedades de rota .1 1 a cilíndrica en algunos diseños de superficie de respuesta.' At~son y Hunter (1968), diseños de experimentos para la estlmaclOn de

5

los parámetros de modelos no lineales, Box (1971), sesgamiento en estimaciones no lineales, y Boyd (1972), en desarrollo de curvas de respuesta en estudios de fertilidad de suelos. También en los últimos años se ha producido un buen número de revisiones tales como la de Hill y Hunter (1966), sobre la metodología de superficies de respuesta, sin entrar a ·las definiciones referidas con anterioridad por otros autores, Box y Draper (1959) describen la práctica de MSR y su filosofía; Wasan (1969), hace una revisión bibliográfica de aproximación estocástica; Herzberh y Cox (1969) dan una revisión bibliográfica de recientes trabajos en diseños de . experimentos con áreas específicamente concernientes a exploración de superficie de respuesta; Villasmil, Casanova y Timm (1972), presentan un trabajo sobre replicación del diseño rotable central compuesto en un ensayo de fertilización con el pasto guinea, en el que presentan el análisis estadístico del rotable replicado; Federer y Balaam (1973) dan una revisión de diseños experimentales hasta al año 1968. Bliss (1970), discute el uso de funciones de respuesta con un magnífico rango de ejemplos; Finney (1964, 1965), da una revisión de ensayos biológicos. Sprent (1969), discute con algún detalle el uso de funciones de respuesta en el análisis de curvas de crecimiento. Willey y Heath (1969), revisan métodos de fijación de curvas que muestran las relaciones entre poblaciones de plantas y rendimiento. En el campo biométrico, la evidencia indica que la MSR se ha utilizado poco hasta el momento. En el campo agronómico se ha venido evidenciando un aumento progresivo en su uso, debido a los estudios cada vez mayores de varios factores en conjunto, Se han desarrollado inclusive varios diseños, tal es el caso de los diseños San Cristóbal (Rojas, 1962), específicamente para ser utilizados en investigación con fertilizantes, partiendo de la premisa principal de incluir un tratamiento testigo. Rojas (1962), presenta una descripción y discusión de la eficiencia del diseño San Cristóbal considerando necesario el establecimiento de una relación matemática entre el rendimiento y los nutrimentos agregados al suelo. Expresa en su trabajo que el San Cristóbal presenta una "región de exploración mayor que la de un factorial completo 33"; aumentando su eficiencia cuando el número de repeticiones es mayor o igual a 2. Explican que los diseños rotables generados en la investigación química industrial no cumplen con ciertos requisitos agronómicos como el de no incluir un tratamiento testigo, al compararlo con el factorial 33 establece que este diseño provee información sobre interacciones que no interesan.

6

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

Rojas (1971) al presentar el San Cristóbal Ortogonalizado expresa que el diseño San Cristóbal no ortogonal hace más dificil el análisis, pero no altera la validez de las conclusiones. Martínez (1971), describe métodos para determinar dosis económicamente óptimas cuando se obtienen funciones de producción anómalas. El método consiste en estimar las producciones para diferentes combinaciones de los elementos dentro de la región de exploración y conseguir los beneficios netos que se generan, seleccionando los que provocan los mayores beneficios económicos. Villasmil, Martínez y Segura (1972), presentan un trabajo sobre el diseño San Cristóbal y su utilización en ensayos de fertilización en caña de azúcar, realizan descripción del diseño, análisis económicos.y funciones de producción anómalas que se obtuvieron. Cochran y Cox (1980), presentan una descripción de algunos diseños utilizados en el estudio de "superficies de respuesta"; aparecen ejemplos de análisis estadísticos de diseños rotables de segundo orden para dos y tres variables. En Latinoamérica y específicamente en Venezuela a partir de 1970 se han realizado algunas investigaciones importantes, de las cuales referiremos las siguientes: Montano (1972), presenta una discusión general de un ejemplo del diseño rotable central compuesto en experimentos con fertilizantes en algodón. Se describen las características y la determinación de dosis ó.ptimas de fertilizantes, se someten al proceso 14 experimentos dando algunos respuesta y otros no. Villasmil (1978b), hace una descripción del diseño San Cristóbal Ortogonalizado, mencionando algunos planes experimentales con este diseño para diferentes números de variables. También realiza la comparación del diseño con el factorial completo mediante el criterio de la eficiencia relativa. Las conclusiones a las que llega son las siguientes: a.- El diseño San Cristóbal Ortogonalizado ( k = 3, a = 1, e = 2 m = 1 ), es más eficiente que el factorial 33 en la estimación de los coeficientes de regresión correspondientes a los efectos lineales. b.- El diseño San Cristóbal Ortogonalizado ( k = 3, a = 1, e = 2, m = 1 ), es más eficiente que el factorial 33 en la estimación de los coeficientes de regresión correspondientes a los términos cuadráticos.

c.-

7

Los dos diseños son igualmente eficientes en la estimación de los coeficientes de regresión que corresponden a las interacciones.

Villasmil (1978a), hace una descripción general de los diseños de tratamiento compuesto central y diseño compuesto no central, la ortogonalización del diseño compuesto central de donde se obtiene el diseño compuesto central ortogonal. En el trabajo también aparecen las varianzas y covarianzas de los estimadores en el diseño compuesto central ortogonal y la comparación de este con el diseño factorial completo y con el diseño San Cristóbal ortogonalizado basado en el criterio de la eficiencia relativa. De acuerdo con la comparación con el factorial 33 expresa que el diseño compuesto central ortogonal es recomendable para estimar un modelo polinómico de segundo orden. Chacín (1980), presenta la descripción teórica de los diseños rotables y la aplicación y análisis estadístico para el diseño no replicado y replicado, con una proposición sobre la división de los errores. Ruiz (1981), presenta la construcción, propiedades comparaciones del Diseño Compuesto Central Doble Estrella.

y

Chacín y Villasmil (1983), presentan comparaciones teóricas y prácticas de varios diseños dé Superficies de Respuesta. Chacín (1988), presenta algunas proposiciones sobre al análisis de los diseños de Superficies de Respuesta, para mediciones repetidas. Machado y Chacín (1992), realizan comparaciones de varios diseños de Superficies de Respuesta, incluyendo un nuevo diseño al doble estrella con adición de un nuevo núcleo estrella propuesto por Villasmil (1986).

FUNDAMENTOS DE LA METO DO LOGIA DE SUPERFICIES DE RESPUESTA Supongamos que el investigador esté interesado en examinar una respuesta "11", la cual depende de las variables controladas o regresoras, SPS2'''''Sp mínimo error se denota:

bajo el control del experimentador y con un

6

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

Rojas (1971) al presentar el San Cristóbal Ortogonalizado expresa que el diseño San Cristóbal no ortogonal hace más dificil el análisis, pero no altera la validez de las conclusiones. Martínez (1971), describe métodos para determinar dosis económicamente óptimas cuando se obtienen funciones de producción anómalas. El método consiste en estimar las producciones para diferentes combinaciones de los elementos dentro de la región de exploración y conseguir los beneficios netos que se generan, seleccionando los que provocan los mayores beneficios económicos. Villasmil, Martínez y Segura (1972), presentan un trabajo sobre el diseño San Cristóbal y su utilización en ensayos de fertilización en caña de azúcar, realizan descripción del diseño, análisis económicos.y funciones de producción anómalas que se obtuvieron. Cochran y Cox (1980), presentan una descripción de algunos diseños utilizados en el estudio de "superficies de respuesta"; aparecen ejemplos de análisis estadísticos de diseños rotables de segundo orden para dos y tres variables. En Latinoamérica y específicamente en Venezuela a partir de 1970 se han realizado algunas investigaciones importantes, de las cuales referiremos las siguientes: Montano (1972), presenta una discusión general de un ejemplo del diseño rotable central compuesto en experimentos con fertilizantes en algodón. Se describen las características y la determinación de dosis ó.ptimas de fertilizantes, se someten al proceso 14 experimentos dando algunos respuesta y otros no. Villasmil (1978b), hace una descripción del diseño San Cristóbal Ortogonalizado, mencionando algunos planes experimentales con este diseño para diferentes números de variables. También realiza la comparación del diseño con el factorial completo mediante el criterio de la eficiencia relativa. Las conclusiones a las que llega son las siguientes: a.- El diseño San Cristóbal Ortogonalizado ( k = 3, a = 1, e = 2 m = 1 ), es más eficiente que el factorial 33 en la estimación de los coeficientes de regresión correspondientes a los efectos lineales. b.- El diseño San Cristóbal Ortogonalizado ( k = 3, a = 1, e = 2, m = 1 ), es más eficiente que el factorial 33 en la estimación de los coeficientes de regresión correspondientes a los términos cuadráticos.

c.-

7

Los dos diseños son igualmente eficientes en la estimación de los coeficientes de regresión que corresponden a las interacciones.

Villasmil (1978a), hace una descripción general de los diseños de tratamiento compuesto central y diseño compuesto no central, la ortogonalización del diseño compuesto central de donde se obtiene el diseño compuesto central ortogonal. En el trabajo también aparecen las varianzas y covarianzas de los estimadores en el diseño compuesto central ortogonal y la comparación de este con el diseño factorial completo y con el diseño San Cristóbal ortogonalizado basado en el criterio de la eficiencia relativa. De acuerdo con la comparación con el factorial 33 expresa que el diseño compuesto central ortogonal es recomendable para estimar un modelo polinómico de segundo orden. Chacín (1980), presenta la descripción teórica de los diseños rotables y la aplicación y análisis estadístico para el diseño no replicado y replicado, con una proposición sobre la división de los errores. Ruiz (1981), presenta la construcción, propiedades comparaciones del Diseño Compuesto Central Doble Estrella.

y

Chacín y Villasmil (1983), presentan comparaciones teóricas y prácticas de varios diseños dé Superficies de Respuesta. Chacín (1988), presenta algunas proposiciones sobre al análisis de los diseños de Superficies de Respuesta, para mediciones repetidas. Machado y Chacín (1992), realizan comparaciones de varios diseños de Superficies de Respuesta, incluyendo un nuevo diseño al doble estrella con adición de un nuevo núcleo estrella propuesto por Villasmil (1986).

FUNDAMENTOS DE LA METO DO LOGIA DE SUPERFICIES DE RESPUESTA Supongamos que el investigador esté interesado en examinar una respuesta "11", la cual depende de las variables controladas o regresoras, SPS2'''''Sp mínimo error se denota:

bajo el control del experimentador y con un

Chacín I Análisis de Regresión

8

y

Chacín I Análisis de Regresión

Superficies de Respuesta

Donde la forma de la función es muy complicada y/o es desconocida, normalmente la función "j " desconocida se expresa en términos de las variables especificadas Xi, X2, ... , Xp, las cuales son funciones lineales simples de las variables originales. Como la función generalmente se desconoce, es necesario y común que se aproxime en términos de un polinomio de bajo orden; si la función se aproxima mediante una función lineal de las variables independientes, en términos de las variables codificadas, se crea una función de respuesta de primer orden y se puede escribir así:

p

11

=

~o +

¿ j=1

p

Pj

Xj +

¿

Pjj

je l

x~ +

p

p

j=1

ue l

¿¿

Superficies de Respuesta

9

donde n es el número de puntos experimentales. Para la codificación de valores, se toma: i = 1,2, ..., n j

n

2 Sj

k

j -~j~

=¿ i=l

Los modelos de primer orden, sólo son útiles cuando se explore una región relativamente pequeña de Xi , X2 , ... , Xp, dependiendo por supuesto, del problema y de la región de exploración de las variables bajo estudio; generalmente, estas regiones exhiben ninguna o muy poca curvatura. En caso contrario, es necesario aproximar, mediante un polinomio de segundo orden, denotado de la siguiente manera:

y

n

=

1,2, .", p

y

1 0). Las RC de una matriz semi-definida positiva son negativas (~O).

+ p(B)

Si A es una matriz de orden n y \ A \ Sea

(A'

y

=

O

entonces

p( A) < n

Para toda matriz simétrica A, hay una matriz ortogonal C tal que C'AC = D, donde D es una matriz diagonal cuyos elementos en la diagonal son las RC de A. Sea Cnx n dada por:

Amx n

Si

p (A)

=

m

=> Habrá m filas linealmente independientes

Si

p (A)

=

n

=> Habrá n filas linealmente independientes

c= MATRIZ ORTOGONAL Sea una matriz A, A es ortogona l si SI Y solo o si SI A'

=

C i

J

Una raíz característica ( RC. ) de una matriz escalar Atal que AX = AXpara algún vector X *- O.

An x

n

es un

(V. C: ) de la

matrizA. De la ecuación anterior se sigue que: (A-Al)

AX - A X = O

X=O

O, lo cual y para que tenga solución debe cumplirse \ A - A ~ \ polinomio representa un polinomio de grado n en A, de.nommado característico. Sus raíces son las R C. ~e la matriz A:

=

El número de R C.

*-

O de una matriz es igual al rango de A

Si C es una matriz ortogonal Y An x n se cumple: RC (A)

=

RC (C' AC)

cln

c2\

c22

c2n

cn \

cn2

Con

cI c2

=

cn

es la i-ésima fila de e es la traspuesta de ci, un vector columna

Las condiciones necesarias ortogonal son:

CARACTERISTICOS

El vector X se denomina vector característico

CI2

A-I e.

RAICES y VECTORES

CII

i)

Ci

c. J

=

O

ü)

Ci

ci

=

1

Vi*-

y suficientes

para

que C sea

j

V i

Si A n x n y C n X n son dos matrices de orden n (\ C \ *- O), las matrices A, C -IAC, CACo! tienen las mismas RC. Los VC de una matriz simétrica son ortogonales. Si una RC se presenta k veces habrá k vectores característicos ortogonales correspondientes a esa RC. Si se tiene los VC de A como columnas de una matriz X, y se realiza el producto X'AX se obtiene una matriz diagonal con las Re de A en la diagonal principal. Este proceso se conoce como diagonalización de una matriz simétrica, y se cumple: t r (X' AX)

=

¿ Ai

=

t r (AXX' )

=

t r (A)

26

Chacín / Análisis de Regresión

y

Chacín / Análisis de Regresión y Superficies de Respuesta

Superficies de Respuesta

Sea Zn x 1 es un vector constituido por variables normales independientes con media O y varianza constante (j 2, es decir: E (Zi)

= O

E ( Z~)

=

5 será: 2

i = 1,2, ...,n

XI=

(j2

j

La matriz de varianza-covarianza

=

.J5

*j

se define:

El V. C. para A.= O es:

E(ZlZn)] E(Z2Zn)

I E(Z?Zl) I

1

1,2, ..., n

I E(Z~)

=

=

.J5

i

E (ZZ')

El V. C para A

27

1

.J5

~

lE(ZnZ1

E(~!)

)

J

Ejemplo: Al SI. Al = 5 ---->

A - Al =

[-12 _ 2]4

~

=

Observe que X; X 2 = O

FORMA CUADRATICA REAL

=O

{-X1+2X2

2X] - 4X2

~ Xi = 2Xz =

O

En Xi = 2Xz hay un elemento arbitrario, en consecuencia si X satisface dicha igualdad, también la satisface kX. Se puede normalizar unidad:

=

=> Los V. C. son ortogonales.

5

el vector haciendo que su módulo sea la

Defin~c~ón: una función f de "n" variables reales, digamos Xi, Xz, ... Xn definidas por: f ( x.,

x, ...,Xn) =

II ;=1

1 1

-J5

j=I

Se le conoce como forma cuadrática, donde:

X=

A=

a21

al2 a22

anl

an2

r

aa,"~ 2n ...

a:"

26

Chacín / Análisis de Regresión

y

Chacín / Análisis de Regresión y Superficies de Respuesta

Superficies de Respuesta

Sea Zn x 1 es un vector constituido por variables normales independientes con media O y varianza constante (j 2, es decir: E (Zi)

= O

E ( Z~)

=

5 será: 2

i = 1,2, ...,n

XI=

(j2

j

La matriz de varianza-covarianza

=

.J5

*j

se define:

El V. C. para A.= O es:

E(ZlZn)] E(Z2Zn)

I E(Z?Zl) I

1

1,2, ..., n

I E(Z~)

=

=

.J5

i

E (ZZ')

El V. C para A

27

1

.J5

~

lE(ZnZ1

E(~!)

)

J

Ejemplo: Al SI. Al = 5 ---->

A - Al =

[-12 _ 2]4

~

=

Observe que X; X 2 = O

FORMA CUADRATICA REAL

=O

{-X1+2X2

2X] - 4X2

~ Xi = 2Xz =

O

En Xi = 2Xz hay un elemento arbitrario, en consecuencia si X satisface dicha igualdad, también la satisface kX. Se puede normalizar unidad:

=

=> Los V. C. son ortogonales.

5

el vector haciendo que su módulo sea la

Defin~c~ón: una función f de "n" variables reales, digamos Xi, Xz, ... Xn definidas por: f ( x.,

x, ...,Xn) =

II ;=1

1 1

-J5

j=I

Se le conoce como forma cuadrática, donde:

X=

A=

a21

al2 a22

anl

an2

r

aa,"~ 2n ...

a:"

29

Chacín I Análisis de Regresión y Superficies de Respuesta Chacín I Análisis de Regresión Y Superficies de Respuesta

28

La matriz A de la forma cuadrática

Luego se puede afirmar que toda forma cuadrática asociada una matriz A simétrica.

no es única.

También una forma cuadrática manera:

Ejemplo:

Si

X

=

y

A=

n

n

j=1

j=1

I I

puede escribirse de la siguiente

n

aijXi

x, =

I

aii X;

X'AX tiene

+

i=1

n

n

i=1

j=1

I I

(aij + aji)

x. x,

Entonces: X'AX

=

X~ + 3X2 Xi + 4XilXI + 2XlX2 + 8X~ + 9X3 X2 - Xi X3

TIPOS DE FORMAS CUADRATICAS

2

+ 2X2 X3 - X3 X'AX

=

X'AX

= X ¡+

X~ + 5XI X2 + 3X3Xl + 8X; + 11X2 X3 - X;

x. X2 + (5-2)

(8-3)

+ (7 + 4) X2 X3X' AX

=

X3

x, +

El rango" r » de una forma cuadrática Q = X'AX es igual al número de raíces características distintas de cero. También es el rango de la matriz A.

2

8X 2

2 X3

X ~ + 8X2 Xl - 3Xl X2 + 5X3 X. - 2Xl X3 + 8X; + 7Xz X3

El índice" u" de una forma cuadrática positivas de la ecuación característica de A. Usando las definiciones anteriores,

2.

+ 4X3 X2 - X 3

= pero, A

"*

Sin embargo, si a los coeficientes de Xi X2, Xi X3 y X2 X3 los dividimos por 2, se tiene que: 3 3 2 - Xi X3 + - X3Xi + 8X 2 +

2

2

5/2 X' AX

=

i

x,

X2 Xa ]

8 11/2

se tiene que:

L

Cuando la ecuación característica de A contiene raíces positivas y negativas; esto es en términos de r y u, 1:S; u :s; r, la forma cuadrática Q es indefinida.

lI.

Si Q es de rango r definida positiva.

X'BX

B

Q es el número de raíces

=

n y además

u

=

r

=

lII. Si Q es de rango r = n, pero u = 0, entonces negativa.

Si r < n y además va.

Q es definida

= r, entonces Q es semidefinida u = 0, se dice que Q es semidefinida

IV. Si r < n y además u V.

n entonces Q es

positiva. negati-

29

Chacín I Análisis de Regresión y Superficies de Respuesta Chacín I Análisis de Regresión Y Superficies de Respuesta

28

La matriz A de la forma cuadrática

Luego se puede afirmar que toda forma cuadrática asociada una matriz A simétrica.

no es única.

También una forma cuadrática manera:

Ejemplo:

Si

X

=

y

A=

n

n

j=1

j=1

I I

puede escribirse de la siguiente

n

aijXi

x, =

I

aii X;

X'AX tiene

+

i=1

n

n

i=1

j=1

I I

(aij + aji)

x. x,

Entonces: X'AX

=

X~ + 3X2 Xi + 4XilXI + 2XlX2 + 8X~ + 9X3 X2 - Xi X3

TIPOS DE FORMAS CUADRATICAS

2

+ 2X2 X3 - X3 X'AX

=

X'AX

= X ¡+

X~ + 5XI X2 + 3X3Xl + 8X; + 11X2 X3 - X;

x. X2 + (5-2)

(8-3)

+ (7 + 4) X2 X3X' AX

=

X3

x, +

El rango" r » de una forma cuadrática Q = X'AX es igual al número de raíces características distintas de cero. También es el rango de la matriz A.

2

8X 2

2 X3

X ~ + 8X2 Xl - 3Xl X2 + 5X3 X. - 2Xl X3 + 8X; + 7Xz X3

El índice" u" de una forma cuadrática positivas de la ecuación característica de A. Usando las definiciones anteriores,

2.

+ 4X3 X2 - X 3

= pero, A

"*

Sin embargo, si a los coeficientes de Xi X2, Xi X3 y X2 X3 los dividimos por 2, se tiene que: 3 3 2 - Xi X3 + - X3Xi + 8X 2 +

2

2

5/2 X' AX

=

i

x,

X2 Xa ]

8 11/2

se tiene que:

L

Cuando la ecuación característica de A contiene raíces positivas y negativas; esto es en términos de r y u, 1:S; u :s; r, la forma cuadrática Q es indefinida.

lI.

Si Q es de rango r definida positiva.

X'BX

B

Q es el número de raíces

=

n y además

u

=

r

=

lII. Si Q es de rango r = n, pero u = 0, entonces negativa.

Si r < n y además va.

Q es definida

= r, entonces Q es semidefinida u = 0, se dice que Q es semidefinida

IV. Si r < n y además u V.

n entonces Q es

positiva. negati-

30

Chacín I Análisis de Regresión y Superficies de Respuesta Chacín I Análisis de Regresión y Superficies de Respuesta

Ejemplo: a.- Para la matriz:

r~~ l-2

A=

1

o

-~l =

b.- Para la matriz:

O

[W¡ W2 ... Wn]

O An

=

1

donde, Al = 4, A2= 2 Y A3= -2. El rango de Q = X'AX es de 3 y el índice u es 2. Por lo tanto la forma cadrática Q X'AX es indefinida.

31

1¡ 1\.

W21 +

1 1\.2

w2 2

+

Wn

+ AnW

2 II

Esto es, la forma cuadrática Q es transformada en otra forma cuadrática cuya matriz es diagonal, los elementos de la diagonal son las raíces caracteristicas de la matriz A.

II ~J r2

B=

donde, Al = Como r

=

n

5 2

=

+

H

2 Y u

=

y A2

5 2

-H

DIFERENCIACION

USANDO MATRICES

Supóngase que se requiere diferenciar f( Z¡, Z2, ..., Zn) con respecto a Zi, Z2, ... Zn. Considerando los Z' s en forma de vector, ésto es:

2,

entonces la forma cuadrática P

=

X'BX es definida positiva.

Z

=

Reducción de formas cuadráticas a formas canónicas Una manipulación extremadamente útil en la descripción de la naturaleza de una superficie de respuesta y localización de regiones de condiciones óptimas es la reducción de una forma cuadrática a una forma canónica. El siguiente teorema describe la naturaleza de esta importante transformación.

Zn Por la derivada Oí /

az, escribimos

el vector columna:

8f 8Z

TEOREMA

-=

Si Al, A2.... , An son raíces características (todas reales) de la matriz simétrica A, existe una transformación ortogonal X = PW, tal que la forma cuadrática real Q = X'AX es transformada en una expresión canónica:

Esto es, el vector columna de derivadas parciales. Por otro lado, ( Oí / OZ ) es el vector fila de derivadas parciales. I

30

Chacín I Análisis de Regresión y Superficies de Respuesta Chacín I Análisis de Regresión y Superficies de Respuesta

Ejemplo: a.- Para la matriz:

r~~ l-2

A=

1

o

-~l =

b.- Para la matriz:

O

[W¡ W2 ... Wn]

O An

=

1

donde, Al = 4, A2= 2 Y A3= -2. El rango de Q = X'AX es de 3 y el índice u es 2. Por lo tanto la forma cadrática Q X'AX es indefinida.

31

1¡ 1\.

W21 +

1 1\.2

w2 2

+

Wn

+ AnW

2 II

Esto es, la forma cuadrática Q es transformada en otra forma cuadrática cuya matriz es diagonal, los elementos de la diagonal son las raíces caracteristicas de la matriz A.

II ~J r2

B=

donde, Al = Como r

=

n

5 2

=

+

H

2 Y u

=

y A2

5 2

-H

DIFERENCIACION

USANDO MATRICES

Supóngase que se requiere diferenciar f( Z¡, Z2, ..., Zn) con respecto a Zi, Z2, ... Zn. Considerando los Z' s en forma de vector, ésto es:

2,

entonces la forma cuadrática P

=

X'BX es definida positiva.

Z

=

Reducción de formas cuadráticas a formas canónicas Una manipulación extremadamente útil en la descripción de la naturaleza de una superficie de respuesta y localización de regiones de condiciones óptimas es la reducción de una forma cuadrática a una forma canónica. El siguiente teorema describe la naturaleza de esta importante transformación.

Zn Por la derivada Oí /

az, escribimos

el vector columna:

8f 8Z

TEOREMA

-=

Si Al, A2.... , An son raíces características (todas reales) de la matriz simétrica A, existe una transformación ortogonal X = PW, tal que la forma cuadrática real Q = X'AX es transformada en una expresión canónica:

Esto es, el vector columna de derivadas parciales. Por otro lado, ( Oí / OZ ) es el vector fila de derivadas parciales. I

32

Chacín I Análisis de Regresión y Superficies de Respuesta

REGLAS DE DERIVACION REGLA 1: Dado el vector columna a conteniendo "n" constantes, y el vector Z también con "n" constantes consideremos el escalar a' Z;

Chacín I Análisis de Regresión

y

a

az

Superficies de Respuesta

USO DE NOTACION MATRICIAL PARA MEDIAS Y VAR1ANZAS DE VECTORES ALEATORIOS

Sea:

aa'Z

y

=

un vector aleatorio conteniendo "n" variables. aa'Z

--

az'

REGLA 2: el escalar Z' Z;

=

a'

=

[al, a2, ..., an]

Media de Y

Dado el vector Z con "n" elementos. Consideremos

eaz

.OZ'Z

2Z y --

--=

az

= 2Z'

az'

es decir, ¡.ti = E (Yr ), i = 1, 2, ..., n REGLA 3: Consideremos el vector: Z'

=

[Zl

Z2 ...

Matriz de varianza covarianza

z, ]

y la matriz A de orden "u". La derivada del escalar Z'AZ con respecto

al vector columna Z es dada por: a(Z'AZ)

= AZ + A'Z = (A

+ A' ) Z

az En particular, si A es simétrica (i. e. A

a(z' AZ) = az

2 AZ

= A'

)

donde: V e Y)

= E (Y. - ¡.ti )2 V e Y) = E e Y; ) - e ¡.ti)2 V e Y, ) = o ~ = e 2, 1 = 1 2 'o .. , n Coy e Y, , Yj ) = E [e Y, - ¡.ti) e Yj - ¡.tj)] 11

COy COy

e v., Yj) e Yr , Yj )

i

,

= E e Y, Yj ) - ¡.ti J.!j = crij, (i ~ j), j =

1, 2, ... , n

33

32

Chacín I Análisis de Regresión y Superficies de Respuesta

REGLAS DE DERIVACION REGLA 1: Dado el vector columna a conteniendo "n" constantes, y el vector Z también con "n" constantes consideremos el escalar a' Z;

Chacín I Análisis de Regresión

y

a

az

Superficies de Respuesta

USO DE NOTACION MATRICIAL PARA MEDIAS Y VAR1ANZAS DE VECTORES ALEATORIOS

Sea:

aa'Z

y

=

un vector aleatorio conteniendo "n" variables. aa'Z

--

az'

REGLA 2: el escalar Z' Z;

=

a'

=

[al, a2, ..., an]

Media de Y

Dado el vector Z con "n" elementos. Consideremos

eaz

.OZ'Z

2Z y --

--=

az

= 2Z'

az'

es decir, ¡.ti = E (Yr ), i = 1, 2, ..., n REGLA 3: Consideremos el vector: Z'

=

[Zl

Z2 ...

Matriz de varianza covarianza

z, ]

y la matriz A de orden "u". La derivada del escalar Z'AZ con respecto

al vector columna Z es dada por: a(Z'AZ)

= AZ + A'Z = (A

+ A' ) Z

az En particular, si A es simétrica (i. e. A

a(z' AZ) = az

2 AZ

= A'

)

donde: V e Y)

= E (Y. - ¡.ti )2 V e Y) = E e Y; ) - e ¡.ti)2 V e Y, ) = o ~ = e 2, 1 = 1 2 'o .. , n Coy e Y, , Yj ) = E [e Y, - ¡.ti) e Yj - ¡.tj)] 11

COy COy

e v., Yj) e Yr , Yj )

i

,

= E e Y, Yj ) - ¡.ti J.!j = crij, (i ~ j), j =

1, 2, ... , n

33

34

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

35

El vector de variables aleatorias:

=

Y'

... .Ys ]

(Yl,Y2,

FORMULA DE TAYLOR

donde las variables son normalmente distribuidas con vector media Jl y matriz de varianza-covarianza

(conjuntamente)

L, ésto es:

Y ~ N (Jl, L) Cuando las variables aleatorias no están tienen igual varianza, es decir 0'2 In. entonces: Y ~N (

1.1, 0'2

correlacionadas

In)

Algunas reglas para encontrar medias

y

varianzas

REGLA 1: Dado el vector Y que contiene aleatorias, se cumple que entonces: E ( AY )

=

y

"n" variables

El conocimiento de la Fórmula de Taylor es indispensable para entender la metodología de la Superficie de Respuesta, ya que se ha expresado, como supuesto de la metodología, que el modelo real, que generalmente no se conoce o es muy complicado, es conveniente aproximarlo a un polinomio de bajo orden y esta demostración se basa fundamentalmente en la Fórmula de Taylor. . Los valores de funciones polinómicas se obtienen efectuando un número finito de sumas y multiplicaciones. Estas funciones, llamadas analíticas son derivables en un entorno ó en la vecindad de un punto "p" del dominio de la función. Uno de los métodos más utilizados para aproximar una función por un polinomio es la Fórmula de Taylor.

A Jl Fórmula de Taylor para una variable con remanente

donde A es cualquier matriz k

x

n de constantes.

REGLA 2: Dado un vector Y el cual tiene media O, matriz de varianza-covarianza 0'2 1, y una matriz simétrica B entonces:

Si se tiene y = f (a) una función, tal que "f" y sus primeras derivadas existen en el intervalo cerrado [a, x].

=

También la función f(x)n+l existe para toda x en el intervalo abierto ( a, x ), luego existe un número x en el intervalo abierto (a, x) tal que:

E (y' BY)

0'2

t r (B)

REGLA 3: Si Y es un vector de n-variables aleatorias con media Jl , cov Y = L, y A una matriz k x n de constantes entonces,

'

definiendo Z = AY,

f ()x

CovZ = A

=

+ (x- a)" n!

(x_a)2

f"(a)

+ ...

2!

fn (a)

1

+ -O.(x_-_a-,-t_+_ f(x)n+l Cn+n!

f(x) = Pn(x) + Rn(x)

a' L a

= I a~O'¡2+2I Ia¡ajO'ij i=l

+

1!

en notación escalar se tiene que: V(a'Y)

(x-a) + -fea)

L A'

En particular, para una combinación lineal de variables aleatorias: a'Y, donde Y es un vector de n-variables aleatorias y a' = [ al, aa, ... , as ], tenemos que: V (a' Y)

()

= f a

i=l

je I i"j

Este teorema puede ser generalizado para funciones de varias variables. Si se tiene por ejemplo una función de tres variables en torno al punto "p"( xi, yi, Zl )

34

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

35

El vector de variables aleatorias:

=

Y'

... .Ys ]

(Yl,Y2,

FORMULA DE TAYLOR

donde las variables son normalmente distribuidas con vector media Jl y matriz de varianza-covarianza

(conjuntamente)

L, ésto es:

Y ~ N (Jl, L) Cuando las variables aleatorias no están tienen igual varianza, es decir 0'2 In. entonces: Y ~N (

1.1, 0'2

correlacionadas

In)

Algunas reglas para encontrar medias

y

varianzas

REGLA 1: Dado el vector Y que contiene aleatorias, se cumple que entonces: E ( AY )

=

y

"n" variables

El conocimiento de la Fórmula de Taylor es indispensable para entender la metodología de la Superficie de Respuesta, ya que se ha expresado, como supuesto de la metodología, que el modelo real, que generalmente no se conoce o es muy complicado, es conveniente aproximarlo a un polinomio de bajo orden y esta demostración se basa fundamentalmente en la Fórmula de Taylor. . Los valores de funciones polinómicas se obtienen efectuando un número finito de sumas y multiplicaciones. Estas funciones, llamadas analíticas son derivables en un entorno ó en la vecindad de un punto "p" del dominio de la función. Uno de los métodos más utilizados para aproximar una función por un polinomio es la Fórmula de Taylor.

A Jl Fórmula de Taylor para una variable con remanente

donde A es cualquier matriz k

x

n de constantes.

REGLA 2: Dado un vector Y el cual tiene media O, matriz de varianza-covarianza 0'2 1, y una matriz simétrica B entonces:

Si se tiene y = f (a) una función, tal que "f" y sus primeras derivadas existen en el intervalo cerrado [a, x].

=

También la función f(x)n+l existe para toda x en el intervalo abierto ( a, x ), luego existe un número x en el intervalo abierto (a, x) tal que:

E (y' BY)

0'2

t r (B)

REGLA 3: Si Y es un vector de n-variables aleatorias con media Jl , cov Y = L, y A una matriz k x n de constantes entonces,

'

definiendo Z = AY,

f ()x

CovZ = A

=

+ (x- a)" n!

(x_a)2

f"(a)

+ ...

2!

fn (a)

1

+ -O.(x_-_a-,-t_+_ f(x)n+l Cn+n!

f(x) = Pn(x) + Rn(x)

a' L a

= I a~O'¡2+2I Ia¡ajO'ij i=l

+

1!

en notación escalar se tiene que: V(a'Y)

(x-a) + -fea)

L A'

En particular, para una combinación lineal de variables aleatorias: a'Y, donde Y es un vector de n-variables aleatorias y a' = [ al, aa, ... , as ], tenemos que: V (a' Y)

()

= f a

i=l

je I i"j

Este teorema puede ser generalizado para funciones de varias variables. Si se tiene por ejemplo una función de tres variables en torno al punto "p"( xi, yi, Zl )

37

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión y Superficies de Respuesta

36

Con:

-x* y* z*

= = =

Xl

+ t*

( X

-xi )

Yl

+ t*

( Y

-yi )

Zl

+ t* (

Z

-zi )

Donde: o < t* < 1, el punto Y ( X, y, Z ). El término general de la serie, puede interpretarse una diferencial enésima d=f, de la función f(x, y).

en función de

Por lo tanto para F ( x, y, z)

( x*, n

=

s",

z* ) se encuentra entre,

=

anf

a Xn

(X-Xl)

d=F = dnF( xi, yi, Cuando n d'F con

X - Xl

= =

=

Zl, X

-xi, y-yi,

xi,

yi,

Zl

y las

= F( xi, yi, zi ) + +( y yr ) Fy( x*,y*,z*)

y - yi

=

= dy

af af -dx+-dy+-dz

ax

af

ay

Z - Zl

az

= dz

La serie puede escribirse como:

=

Fx( x*, s". z* ) Fz(z*,y*,z*)

Explicaremos algunos conceptos fundamentales polinomio de Taylor en el espacio R

para analizar el

Campo escalar y campo vectorial

d'F( xi, yi, zr, dx, dy, dz, )

F( x, y, z )

(X - xi ) + (z-z¡)

Z-Zl )

1

dx

zr )

que se conoce como teorema del valor medio para funciones de tres variables.

+...

de d=f sobre

Para indicar la dependencia diferencias (x -xi), (y -yi), (Z -zi).

yi,

1 la fórmula se transforma en:

v

d=f

(Xl,

F( xi, yi, zi ) + dF(

xr, Y1,Zl, X -xi, Y

1

+ - d2F( xi, yi, zr, 2!

X

-xi, Y -yi,

1

+dn F( xi, yi, n!

Zl, X -xi, Y

-yi, Z

-yi,

Z -zr )

-zr )

+ ...

Z -zi)

Consideremos funciones con el dominio en el espacio R n-dimensional (Rn) y con recorrido en el espacio R m-dimensional (Rm); es decir f: Rn ~ Rm; cuando n = m = 1, tal función se llama función real de variable real; cuando n =1 y m > 1, se llama función vectorial de una variable real; cuando n> 1 y m =1, la función se llama función real de una variable vectorial, o más brevemente, un campo escalar ( f: Rn ~ R ) Y si n = 1 y m > 1, se llama campo vectorial (f: R ~ Rm).

Bolas abiertas Sea "a" un punto dado en Rn y "x" un número positivo dado. El conjunto de todos los puntos X E Rn, tales que 11 X - a 11 < r se llama n-bola abierta de radio r y centro a; y la denotamos por B(a ; r).

+ Rn (X, y, Z) Con

Rn (X, y, Z)

= (

1

Gradiente de un campo escalar

\.

n+ lJ!

dn+l F( x*,

s", z", X -xi,

Y -yl, Z -zr )

El vector cuyas componentes son las derivadas parciales de una función escalar f, calculadas en el punto "a" se llama gradiente; V fea)

=

(Dtf(a), ... , Dnf(a) )

37

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión y Superficies de Respuesta

36

Con:

-x* y* z*

= = =

Xl

+ t*

( X

-xi )

Yl

+ t*

( Y

-yi )

Zl

+ t* (

Z

-zi )

Donde: o < t* < 1, el punto Y ( X, y, Z ). El término general de la serie, puede interpretarse una diferencial enésima d=f, de la función f(x, y).

en función de

Por lo tanto para F ( x, y, z)

( x*, n

=

s",

z* ) se encuentra entre,

=

anf

a Xn

(X-Xl)

d=F = dnF( xi, yi, Cuando n d'F con

X - Xl

= =

=

Zl, X

-xi, y-yi,

xi,

yi,

Zl

y las

= F( xi, yi, zi ) + +( y yr ) Fy( x*,y*,z*)

y - yi

=

= dy

af af -dx+-dy+-dz

ax

af

ay

Z - Zl

az

= dz

La serie puede escribirse como:

=

Fx( x*, s". z* ) Fz(z*,y*,z*)

Explicaremos algunos conceptos fundamentales polinomio de Taylor en el espacio R

para analizar el

Campo escalar y campo vectorial

d'F( xi, yi, zr, dx, dy, dz, )

F( x, y, z )

(X - xi ) + (z-z¡)

Z-Zl )

1

dx

zr )

que se conoce como teorema del valor medio para funciones de tres variables.

+...

de d=f sobre

Para indicar la dependencia diferencias (x -xi), (y -yi), (Z -zi).

yi,

1 la fórmula se transforma en:

v

d=f

(Xl,

F( xi, yi, zi ) + dF(

xr, Y1,Zl, X -xi, Y

1

+ - d2F( xi, yi, zr, 2!

X

-xi, Y -yi,

1

+dn F( xi, yi, n!

Zl, X -xi, Y

-yi, Z

-yi,

Z -zr )

-zr )

+ ...

Z -zi)

Consideremos funciones con el dominio en el espacio R n-dimensional (Rn) y con recorrido en el espacio R m-dimensional (Rm); es decir f: Rn ~ Rm; cuando n = m = 1, tal función se llama función real de variable real; cuando n =1 y m > 1, se llama función vectorial de una variable real; cuando n> 1 y m =1, la función se llama función real de una variable vectorial, o más brevemente, un campo escalar ( f: Rn ~ R ) Y si n = 1 y m > 1, se llama campo vectorial (f: R ~ Rm).

Bolas abiertas Sea "a" un punto dado en Rn y "x" un número positivo dado. El conjunto de todos los puntos X E Rn, tales que 11 X - a 11 < r se llama n-bola abierta de radio r y centro a; y la denotamos por B(a ; r).

+ Rn (X, y, Z) Con

Rn (X, y, Z)

= (

1

Gradiente de un campo escalar

\.

n+ lJ!

dn+l F( x*,

s", z", X -xi,

Y -yl, Z -zr )

El vector cuyas componentes son las derivadas parciales de una función escalar f, calculadas en el punto "a" se llama gradiente; V fea)

=

(Dtf(a), ... , Dnf(a) )

38

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión y Superficies de Respuesta

Continuidad para campos escalares

o equivalente

Una función escalar f, se dice que es continua en un punto" si se cumple: lim f( a + h y) f( a )

a" f( a

+ y ) - f( a ) = Vf(a).

=

+

h~O o equivalente

donde E2( a, y ) ~ O cuando lim f( x) = f ( a ) x~a

g( I!) SI

+ f'(a)

+ f"(a)

(x-a) 1!

(x_a)2 2!

n

LL

2!

j=

l

n,

f( a)

je l

y 112 E2( a, y ) y~

O

= f( a + I! Y );

I! = 1, tenemos

( r

I! = O, tenemos

n!

x- a

)n+1

,

a < e < x

(n+ 1)!

g(1)

TEOREMA: Si f es un campo escalar con derivadas segundas, Dij f, continuas en una n-Bola B (a; r ), entonces, para todo" y" de Rn, tal que a + y E B (a; r), tenemos que:

1 2!

n

n

LL ;=1

s

1

g(1)

=

f( a

g( O)

=

f( a)

+y )

Dij f( a + e y ) yi yj

- g( O) = f( a

+ y) -

f( a )

ahora, como g es derivable y continua, por definición, entonces podemos aplicar el polinomio de Taylor para números reales, en este caso, el de grado uno, centrado en a:

Fórmula de Taylor de segundo orden para campos escalares

f(a + y) - f(a) = V f(a) . y + -

I!

por lo tanto,

donde el término error o residuo, viene dado por la fórmula:

fn+1(C) (

s

que:

x-a

+ fn( a)

-1

que:

+ ... SI

pn( x) - f( x) = En( x) =

n

1

. Sea y, un vector definido por y = (yr, ..., yn ). Definimos una función g( I! ), para I! real, mediante la ecuación:

La idea es tratar de aproximar una función f(x), la cual es contínua y derivable, por un polinomio de grado n, dado por: f(a)

11

y + -

Prueba:

Polinomio de Taylor en R

pn(X)=

39

(x- a)' g( x) = g( a) + g' ( a ) -+ 1! pero si

Error.

a = O,entonces g( x) = g( O) + g' ( O) x + Error

donde el error viene dado por la expresión

j=I

Error =

g(c)n+l (x- a)n+l (n+ 1)!

a < c< x

38

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión y Superficies de Respuesta

Continuidad para campos escalares

o equivalente

Una función escalar f, se dice que es continua en un punto" si se cumple: lim f( a + h y) f( a )

a" f( a

+ y ) - f( a ) = Vf(a).

=

+

h~O o equivalente

donde E2( a, y ) ~ O cuando lim f( x) = f ( a ) x~a

g( I!) SI

+ f'(a)

+ f"(a)

(x-a) 1!

(x_a)2 2!

n

LL

2!

j=

l

n,

f( a)

je l

y 112 E2( a, y ) y~

O

= f( a + I! Y );

I! = 1, tenemos

( r

I! = O, tenemos

n!

x- a

)n+1

,

a < e < x

(n+ 1)!

g(1)

TEOREMA: Si f es un campo escalar con derivadas segundas, Dij f, continuas en una n-Bola B (a; r ), entonces, para todo" y" de Rn, tal que a + y E B (a; r), tenemos que:

1 2!

n

n

LL ;=1

s

1

g(1)

=

f( a

g( O)

=

f( a)

+y )

Dij f( a + e y ) yi yj

- g( O) = f( a

+ y) -

f( a )

ahora, como g es derivable y continua, por definición, entonces podemos aplicar el polinomio de Taylor para números reales, en este caso, el de grado uno, centrado en a:

Fórmula de Taylor de segundo orden para campos escalares

f(a + y) - f(a) = V f(a) . y + -

I!

por lo tanto,

donde el término error o residuo, viene dado por la fórmula:

fn+1(C) (

s

que:

x-a

+ fn( a)

-1

que:

+ ... SI

pn( x) - f( x) = En( x) =

n

1

. Sea y, un vector definido por y = (yr, ..., yn ). Definimos una función g( I! ), para I! real, mediante la ecuación:

La idea es tratar de aproximar una función f(x), la cual es contínua y derivable, por un polinomio de grado n, dado por: f(a)

11

y + -

Prueba:

Polinomio de Taylor en R

pn(X)=

39

(x- a)' g( x) = g( a) + g' ( a ) -+ 1! pero si

Error.

a = O,entonces g( x) = g( O) + g' ( O) x + Error

donde el error viene dado por la expresión

j=I

Error =

g(c)n+l (x- a)n+l (n+ 1)!

a < c< x

si a y

SI

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

40

=O X

En particular,

x2

g"(c)

=

Error

2!

luego, tenemos

a derivar

2!

que:

=

g' (O) g" (e) +--+-1! 2!

g(O)

n

g( 1) Por otra parte,

- g( O)

=

g' ( O)

f [re J.l)],

donde:

ie l

compuesta

r( J.l )

=

a

I I

dada por:

y

SI

J.l

=

n

+ J.lY

la regla de la cadena,

tenemos

que:

g"(c)

g' (J.l)

= =

R ~ Rn

y

g

= for : R ~

I E

j=I

1 n 2! ~

=

1

oo

,

D, f [r( J.l )]}.

( yi,

oo.,

ye ) si

y

Di f [ r( J.l) ] . Yi

1

n

2f I • i=l



f( a

O < e < 1

Yi.Yi

+ cy

n

I j=1

n

Dji f( a

+ cy) yi Yi

Dii f( a ) Yi Yi

j=l

nos queda: f( a

demostrar

n

I

.

n,

). yi . vr

n

'* O. Despejando,

B (a; r ).

n,

~

• i=l

j=1

r( J.l)

i=1

2f I

n

=

n

Por otra parte, tenemos que para E2 ( a, y ) por la ecuación:

11 y 112 E2 (a, y)

R; así

n

II

V' f [r(J.l) ]. y {Di f [r( J.l)],

Dii f[r(c)].

j=l

.

definir

que f: Rn ~ R y r:

f [ r( J.l) ] . Yi. Yi

n

II

= =

pero es de notar que:

Dii

je I

e, tenemos:

ie I

mediante

.n

II

=

gil (u)

1 + - g" ( e ) 2!

como g es una función

=

g( U)

con tal que

que:

V' f[ r(J.l) ]' .y + V' f [ r(J.l) ] . r"(J.l)

O < e < x

,

V' f( a ). y

a g' tenemos

gil (e)

g(1 )

derivando

=

g' ( e) y si volvemos

=

que:

O < e< x

= 1, entonces: Error

tenemos

41

+ e y ) yi Yi

=

:

O < e < 1

el teorema

se debe

si a y

SI

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

40

=O X

En particular,

x2

g"(c)

=

Error

2!

luego, tenemos

a derivar

2!

que:

=

g' (O) g" (e) +--+-1! 2!

g(O)

n

g( 1) Por otra parte,

- g( O)

=

g' ( O)

f [re J.l)],

donde:

ie l

compuesta

r( J.l )

=

a

I I

dada por:

y

SI

J.l

=

n

+ J.lY

la regla de la cadena,

tenemos

que:

g"(c)

g' (J.l)

= =

R ~ Rn

y

g

= for : R ~

I E

j=I

1 n 2! ~

=

1

oo

,

D, f [r( J.l )]}.

( yi,

oo.,

ye ) si

y

Di f [ r( J.l) ] . Yi

1

n

2f I • i=l



f( a

O < e < 1

Yi.Yi

+ cy

n

I j=1

n

Dji f( a

+ cy) yi Yi

Dii f( a ) Yi Yi

j=l

nos queda: f( a

demostrar

n

I

.

n,

). yi . vr

n

'* O. Despejando,

B (a; r ).

n,

~

• i=l

j=1

r( J.l)

i=1

2f I

n

=

n

Por otra parte, tenemos que para E2 ( a, y ) por la ecuación:

11 y 112 E2 (a, y)

R; así

n

II

V' f [r(J.l) ]. y {Di f [r( J.l)],

Dii f[r(c)].

j=l

.

definir

que f: Rn ~ R y r:

f [ r( J.l) ] . Yi. Yi

n

II

= =

pero es de notar que:

Dii

je I

e, tenemos:

ie I

mediante

.n

II

=

gil (u)

1 + - g" ( e ) 2!

como g es una función

=

g( U)

con tal que

que:

V' f[ r(J.l) ]' .y + V' f [ r(J.l) ] . r"(J.l)

O < e < x

,

V' f( a ). y

a g' tenemos

gil (e)

g(1 )

derivando

=

g' ( e) y si volvemos

=

que:

O < e< x

= 1, entonces: Error

tenemos

41

+ e y ) yi Yi

=

:

O < e < 1

el teorema

se debe

Chacín I Análisis de Regresión y Superficies de Respuesta

42

sustituyendo g(1)

Chacín I Análisis de Regresión y Superficies de Respuesta

EJERCICIOS

se obtiene que:

=

f(a+y)

=

Vf( a ). y + -

- g(O)

DE APLICACION

- fea)

1

n

n

• 1=1

J=1

¿¿ 2' '. .

Sea la siguiente función escalar

n, f( a ) Yi yj f(

x, Xz, X3) = /30+ fh Xl + /32X2 + /33X3 + /34X ¡+ /35X;

2 a; y ) + lIy 11E2( Ahora falta mostrar que E2( a; y ) ~

3

+ /36X3 + /37 Xi X3 O, cuando

y ~

O.

Por definición:

1

n

= -21.¿

11yl12 E2( a, y)

• 1=1

1

n

n

¿.

[Dij f( a + e y) - Dij f ( a) ]. yi . yj donde:

J=1

8 f(a)

n

¿¿ 2

s -

1Dij f ( a + c y ) -

n, f ( a ) 11y. yj 1

8X¡

'·• 1=1 J=1 .

8fea)

por desigualdad: triangular:

1

n

::; ,¿ ¿ 2. i=1

8X2

n

I"Dij f( a + e y) - Dij f( a )111y 112

afea)

j=1

y dividiendo por 11y 112,ya que asumimos

1 IE2(a, y )1s

pero cada derivada tenemos que:

n

Dij

por lo tanto, E2( a, y) teorema.

y las derivadas segundas son: 1 Dij f( a + e y) - Dij f ( a ) 1

.

~ Dij f ( a ), ~

82 fea) 8 21

J=1

es continua.

n, f ( a + e y)

8X3

O, obtenemos que:

n

¿¿

2'··1=1

v=

O, cuando

x

Por hipótesis

en el punto

O; demostrando

= así el

82 fea) 8 X¡ 8 X2

a,

cuando y ~ O y ~

=

82 fea) 8X¡8X3

82 fea) 8X28X3

r_

=

O

= 2

=

/37

=

O

=

8 fea) 8X38X¡ 2

=

8 fea) 8X38X2

43

Chacín I Análisis de Regresión y Superficies de Respuesta

42

sustituyendo g(1)

Chacín I Análisis de Regresión y Superficies de Respuesta

EJERCICIOS

se obtiene que:

=

f(a+y)

=

Vf( a ). y + -

- g(O)

DE APLICACION

- fea)

1

n

n

• 1=1

J=1

¿¿ 2' '. .

Sea la siguiente función escalar

n, f( a ) Yi yj f(

x, Xz, X3) = /30+ fh Xl + /32X2 + /33X3 + /34X ¡+ /35X;

2 a; y ) + lIy 11E2( Ahora falta mostrar que E2( a; y ) ~

3

+ /36X3 + /37 Xi X3 O, cuando

y ~

O.

Por definición:

1

n

= -21.¿

11yl12 E2( a, y)

• 1=1

1

n

n

¿.

[Dij f( a + e y) - Dij f ( a) ]. yi . yj donde:

J=1

8 f(a)

n

¿¿ 2

s -

1Dij f ( a + c y ) -

n, f ( a ) 11y. yj 1

8X¡

'·• 1=1 J=1 .

8fea)

por desigualdad: triangular:

1

n

::; ,¿ ¿ 2. i=1

8X2

n

I"Dij f( a + e y) - Dij f( a )111y 112

afea)

j=1

y dividiendo por 11y 112,ya que asumimos

1 IE2(a, y )1s

pero cada derivada tenemos que:

n

Dij

por lo tanto, E2( a, y) teorema.

y las derivadas segundas son: 1 Dij f( a + e y) - Dij f ( a ) 1

.

~ Dij f ( a ), ~

82 fea) 8 21

J=1

es continua.

n, f ( a + e y)

8X3

O, obtenemos que:

n

¿¿

2'··1=1

v=

O, cuando

x

Por hipótesis

en el punto

O; demostrando

= así el

82 fea) 8 X¡ 8 X2

a,

cuando y ~ O y ~

=

82 fea) 8X¡8X3

82 fea) 8X28X3

r_

=

O

= 2

=

/37

=

O

=

8 fea) 8X38X¡ 2

=

8 fea) 8X38X2

43

44

Chacín I Análisis de Regresión y Superficies de Respuesta

por lo tanto: f( a + y)

-

f( a )

=

Vf( a ). y

+

= ( Pl + 2P4Xl + ~

1 ,.

3

3

i=l

je I

II 2.

+ 11

Dij f( a ) Yi yj

y 112 E2( a, y )

+ P7X3 ) yi + (pz + 2P5M ) yz + (P3 + 3P6X;

(2~4Y ~ + P7 yi ys + 2P5 y; + P7 ya yi + 6P6X3Y ; )

2! en particular si consideramos a f [ ( 1, 2, O ) + ( yi, yz, Y3)]

=

Capítulo 3

+ P7Xl ) ys

MODELO DE DISEÑO EXPERIMENTAL

(1,2, O), entonces:

- f ( 1, 2, O)

=

=

(Pl + 2P4 ) yi + (pz + 4P5 ) yz + (P3 + P7) ys

+

~ (2 P4 Y ~ + P7 yr Y3 + 2P5 y; .+ P7 Y3 y: )

2!

que correspondería a la forma cuadrática que aproxima a f en el punto (1, 2, O).

Un modelo en estadística, es una descripción de una observación en términos de sus componentes, en otras palabras, consiste de una descripción algebraica junto con los supuestos concernientes a los componentes. La consideración del modelo, conduce al cálculo apropiado, pruebas y procedimientos inferenciales. Los modelos que se consideran en el diseño, corresponden a modelos aditivos que describen cada observación, como la suma de una media y un componente aleatorio. La media, dependiendo del modelo, consiste de una suma de componentes asociados con fuentes de variación. Con los modelos, se trata de establecer relaciones entre cantidades. Desde este punto de vista existen cuatro tipos de modelos:

Modelo lineal general Modelos cuantitativos Modelo de regresión

Modelo de diseño experimental Modelos cualitativos [

Modelo de componentes de varianza

44

Chacín I Análisis de Regresión y Superficies de Respuesta

por lo tanto: f( a + y)

-

f( a )

=

Vf( a ). y

+

= ( Pl + 2P4Xl + ~

1 ,.

3

3

i=l

je I

II 2.

+ 11

Dij f( a ) Yi yj

y 112 E2( a, y )

+ P7X3 ) yi + (pz + 2P5M ) yz + (P3 + 3P6X;

(2~4Y ~ + P7 yi ys + 2P5 y; + P7 ya yi + 6P6X3Y ; )

2! en particular si consideramos a f [ ( 1, 2, O ) + ( yi, yz, Y3)]

=

Capítulo 3

+ P7Xl ) ys

MODELO DE DISEÑO EXPERIMENTAL

(1,2, O), entonces:

- f ( 1, 2, O)

=

=

(Pl + 2P4 ) yi + (pz + 4P5 ) yz + (P3 + P7) ys

+

~ (2 P4 Y ~ + P7 yr Y3 + 2P5 y; .+ P7 Y3 y: )

2!

que correspondería a la forma cuadrática que aproxima a f en el punto (1, 2, O).

Un modelo en estadística, es una descripción de una observación en términos de sus componentes, en otras palabras, consiste de una descripción algebraica junto con los supuestos concernientes a los componentes. La consideración del modelo, conduce al cálculo apropiado, pruebas y procedimientos inferenciales. Los modelos que se consideran en el diseño, corresponden a modelos aditivos que describen cada observación, como la suma de una media y un componente aleatorio. La media, dependiendo del modelo, consiste de una suma de componentes asociados con fuentes de variación. Con los modelos, se trata de establecer relaciones entre cantidades. Desde este punto de vista existen cuatro tipos de modelos:

Modelo lineal general Modelos cuantitativos Modelo de regresión

Modelo de diseño experimental Modelos cualitativos [

Modelo de componentes de varianza

ChacínI Análisisde Regresióny Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

46

En los modelos de regresión es de interés primordial encontrar una ecuación que permita predecir los valores de un factor en estudio, mediante otros factores relacionados con él. Por ejemplo, predecir el rendimiento de un cultivo como maíz, a partir de factores tales como: número de mazorcas, número de granos por mazorca, peso de los granos, etc. En este caso el modelo sería:

donde: i

= 1, 2, 3 -

j

= 1, 2

Con notación matricial, esta ecuación puede ser escrita de la siguiente forma:

Yll Y12

En el caso de los modelos de diseño experimental, existe una situación diferente, ya que el interés no se centra en predecir el valor de un factor sino en comparar el efecto de dos o más factores. Por ejemplo, el modelo de diseño para tres tratamientos repeticiones, podría escribirse de la siguiente manera: Yll Y12 Y21 Y22 Y31 Y32

~ = ~ ~ = ~ = ~ = ~

+ + + + + +

TI TI T2 T2 T3 T3

+ + + + + +

Y21

Y22 Y31 Y32

Y dos

cll c12 c21 c22 c31 c32

Donde

es la j-ésima observación del i-ésimo tratamiento

error aleatorio no observable.

En un modelo de diseño, se le puede incluir la restricción de: (

O ~

1 1 O O 1 O 1 O

c12

1 O 1 O 1 O

O 1

1 O

O 1

[f:l

1>21

+

c22 c31 c32

y es un vector 6 x 1 de observaciones, Ü es un vector 4 x 1

Definición

A: Sea

y

un vector aleatorio observable n x 1 tal Y=Xü-+...Q

efecto del i-ésimo tratamiento

=

cll

que:

media poblacional

I Ti

1 1 O O

de parámetros desconocidos, Q es un vector 6 x 1 de errores no observables y X es una matriz cuyos elementos son ceros y unos. Al calcular, se tendrá que X es una matriz de rango 3 (incompleto), yen consecuencia, carecerá de inversa, lo cual constituye cierta dificultad que en general no se plantea en la teoría de Modelos Lineales Generales.

donde:

cij

47

ti + t2 + ts

O

y

~=

E

[~~~~- Yii] n i=l je l

;=}

El modelo se expresa en forma más compacta de la siguiente manera: ~ + Ti + cij

Donde X es una matriz n x p conocida que contiene sólo ceros y unos; 12 es un vector de parámetros desconocidas y f¡ un vector de variables aleatorias no observables. Por definición este es un modelo de Diseño Experimental. Dado que el rango de X no es completo tampoco lo será el de X' X, por lo que esta última no tendrá inversa. En general, un modelo de Diseño Experimental se escribirá de la siguiente forma: yij...m

= Jlij...m + c ij...m

ChacínI Análisisde Regresióny Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

46

En los modelos de regresión es de interés primordial encontrar una ecuación que permita predecir los valores de un factor en estudio, mediante otros factores relacionados con él. Por ejemplo, predecir el rendimiento de un cultivo como maíz, a partir de factores tales como: número de mazorcas, número de granos por mazorca, peso de los granos, etc. En este caso el modelo sería:

donde: i

= 1, 2, 3 -

j

= 1, 2

Con notación matricial, esta ecuación puede ser escrita de la siguiente forma:

Yll Y12

En el caso de los modelos de diseño experimental, existe una situación diferente, ya que el interés no se centra en predecir el valor de un factor sino en comparar el efecto de dos o más factores. Por ejemplo, el modelo de diseño para tres tratamientos repeticiones, podría escribirse de la siguiente manera: Yll Y12 Y21 Y22 Y31 Y32

~ = ~ ~ = ~ = ~ = ~

+ + + + + +

TI TI T2 T2 T3 T3

+ + + + + +

Y21

Y22 Y31 Y32

Y dos

cll c12 c21 c22 c31 c32

Donde

es la j-ésima observación del i-ésimo tratamiento

error aleatorio no observable.

En un modelo de diseño, se le puede incluir la restricción de: (

O ~

1 1 O O 1 O 1 O

c12

1 O 1 O 1 O

O 1

1 O

O 1

[f:l

1>21

+

c22 c31 c32

y es un vector 6 x 1 de observaciones, Ü es un vector 4 x 1

Definición

A: Sea

y

un vector aleatorio observable n x 1 tal Y=Xü-+...Q

efecto del i-ésimo tratamiento

=

cll

que:

media poblacional

I Ti

1 1 O O

de parámetros desconocidos, Q es un vector 6 x 1 de errores no observables y X es una matriz cuyos elementos son ceros y unos. Al calcular, se tendrá que X es una matriz de rango 3 (incompleto), yen consecuencia, carecerá de inversa, lo cual constituye cierta dificultad que en general no se plantea en la teoría de Modelos Lineales Generales.

donde:

cij

47

ti + t2 + ts

O

y

~=

E

[~~~~- Yii] n i=l je l

;=}

El modelo se expresa en forma más compacta de la siguiente manera: ~ + Ti + cij

Donde X es una matriz n x p conocida que contiene sólo ceros y unos; 12 es un vector de parámetros desconocidas y f¡ un vector de variables aleatorias no observables. Por definición este es un modelo de Diseño Experimental. Dado que el rango de X no es completo tampoco lo será el de X' X, por lo que esta última no tendrá inversa. En general, un modelo de Diseño Experimental se escribirá de la siguiente forma: yij...m

= Jlij...m + c ij...m

48

y

Chacín I Análisis de Regresión

Superficies de Respuesta

Así por ejemplo se tendrá:

Chacín I Análisis de Regresión y Superficies de Respuesta

49

También se tiene que:

a.- Para un diseño completamente aleatorio:

b.- Para un diseño de bloques al azar: I.l.ij

=

+

I.l.

Ti

+

Los estimadores propiedades:

~j

c.- Para un diseño en bloques al azar con submuestreo:

máximos verosímiles, tienen las siguientes

1.- Estimadores asintóticamente camente normales.

eficientes y óptimos, ·asintomáti-

2.- Estimadores consistentes simples y consistentes con error cuadrático. d.- Para un diseño cuadrado latino:

3.- Tienen la propiedad de ser estadísticos suficientes, mínimos, además de poseer la propiedad de invarianza.

Se plantean entonces dos hipótesis: A.B.-

son variables aleatorias, normales, no correlacionadas, con media cero y varianza 0-2.

Los estimadores mínimos cuadrados, propiedades:

presentan las siguientes

eij

son variables aleatorias, correlacionadas ( no necesariamente normales) con media Oy varianza 0-2.

eij

Estimación puntual: Tanto si se utiliza máxima verosimilitud en el caso A, como si se emplea mínimos cuadrados ordinarios en el caso B, se obtiene el mismo sistema de ecuaciones al igualar a cero las derivadas respecto a ~j.

X~ +

= =

(Y

=-

2X'Y

Y'Y s'e Y'Y derivando con respecto a ~ &' e

o~ X'X

6

2.- Con varianzas mínimas. Al deducir las ecuaciones normales para él, nos encontramos con que X'X carece de inversa (ya que es de rango incompleto). Cuando X'X tiene inversa, las ecuaciones normales poseen solución única, que son las estimaciones de los elementos de ~. Cuando X'X no tiene inversa, se presentan dos situaciones: 1.- No existe ningún vector ~ que satisfaga la ecuación:

Deducciones: Y e'e

1.- Estimadores insesgados.

X'Y

e

X'X~

X~)'

(Y

- X~)

- Y'X~- (X~ )'Y + (X~)'(X~) 2 (X~ )'Y

+

2X'X~

O

Ecuaciones Normales

X'Y

2.- Existe un número infinito de vectores que satisfacen la ecuación. Puede demostrarse que se verifica el último caso. Esto se prueba, utilizando un teorema de álgebra de matrices en el cual, si una matriz cuadrada X' X no tiene inversa y su rango es igual al de la matriz aumentada X'XIX'Y, existe entonces un número infinito de vectores que satisfacen la ecuación X'X ~ = X' Y. La matriz X'XIX'Y es la propia matriz X'X con X'Y como columna adicional. El hecho de que existan infinito números de vectores, que satisfagan la ecuación, no es una situación muy satisfactoria, ya que aún utilizando el mismo modelo e idénticas observaciones, llega-

48

y

Chacín I Análisis de Regresión

Superficies de Respuesta

Así por ejemplo se tendrá:

Chacín I Análisis de Regresión y Superficies de Respuesta

49

También se tiene que:

a.- Para un diseño completamente aleatorio:

b.- Para un diseño de bloques al azar: I.l.ij

=

+

I.l.

Ti

+

Los estimadores propiedades:

~j

c.- Para un diseño en bloques al azar con submuestreo:

máximos verosímiles, tienen las siguientes

1.- Estimadores asintóticamente camente normales.

eficientes y óptimos, ·asintomáti-

2.- Estimadores consistentes simples y consistentes con error cuadrático. d.- Para un diseño cuadrado latino:

3.- Tienen la propiedad de ser estadísticos suficientes, mínimos, además de poseer la propiedad de invarianza.

Se plantean entonces dos hipótesis: A.B.-

son variables aleatorias, normales, no correlacionadas, con media cero y varianza 0-2.

Los estimadores mínimos cuadrados, propiedades:

presentan las siguientes

eij

son variables aleatorias, correlacionadas ( no necesariamente normales) con media Oy varianza 0-2.

eij

Estimación puntual: Tanto si se utiliza máxima verosimilitud en el caso A, como si se emplea mínimos cuadrados ordinarios en el caso B, se obtiene el mismo sistema de ecuaciones al igualar a cero las derivadas respecto a ~j.

X~ +

= =

(Y

=-

2X'Y

Y'Y s'e Y'Y derivando con respecto a ~ &' e

o~ X'X

6

2.- Con varianzas mínimas. Al deducir las ecuaciones normales para él, nos encontramos con que X'X carece de inversa (ya que es de rango incompleto). Cuando X'X tiene inversa, las ecuaciones normales poseen solución única, que son las estimaciones de los elementos de ~. Cuando X'X no tiene inversa, se presentan dos situaciones: 1.- No existe ningún vector ~ que satisfaga la ecuación:

Deducciones: Y e'e

1.- Estimadores insesgados.

X'Y

e

X'X~

X~)'

(Y

- X~)

- Y'X~- (X~ )'Y + (X~)'(X~) 2 (X~ )'Y

+

2X'X~

O

Ecuaciones Normales

X'Y

2.- Existe un número infinito de vectores que satisfacen la ecuación. Puede demostrarse que se verifica el último caso. Esto se prueba, utilizando un teorema de álgebra de matrices en el cual, si una matriz cuadrada X' X no tiene inversa y su rango es igual al de la matriz aumentada X'XIX'Y, existe entonces un número infinito de vectores que satisfacen la ecuación X'X ~ = X' Y. La matriz X'XIX'Y es la propia matriz X'X con X'Y como columna adicional. El hecho de que existan infinito números de vectores, que satisfagan la ecuación, no es una situación muy satisfactoria, ya que aún utilizando el mismo modelo e idénticas observaciones, llega-

50

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

ríamos a las mismas ecuaciones normales, pero con estimaciones diferentes.

~j

51

Particionando la matriz X en la forma:

Es interesante ver si los estimadores ~j son insesgados, y por lo tanto observar si las soluciones de las ecuaciones normales son estimadores insesgados. Cualquier solución de X'X~ = X'Y debe ser una función lineal de las Y por lo que se escribiría:

~=

AY

donde A es una matriz de orden p depender de los elementos de X.

n

x

constante, la cual puede

Por ser insesgadas, se debería cumplir la condición:

~=

E (~)

=

E (A Y)

=

EA (X~ + E)

=

E (AX~)

Donde X, es un vector 1 x p que forma la i-ésima fila de X. Interesa saber si Xi~ es estimable para toda i. Por la definición B el conjunto de Xl~, X2~, ..., Xn~ constituye un conjunto de funciones estimables, si existen n vectores Al, A2,..., An tales que:

+ E (AE)

~ = AX~ + AE (E) = AX~ Ya que E (E) = O

Luego AX se cumple para todos los valores de ~j por lo que AX = 1. Pero I es la matriz identidad p x p cuyo rango es p, y el rango del producto de dos matrices no puede ser mayor que la de cualquiera de ambos. De acuerdo ala definición A, el rango de X es k < p por lo tanto, el rango de X es menor que el rango de A tal que E (AY) *- ~ y por lo tanto, no hay un estimador insesgado de ~.

En otras palabras, si existe una matriz A, de dimensión n x p, tal que E(AY) = X~, ya que si A, es la i-ésima fila de A y Xi~ es estimable, se tendrá: E(A1 Y) E (AY) = E

E(AY) =

E(A2Y)

En la mayoría de los casos, en el diseño del Modelo Experimental se está interesado en estimar ciertas combinaciones lineales de los parámetros, por lo tanto: Definición B: sea A un vector de p x 1 de constantes conocidas, se dirá que la combinación lineal de ~ dada por E(AY) = E

n

X'~= IXi

E(a'Y)

X2~

~i

Xn~

i=1

será una función estimable, si existe una combinación lineal de las Y cuyo valor esperado sea A~, en otras palabras A' ~ es estimable si existe un vector a de dimensión n x 1 tal que:

= A'~

Xl

Xl~

=

X2 ~

Xn

Si A = 1 entonces: E (I Y) es = E (Y) = E(X~ + E)= E (X~)+ E (E)= X~

50

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

ríamos a las mismas ecuaciones normales, pero con estimaciones diferentes.

~j

51

Particionando la matriz X en la forma:

Es interesante ver si los estimadores ~j son insesgados, y por lo tanto observar si las soluciones de las ecuaciones normales son estimadores insesgados. Cualquier solución de X'X~ = X'Y debe ser una función lineal de las Y por lo que se escribiría:

~=

AY

donde A es una matriz de orden p depender de los elementos de X.

n

x

constante, la cual puede

Por ser insesgadas, se debería cumplir la condición:

~=

E (~)

=

E (A Y)

=

EA (X~ + E)

=

E (AX~)

Donde X, es un vector 1 x p que forma la i-ésima fila de X. Interesa saber si Xi~ es estimable para toda i. Por la definición B el conjunto de Xl~, X2~, ..., Xn~ constituye un conjunto de funciones estimables, si existen n vectores Al, A2,..., An tales que:

+ E (AE)

~ = AX~ + AE (E) = AX~ Ya que E (E) = O

Luego AX se cumple para todos los valores de ~j por lo que AX = 1. Pero I es la matriz identidad p x p cuyo rango es p, y el rango del producto de dos matrices no puede ser mayor que la de cualquiera de ambos. De acuerdo ala definición A, el rango de X es k < p por lo tanto, el rango de X es menor que el rango de A tal que E (AY) *- ~ y por lo tanto, no hay un estimador insesgado de ~.

En otras palabras, si existe una matriz A, de dimensión n x p, tal que E(AY) = X~, ya que si A, es la i-ésima fila de A y Xi~ es estimable, se tendrá: E(A1 Y) E (AY) = E

E(AY) =

E(A2Y)

En la mayoría de los casos, en el diseño del Modelo Experimental se está interesado en estimar ciertas combinaciones lineales de los parámetros, por lo tanto: Definición B: sea A un vector de p x 1 de constantes conocidas, se dirá que la combinación lineal de ~ dada por E(AY) = E

n

X'~= IXi

E(a'Y)

X2~

~i

Xn~

i=1

será una función estimable, si existe una combinación lineal de las Y cuyo valor esperado sea A~, en otras palabras A' ~ es estimable si existe un vector a de dimensión n x 1 tal que:

= A'~

Xl

Xl~

=

X2 ~

Xn

Si A = 1 entonces: E (I Y) es = E (Y) = E(X~ + E)= E (X~)+ E (E)= X~

53

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión y Superficies de Respuesta

52

Suponiendo que se tienen k funciones estimables linealmente independientes;dadas por:

Teorema A.- Xp representa un conjunto de n funciones estimables, es decir cada elemento de E(Y) es estimable. El teorema expresa que E (Yij... m) es estimable. Si E( Yij) es estimable para toda i y i. J..I. + ti, J..I. + tz, J..I. + ts son estimables.

Este conjunto puede escribirse así:

B.- (X'XP) representa un conjunto de p funciones estimables. X'

Demostración

Si se particiona la matriz X' de dimensión p x n, en p filas; y sea Xi el vector que figura como i-ésima fila, entonces:

x'

1

X·2

X'=

p de rango k < r. Por las definiciones e' p. Sin embargo E(AY) = AXP, por lo tanto AX = e', pero AX tiene rango menor o igual que el rango r de X, lo que contradice el supuesto de que k < r. Queda así demostrado el siguiente teorema: Donde e' es una matriz k

x

B y C existe una matriz A de dimensión kxn, tal que E(AY)

=

En el modelo lineal general Y = Xp + e, existen exactamente r funciones estimables, linealmente independientes, si r es la característica de X.

X·n

Ejemplo: En consecuencia: E( X*Y)

=

X* E( Y)

=

X* (X P)

=

X*Xp

Luego X¡•Xp es estimable, puesto que E( X¡•y ) el i-ésimo elemento de X'Xp, es X;Xp por lo tanto

Suponiendo que partimos de un diseño aleatorizado con dos tratamientos y dos repeticiones.

=

X·¡ Xp, pero

X'Xp forma parte

Los modelos serían: Yu Y12

de p funciones estimables.

=

Y21 Definición C:

Sean el, e2, ..., et vectores p x 1 tales que elp, ezp, ..., etp, son estimables y que la característica de la matriz de orden p x t (t ::; p) es t

Se dice entonces que e1~, e2p, ..., etp, son funciones estimables linealmente independientes. Esto es, puesto que X'Xp es un conjunto de p funciones estimables y dado que XIX posee rango t < p, en el modelo lineal general hay al menos t funciones estimables linealmente independientes.

y 22

=

J..I.

+ TI

+

su

J..I.

+ TI

+

e12

J..I.

+ T2

+

e21

J..I.

+ T2

+

e22

desarrollando la ecuación:

y.

=

X12

+

~

completamente

53

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión y Superficies de Respuesta

52

Suponiendo que se tienen k funciones estimables linealmente independientes;dadas por:

Teorema A.- Xp representa un conjunto de n funciones estimables, es decir cada elemento de E(Y) es estimable. El teorema expresa que E (Yij... m) es estimable. Si E( Yij) es estimable para toda i y i. J..I. + ti, J..I. + tz, J..I. + ts son estimables.

Este conjunto puede escribirse así:

B.- (X'XP) representa un conjunto de p funciones estimables. X'

Demostración

Si se particiona la matriz X' de dimensión p x n, en p filas; y sea Xi el vector que figura como i-ésima fila, entonces:

x'

1

X·2

X'=

p de rango k < r. Por las definiciones e' p. Sin embargo E(AY) = AXP, por lo tanto AX = e', pero AX tiene rango menor o igual que el rango r de X, lo que contradice el supuesto de que k < r. Queda así demostrado el siguiente teorema: Donde e' es una matriz k

x

B y C existe una matriz A de dimensión kxn, tal que E(AY)

=

En el modelo lineal general Y = Xp + e, existen exactamente r funciones estimables, linealmente independientes, si r es la característica de X.

X·n

Ejemplo: En consecuencia: E( X*Y)

=

X* E( Y)

=

X* (X P)

=

X*Xp

Luego X¡•Xp es estimable, puesto que E( X¡•y ) el i-ésimo elemento de X'Xp, es X;Xp por lo tanto

Suponiendo que partimos de un diseño aleatorizado con dos tratamientos y dos repeticiones.

=

X·¡ Xp, pero

X'Xp forma parte

Los modelos serían: Yu Y12

de p funciones estimables.

=

Y21 Definición C:

Sean el, e2, ..., et vectores p x 1 tales que elp, ezp, ..., etp, son estimables y que la característica de la matriz de orden p x t (t ::; p) es t

Se dice entonces que e1~, e2p, ..., etp, son funciones estimables linealmente independientes. Esto es, puesto que X'Xp es un conjunto de p funciones estimables y dado que XIX posee rango t < p, en el modelo lineal general hay al menos t funciones estimables linealmente independientes.

y 22

=

J..I.

+ TI

+

su

J..I.

+ TI

+

e12

J..I.

+ T2

+

e21

J..I.

+ T2

+

e22

desarrollando la ecuación:

y.

=

X12

+

~

completamente

54

y

Chacín I Análisis de Regresión

Superficies de Respuesta

- [4~+2tl+2t2Jl 21l+2tl

entonces:

Yll

1 1 O

YI2

1 1 O 1 O 1 1 O 1

=

Y21 Y22

En

[~ 1

=

¿Y2i

I Ti = O

Aplicando la restricción Entonces:

E2I

j1

f¿¿Yij ¿Y1i

2ft+2t2

EI2

+

55

Chacín I Análisis de Regresión y Superficies de Respuesta

---+

+ t2

ti

E22

=

O

~ =Y..

de acuerdo a la ecuación normal X'X~

= X'Y

tenemos que:

lo cual implica

~] r~ ~] '1 l~~ r~ ~] [IIY;;l ri ~] [i

El determinante inversa.

de esta matriz es cero, por lo tanto, carece de

r

2

=

1 O

O

desarrollando tenemos:

1

Y

t2

= Y2i -

Y..

t2

Y;l

YI2

Y21

Y22

Sustituyendo: =

Y

+ ·(Ylj-Y'.)

Y12 = !l + TI + É12

=

Y

+ (Ylj - y ..) + E12

Y21 = !l + T2 + E21

=

Y + (Y2j - Y..) + E21

Y22 = !l + T2 + E22

=

Y

Yn =!l

+ TI +Eu

+

(Y

2j

-

Y ..)

+ En

+

E22

X'Y

J

O

X'Y

O

101

1 1

Yii - Y..

2

=

101

1

2

donde:

2

11 O

1 O

O

=

11 O

1 1

X'X =

tI

=

¿Ylj

¿Y2j

II(Yij)= II(Yij)

IIY.. == II[Y

+ II(Y.j .. +

+ Y..)+ IIcij

(y.j - Y..)+ Cij]

Restando a cada término y .. y elevando al cuadrado; tenemos:

54

y

Chacín I Análisis de Regresión

Superficies de Respuesta

- [4~+2tl+2t2Jl 21l+2tl

entonces:

Yll

1 1 O

YI2

1 1 O 1 O 1 1 O 1

=

Y21 Y22

En

[~ 1

=

¿Y2i

I Ti = O

Aplicando la restricción Entonces:

E2I

j1

f¿¿Yij ¿Y1i

2ft+2t2

EI2

+

55

Chacín I Análisis de Regresión y Superficies de Respuesta

---+

+ t2

ti

E22

=

O

~ =Y..

de acuerdo a la ecuación normal X'X~

= X'Y

tenemos que:

lo cual implica

~] r~ ~] '1 l~~ r~ ~] [IIY;;l ri ~] [i

El determinante inversa.

de esta matriz es cero, por lo tanto, carece de

r

2

=

1 O

O

desarrollando tenemos:

1

Y

t2

= Y2i -

Y..

t2

Y;l

YI2

Y21

Y22

Sustituyendo: =

Y

+ ·(Ylj-Y'.)

Y12 = !l + TI + É12

=

Y

+ (Ylj - y ..) + E12

Y21 = !l + T2 + E21

=

Y + (Y2j - Y..) + E21

Y22 = !l + T2 + E22

=

Y

Yn =!l

+ TI +Eu

+

(Y

2j

-

Y ..)

+ En

+

E22

X'Y

J

O

X'Y

O

101

1 1

Yii - Y..

2

=

101

1

2

donde:

2

11 O

1 O

O

=

11 O

1 1

X'X =

tI

=

¿Ylj

¿Y2j

II(Yij)= II(Yij)

IIY.. == II[Y

+ II(Y.j .. +

+ Y..)+ IIcij

(y.j - Y..)+ Cij]

Restando a cada término y .. y elevando al cuadrado; tenemos:

57

Chacín I Análisis de Regresión y Superficie de Respuestas

56

Chacín I Análisis de Regresión

y

Superficies de Respuesta

Restando a cada término Y .. y elevando al cuadrado; tenemos:

Este pue~e ser escrito en notación matricial como AX donde:

A

=

al2

[a"

a~1

a22

ami

am2

...

...

B,

:~" aln

mn

1

mxn

de manera que AX es conformable en el producto. Podemos además considerar los siguientes casos respecto a m y n, esto es: I.-

Suma de cuadrados total

=

Suma de cuadrados de tratamiento

+

Suma de cuadrados del error exp.

La restricción LTi- = O puede obviarse hallando la inversa de la matriz X'X mediante la inversa generalizada o por algún otro procedimiento para resolver matrices de rango incompleto.

Un procedimiento alternativo que se puede utilizar para resolver sistemas de ecuaciones cuyas matrices sean de rango incompleto es el de la inversa generalizada, que se describe a continuación. Considérese el siguiente sistema de ecuaciones lineales:

=

anXl + alzM aZlXl + aZ2M

+ a13Xa + a23X3

+ +

+ alnXn + aznXn

amlXl +

+

+

+ amnXn =bm

am3Xa

det. (A) "# O. la función es X = AI.B

n.

Si m> n y rango de A es "n" y además tiene solución única dada por:

I A'A I

"#

O el sistema

X = (A'A)'!. A'B, este resultado es fácil de ver ya que AX = B, multiplicamos ambos lados de la ecuación por A', ésto es A'AX = A'B, como I A'A I "# O, A'A posee inversa" ordinaria" , por lo tanto: (A'A)-l_(A'A) X = (A'A)-l. A'B ~ IX = (A'A)-l. A'B

INVERSA GENERALIZADA

am2X2

Si m = n, A es una matriz n x n (ó m x m), una matriz cuadrada, que tendrá SOLUCION UNICA si y solo si su determinante es distinto de cero, esto es:

bi

= ba

En el sistema de ecuaciones dado, si existe alguna relación entre ecuaciones, también debe existir entre los términos independientes del sistema para que tenga solución, ésto define un sistema "CONSISTENTE". Enunciemos el siguiente teorema: Teorema: Un conjunto de ecuaciones lineales resuelto si solo si, es "consistente".

puede

ser

Ocurre que en muchos problemas o situaciones se nos presenta un sistema de ecuaciones de la forma (matricial) AX = B, donde A es de orden m x n, no cuadrada, y es necesario encontrar su "inversa"; ésta ya no es la inversa "ordinaria", sino la inversa "generalizada".

57

Chacín I Análisis de Regresión y Superficie de Respuestas

56

Chacín I Análisis de Regresión

y

Superficies de Respuesta

Restando a cada término Y .. y elevando al cuadrado; tenemos:

Este pue~e ser escrito en notación matricial como AX donde:

A

=

al2

[a"

a~1

a22

ami

am2

...

...

B,

:~" aln

mn

1

mxn

de manera que AX es conformable en el producto. Podemos además considerar los siguientes casos respecto a m y n, esto es: I.-

Suma de cuadrados total

=

Suma de cuadrados de tratamiento

+

Suma de cuadrados del error exp.

La restricción LTi- = O puede obviarse hallando la inversa de la matriz X'X mediante la inversa generalizada o por algún otro procedimiento para resolver matrices de rango incompleto.

Un procedimiento alternativo que se puede utilizar para resolver sistemas de ecuaciones cuyas matrices sean de rango incompleto es el de la inversa generalizada, que se describe a continuación. Considérese el siguiente sistema de ecuaciones lineales:

=

anXl + alzM aZlXl + aZ2M

+ a13Xa + a23X3

+ +

+ alnXn + aznXn

amlXl +

+

+

+ amnXn =bm

am3Xa

det. (A) "# O. la función es X = AI.B

n.

Si m> n y rango de A es "n" y además tiene solución única dada por:

I A'A I

"#

O el sistema

X = (A'A)'!. A'B, este resultado es fácil de ver ya que AX = B, multiplicamos ambos lados de la ecuación por A', ésto es A'AX = A'B, como I A'A I "# O, A'A posee inversa" ordinaria" , por lo tanto: (A'A)-l_(A'A) X = (A'A)-l. A'B ~ IX = (A'A)-l. A'B

INVERSA GENERALIZADA

am2X2

Si m = n, A es una matriz n x n (ó m x m), una matriz cuadrada, que tendrá SOLUCION UNICA si y solo si su determinante es distinto de cero, esto es:

bi

= ba

En el sistema de ecuaciones dado, si existe alguna relación entre ecuaciones, también debe existir entre los términos independientes del sistema para que tenga solución, ésto define un sistema "CONSISTENTE". Enunciemos el siguiente teorema: Teorema: Un conjunto de ecuaciones lineales resuelto si solo si, es "consistente".

puede

ser

Ocurre que en muchos problemas o situaciones se nos presenta un sistema de ecuaciones de la forma (matricial) AX = B, donde A es de orden m x n, no cuadrada, y es necesario encontrar su "inversa"; ésta ya no es la inversa "ordinaria", sino la inversa "generalizada".

58

59

Chacin I Análisis de Regresión y Superficie de Respuestas

Chacin I Análisis de Regresión y Superficie de Respuestas

De aquí se puede definir lo siguiente:

Enunciemos el teorema siguiente: de A si y solo si

DEFINICIÓN: una inversa generalizada de A que también satisface AGAAG= AGse denomina inversa generalizada "Reflexiva".

Probaremos este teorema y para ello particionemos la matriz A como sigue:

¿Cuando AG es UNICA? Se dice que AG es única si satisface además las condiciones siguientes:

TEOREMA: AAGA=A.

AG es una inversa generalizada

1.- AAGA

es una columna de A con i

1, 2, ..., n

a1n

a21

al2 a22

ami

am2

amn

all de manera que A =

=

~n

Hágase AX = a, con i = 1,2,3, ..., n, de tal manera que si existe alguna relación lineal entre las filas de la matriz A también debe existir entre las filas del vector ai. Probemos en este sentido:' 1.- Supóngase que AGes una inversa generalizada de A entonces por ser AX = a. consistente para todo i, se tiene que AGAX = AGai, Vi ~ X = AGaitiene solución. Multiplicando ambos miembros por A, tenemos que AX = AAGai ~ A=AAGA. 2.-

A

=

2.- AGAAG =

AG (Reflexiva)

3.- (AAG)'

=

AAG

4.- (AGA),

=

AGA

TEOREMA: UNICA.

Toda matriz

A tiene inversa

generalizada

(AG)

1.-

Si A es cuadrada y además I A I "ordinaria" Al = AG (UNICA).

2.-

Si A = Onxm,entonces AG = Omxn. Se puede probar aquí la propiedad AAGA= A

"#

O, entonces

posee inversa

3.- Si Amx ny el rango de A es r, se hace una factorización de rango completo: A = Al. A2, donde Al(m x r) rango completo por columnas y A2(r x n) rango completo por filas. Como I A~. Al

I A~. A2 I

"#

I

"#

O, existe (A~ Al ).1, además

O Y existe (A~ As ):'

Algoritmo para el cálculo de la inversa generalizada

Supóngase que AAGA = A Y AX = Y es consistente.

Para calcular la inversa generalizada de una matriz A (no única), veamos el siguiente algoritmo sencillo:

AAGA = A ~ AAG(AX)= AX, como AX = Y, AAGY = AX; ello indica que Al existe ya que AX = Y es consistente.

Sea A una matriz de orden m x n y r (A) = r particionemos a la matriz A como sigue:

Así Al AAGY = Al AX ~ IAGY = IX ~ AGY = X, donde AGY es una solución del problema, así AGes una inversa "generalizada".

A 11 A= [ A

Hagamos la siguiente observación: Si AG es una matriz que satisface solo AAGA= A (no es única).

rango completo (r), en caso contrario se hacen operaciones fundamen-

21

A 12 ] / A 'supongase

I Au I

"#

/

O Y es de orden r, esto es

d e

22

58

59

Chacin I Análisis de Regresión y Superficie de Respuestas

Chacin I Análisis de Regresión y Superficie de Respuestas

De aquí se puede definir lo siguiente:

Enunciemos el teorema siguiente: de A si y solo si

DEFINICIÓN: una inversa generalizada de A que también satisface AGAAG= AGse denomina inversa generalizada "Reflexiva".

Probaremos este teorema y para ello particionemos la matriz A como sigue:

¿Cuando AG es UNICA? Se dice que AG es única si satisface además las condiciones siguientes:

TEOREMA: AAGA=A.

AG es una inversa generalizada

1.- AAGA

es una columna de A con i

1, 2, ..., n

a1n

a21

al2 a22

ami

am2

amn

all de manera que A =

=

~n

Hágase AX = a, con i = 1,2,3, ..., n, de tal manera que si existe alguna relación lineal entre las filas de la matriz A también debe existir entre las filas del vector ai. Probemos en este sentido:' 1.- Supóngase que AGes una inversa generalizada de A entonces por ser AX = a. consistente para todo i, se tiene que AGAX = AGai, Vi ~ X = AGaitiene solución. Multiplicando ambos miembros por A, tenemos que AX = AAGai ~ A=AAGA. 2.-

A

=

2.- AGAAG =

AG (Reflexiva)

3.- (AAG)'

=

AAG

4.- (AGA),

=

AGA

TEOREMA: UNICA.

Toda matriz

A tiene inversa

generalizada

(AG)

1.-

Si A es cuadrada y además I A I "ordinaria" Al = AG (UNICA).

2.-

Si A = Onxm,entonces AG = Omxn. Se puede probar aquí la propiedad AAGA= A

"#

O, entonces

posee inversa

3.- Si Amx ny el rango de A es r, se hace una factorización de rango completo: A = Al. A2, donde Al(m x r) rango completo por columnas y A2(r x n) rango completo por filas. Como I A~. Al

I A~. A2 I

"#

I

"#

O, existe (A~ Al ).1, además

O Y existe (A~ As ):'

Algoritmo para el cálculo de la inversa generalizada

Supóngase que AAGA = A Y AX = Y es consistente.

Para calcular la inversa generalizada de una matriz A (no única), veamos el siguiente algoritmo sencillo:

AAGA = A ~ AAG(AX)= AX, como AX = Y, AAGY = AX; ello indica que Al existe ya que AX = Y es consistente.

Sea A una matriz de orden m x n y r (A) = r particionemos a la matriz A como sigue:

Así Al AAGY = Al AX ~ IAGY = IX ~ AGY = X, donde AGY es una solución del problema, así AGes una inversa "generalizada".

A 11 A= [ A

Hagamos la siguiente observación: Si AG es una matriz que satisface solo AAGA= A (no es única).

rango completo (r), en caso contrario se hacen operaciones fundamen-

21

A 12 ] / A 'supongase

I Au I

"#

/

O Y es de orden r, esto es

d e

22

* o.

tales por fila, para obtener una matriz Bn tal que I Bn Entonces definase AGcomo: AG

=

II.- Si r(A) = m (rango completo por filas) entonces:

-

AG = A'(AA')·l

A-lO] 11

[ O

61

Chacín I Análisis de Regresión y Superficie de Respuestas

Chacín I Análisis de Regresión y Superficies de Respuesta

60

y AAG = AA' (AA')·l

=1

Con estos teoremas expuestos y demostrados, se tiene la herramienta para resolver sistemas de ecuaciones donde la matriz de coeficientes no es cuadrada.

O

Otra consideración es como calcular la inversa generalizada un producto de dos matrices, digamos B.C, donde Bmxr y r(B) Crxn y r(C) r. Bajo estas condiciones (BC)G CG.BG.

=

=

de

= r,

La utilización de este tipo de inversa es muy común en problemas de regresión y modelos lineales donde con frecuencia se hace necesario su uso para estimaciones de parámetros. Inversa generalizadas Moore-Penrose y condicional

AAGA=[Al1

AI2] A21 . A21A~11AI2

Dado que existe una matriz de escalares digamos K, tal que K [AnA12]

=

[AztAz2]

-~ KAn = Azl y KAl2

existe, implica que K = AzI. A~i por lo tanto Az2

= Az2,

pero como A~i

= A21 A~i. A12.

Ahora bien, si no es posible particionar a A de manera que 0, entonces de tomar las matrices P y Q no singulares tal que:

I An I

*

PAQ

=

[Bu B12 B21 B22

J,

con Bn de orden r x r, y I Bll I

*

0, así

TEOREMA: 1.- Si r (A)

=

a la matriz

Amxn y enunciemos

el siguiente

Sea Arox n, entonces:

n (rango completo por columnas) entonces:

AG= (A'A)·lA'

AGA

= 1, por

=

=

,ª,

Esto se debe, particularmente, a que la matriz de X'X no posee inversa regular, por ser singular y/o rectangular; sin embargo, se han desarrollado procedimientos algebraicos capaces de resolver el problema a través del cálculo de inversa generalizada, las cuales juegan un papel importante en muchas aplicaciones estadísticas. Inversa Moore-Penrose

( Am

)

En 1995 Penrose desarrolló la experiencia de una matriz inversa única Ampara cualquier matriz A dada.

unica Consideremos teorema:

La dependencia lineal entre los vectores columnas de la matriz X'X, ha traído como resultado que ella sea no ortogonal, impidiendo la solución a las ecuaciones lineales de la forma y X~ + para la estimación, ~ (X'X)·l X'Y, en los modelos de regresión múltiple.

Definición. Sea A una matriz de orden p x q y Am una matriz inversa única de A de orden q x p; tal que satisface las siguientes condiciones: 1.- AAmA = A (3.1)

otro lado; IIL- AAm es simétrica

* o.

tales por fila, para obtener una matriz Bn tal que I Bn Entonces definase AGcomo: AG

=

II.- Si r(A) = m (rango completo por filas) entonces:

-

AG = A'(AA')·l

A-lO] 11

[ O

61

Chacín I Análisis de Regresión y Superficie de Respuestas

Chacín I Análisis de Regresión y Superficies de Respuesta

60

y AAG = AA' (AA')·l

=1

Con estos teoremas expuestos y demostrados, se tiene la herramienta para resolver sistemas de ecuaciones donde la matriz de coeficientes no es cuadrada.

O

Otra consideración es como calcular la inversa generalizada un producto de dos matrices, digamos B.C, donde Bmxr y r(B) Crxn y r(C) r. Bajo estas condiciones (BC)G CG.BG.

=

=

de

= r,

La utilización de este tipo de inversa es muy común en problemas de regresión y modelos lineales donde con frecuencia se hace necesario su uso para estimaciones de parámetros. Inversa generalizadas Moore-Penrose y condicional

AAGA=[Al1

AI2] A21 . A21A~11AI2

Dado que existe una matriz de escalares digamos K, tal que K [AnA12]

=

[AztAz2]

-~ KAn = Azl y KAl2

existe, implica que K = AzI. A~i por lo tanto Az2

= Az2,

pero como A~i

= A21 A~i. A12.

Ahora bien, si no es posible particionar a A de manera que 0, entonces de tomar las matrices P y Q no singulares tal que:

I An I

*

PAQ

=

[Bu B12 B21 B22

J,

con Bn de orden r x r, y I Bll I

*

0, así

TEOREMA: 1.- Si r (A)

=

a la matriz

Amxn y enunciemos

el siguiente

Sea Arox n, entonces:

n (rango completo por columnas) entonces:

AG= (A'A)·lA'

AGA

= 1, por

=

=

,ª,

Esto se debe, particularmente, a que la matriz de X'X no posee inversa regular, por ser singular y/o rectangular; sin embargo, se han desarrollado procedimientos algebraicos capaces de resolver el problema a través del cálculo de inversa generalizada, las cuales juegan un papel importante en muchas aplicaciones estadísticas. Inversa Moore-Penrose

( Am

)

En 1995 Penrose desarrolló la experiencia de una matriz inversa única Ampara cualquier matriz A dada.

unica Consideremos teorema:

La dependencia lineal entre los vectores columnas de la matriz X'X, ha traído como resultado que ella sea no ortogonal, impidiendo la solución a las ecuaciones lineales de la forma y X~ + para la estimación, ~ (X'X)·l X'Y, en los modelos de regresión múltiple.

Definición. Sea A una matriz de orden p x q y Am una matriz inversa única de A de orden q x p; tal que satisface las siguientes condiciones: 1.- AAmA = A (3.1)

otro lado; IIL- AAm es simétrica

62

Chacín I Análisis de Regresión

y

Superficie de Respuestas

63

Chacín I Análisis de Regresión y Superficie de Respuestas

IV.- AmAes simétrica

(3.5)

Una manera de obtener Amestá basada en la factorización de A, de orden p x q, como: (3.2)

A = KL

Donde K y L tienen rangos completos por columnas y filas respectivamente, igual al x« Entonces Am se defme como: Am = L' (K' AV)·l K'

(3.3)

Entonces de (3.4) y (3.5) se obtiene que: Aai = TAn A12 = AuH como I An ]

*

&2 = TA12 A22 = A12H,respectivamente O existe A~ll por lo tanto;

Para obtener K y L utilizamos el siguiente procedimiento: (3.6)

Dada la matriz

r A=

ll

al2

aa 21

a12

a1q a2q

ahora:

I

I lap1

lI

ap2

apq

J

A

Para hallar la matriz inversa s», es necesario obtener K y L a través de la factorización de rango completo. Para ello, supóngase que Ap x q tiene rango r y luego particionemos a la matriz A en : A12]

A22

.

, donde Au es de orden r y I Al1 I •

*

(3.7)

A Donde "K" es de orden p de rango r.

O

x

r y de rango r y "L" de orden r

x

q

Propiedades de Am: Como las filas [A21 A22] son dependientes de las filas [An A12], existe una matriz T única de escalares tal que:

=

T

[

A

22

J

12

de A, es la traspuesta

2.-

La inversa de Ames igual a A:

son dependientes

r de las columnas l J ; una matriz H, de escalares única, tal que: A Alll

La inversa de la traspuesta AmdeA:

(3.4)

A12l

De manera similar como las columnas

1.-

3.- El rango de la inversa de A es igual al rango de A: r (Am) = r (A)

de la inversa

62

Chacín I Análisis de Regresión

y

Superficie de Respuestas

63

Chacín I Análisis de Regresión y Superficie de Respuestas

IV.- AmAes simétrica

(3.5)

Una manera de obtener Amestá basada en la factorización de A, de orden p x q, como: (3.2)

A = KL

Donde K y L tienen rangos completos por columnas y filas respectivamente, igual al x« Entonces Am se defme como: Am = L' (K' AV)·l K'

(3.3)

Entonces de (3.4) y (3.5) se obtiene que: Aai = TAn A12 = AuH como I An ]

*

&2 = TA12 A22 = A12H,respectivamente O existe A~ll por lo tanto;

Para obtener K y L utilizamos el siguiente procedimiento: (3.6)

Dada la matriz

r A=

ll

al2

aa 21

a12

a1q a2q

ahora:

I

I lap1

lI

ap2

apq

J

A

Para hallar la matriz inversa s», es necesario obtener K y L a través de la factorización de rango completo. Para ello, supóngase que Ap x q tiene rango r y luego particionemos a la matriz A en : A12]

A22

.

, donde Au es de orden r y I Al1 I •

*

(3.7)

A Donde "K" es de orden p de rango r.

O

x

r y de rango r y "L" de orden r

x

q

Propiedades de Am: Como las filas [A21 A22] son dependientes de las filas [An A12], existe una matriz T única de escalares tal que:

=

T

[

A

22

J

12

de A, es la traspuesta

2.-

La inversa de Ames igual a A:

son dependientes

r de las columnas l J ; una matriz H, de escalares única, tal que: A Alll

La inversa de la traspuesta AmdeA:

(3.4)

A12l

De manera similar como las columnas

1.-

3.- El rango de la inversa de A es igual al rango de A: r (Am) = r (A)

de la inversa

64

Chacín / Análisis de Regresión y Superficie de Respuestas

4.- Si A es una matriz simétrica, la inversa Ames también simétrica, es decir: Si A' = A ~ (Am)'

=

Am

Se ha demostrado que la inversa generalizada de una matriz posee varias de las propiedades de la inversa de una matriz no singular. Estas propiedades pueden ser muy usadas en varias áreas de la estadística, especialmente en la solución de sistemas de ecuaciones lineales. Así, la teoría de sistemas de ecuaciones lineales juega un papel muy importante en estadística como en muchos otros campos científicos. Se puede discutir otro tipo de inversa, la cual es llamada inversa condicional Ac (también llamada inversa generalizada normalizada). Una inversa condicional Ac de una matriz, es generalmente más fácil de calcular que la inversa Moore-Penrose (A»).

Inversa condicional ( A e

)

Anteriormente se definió la matriz Am,a través de las cuatro condiciones de Moore-Penrose. En las ecuaciones (3.1) se define Am, como la matriz inversa única de A, pero existen muchas matrices Ac que sólo satisfacen: AAcA=A

(3.8)

La inversa de Moore-Penrose de una matriz A, es también una inversa condicional de A, pero una inversa condicional de A no necesariamente es la inversa Moore-Penrose de A. Una inversa condicional se caracteriza por ser no-única y sólo satisface la condición I en (3.1). A continuación daremos dos derivaciones de la matriz inversa condicional a través de un algoritmo sencillo y otro en forma general. Supóngase que en Apxqla submatriz principal Ai i es no singular de rango rA entonces, la inversa generalizada condicional se obtiene a partir de la partición de A como: (3.9) donde las matrices nulas en Ac tienen órdenes apropiados para hacer que Acsea de orden q x p.

64

Chacín I Análisis de Regresión y Superficie de Respuestas

Chacín I Análisis de Regresión y Superficie de Respuestas

4.- SiAes una matriz simétrica, la inversa Ames también simétrica, es decir: i A'

=

A ~ (Am)'

=

Am

Se ha demostrado que la inversa generalizada de una matriz posee vmas de las propiedades de la inversa de una matriz no singular, Estas propiedades pueden ser muy usadas en varias áreas de la estadística, especialmente en la solución de sistemas de ecuacioIJeslineales. Así, la teoría de sistemas de ecuaciones lineales juega UJ¡ papel muy importante en estadística como en muchos otros campos ientíficos. Se puede discutir otro tipo de inversa, la cual es llamada inversa condicional Ac (también llamada inversa generalizada I¡ormalizada). Una inversa condicional Ac de una matriz, es generallllente más fácil de calcular que la inversa Moore-Penrose (A»).

65

No es necesario que la submatriz no singular de orden esté ubicada en la posición An , ésta puede estar en cualquier lugar en A. El siguiente algoritmo, entonces, puede ser desarrollado: En A encuentre cualquier submatriz de orden igual al rango de A. Denótelo mediante W. Invierta y transponga (W-1),. En A reemplace cada elemento correspondientes de (W-1),.

de W

mediante

los elementos

Reemplace todos los otros elementos de A por ceros. Transponga la matriz resultante.

Inversa condicional ( A e )

El resultado es Ac,una inversa generalizada de A.

A teriormente se definió la matriz Am, a través de las cuatro condiciones de Moore-Penrose. En las ecuaciones (3.1) se define Am, como la matriz inversa única de A, pero existen muchas matrices Ac que sólosatisfacen: (3.8)

La matriz XI X La matriz (X' X) tiene una función importante en los procedimientos estadísticos donde se utilizan ecuaciones mínimas cuadráticas X'Xb X'y, las' siguientes, son las propiedades de. la inversa condicional de X'X,esto es; (X'X)c:

=

L&inversa de Moore-Penrose de una matriz A, es también una inversa condicional de A, pero una inversa condicional de A no necesar'amente es la inversa Moore-Penrose de A.

[ «W- ),)c]'

Ulla inversa condicional se caracteriza por ser no-única y sólo satisface la condición 1 en (3.1).

X(X'X)c X'X X.

A Continuación daremos dos derivaciones de la matriz inversa condiciOnala través de un algoritmo sencillo y otro en forma generaL Supóngase que en Apxqla submatriz principal An es no singular de ran~o rA.entonces, la inversa generalizada condicional se obtiene a partir de la partición de A como: es

A

e qxp

=

[AllO -1

00]

(3.9)

donde 1 s matrices nulas en Ac tienen órdenes apropiados para hacer que Ac¡¡¡eade orden q x p.

1

es también una inversa condicional de X'X.

=

X; por lo tanto (X'X)c es una inversa generalizada de

X(X'X)cX' es simétrica, si (X' X)c lo es. Ejemplo Se tienen los resultados de un experimento donde el rendimiento en fruto es una función de la materia seca en hojas (Xi) y en raíces (X2). Se desea estimar un modelo de regresión múltiple.

66

Chacin I Análisis de Regresión y Superficie de Respuestas

Expresado matricialmente:

y

=

X~

A

~ =

x

.J,

67

Modelo estimadó:

+ ~

y

Chacín I Análisis de Regresión y Superficies de Respuesta

(X'X)-l X'Y

(3.10)

donde:

.J,

[1~~ 112

2055

1 5 10

1928

1 6 12

1887 2181

148 1 8 16

2602

1 7 14

1940

1 5 10

1900

148

3322

1 8 16

2000 2670

1 5 10

2550

=

1 7 14 1 6 12

2021

1 4 12

1946

1 5 10

2042

1 5 10

2462

1 6 12

2220 3121 1914 1981 1830

1 5 10 1 7 14 148 1 5 10 1 6 12

X'X

=

658

224J 1316

224 1316 2632

Verificamos que:

IX' Xl

=

20 112

112 22~ 658 1316

224 1316 263

IX'XI

=

34.637.120 + 33.015.808 + 33.015.808 (33.015.808 + 33.015.808 + 34.637.120) = O

[::]

+

Como IX' Xl = O, supone dependencia lineal entre las columnas de la matriz 3 x 3, en consecuencia la inversa de X' X: O

(X'X)-l

= --

1

¡X'X¡

.C

2464 -1232

ol -1232] 616

donde C es la matriz de cofactores. Evidentemente, (X' X)-l será indeterminado, por lo tanto, la matriz así formada no tendrá inversa regular. En este caso se puede resolver el sistema de ecuaciones desarrollando el uso de la matriz inversa generalizada de MoorePenrose o condicional.

66

Chacin I Análisis de Regresión y Superficie de Respuestas

Expresado matricialmente:

y

=

X~

A

~ =

x

.J,

67

Modelo estimadó:

+ ~

y

Chacín I Análisis de Regresión y Superficies de Respuesta

(X'X)-l X'Y

(3.10)

donde:

.J,

[1~~ 112

2055

1 5 10

1928

1 6 12

1887 2181

148 1 8 16

2602

1 7 14

1940

1 5 10

1900

148

3322

1 8 16

2000 2670

1 5 10

2550

=

1 7 14 1 6 12

2021

1 4 12

1946

1 5 10

2042

1 5 10

2462

1 6 12

2220 3121 1914 1981 1830

1 5 10 1 7 14 148 1 5 10 1 6 12

X'X

=

658

224J 1316

224 1316 2632

Verificamos que:

IX' Xl

=

20 112

112 22~ 658 1316

224 1316 263

IX'XI

=

34.637.120 + 33.015.808 + 33.015.808 (33.015.808 + 33.015.808 + 34.637.120) = O

[::]

+

Como IX' Xl = O, supone dependencia lineal entre las columnas de la matriz 3 x 3, en consecuencia la inversa de X' X: O

(X'X)-l

= --

1

¡X'X¡

.C

2464 -1232

ol -1232] 616

donde C es la matriz de cofactores. Evidentemente, (X' X)-l será indeterminado, por lo tanto, la matriz así formada no tendrá inversa regular. En este caso se puede resolver el sistema de ecuaciones desarrollando el uso de la matriz inversa generalizada de MoorePenrose o condicional.

y

Chacín I Análisis de Regresión

68

Superficie de Respuestas

69

Chacin I Análisis de Regresión y Superficie de Respuestas

(X' X) = A, por lo tanto:

- Y K' AL'

(X'X)m =L' (K'X'XLT1 K' entonces la matriz X'X = A, puede ser particionada:

[ 112

11

658

así de (3.3)

-l

20 112

A-1

20 112J ~ [ 112 658

112944 379680J l76384 2240700

=

J

A-

=

(X'X)-

1,045 -0,035

= [~

-0,177] 0,006

20 112 O ] [ 112 658 2

por lo tanto, obtenemos una inversa única de (X'X): A21= [224 1316]

r

=

(X'X)m

1316

l

1316lx2

[

=

-0,035

0,024

]

La solución de 3.10 será: [O

2]

r

112 658 2x2 1.

20 112J-1 [ 112 658

P

=

1,068 0~27 -0,036 -0,018

l

-0,073

224J . [ 1316

-0,035

~ =

ahora, la partición de X' X = A quedará

-0~54] 0,012·

[ 44572] 257203

0,024

514406

r8::::~1 98,55J

20

=

j

0,012

Se deja como ejercicio probar que AAmA = A. -1

20 112

K

-0,354l

1,068 0,527 -0,036 -0,018

-0,073

a través de (3.6) obtenemos T y H

T1x2 =[224

r

224]

A12 =

Y

( 11~

Así el Modelo de Regresión múltiple estimado es: A

L

=

[1 H]

O = [~

1

Y

~l

entonces:

K' =

20 112 al 112 658 2J

L'=

11 lo lo

rl

= 849,94

+ 49,27Xl

+ 98,55X2

No hay duda que los valores obtenidos de los ~, dependerán de la inversa generalizada que se utilice, por esta razón los coeficientes PO,Pl,P2, serán estimaciones sesgadas de ~o, ~1 y ~2 respectivamente. Es de notar que en este problema se truncaron el número de decimales en su transcripción. Se recomienda al estudiante utilizar todos los decimales posibles para mayor exactitud al chequear las respuestas.

y

Chacín I Análisis de Regresión

68

Superficie de Respuestas

69

Chacin I Análisis de Regresión y Superficie de Respuestas

(X' X) = A, por lo tanto:

- Y K' AL'

(X'X)m =L' (K'X'XLT1 K' entonces la matriz X'X = A, puede ser particionada:

[ 112

11

658

así de (3.3)

-l

20 112

A-1

20 112J ~ [ 112 658

112944 379680J l76384 2240700

=

J

A-

=

(X'X)-

1,045 -0,035

= [~

-0,177] 0,006

20 112 O ] [ 112 658 2

por lo tanto, obtenemos una inversa única de (X'X): A21= [224 1316]

r

=

(X'X)m

1316

l

1316lx2

[

=

-0,035

0,024

]

La solución de 3.10 será: [O

2]

r

112 658 2x2 1.

20 112J-1 [ 112 658

P

=

1,068 0~27 -0,036 -0,018

l

-0,073

224J . [ 1316

-0,035

~ =

ahora, la partición de X' X = A quedará

-0~54] 0,012·

[ 44572] 257203

0,024

514406

r8::::~1 98,55J

20

=

j

0,012

Se deja como ejercicio probar que AAmA = A. -1

20 112

K

-0,354l

1,068 0,527 -0,036 -0,018

-0,073

a través de (3.6) obtenemos T y H

T1x2 =[224

r

224]

A12 =

Y

( 11~

Así el Modelo de Regresión múltiple estimado es: A

L

=

[1 H]

O = [~

1

Y

~l

entonces:

K' =

20 112 al 112 658 2J

L'=

11 lo lo

rl

= 849,94

+ 49,27Xl

+ 98,55X2

No hay duda que los valores obtenidos de los ~, dependerán de la inversa generalizada que se utilice, por esta razón los coeficientes PO,Pl,P2, serán estimaciones sesgadas de ~o, ~1 y ~2 respectivamente. Es de notar que en este problema se truncaron el número de decimales en su transcripción. Se recomienda al estudiante utilizar todos los decimales posibles para mayor exactitud al chequear las respuestas.

Capítulo 4

ANALISIS DE REGRESION El modelo de regresión lineal múltiple

En los trabajos de investigación es necesario emplear técnicas estadísticas que permitan interpretar los resultados y de esta forma poder llegar a conclusiones valederas que permitan al investigador aceptar o rechazar las hipótesis planteadas inicialmente e inclusive formular nuevas hipótesis, una de esas técnicas estadísticas de gran utilidad en los investigadores es el análisis de regresión, el cual es necesario cuando se quiere encontrar relaciones entre las variables o establecer ecuaciones de predicción. Mallows (1973), menciona los siguientes usos de la ecuación de regresión: a.- Descripción b.- Predicción y estimación c.- Extrapolación d.- Estimación de parámetros e.- Control f.- Construcción del modelo. El Análisis de Regresión requiere el cumplimiento de una serie de supuestos necesarios para su aplicación siendo éstos de gran importancia para evitar conclusiones erradas. Dichos supuestos han sido ampliamente discutidos por muchos autores (Linares y Chacín 1986).

72

Chacín I Análisis de Regresión y Superficies de Respuesta

Estos supuestos serían resumidamente: a.- Homogeneidad de la varianza de errores b.- Normalidad de los errores c.- Independencia d.- Aditividad de los efectos. Para el estudio del cumplimiento de los supuestos y alternativas de soluciones se tendrá que realizar algunos análisis como serían: a.- Examen de residuales b.- Estudios y análisis de la autocorrelación c.- Estudio y análisis de la multicolinealidad.

Chacín I Análisis de Regresión

Por ejemplo, en un ensayo con cítricas donde se evalúa la dosificación de Nitrógeno (N), Fósforo (P) y Potasio (K), se podría establecer un modelo que relacione el rendimiento con las variables regresaras (N,P,K), en este' caso, estas variables regresaras son controladas pero también se podría establecer relaciones entre el rendimiento con número de frutos, grosor del tallo y diámetro de la copa, que son variables aleatorias e inclusive establecer la relación del rendimiento con ambos tipos de variables. El análisis de regresión nos permitirá estudiar esas relaciones con el fin de llegar a conclusiones de interés para los investigadores. Graybill (1961), expresa que uno de los propósitos de la ciencia es describir y predecir los eventos en el mundo en que vivimos y una forma es mediante modelos que relacionen cualidades del mundo real. Chacín y Meneses (1984) y Cobo (1976), señalan algunas ideas expresadas por Bunge, Kempthorne, .Federer, Gill, Fisher, Neter y Graybill. Una relación funcional entre grupos de eventos en el mundo

73

Superficies de Respuesta

real es un modelo y aunque la relación no sea exacta sino aproximada es invalorable -la predicción, por consiguiente cuando se dice que una relación funcional existe entre un grupo de variables es en forma muy aproximada. La función del modelo es simular el comportamiento de un sistema bajo ciertas condiciones. La simulación puede encontrarse mediante un modelo matemático que puede ser una ecuación o sistema de ecuaciones que representan cuantitativamente la hipótesis formulada en relación al sistema bajo consideración y que envuelve variables aleatorias y parámetros. Si la ecuación es lineal en los parámetros el modelo se convierte en un modelo lineal, dentro de estos modelos, el modelo de regresión lineal es uno de los más importantes.

Estos procedimientos han sido ampliamente discutidos por muchos autores Linares y Chacín (1986) y Chacín y Meneses (1984). En la investigación agrícola cuando el investigador mide el efecto que pueda producir determinado tratamiento sobre algunas características particulares que son de su interés (rendimiento, número de frutos; grosor del tallo, diámetros de la copa, etc.), no descarta la posibilidad de que pueda existir alguna relación o asociación entre una variable dependiente y algunas variables independientes o regresaras que en algunos casos son controladas y en otras aleatorias o ambos casos.

y

DESCRIPCION

DE LOS DATOS Y DEL MODELO

Los datos consisten de n observaciones sobre una variable dependiente y y de p variables independientes Xi, X2, ... , Xp. Las observaciones son usualmente presentadas de la siguiente manera: Observaciones

y

x,

X2

X3

x,

1

Yl

Xll

X2l

X3l

Xpl

2

Y2

Xl2

M2

X32

Xp2

3

Y3

Xl3

X23

X33

Xp3

n

Yn

Xln

X2n

X3n

Xpn

Las relaciones entre la variable Y con las variables Xi, M, Xa, ... , Xp se formula por el modelo lineal general de regresión de la siguiente forma: Y=XP+¡:;

= vector X = matriz P = vector ¡:; = vector

y

(n x 1) de respuesta (n x p) de variables independientes (p x 1) de constante desconocidas .(n x 1) aleatorio de errores supuestos

(4.1)

72

Chacín I Análisis de Regresión y Superficies de Respuesta

Estos supuestos serían resumidamente: a.- Homogeneidad de la varianza de errores b.- Normalidad de los errores c.- Independencia d.- Aditividad de los efectos. Para el estudio del cumplimiento de los supuestos y alternativas de soluciones se tendrá que realizar algunos análisis como serían: a.- Examen de residuales b.- Estudios y análisis de la autocorrelación c.- Estudio y análisis de la multicolinealidad.

Chacín I Análisis de Regresión

Por ejemplo, en un ensayo con cítricas donde se evalúa la dosificación de Nitrógeno (N), Fósforo (P) y Potasio (K), se podría establecer un modelo que relacione el rendimiento con las variables regresaras (N,P,K), en este' caso, estas variables regresaras son controladas pero también se podría establecer relaciones entre el rendimiento con número de frutos, grosor del tallo y diámetro de la copa, que son variables aleatorias e inclusive establecer la relación del rendimiento con ambos tipos de variables. El análisis de regresión nos permitirá estudiar esas relaciones con el fin de llegar a conclusiones de interés para los investigadores. Graybill (1961), expresa que uno de los propósitos de la ciencia es describir y predecir los eventos en el mundo en que vivimos y una forma es mediante modelos que relacionen cualidades del mundo real. Chacín y Meneses (1984) y Cobo (1976), señalan algunas ideas expresadas por Bunge, Kempthorne, .Federer, Gill, Fisher, Neter y Graybill. Una relación funcional entre grupos de eventos en el mundo

73

Superficies de Respuesta

real es un modelo y aunque la relación no sea exacta sino aproximada es invalorable -la predicción, por consiguiente cuando se dice que una relación funcional existe entre un grupo de variables es en forma muy aproximada. La función del modelo es simular el comportamiento de un sistema bajo ciertas condiciones. La simulación puede encontrarse mediante un modelo matemático que puede ser una ecuación o sistema de ecuaciones que representan cuantitativamente la hipótesis formulada en relación al sistema bajo consideración y que envuelve variables aleatorias y parámetros. Si la ecuación es lineal en los parámetros el modelo se convierte en un modelo lineal, dentro de estos modelos, el modelo de regresión lineal es uno de los más importantes.

Estos procedimientos han sido ampliamente discutidos por muchos autores Linares y Chacín (1986) y Chacín y Meneses (1984). En la investigación agrícola cuando el investigador mide el efecto que pueda producir determinado tratamiento sobre algunas características particulares que son de su interés (rendimiento, número de frutos; grosor del tallo, diámetros de la copa, etc.), no descarta la posibilidad de que pueda existir alguna relación o asociación entre una variable dependiente y algunas variables independientes o regresaras que en algunos casos son controladas y en otras aleatorias o ambos casos.

y

DESCRIPCION

DE LOS DATOS Y DEL MODELO

Los datos consisten de n observaciones sobre una variable dependiente y y de p variables independientes Xi, X2, ... , Xp. Las observaciones son usualmente presentadas de la siguiente manera: Observaciones

y

x,

X2

X3

x,

1

Yl

Xll

X2l

X3l

Xpl

2

Y2

Xl2

M2

X32

Xp2

3

Y3

Xl3

X23

X33

Xp3

n

Yn

Xln

X2n

X3n

Xpn

Las relaciones entre la variable Y con las variables Xi, M, Xa, ... , Xp se formula por el modelo lineal general de regresión de la siguiente forma: Y=XP+¡:;

= vector X = matriz P = vector ¡:; = vector

y

(n x 1) de respuesta (n x p) de variables independientes (p x 1) de constante desconocidas .(n x 1) aleatorio de errores supuestos

(4.1)

74

Chacin I Análisis de Regresión y Superficies de Respuesta

donde: E(E) = O

,

2

V(E)=

Y E(E E) =0' In

O'

Chacín I Análisis de Regresión

2

(4.2) (X'X)-l

Los valores de Xi son fijos

Las constantes ~o, lh, ~2, ..., pp son los coeficientes de regresión, los cuales en su expresión clásica son interpretados como el incremento en la variable Y que- se corresponde a una unidad de incremento en Xi cuando las otras variables se mantienen constantes. Los coeficientes ~i son estimados haciendo mínimo la suma de cuadrados de residuales, lo cual es conocido como el método de los mínimos cuadrados. Formalmente, el método consiste en minimizar la expresión: n

75

=

C

=

[Cl! C12

C12

1)

C22

Cl

e,

i , j = 1,2, ..., p

Cpp

La varianza del estimador mínimo cuadrado será:

. SUPUESTOS DEL MODELO POBLACIONAL

n

LE~ = L(Yi ie l

Superficies de Respuesta

Si se obtiene la matriz (X'X)-l, y la llamamos C entonces, se puede denotar al elemento Cjj, donde j = 1, 2, ... p, en la matriz de suma de productos y cuadrados corregidos.

Expandiendo la expresión matricial del modelo nos queda:

i = 1, 2, 3, ... , n.

y

-

Po -

~1

X1i- P2 X2i

- .•. -pp

Xp)2

(4.3)

ie l

donde las ecuaciones cuadrados serían:

normales

para

los estimadores

mínimos

Sea el modelo lineal general descrito en la ecuación (4.2)_ En el se deben cumplir los siguientes supuestos: a.- Homogeneidad de varianza de errores:

(X'X)~=

(4.4)

X'Y

Este sistema tiene solución única si y solo si la matriz X'X tiene inversa. (X'X)-l (X'X)~ = (X'X)-l X'Y

(4.5)

Ei V(E;)

=

con E (Ei) = O

0'2

b.- Independencia de errores: Cov (si, Ej) = O

C.l.- E(Y;) = E(po

~ = (X'X)-l X'Y

(4.6)

~o

1 Xll

X21

XPI

131 = P P2

1 X12

X22

XP2

1 X13

X23

Xp3

i:f;

J

+ PIXli + P2X2i+

debido a que:

E (Ei) =

c.2_- V(Yi = V(Ei) = 0'2,

+ PpXp;) O

debido a que:

V(po) = V(PIXl;) = V(P2Xz;)

=

= V(PpXp;)= O

y = d.- Independencia de los Yi

Pp

Y

c_-Homogeneidad de varianza de las observaciones

con lo cual se tiene:

X

N(O,O'2I),

1

x.,

X2rr

Xpn

Cov ('ÚYj)

= O

i

:f;

j

74

Chacin I Análisis de Regresión y Superficies de Respuesta

donde: E(E) = O

,

2

V(E)=

Y E(E E) =0' In

O'

Chacín I Análisis de Regresión

2

(4.2) (X'X)-l

Los valores de Xi son fijos

Las constantes ~o, lh, ~2, ..., pp son los coeficientes de regresión, los cuales en su expresión clásica son interpretados como el incremento en la variable Y que- se corresponde a una unidad de incremento en Xi cuando las otras variables se mantienen constantes. Los coeficientes ~i son estimados haciendo mínimo la suma de cuadrados de residuales, lo cual es conocido como el método de los mínimos cuadrados. Formalmente, el método consiste en minimizar la expresión: n

75

=

C

=

[Cl! C12

C12

1)

C22

Cl

e,

i , j = 1,2, ..., p

Cpp

La varianza del estimador mínimo cuadrado será:

. SUPUESTOS DEL MODELO POBLACIONAL

n

LE~ = L(Yi ie l

Superficies de Respuesta

Si se obtiene la matriz (X'X)-l, y la llamamos C entonces, se puede denotar al elemento Cjj, donde j = 1, 2, ... p, en la matriz de suma de productos y cuadrados corregidos.

Expandiendo la expresión matricial del modelo nos queda:

i = 1, 2, 3, ... , n.

y

-

Po -

~1

X1i- P2 X2i

- .•. -pp

Xp)2

(4.3)

ie l

donde las ecuaciones cuadrados serían:

normales

para

los estimadores

mínimos

Sea el modelo lineal general descrito en la ecuación (4.2)_ En el se deben cumplir los siguientes supuestos: a.- Homogeneidad de varianza de errores:

(X'X)~=

(4.4)

X'Y

Este sistema tiene solución única si y solo si la matriz X'X tiene inversa. (X'X)-l (X'X)~ = (X'X)-l X'Y

(4.5)

Ei V(E;)

=

con E (Ei) = O

0'2

b.- Independencia de errores: Cov (si, Ej) = O

C.l.- E(Y;) = E(po

~ = (X'X)-l X'Y

(4.6)

~o

1 Xll

X21

XPI

131 = P P2

1 X12

X22

XP2

1 X13

X23

Xp3

i:f;

J

+ PIXli + P2X2i+

debido a que:

E (Ei) =

c.2_- V(Yi = V(Ei) = 0'2,

+ PpXp;) O

debido a que:

V(po) = V(PIXl;) = V(P2Xz;)

=

= V(PpXp;)= O

y = d.- Independencia de los Yi

Pp

Y

c_-Homogeneidad de varianza de las observaciones

con lo cual se tiene:

X

N(O,O'2I),

1

x.,

X2rr

Xpn

Cov ('ÚYj)

= O

i

:f;

j

76

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión

Los supuestos de Y¡ son consecuencia de los supuestos de e¡ , ya que este término es el que transforma a Y¡ en variable aleatoria y toda función de variable aleatoria también es aleatoria.

y

77

Superficies de Respuesta

Y1•

Xu

X21

XkI

Y2

X12•

X22•

Xk2

Yn

X1n,

X2n

Xkn

e.- Aditividad de los efectos Esta aditividad de los efectos aparece intrínseca en la expresión del modelo descrito en la ecuación (4.2)

METODO DE LOS MINIMOS CUADRADOS

El modelo que fue asumido por el experimentador puede ser escrito como:

":;'

Este procedimiento es básico para el desarrollo de los estimadores del Modelo de Regresión y por supuesto, para la Metodología de Superficies de Respuesta (MSR), ya que a través de la MSR se generan modelos de regresión. Fundamentalmente en la MSR se está interesado en obtener una respuesta TI, el cuál es una función de k variables independientes que sería de la forma siguiente: TI

=

f(XI,

X2, ... ,

Xi)

donde n > k. La combinación de niveles experimentales en los X es llamado el diseño experimental.

(i = 1, 2, ..., n) donde ei es una variable ale atoria , Se asume que e¡ es independiente, con media cero y varianza 0-2, ésto es en términos del siguiente vector de errores:

(4.8)

La forma "TI" es usualmente desconocida o muy compleja; es necesario aproximarla mediante un polinomio de bajo orden. Por ejemplo si se tienen tres variables (Xi, X2, X3). El modelo asumido sería:

=

E

=

=

E(e) 0, y Covie) 0-21. El modelo de la ecuación (4.9) puede ser escrito muy convenientemente en la form~: (4.9) donde ~o, ~l, ... , ~23, son coeficientes de regresión, "Y" es la variable de respuesta y e es el error experimental. Las variables Xi, Xz, ... Xs, son cuantitativas y medidas en escala continua. Suponiendo que la función f en la ecuación (4.8) es aproximadamente un modelo lineal en los X. Asumimos que para nuestra discusión que esta aproximación es adecuada, aunque de acuerdo a la discusión general siguiente, puede ser alterada fácilmente para ser consistente con una aproximación de alto orden. Suponiendo que para varias combinaciones de los X, los datos son escritos en la forma siguiente:

y = X~ + e

(4.10)

donde:

y=

[~: Yn

P

PI P2

r" l~k

Y

X=

1 Xn

XZI

1 Xl2

X22

1

x.,

XZn

76

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión

Los supuestos de Y¡ son consecuencia de los supuestos de e¡ , ya que este término es el que transforma a Y¡ en variable aleatoria y toda función de variable aleatoria también es aleatoria.

y

77

Superficies de Respuesta

Y1•

Xu

X21

XkI

Y2

X12•

X22•

Xk2

Yn

X1n,

X2n

Xkn

e.- Aditividad de los efectos Esta aditividad de los efectos aparece intrínseca en la expresión del modelo descrito en la ecuación (4.2)

METODO DE LOS MINIMOS CUADRADOS

El modelo que fue asumido por el experimentador puede ser escrito como:

":;'

Este procedimiento es básico para el desarrollo de los estimadores del Modelo de Regresión y por supuesto, para la Metodología de Superficies de Respuesta (MSR), ya que a través de la MSR se generan modelos de regresión. Fundamentalmente en la MSR se está interesado en obtener una respuesta TI, el cuál es una función de k variables independientes que sería de la forma siguiente: TI

=

f(XI,

X2, ... ,

Xi)

donde n > k. La combinación de niveles experimentales en los X es llamado el diseño experimental.

(i = 1, 2, ..., n) donde ei es una variable ale atoria , Se asume que e¡ es independiente, con media cero y varianza 0-2, ésto es en términos del siguiente vector de errores:

(4.8)

La forma "TI" es usualmente desconocida o muy compleja; es necesario aproximarla mediante un polinomio de bajo orden. Por ejemplo si se tienen tres variables (Xi, X2, X3). El modelo asumido sería:

=

E

=

=

E(e) 0, y Covie) 0-21. El modelo de la ecuación (4.9) puede ser escrito muy convenientemente en la form~: (4.9) donde ~o, ~l, ... , ~23, son coeficientes de regresión, "Y" es la variable de respuesta y e es el error experimental. Las variables Xi, Xz, ... Xs, son cuantitativas y medidas en escala continua. Suponiendo que la función f en la ecuación (4.8) es aproximadamente un modelo lineal en los X. Asumimos que para nuestra discusión que esta aproximación es adecuada, aunque de acuerdo a la discusión general siguiente, puede ser alterada fácilmente para ser consistente con una aproximación de alto orden. Suponiendo que para varias combinaciones de los X, los datos son escritos en la forma siguiente:

y = X~ + e

(4.10)

donde:

y=

[~: Yn

P

PI P2

r" l~k

Y

X=

1 Xn

XZI

1 Xl2

X22

1

x.,

XZn

78

Chacín I Análisis de Regresión y Superficies de Respuesta

79

Chacín I Análisis de Regresión y Superficies de Respuesta

El modelo de la ecuación (4.10) se refiere al modelo lineal general. El lector puede realmente observar que el modelo lineal general es fácilmente aplicable a modelos polinomiales, mayores a las de primer orden. Por ejemplo, supóngase que el modelo asumido es un modelo cuadrático en dos variables, ésto es, la respuesta en el i-ésimo tratamiento que envuelve los niveles (Xu, X2i) es dado por:

La suma ~e los cuadrados de los errores o desviaciones a partir de la respuesta observada para el valor. estimado L puede ser escrito así:

.L

= r:y -

XP)'

r:y

XP)

(4.12)

entonces: L = Y'Y - (XP )'Y - Y'Xp donde i así:

=

1, 2, .., n > 6. La matriz X y el vector

P pueden

+ CXP)' Xp Y'Y -p 'X'Y - Y'Xp +p 'X'X P Y'Y - 2P 'X'Y +p 'X'X P

ser escritas

Para encontrar Po

X

=



Xll

X21

X~l

X~l

X12

X22

X~2

X~2

Xll· X21 X12,X22

X1n

X2n

X~n

X1n

p=

X~n

ap

P2 Pu

X2n

p: aL

P1

(4.13)

=

-2X'Y

+ 2(X'X) P

igualando a cero:

P22

(X'X) P

P12

=

X'Y

(4.14)

Asumiendo que XIX es un matriz no singular, se tendrá que: En el modelo general la atención se centra en la estimación de los parámetros del vector p. El método de los mínimos cuadrados es un procedimiento de estimación útil, particularmente para los modelos de la forma de la ecuación (4.10). Dada la matriz X, una función de los niveles preseleccionados, y el vector Y de respuesta; el método de los mínimos cuadrados utiliza como estimador de p , al vector que resulta en un valor mínimo:

n

L

= 2)~=E'E j=L

P=

(X'X):l

X'Y

(4.15)

Las ecuaciones dadas por (4.14) son llamadas "ecuaciones normales" para la estimación de p. Para el modelo de regresión de primer orden de la ecuación. (4.8) estas ecuaciones son:

r

In

».

I

¿xii

I

l

¿X2i ¿XliX2i ¿X;i

», ¿XliX"

¿X2iXh ¿X~i

1 Po~ 1I PI

j

P2 Pk

r¿V. 1 ¿X'liYi I =

¿X2>Yij l¿~kiYi

(4.16)

78

Chacín I Análisis de Regresión y Superficies de Respuesta

79

Chacín I Análisis de Regresión y Superficies de Respuesta

El modelo de la ecuación (4.10) se refiere al modelo lineal general. El lector puede realmente observar que el modelo lineal general es fácilmente aplicable a modelos polinomiales, mayores a las de primer orden. Por ejemplo, supóngase que el modelo asumido es un modelo cuadrático en dos variables, ésto es, la respuesta en el i-ésimo tratamiento que envuelve los niveles (Xu, X2i) es dado por:

La suma ~e los cuadrados de los errores o desviaciones a partir de la respuesta observada para el valor. estimado L puede ser escrito así:

.L

= r:y -

XP)'

r:y

XP)

(4.12)

entonces: L = Y'Y - (XP )'Y - Y'Xp donde i así:

=

1, 2, .., n > 6. La matriz X y el vector

P pueden

+ CXP)' Xp Y'Y -p 'X'Y - Y'Xp +p 'X'X P Y'Y - 2P 'X'Y +p 'X'X P

ser escritas

Para encontrar Po

X

=



Xll

X21

X~l

X~l

X12

X22

X~2

X~2

Xll· X21 X12,X22

X1n

X2n

X~n

X1n

p=

X~n

ap

P2 Pu

X2n

p: aL

P1

(4.13)

=

-2X'Y

+ 2(X'X) P

igualando a cero:

P22

(X'X) P

P12

=

X'Y

(4.14)

Asumiendo que XIX es un matriz no singular, se tendrá que: En el modelo general la atención se centra en la estimación de los parámetros del vector p. El método de los mínimos cuadrados es un procedimiento de estimación útil, particularmente para los modelos de la forma de la ecuación (4.10). Dada la matriz X, una función de los niveles preseleccionados, y el vector Y de respuesta; el método de los mínimos cuadrados utiliza como estimador de p , al vector que resulta en un valor mínimo:

n

L

= 2)~=E'E j=L

P=

(X'X):l

X'Y

(4.15)

Las ecuaciones dadas por (4.14) son llamadas "ecuaciones normales" para la estimación de p. Para el modelo de regresión de primer orden de la ecuación. (4.8) estas ecuaciones son:

r

In

».

I

¿xii

I

l

¿X2i ¿XliX2i ¿X;i

», ¿XliX"

¿X2iXh ¿X~i

1 Po~ 1I PI

j

P2 Pk

r¿V. 1 ¿X'liYi I =

¿X2>Yij l¿~kiYi

(4.16)

81

Chacín I Análisis de Regresión y Superficies de Respuesta Chacín I Análisis de Regresión Y Superficies de Respuesta

80 Sesgo

y

l}

varianza de los estimadores mínimos cuadrados

Se revisará brevemente el sesgo y la varianza del estimador del ., y - X~ + s y al vector ~, considerando el modelo d e regresión ~

».

¿X2i

¿X~i ¿XliX2i

=

¿X~i

estimador de ~:

».

-1

¿XliXki o

2

... ¿X2iXk.i ¿X~

~ =

(X'X)·lX'Y E(~) E{( X'X ).l[X' (X~ + c)1) = ~ + E[ (X'X ).lX'c]

=

Si la E(ci)

=

O para

1

= '1, 2,

=

E[ (X'X)·lX'c] E (~) Esto implica que cada

PRUEBA DE HIPOTESIS EN EL MODELO DE REGRESION

... , n O

= ~

Para la realización de las pruebas de hipótesis es necesario establecer los siguientes supuestos:

uno de los elementos

de

~ son

estimadores insesgados de 13· En el desarrollo del Diseño de Experimentos aplicados a la Metodología de Superficies de respuesta es conveni:nte mvestl~ar las características d~ la matriz varianza-covarianza de 13, éstas senan: Cov(~)

= E(~-~)(~-I3)' =

COy[ (X'X)·l X'Y]

Si se considera que (X'X)·lX' contiene sólo valores fijos y la COy y

=

a.-

e

-

N (O,

O'21n)

b.- Los Yi son funciones lineales de los distribuyen normalmente. c.-

~-

Eí ,

de modo que también se

N [~, 0'2 (X'X)-l]

Para este caso, la matriz X tiene rango p, donde p = k+ 1 y k es el número variables independientes del modelo, el esquema del análisis de la varianza sería: Tabla 4. L Análisis de la varianza para el modelo de regresión

In, se obtiene:

O'2

COy(~)

= [(X'X)·lX']

In [(X'X)·lX'] '.

O'2

F. de V.

G. de L.

Regresión

p

SC. ~ 'X'Y

realizando la simplificación correspondiente COy(~)

=

(X'X)·1

O'2

CM ~'X'Y p

(4.17)

Esta ecuación (4.17) es muy importante, ya que implica que la varianza de los estimadores en ~ está dada por los elementos de la diagonal de la matriz (X'X)·l y cada término multiplicado por 0'2 y la varianza de los elementos del vector ~ que se encuentran fuera de la diagonal principal multiplicando por 0'2 son las covarianzas.

Residual

Y'Y -I3'X'Y

n - p

n-p Total

n

Y'Y

En el caso de un modelo de regresión polinomial, el investigador estaría más interesado en realizar una partición adicional del modelo de regresión. Supongamos por ejemplo un modelo de una función de regresión polinomial. cuadrática, en este caso es necesario dividir la suma de cuadrados de la regresión, en los efectos lineales cuadráticos

81

Chacín I Análisis de Regresión y Superficies de Respuesta Chacín I Análisis de Regresión Y Superficies de Respuesta

80 Sesgo

y

l}

varianza de los estimadores mínimos cuadrados

Se revisará brevemente el sesgo y la varianza del estimador del ., y - X~ + s y al vector ~, considerando el modelo d e regresión ~

».

¿X2i

¿X~i ¿XliX2i

=

¿X~i

estimador de ~:

».

-1

¿XliXki o

2

... ¿X2iXk.i ¿X~

~ =

(X'X)·lX'Y E(~) E{( X'X ).l[X' (X~ + c)1) = ~ + E[ (X'X ).lX'c]

=

Si la E(ci)

=

O para

1

= '1, 2,

=

E[ (X'X)·lX'c] E (~) Esto implica que cada

PRUEBA DE HIPOTESIS EN EL MODELO DE REGRESION

... , n O

= ~

Para la realización de las pruebas de hipótesis es necesario establecer los siguientes supuestos:

uno de los elementos

de

~ son

estimadores insesgados de 13· En el desarrollo del Diseño de Experimentos aplicados a la Metodología de Superficies de respuesta es conveni:nte mvestl~ar las características d~ la matriz varianza-covarianza de 13, éstas senan: Cov(~)

= E(~-~)(~-I3)' =

COy[ (X'X)·l X'Y]

Si se considera que (X'X)·lX' contiene sólo valores fijos y la COy y

=

a.-

e

-

N (O,

O'21n)

b.- Los Yi son funciones lineales de los distribuyen normalmente. c.-

~-

Eí ,

de modo que también se

N [~, 0'2 (X'X)-l]

Para este caso, la matriz X tiene rango p, donde p = k+ 1 y k es el número variables independientes del modelo, el esquema del análisis de la varianza sería: Tabla 4. L Análisis de la varianza para el modelo de regresión

In, se obtiene:

O'2

COy(~)

= [(X'X)·lX']

In [(X'X)·lX'] '.

O'2

F. de V.

G. de L.

Regresión

p

SC. ~ 'X'Y

realizando la simplificación correspondiente COy(~)

=

(X'X)·1

O'2

CM ~'X'Y p

(4.17)

Esta ecuación (4.17) es muy importante, ya que implica que la varianza de los estimadores en ~ está dada por los elementos de la diagonal de la matriz (X'X)·l y cada término multiplicado por 0'2 y la varianza de los elementos del vector ~ que se encuentran fuera de la diagonal principal multiplicando por 0'2 son las covarianzas.

Residual

Y'Y -I3'X'Y

n - p

n-p Total

n

Y'Y

En el caso de un modelo de regresión polinomial, el investigador estaría más interesado en realizar una partición adicional del modelo de regresión. Supongamos por ejemplo un modelo de una función de regresión polinomial. cuadrática, en este caso es necesario dividir la suma de cuadrados de la regresión, en los efectos lineales cuadráticos

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

82

e interacciones de primer orden de los estimadores de los parámetros 13, con el objeto de explorar la significación de cada uno de los efectos.

y el estimador ~o sería: n

¿Yi

Para ilustrar los cálculos necesarios en la construcción de la Tabla 4.1 consideremos el siguiente modelo;

=

130 + I3lXl + 132M +

130 =~=y

+ I3kM + Ei

n

para los estimadores

y la siguiente transformación:

Yi

=

130 + I3l(Xli - Xl) + 132~2i - X2)

+ ... + I3K{Xki - Xk) + Ei

donde los Xi son los valores promedios de los Xi en la muestra donde = 1, 2,..,k.

COy

Si realizamos la estimación:

1

n

131

r

811

811

812

.. 8

kk

Residual

n

¿(Xui=¡

La suma de productos entre Xi

=

.

8ky

y

Xi, por ejemplo serían para Xi

L(XIi-

Po

8C

-2

1 k

nY ~1 81y+

n-k-1

+...+ I3k 8kY

¿Y¡2

n

i=l

M

X¡)(X2i- X2)

82y

n

Total y

~2

diferencia

'"

X¡)2

n 812

82y

G.deL.

Regresión de Xi, X2 ... , Xn

es la suma de cuadrados corregidos de la columna de los Xl

=

1

[SIY

lj J . I II

Tabla 4.2. Análisis de Varianza del Modelo de Regresión de primer orden

(4.18)

822

811

82k

El Análisis de Varianza con la partición de los grados de libertad para la regresión sería la siguiente:

O

Regresión debido a 811

Slk ,1

822

~2

F. deV

donde

812

l~k

O

COy 132-

~1' ~2' ···'~k

l

j

~o

83

Un cuadro similar puede construírse para el easo de la regresión polinomial cuadrática.

i=¡

Los términos 8iY serían productos entre los Xi y los Y por ejemplo, para Xl y Y

ESTIMADOR

DE cr2

n

8lY

=

¿(X¡ii=¡

X¡)(Y¡- Y)

Inherente al problema de la regresión, es importante encontrar el estimador de la varianza del error o residuaL Describiremos este estimador en base al modelo lineal general de la sección anterior.

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

82

e interacciones de primer orden de los estimadores de los parámetros 13, con el objeto de explorar la significación de cada uno de los efectos.

y el estimador ~o sería: n

¿Yi

Para ilustrar los cálculos necesarios en la construcción de la Tabla 4.1 consideremos el siguiente modelo;

=

130 + I3lXl + 132M +

130 =~=y

+ I3kM + Ei

n

para los estimadores

y la siguiente transformación:

Yi

=

130 + I3l(Xli - Xl) + 132~2i - X2)

+ ... + I3K{Xki - Xk) + Ei

donde los Xi son los valores promedios de los Xi en la muestra donde = 1, 2,..,k.

COy

Si realizamos la estimación:

1

n

131

r

811

811

812

.. 8

kk

Residual

n

¿(Xui=¡

La suma de productos entre Xi

=

.

8ky

y

Xi, por ejemplo serían para Xi

L(XIi-

Po

8C

-2

1 k

nY ~1 81y+

n-k-1

+...+ I3k 8kY

¿Y¡2

n

i=l

M

X¡)(X2i- X2)

82y

n

Total y

~2

diferencia

'"

X¡)2

n 812

82y

G.deL.

Regresión de Xi, X2 ... , Xn

es la suma de cuadrados corregidos de la columna de los Xl

=

1

[SIY

lj J . I II

Tabla 4.2. Análisis de Varianza del Modelo de Regresión de primer orden

(4.18)

822

811

82k

El Análisis de Varianza con la partición de los grados de libertad para la regresión sería la siguiente:

O

Regresión debido a 811

Slk ,1

822

~2

F. deV

donde

812

l~k

O

COy 132-

~1' ~2' ···'~k

l

j

~o

83

Un cuadro similar puede construírse para el easo de la regresión polinomial cuadrática.

i=¡

Los términos 8iY serían productos entre los Xi y los Y por ejemplo, para Xl y Y

ESTIMADOR

DE cr2

n

8lY

=

¿(X¡ii=¡

X¡)(Y¡- Y)

Inherente al problema de la regresión, es importante encontrar el estimador de la varianza del error o residuaL Describiremos este estimador en base al modelo lineal general de la sección anterior.

Chacín I Análisisde Regresión y Superficiesde Respuesta

84

85

Chacín I Análisisde Regresión Y Superficiesde Respuesta

=

SC Residual

El valor del estadístico entonces:

Y'Y _ n.'X'Y r'

=

Y'Y - [(X'X)-lX'Y)' X'Y

=

Y'Y.- Y'X(X'X)-lX'Y

=

Y' [In - X(X'X)-lX']V

Fcalc

Se nota que SC Residual es una forma cuadrática

de los

y~

cuya matriz sería:

=

F para la prueba de hipótesis

sería

CM Regresion CM Residual

p

=k + 1

k

= N° de variables

Independientes

Ftab = Fk,n-p

= 1: -

P Si consideramos

X (X'X)-lX'

el valor

esperado

de la

SC Residual

y

ANALISIS DE RESIDUALES

sustituimos; Y E(Y'PY) E(e' Ps)

= = =

+

X~

e

E(e' Pe) Traza P

0'2

la traza de Ip es p, por lo tanto

=

Tr X'X(X'X)-l

=

Tr Ip

- Tr X(X'X)-lX'

y resulta

traza P

=

traza P

=

traza

(In -X(X'X)-l X')

n- p .

E(SC Residual)

=

0'2

(n - p)

Si se calcula el cuadrado medio del residual CM Residual

se

=

que es un estimador insesgado de

Residual n-p

0'2,

=

P

El análisis presentado en esta parte es muy usado y válido no solamente en modelos de Regresión Lineal y No Lineal sino también en modelos de Componentes de Varianza, De hecho este análisis es aplicable a cualquier situación donde un modelo es ajustado a las medidas de variación no explicadas (en forma de conjunto de residuales), están disponibles para examinarlas, Los residuales se definen como las diferencias ei = Yi - V, i = 1, 2, __o, n, donde Yi es una observación y Vi' es el correspondiente valor fijo obtenido por el uso de la ecuación de regresión ajustadas. Se puede ver de la definición que los residuales son las diferencias entre lo que es observado y lo que es predicho por la ecuación de regresión, ésto es, la cantidad que la ecuación de regresión no explica. Entonces se puede considerar a los ei como los errores observados, si el modelo es correcto. Ahora, en la ejecución del análisis de regresión se tienen establecidas ciertas suposiciones acerca de los errores; los supuestos usuales son, que los errores son independientes, tienen media cero, varianza constantes 0'2, y siguen una distribución normaL El último supuesto se requiere para hacer la prueba F_ Entonces si nuestro modelo estimado es correcto los residuales exhibirán tendencias que tienden a confirmar los supuestos que tienen, o al menos no exhibirán una negación de los supuestos. Esta última idea es la que se tiene en mente cuando examinamos los residuales.

Chacín I Análisisde Regresión y Superficiesde Respuesta

84

85

Chacín I Análisisde Regresión Y Superficiesde Respuesta

=

SC Residual

El valor del estadístico entonces:

Y'Y _ n.'X'Y r'

=

Y'Y - [(X'X)-lX'Y)' X'Y

=

Y'Y.- Y'X(X'X)-lX'Y

=

Y' [In - X(X'X)-lX']V

Fcalc

Se nota que SC Residual es una forma cuadrática

de los

y~

cuya matriz sería:

=

F para la prueba de hipótesis

sería

CM Regresion CM Residual

p

=k + 1

k

= N° de variables

Independientes

Ftab = Fk,n-p

= 1: -

P Si consideramos

X (X'X)-lX'

el valor

esperado

de la

SC Residual

y

ANALISIS DE RESIDUALES

sustituimos; Y E(Y'PY) E(e' Ps)

= = =

+

X~

e

E(e' Pe) Traza P

0'2

la traza de Ip es p, por lo tanto

=

Tr X'X(X'X)-l

=

Tr Ip

- Tr X(X'X)-lX'

y resulta

traza P

=

traza P

=

traza

(In -X(X'X)-l X')

n- p .

E(SC Residual)

=

0'2

(n - p)

Si se calcula el cuadrado medio del residual CM Residual

se

=

que es un estimador insesgado de

Residual n-p

0'2,

=

P

El análisis presentado en esta parte es muy usado y válido no solamente en modelos de Regresión Lineal y No Lineal sino también en modelos de Componentes de Varianza, De hecho este análisis es aplicable a cualquier situación donde un modelo es ajustado a las medidas de variación no explicadas (en forma de conjunto de residuales), están disponibles para examinarlas, Los residuales se definen como las diferencias ei = Yi - V, i = 1, 2, __o, n, donde Yi es una observación y Vi' es el correspondiente valor fijo obtenido por el uso de la ecuación de regresión ajustadas. Se puede ver de la definición que los residuales son las diferencias entre lo que es observado y lo que es predicho por la ecuación de regresión, ésto es, la cantidad que la ecuación de regresión no explica. Entonces se puede considerar a los ei como los errores observados, si el modelo es correcto. Ahora, en la ejecución del análisis de regresión se tienen establecidas ciertas suposiciones acerca de los errores; los supuestos usuales son, que los errores son independientes, tienen media cero, varianza constantes 0'2, y siguen una distribución normaL El último supuesto se requiere para hacer la prueba F_ Entonces si nuestro modelo estimado es correcto los residuales exhibirán tendencias que tienden a confirmar los supuestos que tienen, o al menos no exhibirán una negación de los supuestos. Esta última idea es la que se tiene en mente cuando examinamos los residuales.

86

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

87

Preguntaríamos: ¿Los residuales hacen aparentar que nuestros supuestos están equivocados? Después que hemos revisado los residuales se puede concluir: a.- Los supuestos son violados (en· una forma que puede ser especificada), o;

NOTA: La conclusión b no significa que estamos concluyendo que los supuestos son correctos; ésto dice simplemente .que sob~e la base de los datos, se está observando que no se tiene razon para decir que ellos son incorrectos. La misma situación ocurre haciendo pruebas cuando rechazamos o no rechazamos.

a.- Gráfica total. b.- En secuencia de tiempo, si el orden es conocido



d.- Contra las variables independientes Xj para

j

= 1, 2, ..., k.

Además de estos gráficos básicos, los residuales también son graficados en cualquier forma que sea sensible para el problema particular bajo consideración.

I

I

O

5

10

Diagrama de residuales (Gráfica total) n

Note que:

de hipótesis

Ahora se explicarán formas para examinar los residua~e~, para chequear el modelo. Estas formas son todas gráficas, son faciles de realizar y usualmente muy relevantes cuando los supuestos son violados. Las principales maneras de graficar los residuales son:

Contra los valores fijados de

~

Figura 4.1.-

b.- Los supuestos no parecen ser violados.

c.-

10

S2

n

L(Ej-EY j;l

LE; j;l

n-p

n-p

estima

Secuencia gráfica de tiempo Asumamos que los residuales en el ejemplo anterior ocurrieron en el orden dado y en tiempos igualmente espaciados. La gráfica sería entonces como la Figura 4.2. En este diagrama obtenemos la impresión de una franja horizontal de residuales los cuales se pueden representar por la Figura 4.3. Esto es indicativo de que el efecto del tiempo no está influyendo los datos. Si en nuestra inspección de los residuales apareciera cualquiera de los presentados en la Figura 4.4 concluiríamos como sigue: a.- La varianza no es constante, crece con el tiempo. b.- Un término lineal en el tiempo debería ser incluido en el modelo. c.- Términos lineales y cuadráticos incluidos en el modelo.

Ahora se explicará estos gráficos con más detalles, el siguiente ejemplo simple será usado para ilustrar el propósito.

10

Ejemplo: un análisis de regresión proporciona once residuales 1::1, 1::2, 1::3, ... , 1::11 con valores 5, -2, -4, 4, 0, -6, 9, -2, -5, 3, -2.

5

en el tiempo deberían

Gráfica Cuando los residuales del ejemplo son graficados, se obtiene el diagrama presentado en la Figura 4.1. Si nuestro modelo ~s c.orre~~o estos residuales semejarán once observaciones de una distribución normal con media cero.

0-2

O 2

3

10

11

12

-5

-10

Figura 4.2.- Residuales graficados en orden de tiempo

13

ser

86

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

87

Preguntaríamos: ¿Los residuales hacen aparentar que nuestros supuestos están equivocados? Después que hemos revisado los residuales se puede concluir: a.- Los supuestos son violados (en· una forma que puede ser especificada), o;

NOTA: La conclusión b no significa que estamos concluyendo que los supuestos son correctos; ésto dice simplemente .que sob~e la base de los datos, se está observando que no se tiene razon para decir que ellos son incorrectos. La misma situación ocurre haciendo pruebas cuando rechazamos o no rechazamos.

a.- Gráfica total. b.- En secuencia de tiempo, si el orden es conocido



d.- Contra las variables independientes Xj para

j

= 1, 2, ..., k.

Además de estos gráficos básicos, los residuales también son graficados en cualquier forma que sea sensible para el problema particular bajo consideración.

I

I

O

5

10

Diagrama de residuales (Gráfica total) n

Note que:

de hipótesis

Ahora se explicarán formas para examinar los residua~e~, para chequear el modelo. Estas formas son todas gráficas, son faciles de realizar y usualmente muy relevantes cuando los supuestos son violados. Las principales maneras de graficar los residuales son:

Contra los valores fijados de

~

Figura 4.1.-

b.- Los supuestos no parecen ser violados.

c.-

10

S2

n

L(Ej-EY j;l

LE; j;l

n-p

n-p

estima

Secuencia gráfica de tiempo Asumamos que los residuales en el ejemplo anterior ocurrieron en el orden dado y en tiempos igualmente espaciados. La gráfica sería entonces como la Figura 4.2. En este diagrama obtenemos la impresión de una franja horizontal de residuales los cuales se pueden representar por la Figura 4.3. Esto es indicativo de que el efecto del tiempo no está influyendo los datos. Si en nuestra inspección de los residuales apareciera cualquiera de los presentados en la Figura 4.4 concluiríamos como sigue: a.- La varianza no es constante, crece con el tiempo. b.- Un término lineal en el tiempo debería ser incluido en el modelo. c.- Términos lineales y cuadráticos incluidos en el modelo.

Ahora se explicará estos gráficos con más detalles, el siguiente ejemplo simple será usado para ilustrar el propósito.

10

Ejemplo: un análisis de regresión proporciona once residuales 1::1, 1::2, 1::3, ... , 1::11 con valores 5, -2, -4, 4, 0, -6, 9, -2, -5, 3, -2.

5

en el tiempo deberían

Gráfica Cuando los residuales del ejemplo son graficados, se obtiene el diagrama presentado en la Figura 4.1. Si nuestro modelo ~s c.orre~~o estos residuales semejarán once observaciones de una distribución normal con media cero.

0-2

O 2

3

10

11

12

-5

-10

Figura 4.2.- Residuales graficados en orden de tiempo

13

ser

89

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión Y Superficies de Respuesta

88

Esta se reduce a: n

¿(Y¡- y)=

°

¡=1

entonces: Figura 4.3. Franja de residuales si el modelo fijado es satisfactorio

n

n ,,-

L.JE ¡=1

"E. L.J

¡=1

1

=--=

O

n

La gráfica (Figura 4.1) muestra ligeras irregularidades; éstas no parecen anormales para una muestra de once observaciones de una distribución normal.

(1)

Un procedimiento alternativo es construir una gráfica media normal ó una normal de los residuales sobre papel de probabilidades estándar. Los puntos caerían aproximadamente sobre una recta.

(2)

A

Gráficos contra Y¡ A

(3)

Asumimos que los Y¡ correspondientes respectivamente a los i

Figura 4.4. Ejemplo de residuales cuyos comportamientos son insatisfactorios

datos anteriormente 34. Por consiguiente La banda horiwntal cuadrático parecería

dados fueron 44, 8, 10, 62, 22, 48, 56, 30, 24, 16, se graficaría como se muestra en la Figura 4.5. indica regularidad y nuestro análisis mínimo válido.

12 10

Con el gráfico es posible corroborar lo anteri?r, primero se nota que la media de los residuales es cero, pero este es el caso. de cualquier modelo de regresión con un término constante ~o. S1 el

8 6 4

modelo ajustado es:

2

10

20

30

40

50

60

70

·o~----~----~----~---~--~--~---r-A

·2 -4

la ecuación se puede escribir como:

Yi

-6

·8 n

¿(Y¡¡:¡

bo- b¡X¡¡- ...-bkXk¡)

donde la sumatoria se toma sobre i

=

1, .., n

=O

.10 .12

Figura 4.5. Gráfico de residuales contra valores estimados de la respuesta

89

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión Y Superficies de Respuesta

88

Esta se reduce a: n

¿(Y¡- y)=

°

¡=1

entonces: Figura 4.3. Franja de residuales si el modelo fijado es satisfactorio

n

n ,,-

L.JE ¡=1

"E. L.J

¡=1

1

=--=

O

n

La gráfica (Figura 4.1) muestra ligeras irregularidades; éstas no parecen anormales para una muestra de once observaciones de una distribución normal.

(1)

Un procedimiento alternativo es construir una gráfica media normal ó una normal de los residuales sobre papel de probabilidades estándar. Los puntos caerían aproximadamente sobre una recta.

(2)

A

Gráficos contra Y¡ A

(3)

Asumimos que los Y¡ correspondientes respectivamente a los i

Figura 4.4. Ejemplo de residuales cuyos comportamientos son insatisfactorios

datos anteriormente 34. Por consiguiente La banda horiwntal cuadrático parecería

dados fueron 44, 8, 10, 62, 22, 48, 56, 30, 24, 16, se graficaría como se muestra en la Figura 4.5. indica regularidad y nuestro análisis mínimo válido.

12 10

Con el gráfico es posible corroborar lo anteri?r, primero se nota que la media de los residuales es cero, pero este es el caso. de cualquier modelo de regresión con un término constante ~o. S1 el

8 6 4

modelo ajustado es:

2

10

20

30

40

50

60

70

·o~----~----~----~---~--~--~---r-A

·2 -4

la ecuación se puede escribir como:

Yi

-6

·8 n

¿(Y¡¡:¡

bo- b¡X¡¡- ...-bkXk¡)

donde la sumatoria se toma sobre i

=

1, .., n

=O

.10 .12

Figura 4.5. Gráfico de residuales contra valores estimados de la respuesta

90

Chacín I Análisis de Regresión

y

Superficies de Respuesta Chacín I Análisis de Regresión y Superficies de Respuesta

91

La irregularidad podría indicarse por graficación de l~ forma como se muestra en (1), (2), Y (3) en la Figura 4.4. Aquí las gráficas indican: a.- Varianza no constante: necesidad de mimmos cuadrados ponderados o una transformación sobre las observaciones Yi, antes de hacer un análisis de regresión. b.- Error en el análisis; la partición de la ecuación de estimación es sistemática (residuales negativas corresponden a valores bajos de los Yr; residuales positivc;>scorresponden a valores altos de las Y;). c.-

Esto será cero solamente cuando el modelo tiene ajuste perfecto. De otro modo los residuales graficados contra los Y¡ mostrarán pendientes ( 1 - R2). n U.-

=

los Y¡ y no contra

los Y¡, para el modelo lineal usual?

= porque

correlacionados, pero los



los

Ei y los Yi están

usualmente

y los E¡no lo están. Una forma de ver ésto

es considerar los gráficos de Eicomo ordenados contra los Y¡ y los Y¡; se encontrará la pendiente de una recta mínima cuadrática a través de los puntos. Para (i) será 1-R2;para (ii) será cero. O de otro modo se puede simplemente conseguir: (i) EY,(ii) EY como sigue: i- L(E¡ - e)(Y¡ - Y)

= ¿ e. . Yi = ya que:

=

E'E

E'Y

=

= s's =

=

LE¡ (Y¡ - Y)

ya que e

=

o,

SCR (suma de cuadrados del residual),

Y'E

=

E'Y

X(X'X)·I X'

L(E¡ - e)2

= LE2 = s's

L (Y¡ - y)2

=

Y¡ (por similar deducción).

Y

=

X(X'X)·I X'Y = KY A

o

Y' (K - K2) Y

queda demostrado que -rá

=

como K es idempotente

O

Gráficos contra las variables

independientes

La forma de estos gráficos es la misma que los realizados contra las Y¡, excepto que se usa (en vez de los valores de los correspondientes Y¡) los valores de los correspondientes Xji, particularmente XjI, Xj2, ...., Xjn. Nuevamente la impresión completa de una banda horizontal de residuales se ve como satisfactoria. Las anomalías ilustradas en la Figura 4.4 indicarían en este caso: a.- Varianza no constante: necesidad de mínimos cuadrados ponderados o una transformación preliminar sobre las Y.

Y' (1 - K) Y

Y' (I - K) Y

donde K

=

E'

ya que Y = Xb

(Drapper y

Smith, 1980). Respuesta;

Y) = LE¡

=Y'(l-K)KY

¿por qué se grafican los residuales E¡ = Y, - Y¡ contra

Pregunta:

L(E¡ - e)cY¡-

¡=l

El modelo inadecuado; necesidad de términos extras en el modelo o necesidad de una transformación sobre las observaciones Y¡ antes del análisis.

SCT (suma de cuadrados total corregida)

b.- Error en los cálculos: efectos lineales de Xjno removidos. C.-

Necesidad de términos extras: por ejemplo, un término cuadrático o una transformación sobre los Y.

En problemas de regresión que envuelve dos o tres variables independientes solamente, es posible trazar un diagrama en un espacio en dos o tres dimensiones en donde los puntos (datos) ocurren. En tal caso, los puntos en los que las observaciones fueron tomadas se pueden trazar y los residuales escritos cercanos a los puntos. Cuando

90

Chacín I Análisis de Regresión

y

Superficies de Respuesta Chacín I Análisis de Regresión y Superficies de Respuesta

91

La irregularidad podría indicarse por graficación de l~ forma como se muestra en (1), (2), Y (3) en la Figura 4.4. Aquí las gráficas indican: a.- Varianza no constante: necesidad de mimmos cuadrados ponderados o una transformación sobre las observaciones Yi, antes de hacer un análisis de regresión. b.- Error en el análisis; la partición de la ecuación de estimación es sistemática (residuales negativas corresponden a valores bajos de los Yr; residuales positivc;>scorresponden a valores altos de las Y;). c.-

Esto será cero solamente cuando el modelo tiene ajuste perfecto. De otro modo los residuales graficados contra los Y¡ mostrarán pendientes ( 1 - R2). n U.-

=

los Y¡ y no contra

los Y¡, para el modelo lineal usual?

= porque

correlacionados, pero los



los

Ei y los Yi están

usualmente

y los E¡no lo están. Una forma de ver ésto

es considerar los gráficos de Eicomo ordenados contra los Y¡ y los Y¡; se encontrará la pendiente de una recta mínima cuadrática a través de los puntos. Para (i) será 1-R2;para (ii) será cero. O de otro modo se puede simplemente conseguir: (i) EY,(ii) EY como sigue: i- L(E¡ - e)(Y¡ - Y)

= ¿ e. . Yi = ya que:

=

E'E

E'Y

=

= s's =

=

LE¡ (Y¡ - Y)

ya que e

=

o,

SCR (suma de cuadrados del residual),

Y'E

=

E'Y

X(X'X)·I X'

L(E¡ - e)2

= LE2 = s's

L (Y¡ - y)2

=

Y¡ (por similar deducción).

Y

=

X(X'X)·I X'Y = KY A

o

Y' (K - K2) Y

queda demostrado que -rá

=

como K es idempotente

O

Gráficos contra las variables

independientes

La forma de estos gráficos es la misma que los realizados contra las Y¡, excepto que se usa (en vez de los valores de los correspondientes Y¡) los valores de los correspondientes Xji, particularmente XjI, Xj2, ...., Xjn. Nuevamente la impresión completa de una banda horizontal de residuales se ve como satisfactoria. Las anomalías ilustradas en la Figura 4.4 indicarían en este caso: a.- Varianza no constante: necesidad de mínimos cuadrados ponderados o una transformación preliminar sobre las Y.

Y' (1 - K) Y

Y' (I - K) Y

donde K

=

E'

ya que Y = Xb

(Drapper y

Smith, 1980). Respuesta;

Y) = LE¡

=Y'(l-K)KY

¿por qué se grafican los residuales E¡ = Y, - Y¡ contra

Pregunta:

L(E¡ - e)cY¡-

¡=l

El modelo inadecuado; necesidad de términos extras en el modelo o necesidad de una transformación sobre las observaciones Y¡ antes del análisis.

SCT (suma de cuadrados total corregida)

b.- Error en los cálculos: efectos lineales de Xjno removidos. C.-

Necesidad de términos extras: por ejemplo, un término cuadrático o una transformación sobre los Y.

En problemas de regresión que envuelve dos o tres variables independientes solamente, es posible trazar un diagrama en un espacio en dos o tres dimensiones en donde los puntos (datos) ocurren. En tal caso, los puntos en los que las observaciones fueron tomadas se pueden trazar y los residuales escritos cercanos a los puntos. Cuando

92

Chacín I Análisis de Regresión

y

Superficies de Respuesta

ésto es posible; es. frecuente proporcionar una buena visión de la situación. Si se tienen tres variables, es posible hacer tales diagramas para un subconjunto de variables siendo ésto a veces apropiado. Para un ejemplo de un gráfico bidimensional (Drapper y Smith, 1981).

Chacín I Análisis de Regresión y Superficies de Respuesta

sin embargo básicos y siempre deben desarrollarse completo.

Otros gráficos de residuales

A: -2, -4, -6 B: -2, -5, -2 C: 5, 4, O, 9, 3 La Figura 4.6. muestra un gráfico contra variedad. Esto sugiere que hay un diferencia básica en el nivel de respuesta y de la variedad e, comparada con A y B. Tal diferencia se podría incorporar al modelo por la introducción de. una variable "dummy" (falsa).

Definición Uno de los supuestos en el modelo de regresión es que los términos de error ei y ej, asociados con la i-ésima y j-ésima observación son no correlacionados. La asociación en los términos de error, implica que hay una información adicional en los datos la cual no ha sido explicada en el modelo general de regresión. Cuando las observaciones tienen un orden secuencial en forma natural, la correlación es definida entonces como autocorrelación.

o

s

10

K

Si entonces:

-5

en un análisis

AUTOCORRELACION

Los especialistas que conocen de los problemas bajo estudio frecuentemente sugieren que otros tipos de trazados de gráficos de residuales deben examinarse. Por ejemplo, supongan que conocemos que las once observaciones que .conducen a los once residuales dados anteriormente vienen de tres variedades llamadas A, B y e así que los residuales agrupados por variedad serían:

-10

93

V(ei)

=

=

X(X'X)·l X'

(l- K)a2

=

(4.19) M

(4.20)

Donde V(!::i)es el i-ésimo elemento de la diagonal de la matriz M y la eOv(ei, ej) viene dada por ij-ésimo elemento de la matriz M, donde i ;t j.

A-----------------------------------------------Sea:

pij

Cov(e¡,ej) IV(!::¡)

P¡j

c---------------------------------------------Figura 4.6. Gráficos de residuales indicando los efectos de bloque no incorporados en el modelo fijado En general los residuales se grafican en cualquier forma razonable, basado en los conocimientos que sobre el problema bajo estudio, tenga el especialista. Los gráficos anteriormente descritos son

=



j )

fn

(4.21)

Correlación entre el i-ésimo y j-ésimo residual.

Si K no es diagonal (K depende de los valores de X), implica que M no sea diagonal, entonces: Cov (ei,!::j);t O Y pij ;t O, por lo tanto habrá violación del supuesto de independencia en el modelo.

92

Chacín I Análisis de Regresión

y

Superficies de Respuesta

ésto es posible; es. frecuente proporcionar una buena visión de la situación. Si se tienen tres variables, es posible hacer tales diagramas para un subconjunto de variables siendo ésto a veces apropiado. Para un ejemplo de un gráfico bidimensional (Drapper y Smith, 1981).

Chacín I Análisis de Regresión y Superficies de Respuesta

sin embargo básicos y siempre deben desarrollarse completo.

Otros gráficos de residuales

A: -2, -4, -6 B: -2, -5, -2 C: 5, 4, O, 9, 3 La Figura 4.6. muestra un gráfico contra variedad. Esto sugiere que hay un diferencia básica en el nivel de respuesta y de la variedad e, comparada con A y B. Tal diferencia se podría incorporar al modelo por la introducción de. una variable "dummy" (falsa).

Definición Uno de los supuestos en el modelo de regresión es que los términos de error ei y ej, asociados con la i-ésima y j-ésima observación son no correlacionados. La asociación en los términos de error, implica que hay una información adicional en los datos la cual no ha sido explicada en el modelo general de regresión. Cuando las observaciones tienen un orden secuencial en forma natural, la correlación es definida entonces como autocorrelación.

o

s

10

K

Si entonces:

-5

en un análisis

AUTOCORRELACION

Los especialistas que conocen de los problemas bajo estudio frecuentemente sugieren que otros tipos de trazados de gráficos de residuales deben examinarse. Por ejemplo, supongan que conocemos que las once observaciones que .conducen a los once residuales dados anteriormente vienen de tres variedades llamadas A, B y e así que los residuales agrupados por variedad serían:

-10

93

V(ei)

=

=

X(X'X)·l X'

(l- K)a2

=

(4.19) M

(4.20)

Donde V(!::i)es el i-ésimo elemento de la diagonal de la matriz M y la eOv(ei, ej) viene dada por ij-ésimo elemento de la matriz M, donde i ;t j.

A-----------------------------------------------Sea:

pij

Cov(e¡,ej) IV(!::¡)

P¡j

c---------------------------------------------Figura 4.6. Gráficos de residuales indicando los efectos de bloque no incorporados en el modelo fijado En general los residuales se grafican en cualquier forma razonable, basado en los conocimientos que sobre el problema bajo estudio, tenga el especialista. Los gráficos anteriormente descritos son

=



j )

fn

(4.21)

Correlación entre el i-ésimo y j-ésimo residual.

Si K no es diagonal (K depende de los valores de X), implica que M no sea diagonal, entonces: Cov (ei,!::j);t O Y pij ;t O, por lo tanto habrá violación del supuesto de independencia en el modelo.

94

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

Detección de la autocorrelación

Tipos de autocorrelación Autocorrelación pura a.-

b.-

Observaciones suceaivas en el tiempo o en el espacio tienden a tener residuales correlacionados ya que ellas están afectadas por condiciones similares. Series grandes de errores positivos o negativos son segui~as por series grandes de errores positivos o negativos ya .qu~ residuales adyacentes generalmente presentan dimensiones similares. Autocorrelación operativa

a.-

Sistematización en la obtención de los datos en la variable dependiente en series de tiempo.

b.-

Omisión de una o más variables en el modelo. Cuando los efectos de secuencias de las variables claves "perdidas" están correlacionados, los términos de error en el modelo de regresión tenderán a estar correlacionas debido a que éstos incluyen efectos de las variables perdidas.

c.-

Uso de un modelo lineal en lugar de otro más apropiado (curvilineo, exponencial, etc.).

Drapper y Smith (1981) refieren que se puede usar los siguientes métodos para la detección de autocorrelación. Método gráfico: es sumamente sencillo, y consiste en realizar un gráfico de Jos residuales ei, contra una unidad de espacio o de tiempo. La interpretación de estos gráficos es similar a la usada en la interpretación gráfica de los coeficientes de correlación simple (todos los tipos de correlación simple: positiva, negativa, no correlación, etc.). Uso de estadísticos: entre los estadísticos usados para detectar autocorrelación, se pueden mencionar: la prueba de Durbin-Watson y la prueba de la corridas o de las rachas. Prueba de Durbin-Watson La prueba de Durbin-Watson es la base de muchas pruebas estadísticas ampliamente utilizadas para detectar auto correlación en el análisis de regresión. Se basa en el supuesto de que los errores constituyen una serie autoregresiva de primer orden llamada: Et = p et·l

+ Vt

IP I

=

Consecuencias

conse-

a.- Los coeficientes de regresión obtenidos por mínimos cuadrados ordinarios aunque siguen siendo insesgados pierden la propiedad de la varianza mínima y pueden ser bastante ineficientes.

El coeficiente de determinación puede resultar sobre-estimado, dando la impresión aparente de exactitud.

d.- Las pruebas de t, F y los intervalos de confianza no son estrictamente aplicables.

(4.22)

= XI3+ et

en cada período o

VI - N(O;cr;), por lo tanto Y¡ es una variable aleatoria. p = Parámetro de autocorrelación que mide la asociación de la observación previa ( t -1) sobre la actual. 2

av

b.- Los cuadrados medios esperados y.el error estándar pueden estar seriamente subestimando las verdaderas varianzas del error y desviación estándar de regresión, respectivamente. C.-·

< 1

et término del error en el modelo Y, desplazamiento t.

de la autocorrelación

Neter y Wasserman (1974), expresan las siguientes cuencias de la correlación seriada.

95

1- p

Cov (et. et+s)

=

(4.23)

2

t

1, 2, ..., n

(4.24)

(4.25)

94

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

Detección de la autocorrelación

Tipos de autocorrelación Autocorrelación pura a.-

b.-

Observaciones suceaivas en el tiempo o en el espacio tienden a tener residuales correlacionados ya que ellas están afectadas por condiciones similares. Series grandes de errores positivos o negativos son segui~as por series grandes de errores positivos o negativos ya .qu~ residuales adyacentes generalmente presentan dimensiones similares. Autocorrelación operativa

a.-

Sistematización en la obtención de los datos en la variable dependiente en series de tiempo.

b.-

Omisión de una o más variables en el modelo. Cuando los efectos de secuencias de las variables claves "perdidas" están correlacionados, los términos de error en el modelo de regresión tenderán a estar correlacionas debido a que éstos incluyen efectos de las variables perdidas.

c.-

Uso de un modelo lineal en lugar de otro más apropiado (curvilineo, exponencial, etc.).

Drapper y Smith (1981) refieren que se puede usar los siguientes métodos para la detección de autocorrelación. Método gráfico: es sumamente sencillo, y consiste en realizar un gráfico de Jos residuales ei, contra una unidad de espacio o de tiempo. La interpretación de estos gráficos es similar a la usada en la interpretación gráfica de los coeficientes de correlación simple (todos los tipos de correlación simple: positiva, negativa, no correlación, etc.). Uso de estadísticos: entre los estadísticos usados para detectar autocorrelación, se pueden mencionar: la prueba de Durbin-Watson y la prueba de la corridas o de las rachas. Prueba de Durbin-Watson La prueba de Durbin-Watson es la base de muchas pruebas estadísticas ampliamente utilizadas para detectar auto correlación en el análisis de regresión. Se basa en el supuesto de que los errores constituyen una serie autoregresiva de primer orden llamada: Et = p et·l

+ Vt

IP I

=

Consecuencias

conse-

a.- Los coeficientes de regresión obtenidos por mínimos cuadrados ordinarios aunque siguen siendo insesgados pierden la propiedad de la varianza mínima y pueden ser bastante ineficientes.

El coeficiente de determinación puede resultar sobre-estimado, dando la impresión aparente de exactitud.

d.- Las pruebas de t, F y los intervalos de confianza no son estrictamente aplicables.

(4.22)

= XI3+ et

en cada período o

VI - N(O;cr;), por lo tanto Y¡ es una variable aleatoria. p = Parámetro de autocorrelación que mide la asociación de la observación previa ( t -1) sobre la actual. 2

av

b.- Los cuadrados medios esperados y.el error estándar pueden estar seriamente subestimando las verdaderas varianzas del error y desviación estándar de regresión, respectivamente. C.-·

< 1

et término del error en el modelo Y, desplazamiento t.

de la autocorrelación

Neter y Wasserman (1974), expresan las siguientes cuencias de la correlación seriada.

95

1- p

Cov (et. et+s)

=

(4.23)

2

t

1, 2, ..., n

(4.24)

(4.25)

96

Chacín I Análisis de Regresión

y

Chacín I Análisis de Regresión

Superficies de Respuesta

y

Superficies de Respuesta

97

Decisión

Entonces el parámetro p se estima por la función:

HI: d

> du

dI ~ d d

=> no se rechaza Hn

s du

=> no es concluyente => se rechaza Ho

< di

H2: se sustituye a d por 4-d en la anterior. H3: d < di o 4 - d < di

La prueba de la hipótesis viene dada por: Ho: p

=

d > d, o 4 - d > d, no se rechaza He, de otra manera la prueba no es concluyente.

errores no correlacionados

O

se rechaza Ho al nivel 2a

Ho: p > O autocorrelación El estadístico para la prueba es:

Pruebas de las rachas

n

L(e e -

t

t_¡)2

t=2

d

(4.26)

n

Le; t=2

cuya distribución depende de la matriz X de dimensión n p. Una relación aproximada entre los estadísticos dada por: d = 2(1 - p)

x

p, de rango

d y

La prueba se basa en que pocas corridas implican presencia de correl~ción positiva y muchas corridas de correlación negativas. Para este tipo de prueba existen tablas estadísticas hasta n corridas (ni + nz n 20). Las hipótesis a probar son:

=

=

Ho: no autocorrelación de errores

p viene

Ha: autocorrelación de errores. (4.27)

La cual muestra que d tiene rango de O a 2, de esta manera si p es un estimador de p,. está claro que d estará cercano a 2 cuando p O, Y cercano a cero cuando p 1. La cercanía del valor d a 2 es una lógica evidencia de que autocorrelación no está presente en los errores. Evidencia de autocorrelación es indicada por la desviación de d, al valor numérico 2.

=

Un~ sospecha de presencia de auto correlación, puede ser la ocurrencia de grupos negativos o positivos de residuales en secuencia poco usuales.

Cuando ni > 10 y ns > 10 esto es n > 20, no se necesitan valores exactos, ya que una aproximación a la distribución normal de los datos observados provee una precisión satisfactoria. 2n¡n2 -~~+1 n¡+n2

=

o

Hipótesis Ho: p HI: p > H2: p < H3: p :1;

O O O O

2n¡n2(2n¡n2-nI-n2) (n¡ +n2)2 (n¡ +n2 -1)

11 Y

2

(4.28)

(4.29)

son la media y la varianza de una distribución discreta de variable v, que es el número de las corridas. 0

96

Chacín I Análisis de Regresión

y

Chacín I Análisis de Regresión

Superficies de Respuesta

y

Superficies de Respuesta

97

Decisión

Entonces el parámetro p se estima por la función:

HI: d

> du

dI ~ d d

=> no se rechaza Hn

s du

=> no es concluyente => se rechaza Ho

< di

H2: se sustituye a d por 4-d en la anterior. H3: d < di o 4 - d < di

La prueba de la hipótesis viene dada por: Ho: p

=

d > d, o 4 - d > d, no se rechaza He, de otra manera la prueba no es concluyente.

errores no correlacionados

O

se rechaza Ho al nivel 2a

Ho: p > O autocorrelación El estadístico para la prueba es:

Pruebas de las rachas

n

L(e e -

t

t_¡)2

t=2

d

(4.26)

n

Le; t=2

cuya distribución depende de la matriz X de dimensión n p. Una relación aproximada entre los estadísticos dada por: d = 2(1 - p)

x

p, de rango

d y

La prueba se basa en que pocas corridas implican presencia de correl~ción positiva y muchas corridas de correlación negativas. Para este tipo de prueba existen tablas estadísticas hasta n corridas (ni + nz n 20). Las hipótesis a probar son:

=

=

Ho: no autocorrelación de errores

p viene

Ha: autocorrelación de errores. (4.27)

La cual muestra que d tiene rango de O a 2, de esta manera si p es un estimador de p,. está claro que d estará cercano a 2 cuando p O, Y cercano a cero cuando p 1. La cercanía del valor d a 2 es una lógica evidencia de que autocorrelación no está presente en los errores. Evidencia de autocorrelación es indicada por la desviación de d, al valor numérico 2.

=

Un~ sospecha de presencia de auto correlación, puede ser la ocurrencia de grupos negativos o positivos de residuales en secuencia poco usuales.

Cuando ni > 10 y ns > 10 esto es n > 20, no se necesitan valores exactos, ya que una aproximación a la distribución normal de los datos observados provee una precisión satisfactoria. 2n¡n2 -~~+1 n¡+n2

=

o

Hipótesis Ho: p HI: p > H2: p < H3: p :1;

O O O O

2n¡n2(2n¡n2-nI-n2) (n¡ +n2)2 (n¡ +n2 -1)

11 Y

2

(4.28)

(4.29)

son la media y la varianza de una distribución discreta de variable v, que es el número de las corridas. 0

98

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión

Entonces:

z=

(v- ,.1+112)

(4.30)

es una normal unitaria desviada, donde el término 112 es la corrección de continuidad, que compensa que una distribución continua esta siendo usada para aproximar a una distribución discreta en la cola inferior, y sirve para probar la existencia de correlación positiva, es decir, pocas corridas. Para probar correlación negativa, muchas corridas, se usa la misma aproximación pero la corrección de continuidad se realiza con -112.

Yt - p y t-l

= a + I3Xt - np - I3pXt.l + Et = a (l-p) + 13 (Xt -pXt-l) + Vt

Cuando los gráficos de residuales o el estadístico de DurbinWatson indican la presencia de errores correlacionados, la estimación de la ecuación de regresión podría ser calculada tomando en consideración el efecto de autocorrelación. Un método para ajustar el modelo se logra utilizando una transformación que involucra el conocimiento del parámetro de autocorrelación p. La introducción de p, provoca que el modelo sea no lineal, .por lo tanto la aplicación directa del método de los mínimos cuadrados es imposible. Existen numerosos procedimientos para evitar la autocorrelación (Johnston, 1992). Uno de los métodos es el señalado por Cochrane y Orcutt, el cual es un método de estructura autoregresiva como la señalada en la expresión (4.22):

y; = a· + 13·x;+

=

a + I3Xt + et

y

(4.33)

+

Vt

(4.34)

y; =

v,

pYt-l

=

Xt

pXt-l

a*

a(l - p)

13* = 13 Los términos del error Vt son no correlacionados y satisfacen los supuestos del modelo lineal general. Cochrane y Orcutt, ha propuesto un procedimiento iterativo de la siguiente manera: a.- Calcular los estimadores mínimos cuadrados de a y 13. b.-

Calcular los residuales y luego estimar el parámetro p mediante la expresión:

= pse.i + Vt

(4.31)

las transformaciones son: Yt - p Yt.l

- pse.r

Donde:

p

Se puede apreciar que mediante transformaciones del modelo original: Yt

99

luego:

para corregir autocorrelación

Et

Superficies de Respuesta

Entonces sustituyendo (4.32) en el modelo original se sustrae Yt de pYt.l y se obtiene:

e

Uso de transformaciones

y

Xt - pXt.l

c.- Fijar la ecuación señalada en (4.34), usando las variables (Yt - P ye-i) Y (X, - P Xe.i). Los estimadores de los parámetros en la ecuación original son:

(4.32) A

a*

a=--

l-p

98

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión

Entonces:

z=

(v- ,.1+112)

(4.30)

es una normal unitaria desviada, donde el término 112 es la corrección de continuidad, que compensa que una distribución continua esta siendo usada para aproximar a una distribución discreta en la cola inferior, y sirve para probar la existencia de correlación positiva, es decir, pocas corridas. Para probar correlación negativa, muchas corridas, se usa la misma aproximación pero la corrección de continuidad se realiza con -112.

Yt - p y t-l

= a + I3Xt - np - I3pXt.l + Et = a (l-p) + 13 (Xt -pXt-l) + Vt

Cuando los gráficos de residuales o el estadístico de DurbinWatson indican la presencia de errores correlacionados, la estimación de la ecuación de regresión podría ser calculada tomando en consideración el efecto de autocorrelación. Un método para ajustar el modelo se logra utilizando una transformación que involucra el conocimiento del parámetro de autocorrelación p. La introducción de p, provoca que el modelo sea no lineal, .por lo tanto la aplicación directa del método de los mínimos cuadrados es imposible. Existen numerosos procedimientos para evitar la autocorrelación (Johnston, 1992). Uno de los métodos es el señalado por Cochrane y Orcutt, el cual es un método de estructura autoregresiva como la señalada en la expresión (4.22):

y; = a· + 13·x;+

=

a + I3Xt + et

y

(4.33)

+

Vt

(4.34)

y; =

v,

pYt-l

=

Xt

pXt-l

a*

a(l - p)

13* = 13 Los términos del error Vt son no correlacionados y satisfacen los supuestos del modelo lineal general. Cochrane y Orcutt, ha propuesto un procedimiento iterativo de la siguiente manera: a.- Calcular los estimadores mínimos cuadrados de a y 13. b.-

Calcular los residuales y luego estimar el parámetro p mediante la expresión:

= pse.i + Vt

(4.31)

las transformaciones son: Yt - p Yt.l

- pse.r

Donde:

p

Se puede apreciar que mediante transformaciones del modelo original: Yt

99

luego:

para corregir autocorrelación

Et

Superficies de Respuesta

Entonces sustituyendo (4.32) en el modelo original se sustrae Yt de pYt.l y se obtiene:

e

Uso de transformaciones

y

Xt - pXt.l

c.- Fijar la ecuación señalada en (4.34), usando las variables (Yt - P ye-i) Y (X, - P Xe.i). Los estimadores de los parámetros en la ecuación original son:

(4.32) A

a*

a=--

l-p

100

Chacín I Análisis de Regresión y Superficies de Respuesta

d.- Examinar los residuales de la nueva ecuación ajustada. Si los nuevos residuales son no correlacionados termina el procedimiento, de lo contrario es necesario continuar. Chatterjee y Price (1977), sugieren que si en la primera aplicación del método de Cochrane y Orcutt no se obtienen residuales no correlacionados, se deben buscar métodos alternativos, para eliminar la autocorrelación y empleando M.C.O sobre estas variables transformadas puede ajustarse el modelo: Yt

,

=

~l~t

~o

O

~l

~~

+

!!t

,

Chacín I Análisis de Regresión y Superficies de Respuesta

101

En cuanto a las consecuencias, la presencia de multicolinealidad tiene efecto potencial sobre los estimadores mínimos cuadrados de los coeficientes de regresión además que la estrecha multicolinealidad resulta en elevadas varianzas y covarianzas de los estimadores mínimos cuadrados.

Cuando se establecen modelos de regresión múltiple es necesario detectar su presencia para poder llegar a los correctivos necesarios para obtener un modelo CDn propiedades adecuadas de los estimadores. Debido a que en los diseños de Superficie de Respuesta las variables son controladas e incluso muchos diseños son ortogonales, prácticamente el problema no tiene gran importancia, sin embargo si el lector requiere abordar el tema puede consultar los trabajos de Chacín y Meneses (1984), Drapper y Smith, (1981), Neter y Wasserman (1974).

MULTICOLINEALIDAD

Chacín y Meneses (1984), refieren que la interpretación y el uso de los modelos de regresión múltiple depende implícita o explícitamente de las estimaciones de los coeficientes de regresión individuales. Cuando no existen relaciones lineales entre las variables regresoras se dice que hay ortogonalidad. Desafortunadamente en muchas aplicaciones del análisis de regresión, las variables regresoras no son ortogonales y aunque algunas veces los problemas de no ortogonalidad no son graves, en muchos casos las variables regresoras se encuentran relacionadas linealmente en forma estrecha y en tal situación, inferenciasbasadas en los modelos de regresión pueden estar completamente erradas. La multicolinealidad se refiere específicamente a la interdependencia que existe entre las variables regresoras y que tiene efecto directo sobre las estimaciones y varianza de los parámetros, los autores señalan 4 (cuatro) causas posibles de multicolinealidad las cuales serían: a.- El método de recolección de datos empleado. b.- Restricción en el modelo o en la población. C.-

Definición del modelo.

d.- Modelos sobre-definidos.

SELECCION DE VARIABLES EN LA ECUACION DE REGRESION MULTIPLE

Esta sección se desarrolló en base a los trabajos de Chacín y Meneses (1984, 1987), realizados durante el dictado del curso de Análisis de Regresión. . En muchas aplicaciones del análisis de regresión el conjunto de variables a ser incluidas en el modelo no es preestablecida, y con frecuencia una de las primeras etapas del análisis consiste en seleccionar estas variables. Existen ocasiones, donde consideraciones teóricas o de cualquier otra naturaleza determinan las variables a ser incluidas en la ecuación, en estas situaciones el problema de selección de variables no se presenta, pero en situaciones donde los aspectos técnicos no son específicos la selección de variables dentro del modelo de regresión llega a ser muy importante.

100

Chacín I Análisis de Regresión y Superficies de Respuesta

d.- Examinar los residuales de la nueva ecuación ajustada. Si los nuevos residuales son no correlacionados termina el procedimiento, de lo contrario es necesario continuar. Chatterjee y Price (1977), sugieren que si en la primera aplicación del método de Cochrane y Orcutt no se obtienen residuales no correlacionados, se deben buscar métodos alternativos, para eliminar la autocorrelación y empleando M.C.O sobre estas variables transformadas puede ajustarse el modelo: Yt

,

=

~l~t

~o

O

~l

~~

+

!!t

,

Chacín I Análisis de Regresión y Superficies de Respuesta

101

En cuanto a las consecuencias, la presencia de multicolinealidad tiene efecto potencial sobre los estimadores mínimos cuadrados de los coeficientes de regresión además que la estrecha multicolinealidad resulta en elevadas varianzas y covarianzas de los estimadores mínimos cuadrados.

Cuando se establecen modelos de regresión múltiple es necesario detectar su presencia para poder llegar a los correctivos necesarios para obtener un modelo CDn propiedades adecuadas de los estimadores. Debido a que en los diseños de Superficie de Respuesta las variables son controladas e incluso muchos diseños son ortogonales, prácticamente el problema no tiene gran importancia, sin embargo si el lector requiere abordar el tema puede consultar los trabajos de Chacín y Meneses (1984), Drapper y Smith, (1981), Neter y Wasserman (1974).

MULTICOLINEALIDAD

Chacín y Meneses (1984), refieren que la interpretación y el uso de los modelos de regresión múltiple depende implícita o explícitamente de las estimaciones de los coeficientes de regresión individuales. Cuando no existen relaciones lineales entre las variables regresoras se dice que hay ortogonalidad. Desafortunadamente en muchas aplicaciones del análisis de regresión, las variables regresoras no son ortogonales y aunque algunas veces los problemas de no ortogonalidad no son graves, en muchos casos las variables regresoras se encuentran relacionadas linealmente en forma estrecha y en tal situación, inferenciasbasadas en los modelos de regresión pueden estar completamente erradas. La multicolinealidad se refiere específicamente a la interdependencia que existe entre las variables regresoras y que tiene efecto directo sobre las estimaciones y varianza de los parámetros, los autores señalan 4 (cuatro) causas posibles de multicolinealidad las cuales serían: a.- El método de recolección de datos empleado. b.- Restricción en el modelo o en la población. C.-

Definición del modelo.

d.- Modelos sobre-definidos.

SELECCION DE VARIABLES EN LA ECUACION DE REGRESION MULTIPLE

Esta sección se desarrolló en base a los trabajos de Chacín y Meneses (1984, 1987), realizados durante el dictado del curso de Análisis de Regresión. . En muchas aplicaciones del análisis de regresión el conjunto de variables a ser incluidas en el modelo no es preestablecida, y con frecuencia una de las primeras etapas del análisis consiste en seleccionar estas variables. Existen ocasiones, donde consideraciones teóricas o de cualquier otra naturaleza determinan las variables a ser incluidas en la ecuación, en estas situaciones el problema de selección de variables no se presenta, pero en situaciones donde los aspectos técnicos no son específicos la selección de variables dentro del modelo de regresión llega a ser muy importante.

102

La selección de variables y la especificación del modelo están estrechamente vinculados. Las preguntas a ser respondidas en la formulación del modelo de regresión son: ¿Cuáles variables deberían ser incluidas? ésto es, ¿deberían ellas entrar en la ecuación como variables originales, transformadas o una combinación de ambas? Lógicamente se debe determinar primero las variables que deben ser incluidas en la ecuación y después investigar la forma en la cual las variables entran. Esta aproximación parece muy sencilla, pero permite enmarcar mejor el problema de la selección de variables.

Modelo de regresión Si se tiene "k" variables independientes denotadas como Xi, X2, ... Xk y una variable dependiente Y, el modelo lineal que expresa a la variable Y en términos de las "k" variables viene dado por: k

Yi

=

~o

+

i

~)jXj¡+E¡ j;"¡

=

103

Chacín J Análisis de Regresión y Superficies de Respuesta

Chacín J Análisis de Regresión y Superficies de Respuesta

(4.35)

1,2, ..., n

Luego, en vez de fijar el modelo (4.35), nosotros fijamos el modelo parcial: p



=

~o

+

L) X j

i

ji +€i

1,2, ...,

n

(4.36)

j=i

En este caso es conveniente examinar los efectos de fijar el modelo completo o el modelo parcial bajo las dos condiciones descritas anteriormente, además se debe estudiar el efecto de la eliminación de variables sobre los estimadores de los parámetros y sobre los valores predichos de la variable Y. La solución al problema de selección de variables se llega a tener con bastante claridad, una vez que los efectos de retener variables no esenciales o eliminar variables esenciales en la ecuación son conocidos.

Consecuencias de la eliminación de variables

p~,p~,...,p;,

Sean

los estimadores

de los parámetros

de

regresión cuando se fija el modelo completo (4.35) para las variables donde ~j son los parámetros o coeficientes de regresión estimados y Si representa los términos aleatorios del error.

a ser

En lugar de proceder con el conjunto completo de variables, particularmente cuando k es un número muy alto, se puede eliminar un determinado número de variables y construir una ecuación con un subconjunto especifico de variables. Se pretende en este punto señalar algunos aspectos que nos ayuden a determinar cuales variables deben ser retenidas en el modelo de regresión. Si denotamos el subconjunto de variables retenido como Xi, X2, y las variables eliminadas como Xp+l, Xp+2, ... , Xk, se puede sustraer el efecto de la eliminación de variables bajo dos condiciones: Xp,

1.- El modelo que relaciona a Y con las variables 4, que contiene todos los regresores ~ = (Bo, ~l, ... ,~p) diferentes de cero; 2.- El modelo contiene ~o, ..• , ~k iguales a cero.

~l,

... ,~p

diferentes de cero, pero

~p+l, ~p+2

Xi, M, ...

Xk,

Y

Po,Pl ' ' 'P

los estimadores de los parámetros

P'

cuando se fija el modelo parcial para Xi,

X2, ... Xp

(4.36).

Si definimos las siguientes matrices y vectores

ll

X12

",Xp1 ",Xk1 ..·X pl ,,,Xk2

XOn X1n

···X pn ",Xkn

X01 X X

=

X02

102

La selección de variables y la especificación del modelo están estrechamente vinculados. Las preguntas a ser respondidas en la formulación del modelo de regresión son: ¿Cuáles variables deberían ser incluidas? ésto es, ¿deberían ellas entrar en la ecuación como variables originales, transformadas o una combinación de ambas? Lógicamente se debe determinar primero las variables que deben ser incluidas en la ecuación y después investigar la forma en la cual las variables entran. Esta aproximación parece muy sencilla, pero permite enmarcar mejor el problema de la selección de variables.

Modelo de regresión Si se tiene "k" variables independientes denotadas como Xi, X2, ... Xk y una variable dependiente Y, el modelo lineal que expresa a la variable Y en términos de las "k" variables viene dado por: k

Yi

=

~o

+

i

~)jXj¡+E¡ j;"¡

=

103

Chacín J Análisis de Regresión y Superficies de Respuesta

Chacín J Análisis de Regresión y Superficies de Respuesta

(4.35)

1,2, ..., n

Luego, en vez de fijar el modelo (4.35), nosotros fijamos el modelo parcial: p



=

~o

+

L) X j

i

ji +€i

1,2, ...,

n

(4.36)

j=i

En este caso es conveniente examinar los efectos de fijar el modelo completo o el modelo parcial bajo las dos condiciones descritas anteriormente, además se debe estudiar el efecto de la eliminación de variables sobre los estimadores de los parámetros y sobre los valores predichos de la variable Y. La solución al problema de selección de variables se llega a tener con bastante claridad, una vez que los efectos de retener variables no esenciales o eliminar variables esenciales en la ecuación son conocidos.

Consecuencias de la eliminación de variables

p~,p~,...,p;,

Sean

los estimadores

de los parámetros

de

regresión cuando se fija el modelo completo (4.35) para las variables donde ~j son los parámetros o coeficientes de regresión estimados y Si representa los términos aleatorios del error.

a ser

En lugar de proceder con el conjunto completo de variables, particularmente cuando k es un número muy alto, se puede eliminar un determinado número de variables y construir una ecuación con un subconjunto especifico de variables. Se pretende en este punto señalar algunos aspectos que nos ayuden a determinar cuales variables deben ser retenidas en el modelo de regresión. Si denotamos el subconjunto de variables retenido como Xi, X2, y las variables eliminadas como Xp+l, Xp+2, ... , Xk, se puede sustraer el efecto de la eliminación de variables bajo dos condiciones: Xp,

1.- El modelo que relaciona a Y con las variables 4, que contiene todos los regresores ~ = (Bo, ~l, ... ,~p) diferentes de cero; 2.- El modelo contiene ~o, ..• , ~k iguales a cero.

~l,

... ,~p

diferentes de cero, pero

~p+l, ~p+2

Xi, M, ...

Xk,

Y

Po,Pl ' ' 'P

los estimadores de los parámetros

P'

cuando se fija el modelo parcial para Xi,

X2, ... Xp

(4.36).

Si definimos las siguientes matrices y vectores

ll

X12

",Xp1 ",Xk1 ..·X pl ,,,Xk2

XOn X1n

···X pn ",Xkn

X01 X X

=

X02

104

Chacin I Análisis de Regresión

y

Chacín I Análisis de Regresión

Superficies de Respuesta

y

105

Superficies de Respuesta

los estimadores mínimos cuadrados de J3p en el modelo parcial son

Bp :

J30 A =(X' p X p )-lX' p y

J31

Y1 Y2

J3=

Y=

J3p

-

y

¿:

los estimadores

relaciones (4.37) y (4.38) respectivamente,

En

~2 0"*

J

¿¡

Sean

de

0"2

obtenidos para las

t=

J3p+1

Yn

(4.40)

I-'r

El E2

entonces:

Y'Y- p*X'Y

(4.41)

= ----'----

n-k-1

J3k

~I

Y'Y_AI-'pX' P Y donde Xoi

=

1, para todo i

=

1,2, ..., n.

La matriz X, la cual tiene n filas y (k+1) columnas, es particionada en dos sub-matrices Xp de dimensión nx(p+ 1) y Xr de dimensión (nxr), donde el rango, r. = k-p. El vector (3 es igualmente particionado

en

Pp

y

Pr

(4.42)

n-p-1

cuyos componentes

Si se conoce que ~* y

O"~

son estimadores insesgados de J3y

se puede demostrar que: (4.43)

son (p+1) Y r

respectivamente.

donde:

El modelo lineal completo que contiene las k variables viene dado por:

(4.44)

,

y = XI3+

E

donde los

Ei IS

0"2,

= Xpl3p

+ Xrl3r

+

Entonces:

(4.37)

E

(4.45)

son los residuales los cuales son independientes,

malmente distribuidos con media cero y varianza

nor-

0"2

(4.46)

El modelo lineal que contiene sólo p variables y que contiene p + 1 términos viene dado por:

y el cuadrado medio del error viene dado por:

(4.38)

CME ~p)

= E(~p - I3p)

(Pp -

J3p)'

Si se denota a los estimadores mínimos cuadrados de 13 obtenidos para el modelo completo en (4.37) como *.

P

Hocking (1976), resume las propiedades de los estimadores 1-' A·

=[~;:] = ~

A

(X'X)·l(X'Y)

r

= variables

eliminadas

(4.39)

Pp

de la siguiente manera:

P* y

104

Chacin I Análisis de Regresión

y

Chacín I Análisis de Regresión

Superficies de Respuesta

y

105

Superficies de Respuesta

los estimadores mínimos cuadrados de J3p en el modelo parcial son

Bp :

J30 A =(X' p X p )-lX' p y

J31

Y1 Y2

J3=

Y=

J3p

-

y

¿:

los estimadores

relaciones (4.37) y (4.38) respectivamente,

En

~2 0"*

J

¿¡

Sean

de

0"2

obtenidos para las

t=

J3p+1

Yn

(4.40)

I-'r

El E2

entonces:

Y'Y- p*X'Y

(4.41)

= ----'----

n-k-1

J3k

~I

Y'Y_AI-'pX' P Y donde Xoi

=

1, para todo i

=

1,2, ..., n.

La matriz X, la cual tiene n filas y (k+1) columnas, es particionada en dos sub-matrices Xp de dimensión nx(p+ 1) y Xr de dimensión (nxr), donde el rango, r. = k-p. El vector (3 es igualmente particionado

en

Pp

y

Pr

(4.42)

n-p-1

cuyos componentes

Si se conoce que ~* y

O"~

son estimadores insesgados de J3y

se puede demostrar que: (4.43)

son (p+1) Y r

respectivamente.

donde:

El modelo lineal completo que contiene las k variables viene dado por:

(4.44)

,

y = XI3+

E

donde los

Ei IS

0"2,

= Xpl3p

+ Xrl3r

+

Entonces:

(4.37)

E

(4.45)

son los residuales los cuales son independientes,

malmente distribuidos con media cero y varianza

nor-

0"2

(4.46)

El modelo lineal que contiene sólo p variables y que contiene p + 1 términos viene dado por:

y el cuadrado medio del error viene dado por:

(4.38)

CME ~p)

= E(~p - I3p)

(Pp -

J3p)'

Si se denota a los estimadores mínimos cuadrados de 13 obtenidos para el modelo completo en (4.37) como *.

P

Hocking (1976), resume las propiedades de los estimadores 1-' A·

=[~;:] = ~

A

(X'X)·l(X'Y)

r

= variables

eliminadas

(4.39)

Pp

de la siguiente manera:

P* y

106

ChacínI Análisisde Regresióny Superficiesde Respuesta ChacinI Análisisde Regresióny Superficiesde Respuesta

Pp

1.-

es un estimador sesgado de I3p a menos que I3r = 0, ó que

X'p Xr

=

O, lo que significa ortogonalidad

retenidas y eliminadas. Esta expresiones (4.43) y (4.44). 2.- La matriz

afirmación

v(~:) - v(~p)es positiva

entre

se aprecia

en las

v(~:) -

m~triz

y - N [XI3,0'21] entonces: (n- k-l)CME 2

es positiva semidefinida. Esto significa

que los estimadores mínimos cuadrados de los coeficientes de regresión obtenidos para el modelo parcial tienen cuadrados medios del error (CME), que son más pequeños que los obtenidos para el modelo completo, cuando las variables eliminadas tienen coeficientes de regresión que son más pequeños en magnitud que la desviación estándar de los estimadores de los coeficientes correspondientes. Se concluye que aunque I3p puede ser sesgado

-

X2(n. k·

(4.49)

1)

O'

donde CME

=

cuadrado medio del residual.

Esta relación es distribuida según X2, debido a que la matriz [ 1 - X(X'X)·l X'] inwlucrada en la estimación de 0'2 es una matriz independiente y de rango n-k - l.

I3rl3~ es positiva semidefinida, luego la

v(~:)- CME(~p)

N [ 13,(X'X)·10'2 ]

semidefinida, ésto implica

que la varianza de los estimadores mínimos cuadrados del modelo completo es mayor que la varianza de los estimadores mínimos cuadrados del modelo parcial. En otras palabras, la eliminación de variables siempre resulta en pequeñas modificaciones en las varianzas para los estimadores de los coeficientes de regresión de las variables retenidas en el modelo. 3.- Si la matriz

P* -

variables

107

La relación: «X'X)·1X')

0'21 (1 - X (X'X)·1X')

demuestra que los estimadores independientes.

y

Luego como el cuadrado medio del residual

por

A2

= A2 0'.

O son también

(CME) viene dado

0' •.

(n- k-1)&; 2

-

X2(n. k· 1)

O'

tiene menor CME que 13'.

a-:

4.-

es un estimador generalmente sesgado por exceso.

Es conveniente aclarar algunos aspectos de orden matemático dentro del procedimiento seguido: Para el modelo completo Y = XI3 + E, señalado en (4.37) el estimador insesgado mínimo cuadrado de 13es = (X'X)·lX'Y, el

P*

estimador insesgado de la varianza del residual 0'2 es

0'.

=

Y'[I-X(X'Xr =

n-k-l

y'

. Sea el valor predicho correspondiente a una observación ~~tlcular X' cuando se usa el modelo completo donde X' es un vector fijo de la matriz X. Entonces:

1

Y'Y-~*X'Y

A2

&;.

Efectos de la especificación incorrecta del modelo sobre la estimación

x']y

(4.47)

•••• •

y

V(p *) =

(X'X)·l

0'2 .

(4.48)

1 •••••

y =x 13

n-k-l

(4.,50)

con media: (4.51)

106

ChacínI Análisisde Regresióny Superficiesde Respuesta ChacinI Análisisde Regresióny Superficiesde Respuesta

Pp

1.-

es un estimador sesgado de I3p a menos que I3r = 0, ó que

X'p Xr

=

O, lo que significa ortogonalidad

retenidas y eliminadas. Esta expresiones (4.43) y (4.44). 2.- La matriz

afirmación

v(~:) - v(~p)es positiva

entre

se aprecia

en las

v(~:) -

m~triz

y - N [XI3,0'21] entonces: (n- k-l)CME 2

es positiva semidefinida. Esto significa

que los estimadores mínimos cuadrados de los coeficientes de regresión obtenidos para el modelo parcial tienen cuadrados medios del error (CME), que son más pequeños que los obtenidos para el modelo completo, cuando las variables eliminadas tienen coeficientes de regresión que son más pequeños en magnitud que la desviación estándar de los estimadores de los coeficientes correspondientes. Se concluye que aunque I3p puede ser sesgado

-

X2(n. k·

(4.49)

1)

O'

donde CME

=

cuadrado medio del residual.

Esta relación es distribuida según X2, debido a que la matriz [ 1 - X(X'X)·l X'] inwlucrada en la estimación de 0'2 es una matriz independiente y de rango n-k - l.

I3rl3~ es positiva semidefinida, luego la

v(~:)- CME(~p)

N [ 13,(X'X)·10'2 ]

semidefinida, ésto implica

que la varianza de los estimadores mínimos cuadrados del modelo completo es mayor que la varianza de los estimadores mínimos cuadrados del modelo parcial. En otras palabras, la eliminación de variables siempre resulta en pequeñas modificaciones en las varianzas para los estimadores de los coeficientes de regresión de las variables retenidas en el modelo. 3.- Si la matriz

P* -

variables

107

La relación: «X'X)·1X')

0'21 (1 - X (X'X)·1X')

demuestra que los estimadores independientes.

y

Luego como el cuadrado medio del residual

por

A2

= A2 0'.

O son también

(CME) viene dado

0' •.

(n- k-1)&; 2

-

X2(n. k· 1)

O'

tiene menor CME que 13'.

a-:

4.-

es un estimador generalmente sesgado por exceso.

Es conveniente aclarar algunos aspectos de orden matemático dentro del procedimiento seguido: Para el modelo completo Y = XI3 + E, señalado en (4.37) el estimador insesgado mínimo cuadrado de 13es = (X'X)·lX'Y, el

P*

estimador insesgado de la varianza del residual 0'2 es

0'.

=

Y'[I-X(X'Xr =

n-k-l

y'

. Sea el valor predicho correspondiente a una observación ~~tlcular X' cuando se usa el modelo completo donde X' es un vector fijo de la matriz X. Entonces:

1

Y'Y-~*X'Y

A2

&;.

Efectos de la especificación incorrecta del modelo sobre la estimación

x']y

(4.47)

•••• •

y

V(p *) =

(X'X)·l

0'2 .

(4.48)

1 •••••

y =x 13

n-k-l

(4.,50)

con media: (4.51)

Chacín I Análisis de Regresión y Superticies de Respuesta

3. Si la matri~ V~; ~PrP~

con varianza:

v(y') =

(4.52)

[1 + X'(X'X)-lX]

Consideraciones importantes 1.-

Como las variables eliminadas tienen efectos pequeños, el cuadrado medio del error de las estimaciones sesgadas es menor que la varianza de las estimaciones insesgadas, es decir, la cantidad introducida por el sesgo es menor que la reducción de la varianza.

2.-

Existe el riesgo de retener variables no significativas, no necesarias o extrañas, es decir, variables con coeficientes cero o coeficientes menor que su correspondiente error estándar del modelo completo; cuando ésto sucede, hay pérdida de precisión en la estimación de los coeficientes y la predicción de respuestas ..

A

respuesta Y es: (4.53)

con media: E(Y) :: E(X~ ~p) = X~E~p) E(Y)

= X~

(pp

(4.54)

+ APr)

donde: con varianza: (4.55)

El cuadrado medio del error de la predicción viene dado por: CME (Y) = E(Y - y)2 + Sesgo (4.56)

Las propiedades de siguiente manera:

Y

Y*

3.- Los modelos de regresión se utilizan en algunos casos con datos tomados en el tiempo que tienen generalmente valores extraños o extremos, estos valores generalmente incluyen grandes defectos, que influyen en la selección de variables y conducen a modelos mal especificados con consecuencias ya conocidas (si se ha hecho un buen estudio de valores atípicos, ésto se evita). 4.- También es frecuente que las variables más influyentes o importantes en la respuesta tengan amplitudes muy pequeñas y al- ajustar el modelo por mínimos cuadrados, por lo general son excluidas. Para solucionar ésto, el analista debe tratar de recolectar nuevos datos para la reconstrucción del modelo. El diseño de experimentos es de gran ayuda en estos casos.

A

y

Y

se pueden resumir

de la

USOS DE LA ECUACION DE REGRESION

es un estimador sesgado de Y a menos que X'pXrPr =0, lo cual

es válido si el conjunto de variables eliminadas son ortogonales. 2.

es positiva semidefinida, entonces:

V(y* ~CME(Y). cr2

Si se utiliza el modelo parcial o reducido, el valor predicho de la

1.

109

Chacín I Análisis de Regresión y Superticies de Respuesta

108

v(y*) ~ V(Y) la varianza

seleccionadas

y las

de la respuesta estimada por el modelo

completo es mayor o igual a la varianza del modelo parcial o reducido.

Una ecuación de regresión puede tener muchos usos, se podrían resumir en los siguientes: a.- Descripción y construcción de modelos Una ecuación de regresión puede ser usada para describir procesos que forman parte de un sistema complejo e interactuante. El propósito de la ecuación puede ser puramente descriptivo a objeto de

Chacín I Análisis de Regresión y Superticies de Respuesta

3. Si la matri~ V~; ~PrP~

con varianza:

v(y') =

(4.52)

[1 + X'(X'X)-lX]

Consideraciones importantes 1.-

Como las variables eliminadas tienen efectos pequeños, el cuadrado medio del error de las estimaciones sesgadas es menor que la varianza de las estimaciones insesgadas, es decir, la cantidad introducida por el sesgo es menor que la reducción de la varianza.

2.-

Existe el riesgo de retener variables no significativas, no necesarias o extrañas, es decir, variables con coeficientes cero o coeficientes menor que su correspondiente error estándar del modelo completo; cuando ésto sucede, hay pérdida de precisión en la estimación de los coeficientes y la predicción de respuestas ..

A

respuesta Y es: (4.53)

con media: E(Y) :: E(X~ ~p) = X~E~p) E(Y)

= X~

(pp

(4.54)

+ APr)

donde: con varianza: (4.55)

El cuadrado medio del error de la predicción viene dado por: CME (Y) = E(Y - y)2 + Sesgo (4.56)

Las propiedades de siguiente manera:

Y

Y*

3.- Los modelos de regresión se utilizan en algunos casos con datos tomados en el tiempo que tienen generalmente valores extraños o extremos, estos valores generalmente incluyen grandes defectos, que influyen en la selección de variables y conducen a modelos mal especificados con consecuencias ya conocidas (si se ha hecho un buen estudio de valores atípicos, ésto se evita). 4.- También es frecuente que las variables más influyentes o importantes en la respuesta tengan amplitudes muy pequeñas y al- ajustar el modelo por mínimos cuadrados, por lo general son excluidas. Para solucionar ésto, el analista debe tratar de recolectar nuevos datos para la reconstrucción del modelo. El diseño de experimentos es de gran ayuda en estos casos.

A

y

Y

se pueden resumir

de la

USOS DE LA ECUACION DE REGRESION

es un estimador sesgado de Y a menos que X'pXrPr =0, lo cual

es válido si el conjunto de variables eliminadas son ortogonales. 2.

es positiva semidefinida, entonces:

V(y* ~CME(Y). cr2

Si se utiliza el modelo parcial o reducido, el valor predicho de la

1.

109

Chacín I Análisis de Regresión y Superticies de Respuesta

108

v(y*) ~ V(Y) la varianza

seleccionadas

y las

de la respuesta estimada por el modelo

completo es mayor o igual a la varianza del modelo parcial o reducido.

Una ecuación de regresión puede tener muchos usos, se podrían resumir en los siguientes: a.- Descripción y construcción de modelos Una ecuación de regresión puede ser usada para describir procesos que forman parte de un sistema complejo e interactuante. El propósito de la ecuación puede ser puramente descriptivo a objeto de

110

Chacín I Análisisde Regresióny Superficiesde Respuesta

explicar la naturaleza de esta interacción compleja. En este sen~ido se . presentan dos necesidades antagónicas a saber: una es explicar la. mayor cantidad de variación como sea posible, ésto sugiere la inclusión de un número elevado de variables en el modelo, la otra posición es adherirse al principio del menor número de varia~le.s, el cual sugiere que se deben tratar de entender en forma facil la descripción de los procesos con tan pocas variables como sea posible. En situaciones donde la descripción es el principal objetivo, se debe tratar de seleccionar la menor cantidad de variables independientes que expliquen la mayor-cantidad de variación de la variable dependiente. b.- Estimación y predicción Las ecuaciones de regresión pueden ser usadas para predicción, por ejemplo, se podría estar interesado en predecir el valor de una futura observación o estimar la respuesta media que se corresponde con una determinada observación. Tanto la predicción como la estimación se hacen dentro del rango o rangos de las variables independientes, presentes en el modelo. Cuando una ecuación de regresión es usada con estos fines, las variables se seleccionan bajo el criterio de minimizar el cuadrado medio del error de la predicción. c.- Control El propósito de construir la ecuación de regresión podría ser determinar la magnitud a la cual las variables independientes se debe alterar, para obtener un valor especifico de la variable respuesta. En este punto la ecuación de regresión es vista como una función respuesta. Para propósito de control, es deseable que los coeficientes de regresión de las variables sean medidas en forma bastante precisa, ésto es, que los errores estándar de los coeficientes sean pequeños, por lo tanto hay que ser cuidadoso con los métodos de estimación si la multicolinealidad esta presente. Una consideración importante de hacer notar es que el propósito para el cual el modelo de regresión fue construido, determina el criterio que debe ser optimizado en su formulación; ésto supone .que un sub-conjunto de variables puede ser el mejor para un propósito, pero no necesariamente será el mejor para otro. El concepto del mejor sub-conjunto de variables a ser 'incluidos en una ecuación de regresión siempre requiere de un análisis adicional.

ChacínI Análisisde Regresióny Superficiesde Respuesta

111

CRITERIOS PARA SELECCIONAR - ECUACIONES DE REGRESION

Existen dos pOSICIOnespor parte de los investigadores en relación al conjunto de variables independientes que deben formar parte de la ecuación de regresión, éstas son: 1.- Incl~ el mayor número posible de las variables predictoras, que contienen la mayor información sobre las variables que puedan influenciar la respuesta, a objeto de que los valores ajustados sean los más confiables y seguros con fines de predicción. 2.-

Incluir en el modelo solamente las variables de mayor relevancia en el fenómeno bajo estudio, ya que en la mayoría de los casos es impráctico u oneroso recabar información no necesaria y procesarla, además por que la varianza de las predicciones aumenta al aumentar el número de variables regresoras.

. La posición conciliadora entre las dos, parece ser la que ha dado meJor~,sresultados y es la que muchos autores han llamado, "la mejor ecua~IOnde regresión" o "la ecuación más adecuada". A este respecto Hocking (1976), señala que cuando se trata de determinar la ecuación más apropiada, basada en un subconjunto de variables, se deben tener en cuenta tres aspectos: a.-

El criterio utilizado para analizar y seleccionar el sub-conjunto.

b.- La estimación de los coeficientes de la ecuación final. c.-

La técnica computacional usada en el análisis de los datos.

~n la literatura se han propuesto varios criterios para selec~lOnar la mejor ecuación de regresión, Hocking (1976), señala una lista bastante extensa de criterios a saber: 1.- El cuadrado del coeficiente de correlación múltiple o coeficiente de determinación. 2 SCRp R =-p SCT

SCR == Suma de cuadrados debida a regresión SCT == Suma de cuadrados total

110

Chacín I Análisisde Regresióny Superficiesde Respuesta

explicar la naturaleza de esta interacción compleja. En este sen~ido se . presentan dos necesidades antagónicas a saber: una es explicar la. mayor cantidad de variación como sea posible, ésto sugiere la inclusión de un número elevado de variables en el modelo, la otra posición es adherirse al principio del menor número de varia~le.s, el cual sugiere que se deben tratar de entender en forma facil la descripción de los procesos con tan pocas variables como sea posible. En situaciones donde la descripción es el principal objetivo, se debe tratar de seleccionar la menor cantidad de variables independientes que expliquen la mayor-cantidad de variación de la variable dependiente. b.- Estimación y predicción Las ecuaciones de regresión pueden ser usadas para predicción, por ejemplo, se podría estar interesado en predecir el valor de una futura observación o estimar la respuesta media que se corresponde con una determinada observación. Tanto la predicción como la estimación se hacen dentro del rango o rangos de las variables independientes, presentes en el modelo. Cuando una ecuación de regresión es usada con estos fines, las variables se seleccionan bajo el criterio de minimizar el cuadrado medio del error de la predicción. c.- Control El propósito de construir la ecuación de regresión podría ser determinar la magnitud a la cual las variables independientes se debe alterar, para obtener un valor especifico de la variable respuesta. En este punto la ecuación de regresión es vista como una función respuesta. Para propósito de control, es deseable que los coeficientes de regresión de las variables sean medidas en forma bastante precisa, ésto es, que los errores estándar de los coeficientes sean pequeños, por lo tanto hay que ser cuidadoso con los métodos de estimación si la multicolinealidad esta presente. Una consideración importante de hacer notar es que el propósito para el cual el modelo de regresión fue construido, determina el criterio que debe ser optimizado en su formulación; ésto supone .que un sub-conjunto de variables puede ser el mejor para un propósito, pero no necesariamente será el mejor para otro. El concepto del mejor sub-conjunto de variables a ser 'incluidos en una ecuación de regresión siempre requiere de un análisis adicional.

ChacínI Análisisde Regresióny Superficiesde Respuesta

111

CRITERIOS PARA SELECCIONAR - ECUACIONES DE REGRESION

Existen dos pOSICIOnespor parte de los investigadores en relación al conjunto de variables independientes que deben formar parte de la ecuación de regresión, éstas son: 1.- Incl~ el mayor número posible de las variables predictoras, que contienen la mayor información sobre las variables que puedan influenciar la respuesta, a objeto de que los valores ajustados sean los más confiables y seguros con fines de predicción. 2.-

Incluir en el modelo solamente las variables de mayor relevancia en el fenómeno bajo estudio, ya que en la mayoría de los casos es impráctico u oneroso recabar información no necesaria y procesarla, además por que la varianza de las predicciones aumenta al aumentar el número de variables regresoras.

. La posición conciliadora entre las dos, parece ser la que ha dado meJor~,sresultados y es la que muchos autores han llamado, "la mejor ecua~IOnde regresión" o "la ecuación más adecuada". A este respecto Hocking (1976), señala que cuando se trata de determinar la ecuación más apropiada, basada en un subconjunto de variables, se deben tener en cuenta tres aspectos: a.-

El criterio utilizado para analizar y seleccionar el sub-conjunto.

b.- La estimación de los coeficientes de la ecuación final. c.-

La técnica computacional usada en el análisis de los datos.

~n la literatura se han propuesto varios criterios para selec~lOnar la mejor ecuación de regresión, Hocking (1976), señala una lista bastante extensa de criterios a saber: 1.- El cuadrado del coeficiente de correlación múltiple o coeficiente de determinación. 2 SCRp R =-p SCT

SCR == Suma de cuadrados debida a regresión SCT == Suma de cuadrados total

112

Chacin / Análisis de Regresión

Chacin / Análisis de Regresión y Superficies de Respuesta

y

113

Superficies de Respuesta

12.- Criterios de F parcial y F secuencial.

2.- El coeficiente de determinación ajustado.

13.- Uso de parámetros infinitos. 2

R a)'d

[(n-1)(1- R~)l = ln-p

14.- Suma de mínimos errores absolutos. 15.- Suma de mínimos errores relativos.

3.- El cuadrado medio de residuales (CME). Coeficiente de determinación múltiple R2

SCEp

CMEp =--

n-p

~ 4.- El cuadrado del error total o estadístico Cp de Mallows. Cp

=

un modelo.

R! denota el coeficiente de determinación múltiple

0'2

(n+p) CME n

de un

subconjunto de regresión de términos, es decir, (p-I variables regresaras o independientes). Este coeficiente expresado en porcentaje lo que indica es la cantidad de variabilidad de la respuesta (variabilidad total) que esta explicada por las variables regresoras o la parte no estadística del modelo.

SCEp --+(2p-n)

5.- Promedio de la varianza de predicción (Jp). =

Es probablemente el criterio más utilizado en la evaluación de

Si

p

con

:No

=

1

6.- Promedio del cuadrado medio del error de predicción (Sp). =

CMEp

f (Xo, ... , Xp)

=

es la parte no estocástica del modelo

(n- p-l)

7.- Suma de cuadrados de residuales estandarizada (SCE).

SCRp SCT

2

p

donde:

Ep

=

A



SCEp SCT

R=--=1--puesto que:

Y - Y y D, es la diagonal de la matriz:

11- Xp(X~xprl,Xpl 8.- Suma de cuadrados de predicción (presas) Press,

SCEp 1 - SCT

10.- Estadísticos de Andrews y Pregiben. 11.- Suma de mínimos Errores absolutos ponderados.

SCT-SCEp SCT

SCRp

= S~T v

Vale la pena definir el término utilizado' por algunos y denominado coeficiente de indeterminación o cantidad de variabilidad total no explicada por la regresión: 2

9.- Correlaciones parciales.

=

R1

2

(SCEp)

SCEp

= 1- Rp = 1- 1- SCT = SCT

El coeficiente de indeterminación coeficiente de determinación.

es el complemento

del

112

Chacin / Análisis de Regresión

Chacin / Análisis de Regresión y Superficies de Respuesta

y

113

Superficies de Respuesta

12.- Criterios de F parcial y F secuencial.

2.- El coeficiente de determinación ajustado.

13.- Uso de parámetros infinitos. 2

R a)'d

[(n-1)(1- R~)l = ln-p

14.- Suma de mínimos errores absolutos. 15.- Suma de mínimos errores relativos.

3.- El cuadrado medio de residuales (CME). Coeficiente de determinación múltiple R2

SCEp

CMEp =--

n-p

~ 4.- El cuadrado del error total o estadístico Cp de Mallows. Cp

=

un modelo.

R! denota el coeficiente de determinación múltiple

0'2

(n+p) CME n

de un

subconjunto de regresión de términos, es decir, (p-I variables regresaras o independientes). Este coeficiente expresado en porcentaje lo que indica es la cantidad de variabilidad de la respuesta (variabilidad total) que esta explicada por las variables regresoras o la parte no estadística del modelo.

SCEp --+(2p-n)

5.- Promedio de la varianza de predicción (Jp). =

Es probablemente el criterio más utilizado en la evaluación de

Si

p

con

:No

=

1

6.- Promedio del cuadrado medio del error de predicción (Sp). =

CMEp

f (Xo, ... , Xp)

=

es la parte no estocástica del modelo

(n- p-l)

7.- Suma de cuadrados de residuales estandarizada (SCE).

SCRp SCT

2

p

donde:

Ep

=

A



SCEp SCT

R=--=1--puesto que:

Y - Y y D, es la diagonal de la matriz:

11- Xp(X~xprl,Xpl 8.- Suma de cuadrados de predicción (presas) Press,

SCEp 1 - SCT

10.- Estadísticos de Andrews y Pregiben. 11.- Suma de mínimos Errores absolutos ponderados.

SCT-SCEp SCT

SCRp

= S~T v

Vale la pena definir el término utilizado' por algunos y denominado coeficiente de indeterminación o cantidad de variabilidad total no explicada por la regresión: 2

9.- Correlaciones parciales.

=

R1

2

(SCEp)

SCEp

= 1- Rp = 1- 1- SCT = SCT

El coeficiente de indeterminación coeficiente de determinación.

es el complemento

del

114

Chacin I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión

EXisten [ k ] valores de Rp, para cada valor de p, es decir uno p-l . para cada posible sub-modelo de tamaño p, donde k el número de variables regresoras en el modelo completo. Por lo tanto para cada subconjunto de tamaño p, habrá un máximo R2.p También R2p aumentará en la medida que aumente p, y

=

será máximo para p k + 1 (máximo absoluto), es decir, si se refiere al óptimo R p2 como el más grande, siempre se obtendrá con el modelo completo. Pero ese R 2p no ameríta selección, interesa es una especie de máximo

relativo,

es

decir,

un

máximo

R~

que

no

difiera

significativamente del R~ del modelo completo y ésto podría ser a

Desventajas del 1.- El criterio de respuesta.

y

Superficies de Respuesta

115

jP

iP

podría eliminar variables esenciales en la

2.- La inspección cualitativa de R2depende de la escala. -2

.

3.- . R prOp~rCl?~a una información de conjunto, y no sobre los aportes individuales de las variables regresoras. . El decrecimiento en un momento dado al agregar variables, pu~era ser que esas t variables agregadas son malas regresaras y ya estan representadas por otras, debido a su alta correlación. Su explicación matemática sería:

juicio del investigador.

R2_-1- (n-1JSCE ----

Generalmente para seleccionar el R~ se gráfica R~ contra p, esto permite observar que a partir de un cierto número de términos, prácticamente se estabiliza la curva, en el sentido de que su crecimiento es leve, este R~ correspondiente a esas p variables podría ser el aceptable, siempre que no difiera significativamente del del modelo completo.

R~+l

n-p

SCT

La SCT permanece constante, (n-1) también pero n-p se transfo~a en n-p-t. ?omo n-p > n-p-t, la SCE disminuye poco pero el denom~ador dismmuye con mayor decremento, por lo tanto si se llama SCE = SCE(n. p. t) y SCE = SCEp. Si sucede que:

Coeficiente de determinación

múltiple ajustado

Para evitar las dificultades de la interpretación de prefieren usar el estadístico: 2

Raid

,-2

O

Rp

=1-l--

2

Rp

( n-l} n-p

llamado

l-R

R2

R2,

SCE SCE' --< n-p n-p-t

algunos

ajustado

n-1 SCE

n-1 SCE' n-p-t, la SCE disminuye poco pero el denom~ador dismmuye con mayor decremento, por lo tanto si se llama SCE = SCE(n. p. t) y SCE = SCEp. Si sucede que:

Coeficiente de determinación

múltiple ajustado

Para evitar las dificultades de la interpretación de prefieren usar el estadístico: 2

Raid

,-2

O

Rp

=1-l--

2

Rp

( n-l} n-p

llamado

l-R

R2

R2,

SCE SCE' --< n-p n-p-t

algunos

ajustado

n-1 SCE

n-1 SCE' SCRp+t = CMR p p+ t p-st

en el modelo ajustado

es p, esto hace que la variabilidad explicada por la regresión sea menor, y por lo tanto aumenta la variabilidad no explicada, que sería el cuadrado medio de los residuales (CME).

SCEp n-p

cuyo comportamiento se puede estudiar de manera gráfica, al graficar CMEp contra p (Figura 4.7).

También se puede explicar ese aumento, no sólo desde el punto de vista SCRp y SCR(p+t).Al adicionar variables disminuyen los G. de L. del error y aumenta SCE, es decir, SCEp < SCE(p+t),pero la disminución de G. de L. en el denominador no compensa lo que disminuye SCEp, por lo tanto: SCEp < SCE(p+t) CMEp

=

SCEp --< n-p

SCEp+t n-p-t

=CMEp+t

Este criterio de selección del modelo puede ser manejado de la siguiente forma, se debe usar: a.- El mínimo CME(p).

--- --

Figura 4.7. Gráfico de CMEp contra el número de parámetros en el modelo fijado

b.- El valor de p en el que CMR(p)es aproximadamente igual a CMR para el modelo completo. C.-

Un valor de p cerca del punto donde el valor más pequeño CME(p) vuelve acrecer.

116

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión

y además: 1 _ n-1 SCE = iP n-pSCT p

=1- [n-11)SCE. ---=1p n-p SCT

por ende

ya que:

[n-1lJ -1-R n-p

SCE --=l-R SCT

2)

CMRp+t

CMEp

=

117

=

SCRp+t p+t

al añadir t variables regresoras adicionales, el aumento en la suma de cuadrados de regresión no compensa el aumento en el denominador, entonces:

2

Cuadrado medio de residuales: CMEp Si el número de parámetros entonces:

Superficies de Respuesta

Se puede demostrar que al aumentar p decrece CME, pero en un momento dado pudiera crecer al aumentar p (el número de parámetros), y por ende, al aumentar el número de variables. Eso puede suceder por adicionar variables que son malas regresoras que incrementan muy poco la suma de cuadrados de regresión, ya que:

observemos además que:

-2R

y

CMRp = SCRp > SCRp+t = CMR p p+ t p-st

en el modelo ajustado

es p, esto hace que la variabilidad explicada por la regresión sea menor, y por lo tanto aumenta la variabilidad no explicada, que sería el cuadrado medio de los residuales (CME).

SCEp n-p

cuyo comportamiento se puede estudiar de manera gráfica, al graficar CMEp contra p (Figura 4.7).

También se puede explicar ese aumento, no sólo desde el punto de vista SCRp y SCR(p+t).Al adicionar variables disminuyen los G. de L. del error y aumenta SCE, es decir, SCEp < SCE(p+t),pero la disminución de G. de L. en el denominador no compensa lo que disminuye SCEp, por lo tanto: SCEp < SCE(p+t) CMEp

=

SCEp --< n-p

SCEp+t n-p-t

=CMEp+t

Este criterio de selección del modelo puede ser manejado de la siguiente forma, se debe usar: a.- El mínimo CME(p).

--- --

Figura 4.7. Gráfico de CMEp contra el número de parámetros en el modelo fijado

b.- El valor de p en el que CMR(p)es aproximadamente igual a CMR para el modelo completo. C.-

Un valor de p cerca del punto donde el valor más pequeño CME(p) vuelve acrecer.

118

Chacín I Análisis de Regresión

y

Chacín I Análisis de Regresión y Superficies de Respuesta

Superficies de Respuesta

2

El subconjunto del modelo que minimiza CME(P) también hará máximo R~

y R =1--p

-

SCEp

del modelo con p variables

SCT

119

(4.58)

Donde SCT = Suma de cuadrados total R2 =1- n-1(1_R2) p n-p p

SCEp

iP =1 n-1 SCEp R =1---p n-p SCT

p

-2

-2

R =1

,P

R2 =1 _ SCE (4.60) SCT del modelo completo' con las k variables y k + 1 parámetros. La relación de Cp y R~ se puede obtener de la siguiente manera:

SCT n-p

-2

p

de (4.58) tenemos:

El criterio del mínimo CME(p)y máximo R~son equivalentes. El gráfico del CME contra p, cuando el número de observaciones es grande nos da una buena información en el estudio para la selección de un modelo adecuado. Cuando el ajuste de la ecuación de regresión implica más' variables regresoras de las que son necesarias para ajustar los datos, el modelo es llamado sobre-definido, cuando esto sucede al incrementar variables, el cuadrado medio del residual tiende a estabilizarse en un valor muy próximo al valor verdadero de cr2 o sea un buen estimador de la varianza. Esto permite ver cuando todas las variables importantes han sido incluidas en el modelo.

Se puede referir, tal como lo hemos expresado, que los subconjuntos de un modelo completo producen la mayoría de las veces, estimaciones sesgadas de los coeficientes de la ecuación. Para cuantíficar este sesgamiento, el Cp es un estadístico que proporciona un criterio importante, utiliza el cuadrado medio del error de la respuesta predicha o estimada. Este estadístico esta íntimamente relacionado con los estadísticos R~ y R~ ya que la fórmula del estadístico Cp, viene dada, por: p

SCE =--p +2p-n S2

de (4.60) y

S

2

SCE SCE n-k-1

como

SCEp = (1-R!) SCT = (1-R2) SCT ~

S

2

(4.57)

(4.61) (4.62)

1_R2 =

n-k-1

SCEp --2 -

s

SCT

(4.63)

+ 2p- n sustituyendo:

(1- R~)SCT 2

1-R n-k-1

Uso del estadístico Cp de Mallows

e

(4.59)

y

n-l SCEp

--_.!-

n-1 R =1--CME p SCT

_ n-p =1 _ n-1 SCEp SCT n-p SCT n-1

+ 2p- n

SCT

(4.64)

118

Chacín I Análisis de Regresión

y

Chacín I Análisis de Regresión y Superficies de Respuesta

Superficies de Respuesta

2

El subconjunto del modelo que minimiza CME(P) también hará máximo R~

y R =1--p

-

SCEp

del modelo con p variables

SCT

119

(4.58)

Donde SCT = Suma de cuadrados total R2 =1- n-1(1_R2) p n-p p

SCEp

iP =1 n-1 SCEp R =1---p n-p SCT

p

-2

-2

R =1

,P

R2 =1 _ SCE (4.60) SCT del modelo completo' con las k variables y k + 1 parámetros. La relación de Cp y R~ se puede obtener de la siguiente manera:

SCT n-p

-2

p

de (4.58) tenemos:

El criterio del mínimo CME(p)y máximo R~son equivalentes. El gráfico del CME contra p, cuando el número de observaciones es grande nos da una buena información en el estudio para la selección de un modelo adecuado. Cuando el ajuste de la ecuación de regresión implica más' variables regresoras de las que son necesarias para ajustar los datos, el modelo es llamado sobre-definido, cuando esto sucede al incrementar variables, el cuadrado medio del residual tiende a estabilizarse en un valor muy próximo al valor verdadero de cr2 o sea un buen estimador de la varianza. Esto permite ver cuando todas las variables importantes han sido incluidas en el modelo.

Se puede referir, tal como lo hemos expresado, que los subconjuntos de un modelo completo producen la mayoría de las veces, estimaciones sesgadas de los coeficientes de la ecuación. Para cuantíficar este sesgamiento, el Cp es un estadístico que proporciona un criterio importante, utiliza el cuadrado medio del error de la respuesta predicha o estimada. Este estadístico esta íntimamente relacionado con los estadísticos R~ y R~ ya que la fórmula del estadístico Cp, viene dada, por: p

SCE =--p +2p-n S2

de (4.60) y

S

2

SCE SCE n-k-1

como

SCEp = (1-R!) SCT = (1-R2) SCT ~

S

2

(4.57)

(4.61) (4.62)

1_R2 =

n-k-1

SCEp --2 -

s

SCT

(4.63)

+ 2p- n sustituyendo:

(1- R~)SCT 2

1-R n-k-1

Uso del estadístico Cp de Mallows

e

(4.59)

y

n-l SCEp

--_.!-

n-1 R =1--CME p SCT

_ n-p =1 _ n-1 SCEp SCT n-p SCT n-1

+ 2p- n

SCT

(4.64)

120

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

El error cuadrático medio total de la respuesta predicha para el modelo de los p-términos.

La relación de Cp con R~ viene dada por:

n

ICMEC'Yi*) i=l (1- R2) n-1 \

= 1-

n- p

P

I i=l

p

P

=

ICME(Yi*)

I[E(Yt ie I

\

p

(n-1)

*)

~E(YJ]2 +IVar(Yi i=l

n

I CME(Yi*) i=l Sustituyendo en (4.64):

=

SCs + SVRp

donde: (n- k-1)(n-

p)

-2

SCs

-'----(-n--:.....:,l)·----=:....:..(1 - Rp) =

p

- C

=

p

+ 2p-n

(1- R2) (n-k-1)(n-p)[1-R;]+2 (n-1) 1 - R2

=

Suma de Cuadrados del sesgo.

SVRp = Sumatoria de la Varianzas de los

-n

pero

-21 ~ ~Var (J

Es decir el Cuadrado Medio del Error para la i-ésima respuesta. E(Y¡) es la esperanza de la respuesta debido al verdadero modelo de regresión. es la esperanza

de la respuesta

del subconjunto

modelo completo, este subconjunto tiene p-términos.

de

P

iJ

(in

i¡*

Si se estandariza esta sumatoria para hacerla independiente las unidades originales obtenemos F

F

Cuad. Medios

19,88322

R2 = 0,8039 2 Radj

=

0,7865

194

Chacín / Análisis de Regresión y Superficies de Respuesta

El gráfico de residuales us valores predichos, hay indicios de heterocedasticidad.

Chacín / Análisis de Regresión y Superficies de Respuesta

nos indica que no

AUTOCORRELACION

195

Estimación de Parámetros Variable

G. deL.

Estimación de los parámetros

Error estandar

t

Prob> Itl

Prueba Durbin-Watson

1,934

Intercep

1

-58,398070

51,70694978

-1,129

0,2647

Autocorrelación

0,072

X2

1

0,279103

0,07360959

3,792

0,0004

X15

1

5,611604

3,21121866

1,747

0,0874

Xs X9

1

-0,533531

0,26155352

-2,038

0,0474

1

0,963531

0,44987250

2,142

0,0377

de primer orden

El estadístico de Durbin-Watson fue de 1,934, como es mayor que el dv 1,72 obtenido de la tabla, indica que' no existe autocorrelación

=

MULTICOLINEALIDAD a) Examen de la matriz de correlación de las variables regresoras. Correlations

x,

M

X9

y

X15

e)

Análisis de los VIF

1,0000

0,9449**

0,9154**

0,3601*

0,8134**

Variable

G. de L.

Inflador de varianza

0,9449**

1,0000

0,9604**

0,3311*

0,7567**

Intercep

1

0,00000000

X9 X15

0,9154**

0,9604**

1,0000

0,5198**

0,8332**

X2

1

9,57900149

0,3601*

0,3311*

0,5198**

1,0000

0,6183**

X15

1

2,78222498

Y

0,8134**

0,7567**

0,8332**

0,6183**

1,0000

x,

1

35,34266118

X9

1

31,40273170

X2

x,

Hay coeficientes de correlación mayores que el coeficiente de Determinación, por lo tanto hay evidencias de multicolinealidad. b)

De la comparación entre el F y las pruebas t, se concluye que no hay indicios de multicolinealidad severos, dado que tanto F como t son significativos, excepto el correspondiente a ~o.

d) Para determinar el grado de la multicolinealidad, se determinaron los valores propios de X'X con los cuales se calculó K.

ANAVAR Fuente

G. deL. Suma de Cuad.

Cuad. Medios

Regresión

4

154392,98169

38598,24542

Residual

45

37658,61511

836,85811

C Total

49

192051,59680

Raíz Cuadrada del CME

28,92850

Promedio

145,49200

C.V.

19,88322

F

Prob>F

46,123

0,0001

= 0,8039 Radj = 0,7865 R2 2

Diagnóstico de multicoliriealidad Número

Valor propio

1

4,83775

2

0,13807

3

0,01539

4

0,00734

5

0,00145

196

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

K

=

A mayor

Amenor

0,13807 0,00145

=

197

Como no hay criterios concluyentes, se validarán todos los modelos, aunque_ el determinado por las variables X2, X15 podría ser el mejor.

95,22< 100

lo cual indica que no hay problemas serios de multicolinealidad.

VALIDACION

ELECCION DEL MEJOR SUBCONJUNTO REGRESORAS

Para validar se utilizó el método de comparar el modelo estimado, con otro generado por 50 observaciones adicionales. De este nuevo modelo, se comparan los coeficientes de los modelos estimados. Los resultados se muestran en las siguientes tablas.

DE VARIABLES

Para seleccionar el modelo definitivo, dentro de los subconjuntos...del modelo seleccionado.por el método de Backward, debemos considerar los valores del coeficiente de determinación, el coeficiente de determinación ajustado, el Press y el Cp de Mal1ow. La selección debe considerar -2 R mayor y el menor Press.

aquel Cp más próximo a la recta, el

CUADRO RESUMEN Variable Xl5

x, N

Coef. Estimado

F

t*

0,279 0,963

Cte

·58,398

·1,129

X2

0,200

3,094

X9 Xl5

0,177 9,976

Cte

132,131 0,271 ·0,052 10,879 ·146,847

Xl5

Cte

46,12

56,25

3,792 2,142

0,740 4,033

K

VIF

PRESS

DW

78,64

95,22

0,377 5,075 .4,546

0,296

Xs X9

·0,837 1,565

Cte

29,017

2,169

N

0,244

9,325

Xl5

10,903 ·147,420

84,92

·4,206 5,296

5,136 .4,611

s 0,29)

~2

0,21

49944,95

1,698

50609,66

1,740

(7,42::;

~15::;

14,39)

5,78

0,000

VALIDACION CRUZADA

6,960 7,1545 78,58

77,18

24,70

8,300 1,545 0,000

7,5872 78,39

76,98

16,89

9,556 9,341

50514,29

1,748

11,150 0,000

3,977 57,89

-47,72.

31,402

3,557 55,63

9,579

coeficiente

10,90

35,342 5,0000 80,39

Modelo de prediccion

0,24

s

2,782

·3,460

N

Cte

R2adj

!,747 2,038

Xs

x,

R2

Modelo estimado Coeficiente Intervalo de confianza -147,42 (-200,2 s ~o s 0,29) (0,24

5,611 ·0,533

X2

Cp

VALIDACION CRUZADA

9,404 6,0576 79,06

77,70

23,47

19,626 50234,62 12,980

1,605

Modelo estimado

Modelo de prediccion

Coeficiente Intervalo de confianza

coeficiente

-146,85 (-200,53 s ~o s 93,54) 0,27

0,000

(-0,15::;

1,148 5,7404 78,43

Para un a = 0,10, el ttab = 1,67

77,40

8,25

1,148

48778,04

-11,43

1,750

~2

s 0,18)

0,45

s 0,18)

0,45

-0,05

0,000

(-0,28::;

~8

10,88 (-7,34::;

~15

s 14,42)

3,35

196

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

K

=

A mayor

Amenor

0,13807 0,00145

=

197

Como no hay criterios concluyentes, se validarán todos los modelos, aunque_ el determinado por las variables X2, X15 podría ser el mejor.

95,22< 100

lo cual indica que no hay problemas serios de multicolinealidad.

VALIDACION

ELECCION DEL MEJOR SUBCONJUNTO REGRESORAS

Para validar se utilizó el método de comparar el modelo estimado, con otro generado por 50 observaciones adicionales. De este nuevo modelo, se comparan los coeficientes de los modelos estimados. Los resultados se muestran en las siguientes tablas.

DE VARIABLES

Para seleccionar el modelo definitivo, dentro de los subconjuntos...del modelo seleccionado.por el método de Backward, debemos considerar los valores del coeficiente de determinación, el coeficiente de determinación ajustado, el Press y el Cp de Mal1ow. La selección debe considerar -2 R mayor y el menor Press.

aquel Cp más próximo a la recta, el

CUADRO RESUMEN Variable Xl5

x, N

Coef. Estimado

F

t*

0,279 0,963

Cte

·58,398

·1,129

X2

0,200

3,094

X9 Xl5

0,177 9,976

Cte

132,131 0,271 ·0,052 10,879 ·146,847

Xl5

Cte

46,12

56,25

3,792 2,142

0,740 4,033

K

VIF

PRESS

DW

78,64

95,22

0,377 5,075 .4,546

0,296

Xs X9

·0,837 1,565

Cte

29,017

2,169

N

0,244

9,325

Xl5

10,903 ·147,420

84,92

·4,206 5,296

5,136 .4,611

s 0,29)

~2

0,21

49944,95

1,698

50609,66

1,740

(7,42::;

~15::;

14,39)

5,78

0,000

VALIDACION CRUZADA

6,960 7,1545 78,58

77,18

24,70

8,300 1,545 0,000

7,5872 78,39

76,98

16,89

9,556 9,341

50514,29

1,748

11,150 0,000

3,977 57,89

-47,72.

31,402

3,557 55,63

9,579

coeficiente

10,90

35,342 5,0000 80,39

Modelo de prediccion

0,24

s

2,782

·3,460

N

Cte

R2adj

!,747 2,038

Xs

x,

R2

Modelo estimado Coeficiente Intervalo de confianza -147,42 (-200,2 s ~o s 0,29) (0,24

5,611 ·0,533

X2

Cp

VALIDACION CRUZADA

9,404 6,0576 79,06

77,70

23,47

19,626 50234,62 12,980

1,605

Modelo estimado

Modelo de prediccion

Coeficiente Intervalo de confianza

coeficiente

-146,85 (-200,53 s ~o s 93,54) 0,27

0,000

(-0,15::;

1,148 5,7404 78,43

Para un a = 0,10, el ttab = 1,67

77,40

8,25

1,148

48778,04

-11,43

1,750

~2

s 0,18)

0,45

s 0,18)

0,45

-0,05

0,000

(-0,28::;

~8

10,88 (-7,34::;

~15

s 14,42)

3,35

198

Chacín I Análisis de Regresión y Superficies de Respuesta

199

Chacín I Análisis de Regresión y Superficies de Respuesta

VALIDACION CRUZADA VALIDACION. CRUZADA Modelo estimado

Modelo de prediccion

Coeficiente Intervalo de confianza

Coeficiente

-58,39 (-145,25 s ~o s 28,46)

-12,88

0,28

- 0,05

s

(-0,11

s 0,67)

~2

-0,53 (-0,97

0,26

s 0,09)

~8

0,96 (0,25

s

(-0,22

s

~9

s 1,72)

5,61 ~15

Modelo estimado Coeficiente Intervalo de confianza -132,13 (-195,25 s ~o s 68,73)

Modelo de predicción Coeficiente 21,62

0,20 (-0,09

s

(-0,22

s

0,0076

s 0,31)

~2

-0,18 ~9

0,87 ~

0,57)

9,98 0,52

(5,87

s

~15

1,28

s 14,10)

1,81

s 11,01)

Además del método mencionado, se utilizó el estadístico Press y

R2 de predicción, cuyos resultados se ven en el siguiente cuadro.

VALIDACION CRUZADA

UTILIZACION DEL PRESS y R2 DE PREDICCION VALIDACION CRUZADA

Modelo estimado

Modelo de prediccion

Coeficiente Intervalo de confianza

Coeficiente

29,017

42,643

(6,9445

s

~o ~ 51,09)

0,296 (-0,17 ~ ~2 s 0,42)

-0,072

-0,838 (-O,17 s ~8 s 0,51)

0,217

1,566

0,701

(1,08

s

~o

s 2,05)

PARA LA

Variables en el modelo

R2

R2 pred

Press

X2, X8, X9, X15

80,4

48

70010

X2, X8, X9

79,0

45

74136

X2,X9, X15

78,6

49

67832

X2, X8, X15

78,4

46

72542

X2, X15

78,3

46

71946

Como ninguno de estos modelos presenta características de validación que se ajusten a las metas planteadas, decidimos investigar cual pudiera ser la causa de ésto. Analizando los coeficientes de variación de las variables estudiadas podemos ver que estos son generalmente altos y que la falta de estabilidad del modelo presentado al validar, podría deberse a diferencias en las muestras

198

Chacín I Análisis de Regresión y Superficies de Respuesta

199

Chacín I Análisis de Regresión y Superficies de Respuesta

VALIDACION CRUZADA VALIDACION. CRUZADA Modelo estimado

Modelo de prediccion

Coeficiente Intervalo de confianza

Coeficiente

-58,39 (-145,25 s ~o s 28,46)

-12,88

0,28

- 0,05

s

(-0,11

s 0,67)

~2

-0,53 (-0,97

0,26

s 0,09)

~8

0,96 (0,25

s

(-0,22

s

~9

s 1,72)

5,61 ~15

Modelo estimado Coeficiente Intervalo de confianza -132,13 (-195,25 s ~o s 68,73)

Modelo de predicción Coeficiente 21,62

0,20 (-0,09

s

(-0,22

s

0,0076

s 0,31)

~2

-0,18 ~9

0,87 ~

0,57)

9,98 0,52

(5,87

s

~15

1,28

s 14,10)

1,81

s 11,01)

Además del método mencionado, se utilizó el estadístico Press y

R2 de predicción, cuyos resultados se ven en el siguiente cuadro.

VALIDACION CRUZADA

UTILIZACION DEL PRESS y R2 DE PREDICCION VALIDACION CRUZADA

Modelo estimado

Modelo de prediccion

Coeficiente Intervalo de confianza

Coeficiente

29,017

42,643

(6,9445

s

~o ~ 51,09)

0,296 (-0,17 ~ ~2 s 0,42)

-0,072

-0,838 (-O,17 s ~8 s 0,51)

0,217

1,566

0,701

(1,08

s

~o

s 2,05)

PARA LA

Variables en el modelo

R2

R2 pred

Press

X2, X8, X9, X15

80,4

48

70010

X2, X8, X9

79,0

45

74136

X2,X9, X15

78,6

49

67832

X2, X8, X15

78,4

46

72542

X2, X15

78,3

46

71946

Como ninguno de estos modelos presenta características de validación que se ajusten a las metas planteadas, decidimos investigar cual pudiera ser la causa de ésto. Analizando los coeficientes de variación de las variables estudiadas podemos ver que estos son generalmente altos y que la falta de estabilidad del modelo presentado al validar, podría deberse a diferencias en las muestras

li Chacín I Análisis de Regresión y Superficies de Respuesta

200

Chacín I Análisis de Regresión y Superficies de Respuesta

utilizadas para la estimación y la validación. Para seleccionar la muestra, si las regiones de exploración son iguales en ambas muestras, debe aplicarse el algoritmo duplex, no obstante, dado que no podíamos implementarlo, como aproximación hicimos las pruebas "t" para diferencias de medias. Variable

t

Prob>

M

1,92

0,0612*

x,

1.63

0,1105

X9

0,29

0,7731

X15

-3.87

0,0003*

Las diferencias que se hallaron en la a que el grupo de validación, aunque presenta diferencias significativas en las conjunto de observaciones con las cuales estimación.

It I

validación se pueden deber fue seleccionado al azar, variables M y X15, con el se determinó el modelo de

SELECCION DEL MODELO DEFINITIVO Dado que el modelo determinado por las variables X2, Xs, M, X15 no presentan buenas características de validación, se agregaron las variables X7, Xll (peso de las vainas con 1, y 3 semillas respectivamente), que podrían mejorar el modelo, y se les analizó su Cp y R2.

y sus subconjuntos

Número en el modelo

R2

1 1 1 1 1 2 2 2 2 2

0,69423889 0,68221941 0,66160763 0,57261585 0,38228648 0,78325782 0,77279172 0,74364357 0,74124914 0,73334450

C(P)

23,53718 26,27069 30,95829 51,19708 94,48240 5,29221 7,67244 14,30141 14,84596 16,64365 _

Variables en el Modelo

X9 Xl1 X2 Xs Xl5 X2 X9 Xll X9 Xs

Xl5 Xl1 XI5 Xl5 Xll

2 2 2 2 2 2 2 2 2 2

0,72608633 0,72448968 0,72078774 0,71861889 0,71007583 0,69481189 0,66292297 0,66249881 0,60420390 0,57722691

18,29433 18,65745 19,49935 19,99260 21,93549 25,40686 32,65915 32,75561 46,01323 52,14842

3 3 3 3 3 3 3 3 -3 3 3 3 3 3 3 3 3 3 3 3

0,80399143 0,79930996 0,79805302 0,79060744 0,78815231 0,78767540 0,78581094 0,78455488 0,78392529 0,77555536 0,77319473 0,74222691 0,74126793 0,74088144 0,73407249 0,73269996 0,72889622 0,71862495 0,71184095 0,66463674

2,57690 3,64158 3,93743 5,62073 6,17909 6,28755 6,71157 6,99723 .7,14041 9,04393 9,58079 16,62359 16,84168 16,92958 18,47809 18,79024 19,65530 21,99122 23,53406 34,26940

4 4 4 4 4 4 4

0,80793086 0,80655478 0,80583938 0,80434389 0,80399742 0,80391407 0,80100005

3,68099 3,99394 4,15664 4,49674 4,57554 4,59449 5,25721

X7 Xs X2 Xs X2 X7 X2 X2 X7 X7

201 Xl1 Xl5 Xll X9 X9 X9 XS X7 Xl5 Xs

X9 Xs X2 X2 X7 Xs X2 X2 X2 X2 X7 X7 Xs X7 X2 X2 X7 X7 X2 X2 X7 X2 X7 X7 Xs X2 X2

Xl1 Xl1 Xl1 Xs Xll X9 X9 X7

Xl5 Xl5 Xl5 X9 Xl5 Xll Xl5 Xl5 Xs Xl5 X9 Xll X9 Xll X9 Xl5 X9 Xl5 Xs Xl1 Xs Xl1 X7 Xl1 Xs Xl5 Xs X9 X7 X9 X7 Xs

X9 X9 Xs Xs X9 Xs Xs

x., x., x., x..

Xl5 XI5 XI5 XI5 XII Xl5 X9 XI5 Xll XI5

li Chacín I Análisis de Regresión y Superficies de Respuesta

200

Chacín I Análisis de Regresión y Superficies de Respuesta

utilizadas para la estimación y la validación. Para seleccionar la muestra, si las regiones de exploración son iguales en ambas muestras, debe aplicarse el algoritmo duplex, no obstante, dado que no podíamos implementarlo, como aproximación hicimos las pruebas "t" para diferencias de medias. Variable

t

Prob>

M

1,92

0,0612*

x,

1.63

0,1105

X9

0,29

0,7731

X15

-3.87

0,0003*

Las diferencias que se hallaron en la a que el grupo de validación, aunque presenta diferencias significativas en las conjunto de observaciones con las cuales estimación.

It I

validación se pueden deber fue seleccionado al azar, variables M y X15, con el se determinó el modelo de

SELECCION DEL MODELO DEFINITIVO Dado que el modelo determinado por las variables X2, Xs, M, X15 no presentan buenas características de validación, se agregaron las variables X7, Xll (peso de las vainas con 1, y 3 semillas respectivamente), que podrían mejorar el modelo, y se les analizó su Cp y R2.

y sus subconjuntos

Número en el modelo

R2

1 1 1 1 1 2 2 2 2 2

0,69423889 0,68221941 0,66160763 0,57261585 0,38228648 0,78325782 0,77279172 0,74364357 0,74124914 0,73334450

C(P)

23,53718 26,27069 30,95829 51,19708 94,48240 5,29221 7,67244 14,30141 14,84596 16,64365 _

Variables en el Modelo

X9 Xl1 X2 Xs Xl5 X2 X9 Xll X9 Xs

Xl5 Xl1 XI5 Xl5 Xll

2 2 2 2 2 2 2 2 2 2

0,72608633 0,72448968 0,72078774 0,71861889 0,71007583 0,69481189 0,66292297 0,66249881 0,60420390 0,57722691

18,29433 18,65745 19,49935 19,99260 21,93549 25,40686 32,65915 32,75561 46,01323 52,14842

3 3 3 3 3 3 3 3 -3 3 3 3 3 3 3 3 3 3 3 3

0,80399143 0,79930996 0,79805302 0,79060744 0,78815231 0,78767540 0,78581094 0,78455488 0,78392529 0,77555536 0,77319473 0,74222691 0,74126793 0,74088144 0,73407249 0,73269996 0,72889622 0,71862495 0,71184095 0,66463674

2,57690 3,64158 3,93743 5,62073 6,17909 6,28755 6,71157 6,99723 .7,14041 9,04393 9,58079 16,62359 16,84168 16,92958 18,47809 18,79024 19,65530 21,99122 23,53406 34,26940

4 4 4 4 4 4 4

0,80793086 0,80655478 0,80583938 0,80434389 0,80399742 0,80391407 0,80100005

3,68099 3,99394 4,15664 4,49674 4,57554 4,59449 5,25721

X7 Xs X2 Xs X2 X7 X2 X2 X7 X7

201 Xl1 Xl5 Xll X9 X9 X9 XS X7 Xl5 Xs

X9 Xs X2 X2 X7 Xs X2 X2 X2 X2 X7 X7 Xs X7 X2 X2 X7 X7 X2 X2 X7 X2 X7 X7 Xs X2 X2

Xl1 Xl1 Xl1 Xs Xll X9 X9 X7

Xl5 Xl5 Xl5 X9 Xl5 Xll Xl5 Xl5 Xs Xl5 X9 Xll X9 Xll X9 Xl5 X9 Xl5 Xs Xl1 Xs Xl1 X7 Xl1 Xs Xl5 Xs X9 X7 X9 X7 Xs

X9 X9 Xs Xs X9 Xs Xs

x., x., x., x..

Xl5 XI5 XI5 XI5 XII Xl5 X9 XI5 Xll XI5

Chacín I Análisis de Regresión

202

y

Chacin I Análisis de Regresión

Superficies de Respuesta

X9 Xl1 x, X9 X9 Xl1 X9 X15 Xs X15 X9 Xll Xs Xl1 X9 X15

4 4 4 4 4 4 4 4

0,79549320 0,79111177 0,78890304 0,78614549 0,78593354 0,77694610 0,74298213 0,74223351

6,50960 7,50604 8,00835 8,63548 8,68369 10,72764 18,45183 18,62209

X2

Xs

X2 X7 X2 X2 X2 X2 X7

X7 Xs X7 X7 X7 X7 Xs

5 5 5 5 5 5

0,80956521 0,80940488 0,80796992 0,80641327 0,80393224 0,79550822

5,30929 5,34576 5,67210 6,02612 6,59036 8,50618

X2 X2 X7 X2 X2 X2

x, X9 x.,

6

0,81092521

X7 X9 x, X9 X7 Xs X7 Xs X7 Xs

Xll Xl1 Xl1 X9 X9

X15 X15 X15 X15 X15 Xu

X2 X7

x,

X9 Xl1 X15

De acuerdo a esta información, se concluye que por tener menor' Cp y mayor R2, seleccionamos el modelo que incorpora las variables Xs, Xl1, X15, el cual se estudia a continuación. ESTUDIO DEL MODELO DEFINITIVO MODELO POBLACIONAL

Fuente

Yi

=

-59,12

+ O,495X9 + 0,43lXll

G. de L.

Suma de Cuad.

Cuad. Medio

F

Prob > F

62,895

0,0001

Regresión

3

154407,83884

51469,27761

Residual

46

37643,75796

818,34256

Total

49

192051,59680

Raíz Cuadrada del C.M.E.

28,60669

Promedio

145,49200

C.v.

19,66203

R2 0,8040 2 Radj

0,7912

=

En el ANAVAR el Fc 62,895 nos indica que hay una relación funcional múltiple entre Y y las variables regresoras.

Variable

de parámetros G. deL.

Estimación de parámetros

Error estandar

t

+ 6,099X15

Prob>

It I

Intercep

1

-59,121583

31,8795539

-1,855

0,0700

X9

1

0,495277

0,13160617

3,763

0,0005

Xl1

1

0,430646

0,11222726

3,837

0,0004

X15

1

6,099460

2,25410793

2,706

0,0095

La tabla anterior nos indica que los parámetros ficativos a un nivel a. = 0,10.

MODELO ESTIMADO

203

Superficies de Respuesta

ANAVAR

Estimación 7,00000

y

son signi-

Chacín I Análisis de Regresión

202

y

Chacin I Análisis de Regresión

Superficies de Respuesta

X9 Xl1 x, X9 X9 Xl1 X9 X15 Xs X15 X9 Xll Xs Xl1 X9 X15

4 4 4 4 4 4 4 4

0,79549320 0,79111177 0,78890304 0,78614549 0,78593354 0,77694610 0,74298213 0,74223351

6,50960 7,50604 8,00835 8,63548 8,68369 10,72764 18,45183 18,62209

X2

Xs

X2 X7 X2 X2 X2 X2 X7

X7 Xs X7 X7 X7 X7 Xs

5 5 5 5 5 5

0,80956521 0,80940488 0,80796992 0,80641327 0,80393224 0,79550822

5,30929 5,34576 5,67210 6,02612 6,59036 8,50618

X2 X2 X7 X2 X2 X2

x, X9 x.,

6

0,81092521

X7 X9 x, X9 X7 Xs X7 Xs X7 Xs

Xll Xl1 Xl1 X9 X9

X15 X15 X15 X15 X15 Xu

X2 X7

x,

X9 Xl1 X15

De acuerdo a esta información, se concluye que por tener menor' Cp y mayor R2, seleccionamos el modelo que incorpora las variables Xs, Xl1, X15, el cual se estudia a continuación. ESTUDIO DEL MODELO DEFINITIVO MODELO POBLACIONAL

Fuente

Yi

=

-59,12

+ O,495X9 + 0,43lXll

G. de L.

Suma de Cuad.

Cuad. Medio

F

Prob > F

62,895

0,0001

Regresión

3

154407,83884

51469,27761

Residual

46

37643,75796

818,34256

Total

49

192051,59680

Raíz Cuadrada del C.M.E.

28,60669

Promedio

145,49200

C.v.

19,66203

R2 0,8040 2 Radj

0,7912

=

En el ANAVAR el Fc 62,895 nos indica que hay una relación funcional múltiple entre Y y las variables regresoras.

Variable

de parámetros G. deL.

Estimación de parámetros

Error estandar

t

+ 6,099X15

Prob>

It I

Intercep

1

-59,121583

31,8795539

-1,855

0,0700

X9

1

0,495277

0,13160617

3,763

0,0005

Xl1

1

0,430646

0,11222726

3,837

0,0004

X15

1

6,099460

2,25410793

2,706

0,0095

La tabla anterior nos indica que los parámetros ficativos a un nivel a. = 0,10.

MODELO ESTIMADO

203

Superficies de Respuesta

ANAVAR

Estimación 7,00000

y

son signi-

204

ANALlSIS DEL CUMPLIMIENTO

DE LOS SUPUESTOS

0,04

Out

O

0,08

3,00

O

0,20

2,67

O

0,45

2,33

1

0,91

2,00

1

1,67

1,67

2

2,74

1,33

**.

4

4,03

1,00

***

6

6,26

0,33

9

6,62

0,00

**** . * ***** . ****** . **

9

6,26

-0,33

*****. ***

5

5,31

-0,67

****

5

4,03

-1,00

1

2,74

-1,33

*

O

1,67

-1,67

O

0,91

-2,00 -2,33 -2,67

O

0,08

-3,00

1

0,04

Out *

Wilk - Shapiro

=

•...

.>10

a d

o 0,2

..•

••••

"'

. ."*'" .•.•. .--+----t----+----+ 0,5

Esperado

1,0

0,75

Figura 4.18. Prueba de normalidad para el modelo reducido definitivo Across -

"PRED

Down

-

"RESID

Out~r--~--_+--_+--_+--_+--++ 3

Symbols: MaxN

2

0,9175

Figura 4.17. Histograma de residuales estandarizados reducido definitivo

"'

v

0,25

***. *

0,20

s e 0,5 r

*

....

",

"1:

b

0,67

0,45

.•.•.

0,7

o

5,31

O

..... •.

.•....

6

O

Probabilidad Normal Residual Estandarizado 1,0 +----+----4-----1----"

O

205

Chacín I Análisisde Regresión y Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

para el modelo

1,0 2,0 •• 3,0

o

.

,

..

,

. 1

-2

-3

Out .3

·2

.

1

-o

-1

2

3 Out

Figura 4.19. Prueba de homogeneidad de varianza para el modelo reducido definitivo De los gráficos' y la prueba analítica se concluye que hay normalidad en los residuales y no existe heterocedasticidad. .

204

ANALlSIS DEL CUMPLIMIENTO

DE LOS SUPUESTOS

0,04

Out

O

0,08

3,00

O

0,20

2,67

O

0,45

2,33

1

0,91

2,00

1

1,67

1,67

2

2,74

1,33

**.

4

4,03

1,00

***

6

6,26

0,33

9

6,62

0,00

**** . * ***** . ****** . **

9

6,26

-0,33

*****. ***

5

5,31

-0,67

****

5

4,03

-1,00

1

2,74

-1,33

*

O

1,67

-1,67

O

0,91

-2,00 -2,33 -2,67

O

0,08

-3,00

1

0,04

Out *

Wilk - Shapiro

=

•...

.>10

a d

o 0,2

..•

••••

"'

. ."*'" .•.•. .--+----t----+----+ 0,5

Esperado

1,0

0,75

Figura 4.18. Prueba de normalidad para el modelo reducido definitivo Across -

"PRED

Down

-

"RESID

Out~r--~--_+--_+--_+--_+--++ 3

Symbols: MaxN

2

0,9175

Figura 4.17. Histograma de residuales estandarizados reducido definitivo

"'

v

0,25

***. *

0,20

s e 0,5 r

*

....

",

"1:

b

0,67

0,45

.•.•.

0,7

o

5,31

O

..... •.

.•....

6

O

Probabilidad Normal Residual Estandarizado 1,0 +----+----4-----1----"

O

205

Chacín I Análisisde Regresión y Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

para el modelo

1,0 2,0 •• 3,0

o

.

,

..

,

. 1

-2

-3

Out .3

·2

.

1

-o

-1

2

3 Out

Figura 4.19. Prueba de homogeneidad de varianza para el modelo reducido definitivo De los gráficos' y la prueba analítica se concluye que hay normalidad en los residuales y no existe heterocedasticidad. .

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

206

AUTOCORRELACION

K=

= 2,03511. Por ser el coeficiente de Prueba Durbin-Watson Durbin-Watson mayor que 1,67, se concluye que no hay autocorrelación.

maximo mínimo

=

0,15270 0,00714

207

=21,38

VALIDACION

ANALlSIS DE MUL TICOLlNEALlDAD

R2

R2 pred

Press

80,4

64

48993

Matriz de correlaciones X9 Xll X15 Y

X9 1,0000 0,7814** 0,5198** 0,8332**

Xll 0,7814** 1,0000 0,4864** 0,8260**

X15 0,5198** 0,4864** 1,0000 0,6183**

y 0,8332** 0,8260** 0,6183** 1,0000

Ningún coeficiente de correlación es mayor que R2 y hay consistencia entre F y t, por lo tanto no hay indicios de multicolinealidad. _ ESTUDIO DE LOS VIF Variable

G. de L.

Tolerancia

1 1 1

0,36386667 0,38059729 0,71331508

Infladores de Varianza 2,74825938 2,62744909 1,40190502

Ningún VIF es superior a 5, por lo tanto no hay multicolinealidad.

VALORES PROPIOS Número 1

2 3 4

Valor Pro io 3,80154 0,15270 0,03863 0,00714

El análisis de los valores propios, nos ratifica que no hay problemas con la multicolinealidad, dado que K = 21,38

Aunque la validación utilizando el R2 pred y Press no fue óptima, probablemente debido a la escogencia de la muestra de validación, se selecciona el modelo:

Yi

=

-59,1215

+ 0,4953X9i + 0,4307Xlli + 6,0995X15i.

MATRIZ DE DATOS Xl 7 6 7 3 8 6 6 6 5 4 9 12 3 13 8 6 3 6 6 3 5 8

X2 X3 418 6 282 47 600 86 306 102 557 90 408 68 188 31 260 43 27:t 54 284 71 429 48 600 50 313 104 624 48 557 70 382 64 340 113 566 94 334 56 201 87 298 60 682 85

X4

X5

O

O

2 16 9 21 26 14 14 12 8 33 16 4 17 8 10 5 40 2 15 35 16

O

1 1 1 2 1 1 1 1 3 1 O

1 O

1 O

3 O

1 2 1

y X6 X7 X8 X9 X10 XlI X12 X13 X14 X15 16 4 215 97 187 121 222 54 37 16 173 30 11 144 65 106 72. 149 54 45 17 109 63 17 287 129 231 156·303 42 26 15 148 26 6 157 69 144 68 144 42 27 16 91 53 13 235 99 248 153 266 45 29 14 155 22 6 220 89 140 88 185 42 25 13 91 26 12 134 52 52 30 96 37 24 14 46 20 10 150 68 76 49 127 48 32 14 69 33 8 117 46 110 62 116 44 26 14 112 44 10 143 57 89 55 122 52 34 15 98 27 8 192 86 177 105 202 54 31 12 114 76 21 344 164 164 116 301 50 35 16 171 92 6 117 58 91 64 128 60 40 19 80 95 35 338 164 173 116 316 56 38 15 179 53 19 315 176 181 143 339 65 44 20 203 60 17 198 88 114 73 178 47 28 16 87 40 11 176 92 119 74 177 45 27 15 79 52 13 276 115 198 120 251 46 28 15 152 20 6 166 68 146 81 155 44 22 14 111 41 9 115 48 30 19 76 46 29 17 47 27 6 148 56 88 51 115 43 29 13 76 77 21 437 212 152 100 334 49 28 16 200

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

206

AUTOCORRELACION

K=

= 2,03511. Por ser el coeficiente de Prueba Durbin-Watson Durbin-Watson mayor que 1,67, se concluye que no hay autocorrelación.

maximo mínimo

=

0,15270 0,00714

207

=21,38

VALIDACION

ANALlSIS DE MUL TICOLlNEALlDAD

R2

R2 pred

Press

80,4

64

48993

Matriz de correlaciones X9 Xll X15 Y

X9 1,0000 0,7814** 0,5198** 0,8332**

Xll 0,7814** 1,0000 0,4864** 0,8260**

X15 0,5198** 0,4864** 1,0000 0,6183**

y 0,8332** 0,8260** 0,6183** 1,0000

Ningún coeficiente de correlación es mayor que R2 y hay consistencia entre F y t, por lo tanto no hay indicios de multicolinealidad. _ ESTUDIO DE LOS VIF Variable

G. de L.

Tolerancia

1 1 1

0,36386667 0,38059729 0,71331508

Infladores de Varianza 2,74825938 2,62744909 1,40190502

Ningún VIF es superior a 5, por lo tanto no hay multicolinealidad.

VALORES PROPIOS Número 1

2 3 4

Valor Pro io 3,80154 0,15270 0,03863 0,00714

El análisis de los valores propios, nos ratifica que no hay problemas con la multicolinealidad, dado que K = 21,38

Aunque la validación utilizando el R2 pred y Press no fue óptima, probablemente debido a la escogencia de la muestra de validación, se selecciona el modelo:

Yi

=

-59,1215

+ 0,4953X9i + 0,4307Xlli + 6,0995X15i.

MATRIZ DE DATOS Xl 7 6 7 3 8 6 6 6 5 4 9 12 3 13 8 6 3 6 6 3 5 8

X2 X3 418 6 282 47 600 86 306 102 557 90 408 68 188 31 260 43 27:t 54 284 71 429 48 600 50 313 104 624 48 557 70 382 64 340 113 566 94 334 56 201 87 298 60 682 85

X4

X5

O

O

2 16 9 21 26 14 14 12 8 33 16 4 17 8 10 5 40 2 15 35 16

O

1 1 1 2 1 1 1 1 3 1 O

1 O

1 O

3 O

1 2 1

y X6 X7 X8 X9 X10 XlI X12 X13 X14 X15 16 4 215 97 187 121 222 54 37 16 173 30 11 144 65 106 72. 149 54 45 17 109 63 17 287 129 231 156·303 42 26 15 148 26 6 157 69 144 68 144 42 27 16 91 53 13 235 99 248 153 266 45 29 14 155 22 6 220 89 140 88 185 42 25 13 91 26 12 134 52 52 30 96 37 24 14 46 20 10 150 68 76 49 127 48 32 14 69 33 8 117 46 110 62 116 44 26 14 112 44 10 143 57 89 55 122 52 34 15 98 27 8 192 86 177 105 202 54 31 12 114 76 21 344 164 164 116 301 50 35 16 171 92 6 117 58 91 64 128 60 40 19 80 95 35 338 164 173 116 316 56 38 15 179 53 19 315 176 181 143 339 65 44 20 203 60 17 198 88 114 73 178 47 28 16 87 40 11 176 92 119 74 177 45 27 15 79 52 13 276 115 198 120 251 46 28 15 152 20 6 166 68 146 81 155 44 22 14 111 41 9 115 48 30 19 76 46 29 17 47 27 6 148 56 88 51 115 43 29 13 76 77 21 437 212 152 100 334 49 28 16 200

208

ChacínI Análisisde Regresióny Superficiesde Respuesta

4 258 65 7 460 66 8 731 104 11 811 74 9 774 86 4 167 42 5 423 85 9 756 84 8 536 67 12 784 65 6 332 55 9 594 66 9 582 65 10 624 62 11 726 66 10 624 48 11 568 52 9 384 43 7 348 50 7 416 59 9 579 66 9 690 77 12 500 42 9 531 59 6 368 61 9 621 69 7 478 68

23 2 3 4 36

2

O

O

O O O

3

3

O

O

O

O

O

12

1

O

O

27 3 7 18 17 11 9 2 12 3 9 20 6

2 O O

2 1 1 O O

1 O O

1 O

O

O

12 7

O

1

21 49 64 77 75 27 28 51 35 88 20 60 78 70 70 95 55 36 21 19 54 78 52 57 28 63 49

5 135 54 79 45 107 16 264 150 145 122 289 19 363 223 301 261 503 24 363 201 367 279 503 19 375 142 288 162 326 6 80 31 60 37 73 8 183 82 208 36 226 16 387 210 318 251 478 10 221 105 280 198 313 25 368 172 316 220 418 14 206- 99 106 76 190 16 294 149 213 163 330 22 342 155 159 105 282 16 280 123 267 184 322 19 389 176 249 162 359 35 338 164 173 116 316 17 315 125 187 110 253 12 171 76 168 92 180 4 180 62 145 70 136 6 215 80 170 95 182 12 375 171 165 126 309 19 393 178 210 137 335 12 280 136 148 107 256 13 303 140 165 111 264 8 212 99 128 85 192 19 297 155 249 166 341 13 282 130 140 96 239

49 32 15 82 69 45 21 213 70 50 21 341 61 40 21 306 46 31 13 195 52 36 15 49 53 37 16 116 65 46 18 146 54 35 17 207 58 37 15 211 49 33 14 143 60 41 18 219 51 35 16 164 50 30 16 150 44 30 16 181 56 38 15 179 49 26 14 116 45 25 13 90 41 26 16 83 43 22 13 103 54 33 17 140 45 29 15 182 54 34 19 182 46 27 15 152 53 28 16 110 59 38 20 231 52 33 17 204

Capítulo 5 DETERMINACION DE LAS CONDICIONES OPTIMAS DE OPERACION

En muchos casos en la investigación, el interés de los trabajos científicos está centrado en determinar las condiciones experimentales que más favorecen el comportamiento del problema o fenómeno bajo estudio, dependiendo por supuesto de algunos criterios previamente establecidos. Por ejemplo en la investigación agrícola es de sumo interés establecer los niveles de nutrimento que optimizan la respuesta o rendimiento de los cultivos, tanto en términos físicos como económicos. En la agroindustria puede ser importante por ejemplo, la temperatura, presión y concentración de materia prima que minimizan la síntesis de un determinado subproducto indeseable en un proceso dado. La solución a estos planteamientos puede abordarse a través de la Metodología de Superficies de Respuesta. Es posible que más de una "respuesta" sea de interés. El propósito del investigador puede ser, citando el ejemplo anterior, maximizar la cantidad de producto comercial y minimizar la cantidad de subproducto indeseable. En la práctica, el problema de las respuestas múltiples requiere la determinación de las condiciones óptimas de operación. En este capítulo se describen algunos procedimientos para hallar el "óptimo". En tal sentido se puede presentar cualquiera de estas situaciones: a) El caso en el cual el investigador tiene elementos suficientes como para suponer que el óptimo se encuentra contenido

208

ChacínI Análisisde Regresióny Superficiesde Respuesta

4 258 65 7 460 66 8 731 104 11 811 74 9 774 86 4 167 42 5 423 85 9 756 84 8 536 67 12 784 65 6 332 55 9 594 66 9 582 65 10 624 62 11 726 66 10 624 48 11 568 52 9 384 43 7 348 50 7 416 59 9 579 66 9 690 77 12 500 42 9 531 59 6 368 61 9 621 69 7 478 68

23 2 3 4 36

2

O

O

O O O

3

3

O

O

O

O

O

12

1

O

O

27 3 7 18 17 11 9 2 12 3 9 20 6

2 O O

2 1 1 O O

1 O O

1 O

O

O

12 7

O

1

21 49 64 77 75 27 28 51 35 88 20 60 78 70 70 95 55 36 21 19 54 78 52 57 28 63 49

5 135 54 79 45 107 16 264 150 145 122 289 19 363 223 301 261 503 24 363 201 367 279 503 19 375 142 288 162 326 6 80 31 60 37 73 8 183 82 208 36 226 16 387 210 318 251 478 10 221 105 280 198 313 25 368 172 316 220 418 14 206- 99 106 76 190 16 294 149 213 163 330 22 342 155 159 105 282 16 280 123 267 184 322 19 389 176 249 162 359 35 338 164 173 116 316 17 315 125 187 110 253 12 171 76 168 92 180 4 180 62 145 70 136 6 215 80 170 95 182 12 375 171 165 126 309 19 393 178 210 137 335 12 280 136 148 107 256 13 303 140 165 111 264 8 212 99 128 85 192 19 297 155 249 166 341 13 282 130 140 96 239

49 32 15 82 69 45 21 213 70 50 21 341 61 40 21 306 46 31 13 195 52 36 15 49 53 37 16 116 65 46 18 146 54 35 17 207 58 37 15 211 49 33 14 143 60 41 18 219 51 35 16 164 50 30 16 150 44 30 16 181 56 38 15 179 49 26 14 116 45 25 13 90 41 26 16 83 43 22 13 103 54 33 17 140 45 29 15 182 54 34 19 182 46 27 15 152 53 28 16 110 59 38 20 231 52 33 17 204

Capítulo 5 DETERMINACION DE LAS CONDICIONES OPTIMAS DE OPERACION

En muchos casos en la investigación, el interés de los trabajos científicos está centrado en determinar las condiciones experimentales que más favorecen el comportamiento del problema o fenómeno bajo estudio, dependiendo por supuesto de algunos criterios previamente establecidos. Por ejemplo en la investigación agrícola es de sumo interés establecer los niveles de nutrimento que optimizan la respuesta o rendimiento de los cultivos, tanto en términos físicos como económicos. En la agroindustria puede ser importante por ejemplo, la temperatura, presión y concentración de materia prima que minimizan la síntesis de un determinado subproducto indeseable en un proceso dado. La solución a estos planteamientos puede abordarse a través de la Metodología de Superficies de Respuesta. Es posible que más de una "respuesta" sea de interés. El propósito del investigador puede ser, citando el ejemplo anterior, maximizar la cantidad de producto comercial y minimizar la cantidad de subproducto indeseable. En la práctica, el problema de las respuestas múltiples requiere la determinación de las condiciones óptimas de operación. En este capítulo se describen algunos procedimientos para hallar el "óptimo". En tal sentido se puede presentar cualquiera de estas situaciones: a) El caso en el cual el investigador tiene elementos suficientes como para suponer que el óptimo se encuentra contenido

210

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

211

en la región de exploración seleccionada, (o cerca a ella) y b) cuando el óptimo está lejos de dicha región.

excepción de las pruebas "t" de Student, ya que han sido cuestionadas por la independencia que suponen dichas pruebas.

Por supuesto, en la práctica, el investigador no desea estar en el último de los casos. Es por ello que se requiere una planificación estricta y prudente de los experimentos, basada en la información previa existente acerca del problema bajo estudio, además del basamento teórico y la experiencia del investigador.

En: cualquier caso, el análisis de la' superficie fijada requiere la obtención de un modelo lógico, en torno al cual es necesario establecer consideraciones ligadas a la experiencia y al conocimiento que tenga el investigador sobre el material experimental. Cabe destacar en este momento que el modelo al cual se hace referencia es un modelo de regresión, para el cual se deben cumplir todos los supuestos y condiciones que el análisis de regresión establece.

Cuando no se dispone de los elementos antes señalados es muy factible hallarse en la última de.Ias situaciones planteadas, en cuyo caso la experimentación secuencial es una alternativa, sobre todo en experimentos controlados o de laboratorio.

ANALISIS DE LA SUPERFICIE FIJADA

En esta sección se considera la situación en la cual el investigador ha seleccionado una región de exploración en la cual está contenido el óptimo, conduce una serie de experimentos y decide analizar una función de respuesta de segundo orden para las "k" variables incluídas en el experimento. El modelo polinómico de segundo orden asumido para alguna región de los X' s será:

Al abordar este análisis puede adaptarse uno de los siguientes criterios: Incluir todos los términos del modelo independientemente de los resultados de las pruebas de significación (Anavar). Este criterio supone que la inclusión de todas las variables tiene importancia desde el punto de vista biológico, químico, etc. (según sea el caso), y por ello son de interés para el investigador, el cual las h'a considerado inicialmente en su estudio. Desde luego que para que un modelo de este tipo pueda ser considerado como una función de respuesta aplicada al fenómeno bajo estudio, debe existir significación en el análisis de regresión. La segunda tendencia consiste en fijar el modelo cuyos términos resulten significativos en las pruebas correspondientes (Anavar). Este criterio es idóneo en los casos en los que se manejan diseños ortogonales, ya que dada la independencia de todos los coeficientes del modelo, es posible probar la significación de todos los efectos por separado a través de las pruebas de "F". . N~ obstante, cuando se tienen diseños no ortogonales, las estimaciones de algunos parámetros del modelo no son independientes y sus efectos no pueden ser separados por ésta vía. Se hace necesario completar la información del análisis de la varianza con pruebas para la selección de variables en modelos de regresión, a

k Tli

=

po + "p.X. ~ I i=I

k 1

""A.. k k-l

+ "p ..X~+ ~ 11 1 ~~PIJ i=l

i(

X.X.+E. 1 J 1

(5.1)

j

Si un diseño experimental ha sido elegido y conducido un experimento, se podría utilizar entonces la técnica de los modelos lineales generales para estimar los coeficientes de la ecuación anterior. Los estimadores serían denotados por bo, bi ,..., bi, bu, ..., bkk; bis ,..., b(k.l)k.La ecuación de estimación o ecuación de predicción, frecuentemente referida como la Superficie de Respuesta Fijada, es dada por la expresión (5.2): (5.2)

Esta ecuación es utilizada para la predicción de la respuesta para valores de Xi, Xz,...Xk. Se hará énfasis en este momento, en que no es apropiado realizar extrapolaciones fuera de la región experimental. Después de obtenida la ecuación (5.2), el experimentador está preparado para conducir el análisis de la superficie fijada. La

210

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

211

en la región de exploración seleccionada, (o cerca a ella) y b) cuando el óptimo está lejos de dicha región.

excepción de las pruebas "t" de Student, ya que han sido cuestionadas por la independencia que suponen dichas pruebas.

Por supuesto, en la práctica, el investigador no desea estar en el último de los casos. Es por ello que se requiere una planificación estricta y prudente de los experimentos, basada en la información previa existente acerca del problema bajo estudio, además del basamento teórico y la experiencia del investigador.

En: cualquier caso, el análisis de la' superficie fijada requiere la obtención de un modelo lógico, en torno al cual es necesario establecer consideraciones ligadas a la experiencia y al conocimiento que tenga el investigador sobre el material experimental. Cabe destacar en este momento que el modelo al cual se hace referencia es un modelo de regresión, para el cual se deben cumplir todos los supuestos y condiciones que el análisis de regresión establece.

Cuando no se dispone de los elementos antes señalados es muy factible hallarse en la última de.Ias situaciones planteadas, en cuyo caso la experimentación secuencial es una alternativa, sobre todo en experimentos controlados o de laboratorio.

ANALISIS DE LA SUPERFICIE FIJADA

En esta sección se considera la situación en la cual el investigador ha seleccionado una región de exploración en la cual está contenido el óptimo, conduce una serie de experimentos y decide analizar una función de respuesta de segundo orden para las "k" variables incluídas en el experimento. El modelo polinómico de segundo orden asumido para alguna región de los X' s será:

Al abordar este análisis puede adaptarse uno de los siguientes criterios: Incluir todos los términos del modelo independientemente de los resultados de las pruebas de significación (Anavar). Este criterio supone que la inclusión de todas las variables tiene importancia desde el punto de vista biológico, químico, etc. (según sea el caso), y por ello son de interés para el investigador, el cual las h'a considerado inicialmente en su estudio. Desde luego que para que un modelo de este tipo pueda ser considerado como una función de respuesta aplicada al fenómeno bajo estudio, debe existir significación en el análisis de regresión. La segunda tendencia consiste en fijar el modelo cuyos términos resulten significativos en las pruebas correspondientes (Anavar). Este criterio es idóneo en los casos en los que se manejan diseños ortogonales, ya que dada la independencia de todos los coeficientes del modelo, es posible probar la significación de todos los efectos por separado a través de las pruebas de "F". . N~ obstante, cuando se tienen diseños no ortogonales, las estimaciones de algunos parámetros del modelo no son independientes y sus efectos no pueden ser separados por ésta vía. Se hace necesario completar la información del análisis de la varianza con pruebas para la selección de variables en modelos de regresión, a

k Tli

=

po + "p.X. ~ I i=I

k 1

""A.. k k-l

+ "p ..X~+ ~ 11 1 ~~PIJ i=l

i(

X.X.+E. 1 J 1

(5.1)

j

Si un diseño experimental ha sido elegido y conducido un experimento, se podría utilizar entonces la técnica de los modelos lineales generales para estimar los coeficientes de la ecuación anterior. Los estimadores serían denotados por bo, bi ,..., bi, bu, ..., bkk; bis ,..., b(k.l)k.La ecuación de estimación o ecuación de predicción, frecuentemente referida como la Superficie de Respuesta Fijada, es dada por la expresión (5.2): (5.2)

Esta ecuación es utilizada para la predicción de la respuesta para valores de Xi, Xz,...Xk. Se hará énfasis en este momento, en que no es apropiado realizar extrapolaciones fuera de la región experimental. Después de obtenida la ecuación (5.2), el experimentador está preparado para conducir el análisis de la superficie fijada. La

ChacínI Análisisde Regresióny Superficiesde Respuesta

ChacínI Análisisde Regresióny Superficiesde Respuesta

212

extensión del análisis investigador.

depende

de las

metas

y objetivos del

Supóngase que el objetivo consiste en estimar las condiciones en Xi, X2 ,... Xk que maximizan la respuesta n. Si la superficie fijada de segundo orden tiene sólo una variable, el modelo sería: (5.3) al derivar e igualar a cero se obtiene:

&y/&X = b¡ + 2büX¡ = O = >

I X = -b¡ /2b

ü

I

(5.4)

este valor de X representa el punto estacionario, el cual puede ser máximo si &2Y/&X2 es negativa; en caso contrario si &2Y/8X2es positiva se tendría un mínimo. Cuando la superficie fijada envuelve más de una variable independiente, el punto estacionario será un conjunto de condiciones (Xi, X2, ..., Xk) tal que las derivadas &YIXI, 8YIM, ... 8YIXk sean simultáneamente iguales a cero, tal como se describe a continuación. Expresado matricialmente el modelo general;

y

=

bo + X'b + X'BX, en donde

(5.5) bll

b12/2 b22

Y B= [ simetrica

X'b da los términos de primer orden en la función de respuesta y la forma cuadrática X'BX da la contribución cuadrática. Al derivar la ecuación (5.5) e igualar a cero se obtiene finalmente: 8Y

~(bo

&X

&X

+X'b + X'BX)

&Y/&X= b + 2BX

= O

=. O => IXo = -B·lb/21

(5.6)

(5.7)

213

La ecuación (5.7)representa el punto estacionario, el cual no es necesariamente- el punto que maximiza la respuesta, puede ser cualquiera de los tres casos descritos anteriormente. En el primer caso, si el punto estacionario es un máximo, cuando se' mueve imaginariamente del punto Xo resulta un decrecimiento de la respuesta. Si Xo es un mínimo y se mueve del punto Xose obtiene como resultado uh incremento en la respuesta. En el tercer caso, cuando se genera un punto de silla (saddle point) , se puede producir un incremento o un decrecimiento de la respuesta al moverse del punto estacionario, dependiendo de la dirección que se tome. Si el investigador está buscando la localización de la mejor respuesta posible y el punto estacionario encontrado fuese un punto de silla, podría estar muy interesado en conocer cual es la dirección que se debe tomar para obtener un incremento en la respuesta. En este caso el investigador no averiguaría la naturaleza del punto estacionario solamente calculándolo sino mediante otros procedimientos que se verán posteriormente. En el caso especial de una o dos variables, se pueden elaborar gráficos donde se obtienen contornos de respuesta constantes y de esta forma obtener una clara indicación de la naturaleza de Xo.En las Figuras 5.1 a la 5.3 se ilustra esta situación utilizando los resultados de un experimento realizado en al año 1992 por Machado y Chacín, en el cual se probó el efecto de niveles de nitrógeno y densidades de siembra sobre el rendimiento y algunos de sus componentes en el cultivo de maíz (Zea mays) , utilizando el diseño Compuesto Central Rotable Doble Estrella (D.C.C.R.D.E.) con la adición de un nuevo núcleo estrella (k =2, e = 2, no = 4) desarrollado por Villasmil (1987), ejecutado en bloques al azar. Para el caso de tres o más variables el análisis gráfico se complica considerablemente, por lo cual en esta situación y en general, es necesario recurrir a otros procedimientos.

ChacínI Análisisde Regresióny Superficiesde Respuesta

ChacínI Análisisde Regresióny Superficiesde Respuesta

212

extensión del análisis investigador.

depende

de las

metas

y objetivos del

Supóngase que el objetivo consiste en estimar las condiciones en Xi, X2 ,... Xk que maximizan la respuesta n. Si la superficie fijada de segundo orden tiene sólo una variable, el modelo sería: (5.3) al derivar e igualar a cero se obtiene:

&y/&X = b¡ + 2büX¡ = O = >

I X = -b¡ /2b

ü

I

(5.4)

este valor de X representa el punto estacionario, el cual puede ser máximo si &2Y/&X2 es negativa; en caso contrario si &2Y/8X2es positiva se tendría un mínimo. Cuando la superficie fijada envuelve más de una variable independiente, el punto estacionario será un conjunto de condiciones (Xi, X2, ..., Xk) tal que las derivadas &YIXI, 8YIM, ... 8YIXk sean simultáneamente iguales a cero, tal como se describe a continuación. Expresado matricialmente el modelo general;

y

=

bo + X'b + X'BX, en donde

(5.5) bll

b12/2 b22

Y B= [ simetrica

X'b da los términos de primer orden en la función de respuesta y la forma cuadrática X'BX da la contribución cuadrática. Al derivar la ecuación (5.5) e igualar a cero se obtiene finalmente: 8Y

~(bo

&X

&X

+X'b + X'BX)

&Y/&X= b + 2BX

= O

=. O => IXo = -B·lb/21

(5.6)

(5.7)

213

La ecuación (5.7)representa el punto estacionario, el cual no es necesariamente- el punto que maximiza la respuesta, puede ser cualquiera de los tres casos descritos anteriormente. En el primer caso, si el punto estacionario es un máximo, cuando se' mueve imaginariamente del punto Xo resulta un decrecimiento de la respuesta. Si Xo es un mínimo y se mueve del punto Xose obtiene como resultado uh incremento en la respuesta. En el tercer caso, cuando se genera un punto de silla (saddle point) , se puede producir un incremento o un decrecimiento de la respuesta al moverse del punto estacionario, dependiendo de la dirección que se tome. Si el investigador está buscando la localización de la mejor respuesta posible y el punto estacionario encontrado fuese un punto de silla, podría estar muy interesado en conocer cual es la dirección que se debe tomar para obtener un incremento en la respuesta. En este caso el investigador no averiguaría la naturaleza del punto estacionario solamente calculándolo sino mediante otros procedimientos que se verán posteriormente. En el caso especial de una o dos variables, se pueden elaborar gráficos donde se obtienen contornos de respuesta constantes y de esta forma obtener una clara indicación de la naturaleza de Xo.En las Figuras 5.1 a la 5.3 se ilustra esta situación utilizando los resultados de un experimento realizado en al año 1992 por Machado y Chacín, en el cual se probó el efecto de niveles de nitrógeno y densidades de siembra sobre el rendimiento y algunos de sus componentes en el cultivo de maíz (Zea mays) , utilizando el diseño Compuesto Central Rotable Doble Estrella (D.C.C.R.D.E.) con la adición de un nuevo núcleo estrella (k =2, e = 2, no = 4) desarrollado por Villasmil (1987), ejecutado en bloques al azar. Para el caso de tres o más variables el análisis gráfico se complica considerablemente, por lo cual en esta situación y en general, es necesario recurrir a otros procedimientos.

214

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

215

SUPERFICIE DE RESPUESTA D.C.C.R.D.E.VARIABLE LONGITUD DE MAZOR.

DENSIDAD DE SIEMBRA (Kg. SEMILLA/ha)

Figura 5.3. Ilustración de un punto de silla DENSIDAD DE SIEMBRA (Kg/SEMILLAlha)

Figura 5.1. Ilustración de un punto máximo

ANALISIS

SUPERFICIE DE RESPUESTA VARIABLE LONGITUD DE MAZORCAS

/~

h ~

-............. .

,

Tal como se señalara en párrafos anteriores, la función de respuesta de segundo orden viene dada por:

.13.8

k

Yi

!:::/IX~I~flll a=>

12.3

g

12

:z

't ¡.t2,entonces Y¡ > Y2• El teorema permite aclarar que si se tienen dos puntos estacionarios ubicados a igual distancia del origen del diseño, el punto que tiene la mayor respuesta estimada es aquel que presenta un mayor valor de ¡.t asociado. La demostración del teorema puede ser revisada en el trabajo de Drapper (1963). . Teorema 2. Si RI = R2 Y M(XI) Y M(Xz)basados en la ecuación M(Xi) = 2(B ¡.th) son definidos positivos e indefinidos ~ ~ respectivamente. Luego YJ > Y2 • La demostración del teorema puede ser revisada en Myer (1971). Este teorema se utiliza cuando se tienen dos radios iguales y se desea encontrar el punto de mayor respuesta estimada. Te-orema 3. Si ¡.tI > A.i para toda i, con A.icomo la i-ésima raíz característica de B, luego Xi, encontrado en la ecuación (B - ¡.th)X = -b/2 para ¡.t = ui es un punto en el cual la respuesta estimada Y, alcanza un máximo local sobre RI (Radio asociado a ui). Cuando ui < A.ipara toda i, X, es un punto en el cual Y alcanza un mínimo local sobre RI.

SISTEMA DE LOMAS

Cuando se realiza el análisis de la superficie fijada y se determina el punto estacionario, este punto puede ser tal como hemos mencionado 1) máximo 2) mínimo 3) punto de silla o mínimax, pero puede haber variaciones a este tipo de superficies puras y se denominan "Lomas". Los sistemas de lomas son bastantes comunes en el estudio de la superficie de respuesta. Considérese la forma canónica del modelo polinómico de segundo orden siguiente: A

Y=Yo

~

+A.IW¡

2

2

+A.2 W2

2

+ ...+A.k Wk

presentado en secciones anteriores. Si se trata por ejemplo de k = 2 Y Al = Oó cercana a cero, el modelo canónico para esta superficie es en teoría:

Chacín I Análisis de Regresión y Superñcies de Respuesta

226

Chacín I Análisis de Regresión y Supemcies de Respuesta

donde ¡.t

=

y R

Este teorema es extremadamente importante para conocer el tipo de respuesta estimada. La demostración del teorema puede ser revisada en Myer (1971).

multiplicador de Lagrange respuesta estimada o predicha

=

8F/8X 8F/8X

Los pasos que hay que seguir en el Análisis de Aristas son:

radio de la esfera

= =

b + 2BX

-

2¡.tX

O => (B - ¡.th)X = -b/2

1.

Calcular las raíces características o valores propios de la matriz B (Este cálculo se realiza cuando se efectúa el Análisis Canónico).

2.

Seleccionar valores de ¡.tmayores que la mayor raíz característica si se requiere un máximo y menores que la menor raíz característica, si se desea un mínimo. Posteriormente se utiliza la ecuación (B - !.l.h)X = -b/2 para obtener los valores de Xi para dicha respuesta ..

3.

La distancia al centro del diseño se obtiene mediante la ecuación R = (X'X)1I2encontrando Y por sustitución de X en la respuesta ajustada. El proceso se repite hasta obtener un número de puntos suficientes de ¡.t y R que permitan el trazado de las curvas adecuadas. Es conveniente considerar con extremo cuidado la porción de la superficie que está fuera de la región de exploración experimental.

Si se utilizan valores de ¡.ten la ecuación anterior, se obtendrán puntos estacionarios. Es conveniente elegir apropiadamente los valores de ¡.t para poder localizar puntos estacionarios que representan puntos de máxima respuesta. Los siguientes teoremas expuestos por Myer importantes para entender la naturaleza de los puntos. Teorema

1.

(1971),

son

Si X; = [al, as,..., ak] para ¡.t = ¡.tI Y X~ = [ Ci,

C2,....Cx ] para ¡.t= ¡.t2son dos soluciones para la ecuación (B - ¡.th)X ~ ~ = -b/2 que tienen por respuestas Y¡ y Y2 en esferas de radio RI y R2 ~ ~ respectivamente. Luegosi Ri = R2 Y ¡.tI > ¡.t2,entonces Y¡ > Y2• El teorema permite aclarar que si se tienen dos puntos estacionarios ubicados a igual distancia del origen del diseño, el punto que tiene la mayor respuesta estimada es aquel que presenta un mayor valor de ¡.t asociado. La demostración del teorema puede ser revisada en el trabajo de Drapper (1963). . Teorema 2. Si RI = R2 Y M(XI) Y M(Xz)basados en la ecuación M(Xi) = 2(B ¡.th) son definidos positivos e indefinidos ~ ~ respectivamente. Luego YJ > Y2 • La demostración del teorema puede ser revisada en Myer (1971). Este teorema se utiliza cuando se tienen dos radios iguales y se desea encontrar el punto de mayor respuesta estimada. Te-orema 3. Si ¡.tI > A.i para toda i, con A.icomo la i-ésima raíz característica de B, luego Xi, encontrado en la ecuación (B - ¡.th)X = -b/2 para ¡.t = ui es un punto en el cual la respuesta estimada Y, alcanza un máximo local sobre RI (Radio asociado a ui). Cuando ui < A.ipara toda i, X, es un punto en el cual Y alcanza un mínimo local sobre RI.

SISTEMA DE LOMAS

Cuando se realiza el análisis de la superficie fijada y se determina el punto estacionario, este punto puede ser tal como hemos mencionado 1) máximo 2) mínimo 3) punto de silla o mínimax, pero puede haber variaciones a este tipo de superficies puras y se denominan "Lomas". Los sistemas de lomas son bastantes comunes en el estudio de la superficie de respuesta. Considérese la forma canónica del modelo polinómico de segundo orden siguiente: A

Y=Yo

~

+A.IW¡

2

2

+A.2 W2

2

+ ...+A.k Wk

presentado en secciones anteriores. Si se trata por ejemplo de k = 2 Y Al = Oó cercana a cero, el modelo canónico para esta superficie es en teoría:

.. 228

ChacinI Análisisde Regresióny Superficiesde Respuesta

ChacínI Análisisde Regresióny Superficiesde Respuesta

si 1.,2 es negativa se produce un alargamiento en la dirección de Wl. y el valor máximo se puede tomar de cualquier lugar de esta línea. Este tipo de superficie se llama Sistema de Loma Estacionaria. Cuando el punto estacionario está muy alejado de la región de exploración para el ajuste del modelo de segundo orden y una o más de las raíces características son cercanas a cero. la superficie sería una Loma Ascendente. En este sistema no es posible hacer inferencia acerca del punto estacionario o de la superficie verdadera. debido a que el punto está fuera de la región de exploración donde se ha ajustado el modelo. A pesar de esto es necesario explorar en la dirección de W1. Si la raíz característica 1.,2 es positiva. se llamaría al sistema Loma Descendente. La distancia al punto estacionario desde el centro del diseño es:

R

=

k

[ ~x;

]1/2

Donde Xi son las coordenadas del punto estacionario. Cuando se realiza la interpretación de lomas ascendentes o descendentes, R generalmente es mayor que la unidad. por lo tanto. se considera riesgoso acometer conclusiones acerca del comportamiento de la Superficie de Respuesta en el punto estacionario a lo largo de la loma en dirección al valor óptimo. En dichos casos es útil otra forma canónica

=

METODOS UTILIZADOS PARA ESTUDIAR LAS SUPERFICIES DE RESPUESTA Y DETERMINAR CONDICIONES OPTIMAS DE OPERACION

Es frecuente en la investigación en general. suponer que una respuesta es afectada por un número determinado de factores cuantitativos (Xi, X2•...Xk). Para investigar cuales factores están involucrados en determinada respuesta. se pone en práctica un programa experimental para obtener la dosis ó nivel de cada uno de estos factores que permita lograr una máxima. o en algunos casos. una mínima respuesta. El problema consiste en especificar como se va a conducir o planificar éste programa experimental. que nos permita encontrar la respuesta máxima. mínima u óptima económica. Si suponemos que nos interesa localizar un máximo. no solo ef1 conveniente encontrar dicho máximo. sino también. determinar COMO varía la respuesta en la vecindad del máximo cuando los niveles !;e cambian de los niveles óptimos. según Cochran y Cox (1980) las razones por las cuales esto es necesario. serían: 1.

Cuando se van a hacer aplicaciones a gran escala puede no ser factible o posible establecer cada factor exactamente en su óptimo nivel y debido a esto es necesario obtener combinaciones de los niveles de los factores diferentes de los óptimos. pero que puedan ser económicos de-mantener.

2.

Los cambios de niveles de algunas X's, son necesarios a causa de su efecto sobre las otras variables regresoras.

3.

La forma de la superficie de respuesta cerca del óptimo puede dar indicios importantes acerca de la naturaleza del proceso.

4.

La superficie puede carecer de un verdadero máximo en la región experimental. El objetivo principal es conocer la naturaleza de la superficie en zonas de respuesta relativamente alta.

po+w'e + W'A W

donde

e =

u'b Y A

=

diag (Al. 1..2•...•

Ak). En esta forma canónica

los A, al igual que la forma anterior. determinan el tipo de superficie ajustada y los e' miden las pendientes de la superficie en el origen inicial (Xl = O. M = O•...• Xk = O) en las direcciones de los ejes rotados Wl. W2 •...• Wk.

229

Cuando el investigador inicia el programa experimental mencionado. por supuesto. desconoce la naturaleza del punto estacionario y es conveniente elegir un tipo de experimentación secuencial. Esta experimentación se inicia generalmente con un ensayo sencillo que oriente razonablemente para luego proyectar

.. 228

ChacinI Análisisde Regresióny Superficiesde Respuesta

ChacínI Análisisde Regresióny Superficiesde Respuesta

si 1.,2 es negativa se produce un alargamiento en la dirección de Wl. y el valor máximo se puede tomar de cualquier lugar de esta línea. Este tipo de superficie se llama Sistema de Loma Estacionaria. Cuando el punto estacionario está muy alejado de la región de exploración para el ajuste del modelo de segundo orden y una o más de las raíces características son cercanas a cero. la superficie sería una Loma Ascendente. En este sistema no es posible hacer inferencia acerca del punto estacionario o de la superficie verdadera. debido a que el punto está fuera de la región de exploración donde se ha ajustado el modelo. A pesar de esto es necesario explorar en la dirección de W1. Si la raíz característica 1.,2 es positiva. se llamaría al sistema Loma Descendente. La distancia al punto estacionario desde el centro del diseño es:

R

=

k

[ ~x;

]1/2

Donde Xi son las coordenadas del punto estacionario. Cuando se realiza la interpretación de lomas ascendentes o descendentes, R generalmente es mayor que la unidad. por lo tanto. se considera riesgoso acometer conclusiones acerca del comportamiento de la Superficie de Respuesta en el punto estacionario a lo largo de la loma en dirección al valor óptimo. En dichos casos es útil otra forma canónica

=

METODOS UTILIZADOS PARA ESTUDIAR LAS SUPERFICIES DE RESPUESTA Y DETERMINAR CONDICIONES OPTIMAS DE OPERACION

Es frecuente en la investigación en general. suponer que una respuesta es afectada por un número determinado de factores cuantitativos (Xi, X2•...Xk). Para investigar cuales factores están involucrados en determinada respuesta. se pone en práctica un programa experimental para obtener la dosis ó nivel de cada uno de estos factores que permita lograr una máxima. o en algunos casos. una mínima respuesta. El problema consiste en especificar como se va a conducir o planificar éste programa experimental. que nos permita encontrar la respuesta máxima. mínima u óptima económica. Si suponemos que nos interesa localizar un máximo. no solo ef1 conveniente encontrar dicho máximo. sino también. determinar COMO varía la respuesta en la vecindad del máximo cuando los niveles !;e cambian de los niveles óptimos. según Cochran y Cox (1980) las razones por las cuales esto es necesario. serían: 1.

Cuando se van a hacer aplicaciones a gran escala puede no ser factible o posible establecer cada factor exactamente en su óptimo nivel y debido a esto es necesario obtener combinaciones de los niveles de los factores diferentes de los óptimos. pero que puedan ser económicos de-mantener.

2.

Los cambios de niveles de algunas X's, son necesarios a causa de su efecto sobre las otras variables regresoras.

3.

La forma de la superficie de respuesta cerca del óptimo puede dar indicios importantes acerca de la naturaleza del proceso.

4.

La superficie puede carecer de un verdadero máximo en la región experimental. El objetivo principal es conocer la naturaleza de la superficie en zonas de respuesta relativamente alta.

po+w'e + W'A W

donde

e =

u'b Y A

=

diag (Al. 1..2•...•

Ak). En esta forma canónica

los A, al igual que la forma anterior. determinan el tipo de superficie ajustada y los e' miden las pendientes de la superficie en el origen inicial (Xl = O. M = O•...• Xk = O) en las direcciones de los ejes rotados Wl. W2 •...• Wk.

229

Cuando el investigador inicia el programa experimental mencionado. por supuesto. desconoce la naturaleza del punto estacionario y es conveniente elegir un tipo de experimentación secuencial. Esta experimentación se inicia generalmente con un ensayo sencillo que oriente razonablemente para luego proyectar

230

Chacín I Análisis de Regresión

y

Superficies de Respuesta

Chacín I Análisis de Regresión

y

Superficies de Respuesta

231

otros ensayos complementarios en función de los resultados obtenidos en el primero con el cual se logre sucesivamente estudiar el punto estacionario y la naturaleza de la superficie vecina.

Investigadores como Hottelling (1941) citado por Cochran y Cox (1980) han referido que iguales distanciamiento s, no constituyen en general el procedimiento más eficiente para localizar el óptimo.

El investigador puede haber realizado un ensayo suficientemente completo con el cual pueda estimar la posición del punto estacionario dentro de la región de exploración, en este caso, debe recurrir al análisis canónico para establecer si el punto estacionario es un máximo, mínimo o un punto de silla. En este caso la situación queda solucionada cuando ocurre un máximo o un mínimo; sin embargo, si se produce un punto de silla, es posible que el experimentador decida examinar nuevos puntos experimentales en la dirección del mayor o menor según sea el caso, incremento o decremento de la respuesta. Para examinar el recorrido de los puntos óptimos se puede utilizar el análisis de la cordillera o de las lomas. Para descubrir la ruta experimental' existen varios métodos que describiremos a continuación.

Cuando los puntos experimentales no definen especificamente la máxima respuesta, este punto puede estimarse mediante el siguiente polinomio de segundo orden:

Método del factor único El método fue descrito por Friedman y Savage (1947). El investigador hace en primer lugar una estimación preliminar de la combinación óptima de los niveles de los factores, el cual se debe denotar como (X11, X21, ... Xxi). Cada experimento trata con un solo factor. Los factoresse arreglan en el orden en que serán probados. Lo conveniente es ir probando los factores de acuerdo a su posible mayor contribución a la respuesta. . En el primer ensayo todos los factores excepto el primero se mantienen constantes en sus niveles iniciales (X21, X31,..:.,XkI).El objetivo primordial de este experimento es conseguir el nivel del factor Xi, el cual maximiza la respuesta a los niveles fijados como óptimos de los otros factores, Cochran y Cox (1980) señalan cómo puede realizarse dicho ensayo. Para establecer un máximo, deben compararse al menos 3 niveles del factor Xi, Son convenientes 4 ó 5 niveles si la amplitud de Xi es grande y la posición de su óptimo casi no se conoce, o realizarse un ensayo inicial con 5 niveles, ampliamente espaciados seguidos de un ensayo con 3 niveles con un espaciamiento estrecho.

2

A

Y = bo+ b1X1+ bllX1 el óptimo se obtiene por la ecuación XlQ = -bl/2bll

En algunas oportunidades el valor de Xi con el cual se obtiene la mayor respuesta observada está bastante cercana al óptimo estimado o respuesta máxima estimada (X1O). En el segundo ensayo, Xi se fija al nivel de la máxima respuesta estimada (X1O),X2 se ensaya a varios niveles y X3, ... Xk permanece constante a sus niveles iniciales, con este experimento se trata de obtener al nivel óptimo (X20). En el tercer ensayo se investiga el factor X3 de la misma forma, los otros factores mantienen los niveles XlO, X20, X41, ... Xkl respectivamente. El proceso continua hasta obtener la respuesta óptima (máxima, mínima) para los k factores. En este momento ha finalizado la primera etapa de experimentación, la combinación óptima estimada de los factores es (XlQ,X20,..., XkO).Si esta nueva combinación de niveles o dosis es parecida al conjunto inicial (X11, X21,..., Xkl) Y si los valores de la respuesta "Y" han mejorado durante la primera etapa, el investigador puede tomar la decisión de terminar los ensayos, concluyendo que no es posible mejorar apreciablemente la estimación inicial del óptimo. Si se producen cambios considerables, se sigue con una segunda etapa. La segunda etapa se inicia con los niveles constantes fijados en la primera etapa (X1O,X20,X30,... , XkO)y se prueban varios niveles de Xi para determinar si el nivel del punto para Xi ha cambiado del nivel XlO, conseguido en la primera etapa. Al final de esta etapa se ha encontrado un nuevo conjunto de estimaciones o nuevo punto estacionario , ,

(X

,)

10

,X

20 ''''

X kO

230

Chacín I Análisis de Regresión

y

Superficies de Respuesta

Chacín I Análisis de Regresión

y

Superficies de Respuesta

231

otros ensayos complementarios en función de los resultados obtenidos en el primero con el cual se logre sucesivamente estudiar el punto estacionario y la naturaleza de la superficie vecina.

Investigadores como Hottelling (1941) citado por Cochran y Cox (1980) han referido que iguales distanciamiento s, no constituyen en general el procedimiento más eficiente para localizar el óptimo.

El investigador puede haber realizado un ensayo suficientemente completo con el cual pueda estimar la posición del punto estacionario dentro de la región de exploración, en este caso, debe recurrir al análisis canónico para establecer si el punto estacionario es un máximo, mínimo o un punto de silla. En este caso la situación queda solucionada cuando ocurre un máximo o un mínimo; sin embargo, si se produce un punto de silla, es posible que el experimentador decida examinar nuevos puntos experimentales en la dirección del mayor o menor según sea el caso, incremento o decremento de la respuesta. Para examinar el recorrido de los puntos óptimos se puede utilizar el análisis de la cordillera o de las lomas. Para descubrir la ruta experimental' existen varios métodos que describiremos a continuación.

Cuando los puntos experimentales no definen especificamente la máxima respuesta, este punto puede estimarse mediante el siguiente polinomio de segundo orden:

Método del factor único El método fue descrito por Friedman y Savage (1947). El investigador hace en primer lugar una estimación preliminar de la combinación óptima de los niveles de los factores, el cual se debe denotar como (X11, X21, ... Xxi). Cada experimento trata con un solo factor. Los factoresse arreglan en el orden en que serán probados. Lo conveniente es ir probando los factores de acuerdo a su posible mayor contribución a la respuesta. . En el primer ensayo todos los factores excepto el primero se mantienen constantes en sus niveles iniciales (X21, X31,..:.,XkI).El objetivo primordial de este experimento es conseguir el nivel del factor Xi, el cual maximiza la respuesta a los niveles fijados como óptimos de los otros factores, Cochran y Cox (1980) señalan cómo puede realizarse dicho ensayo. Para establecer un máximo, deben compararse al menos 3 niveles del factor Xi, Son convenientes 4 ó 5 niveles si la amplitud de Xi es grande y la posición de su óptimo casi no se conoce, o realizarse un ensayo inicial con 5 niveles, ampliamente espaciados seguidos de un ensayo con 3 niveles con un espaciamiento estrecho.

2

A

Y = bo+ b1X1+ bllX1 el óptimo se obtiene por la ecuación XlQ = -bl/2bll

En algunas oportunidades el valor de Xi con el cual se obtiene la mayor respuesta observada está bastante cercana al óptimo estimado o respuesta máxima estimada (X1O). En el segundo ensayo, Xi se fija al nivel de la máxima respuesta estimada (X1O),X2 se ensaya a varios niveles y X3, ... Xk permanece constante a sus niveles iniciales, con este experimento se trata de obtener al nivel óptimo (X20). En el tercer ensayo se investiga el factor X3 de la misma forma, los otros factores mantienen los niveles XlO, X20, X41, ... Xkl respectivamente. El proceso continua hasta obtener la respuesta óptima (máxima, mínima) para los k factores. En este momento ha finalizado la primera etapa de experimentación, la combinación óptima estimada de los factores es (XlQ,X20,..., XkO).Si esta nueva combinación de niveles o dosis es parecida al conjunto inicial (X11, X21,..., Xkl) Y si los valores de la respuesta "Y" han mejorado durante la primera etapa, el investigador puede tomar la decisión de terminar los ensayos, concluyendo que no es posible mejorar apreciablemente la estimación inicial del óptimo. Si se producen cambios considerables, se sigue con una segunda etapa. La segunda etapa se inicia con los niveles constantes fijados en la primera etapa (X1O,X20,X30,... , XkO)y se prueban varios niveles de Xi para determinar si el nivel del punto para Xi ha cambiado del nivel XlO, conseguido en la primera etapa. Al final de esta etapa se ha encontrado un nuevo conjunto de estimaciones o nuevo punto estacionario , ,

(X

,)

10

,X

20 ''''

X kO

232

Chacínl

Chacin I Análisis de Regresión y Superficies de Respuesta

El análisis de varianza obtenido es:

El investigador estudia la situación y toma la decisión de continuar o no con una tercera etapa. Cochran y Cox (1986) plantean que pueden introducirse variaciones al método. En la segunda etapa, Friedman y Savage (1947) sugieren un movimiento a lo largo del vector definido por los extremos de las dos primeras etapas. Estos implicarían que comienzo de la tercera etapa todas las variables Xj se cambian simultáneamente, el cambio en Xj es proporcional a (Xj3 - Xj2). Esta modificación lo aleja del original Método de Factor Unico y lo asemeja al Método de la Máxima Pendiente. Otra consideración es omitir algunos de los factores en etapas posteriores sobre la base de que no han sido significativos en las primeras etapas. El método no permite una estimación de la forma de la curva de respuesta, cuando el proceso termina es conveniente realizar experimentos adicionales para cumplir con este objetivo. Ejemplo ilustrativo Experimentos realizados con el método del factor único en el cultivo de la yuca (Manihot esculentum), usando tres factores nitrógeno, fósforo y potasio (N, P y K respectivamente). Los ensayos fueron realizados a nivel de umbráculo en un diseño completamente aleatorio. Los resultados se muestran a continuación: Ensayo 1

ANAVAR F. deV.

G. deL.

SC

CM

Fc

4

251,57

62,893

16,91

EE

15

55,78

3,719

TOTAL

19

307,36

TRAT

Modelo de regresión obtenido Variable regresora

P

Coeficiente de regresion

Error estandar

t

21,001

0,84417

24,08

0,005

Xl

-1,3275

0,38303

-0,86

0,404

X2

-1,9054

0,32372

-5,89

0,000

Constante(bo)

I

R2 A

Y

=

64,54%

=

21,001

- 1,3275XI

-1,9054X¡

2

Se obtiene el punto máximo de la manera siguiente:

Niveles Codificados Trat

233

Análisis de Regresión y Superficies de Respuesta

Niveles Reales

N P K

Observaciones de rendimiento (tlha)

N P K

1

2

3

4

1

-2 -2 -2

O

O

O

16,7

14,1

12,4

13,2

2

-1 -2 -2

50

O

O

20,3

18,2

17,1

18,1

3

O -2 -2

100 O

O

24,2

21,3

22,4

25,3

4

1 -2 -2

150 O

O

18,3

17,4

16,8

14;3

5

2 -2 -2

200 O

O

15,1

16,1

11,9

10,4

ay / aXI

=

-1,3275

-3,8108XI

Xi = ':"1,3275/3,8108

=

=

O

-0,0859

Este valor es equivalente a lo siguiente: 1

.

50 kglha

0,0859

.

x

==> x = 4,295

° =>

Xl

=

2,721

= 0,334

8,149

X2 =

1,776

---

0,386

4,597

(0,334; 0,386)

En términos de los valores reales sería: 1-5 0,334-x x

=

1 -5 0,3864

1,67

x

-x

=

1,93

Los valores reales de los X's para el punto máximo serían: = (81,67 min, 91,93°C)

Po'

Con estos valores estacionario. Yo

=

se obtiene

una respuesta

88,357 (rendimiento predicho).

en el punto

252

Tabla 5.10. Análisis del Modelo Polinomial cuadrático reducido del ensayo 3.

El modelo 2

A

2

Y = 87,56 + 2,72Xl + 1,77X2- 4,07 Xl -2,29 X2 -0,3XIM

Variable regresara

El análisis de varianza se muestra en la Tabla 5.9. Tabla 5.9 Análisis de Varianza para el modelo de segundo orden del ensayo 3. F. de V. Regresión Residual

G. de L. 5

SC 222,38

CM

Fc

44,475

13,11**

7

23,75

3,393

Falta de ajuste

3

14,01

4,673

Error puro

4

0,03

2,433

Total

253

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacín I Análisis de Regresión y Superficies de Respuesta

12

Constantetbo) Xl M· X21 X2 2

R2

1,92 ns

246,13

El modelo de segundo orden debe ser sometido al análisis canónico, gráficos de contorno y todos los análisis necesarios para una adecuada interpretación. Este tipo de análisis ya fue explicado en la sección anterior. El lector puede aplicarlo a este ejemplo ilustrativo. Sin embargo, se determinaron los puntos máximos al modelo polinominal del tercer ensayo, que es el objetivo fundamental de estos experimentos. Para la determinación de los puntos máximos se hace una pequeña modificación, y es eliminar la interacción (XIX2)ya que su contribución al modelo es muy poca. El modelo seleccionado se muestra en la Tabla 5.10

t

P

87,560

0,823

106,28

0,0000

2,721 1,776 -4,074

0,651 0,651 0,698

4,18 2,73 -5,83

0,0041 0,0294 0,0006

-2,298

0,698

-3,29

0,0133

R2. = 8330% a.J '

90,20%

Determinación del máximo

ay

aX1 La falta de ajuste no es significativa y la Regresión es altamente significativa concluyendose que el modelo de segundo orden se aproxima apropiadamente a la superficie real. Montgomery (1991) afirma que es "Importante asegurarse que el modelo de segundo orden sea adecuado, ya que en muchos casos el error consiste en interpretar una superficie que se ha estimado inadecuadamente"

=

Error estandar

Coeficiente de regresión

ay

=

2,721 - 8,149XI

= 1,776 Po

=

=

- 4,597M =

(X01,X02)

=

° => ° =>

Xl

=

2,721

= 0,334

8,149

X2 =

1,776

---

0,386

4,597

(0,334; 0,386)

En términos de los valores reales sería: 1-5 0,334-x x

=

1 -5 0,3864

1,67

x

-x

=

1,93

Los valores reales de los X's para el punto máximo serían: = (81,67 min, 91,93°C)

Po'

Con estos valores estacionario. Yo

=

se obtiene

una respuesta

88,357 (rendimiento predicho).

en el punto

254

Chacín I Análisis de Regresión

y

Superficies de Respuesta

255

Chacín I Análisis de Regresión y Superficies de Respuesta

Método del experimento único Cochran y Cox (1980) refieren que para la aplicación de los métodos anteriores se hace necesario. que los resultados de cada ensayo se conozcan en corto tiempo, debido fundamentalmente a que cada experimento requiere la culminación y posterior análisis del anterior. En áreas de investigación donde los experimentos pueden extenderse un tiempo relativamente largo para lograr conocer los resultados de los ensayos, como generalmente ocurre en la investigación agrícola, es una estratégica lógica tratar de obtener la combinación de variables óptimas con un experimento único. Muchos de los diseños que se estudiaran en los capítulos posteriores tratan sobre esta situación. Cuando la región de exploración donde se realizará el ensayo es grande, la Superficie de Respuesta puede ser muy compleja para ser aproximada por un polinomio de segundo orden. En esos casos debe considerarse la posibilidad de aproximar polinomios de orden superior o posiblemente una exploración adicional en un segundo experimento. La otra alternativa que se propone sería desarrollar una investigación exploratoria para iuego trabajar con el experimento en búsqueda 'del polinomio de segundo 'orden, pero ya con una región de exploración previamente estudiada.

Cochran y Cox (1980), refieren que aunque este método no tiene una estrategia planificada, cuando el número de los factores es grande y los errores pequeños, puede tener utilidad. Explican que existen dos metas cuyo logro puede esperar el investigador: 1) Llegar a una región de exploración de relativa alta respuesta, 2) Conocer algo con respecto a las variables X's que ejercen la mayor influencia sobre la respuesta "Y", de manera tal que los experimentos futuros puedan reducirse a un número mas pequeño de factores. Comparación de los métodos Expresan Cochran y Cox (1980) que la comparación práctica es difícil por lo costoso que sería y refieren que Brooks (1955) desarrolló una comparación matemática que simula una comparación práctica. El autor construyó cuatro superficies, cada una de éstas con punto máximo bien definido de dos variables. En cada superficie se probaron nueve diferentes posiciones iniciales. En la primera serie de experimentos artificiales a cada método se le asignó un total de 16 combinaciones de factores ó tratamientos para encontrar el óptimo y en la segunda serie se asignaron 30 combinaciones. Las series desarrolladas fueron bajo dos modalidades: con un moderado error experimental y sin error experimental. Se trabajaron varios procedimientos diferentes para obtener el óptimo.

Selección al azar de puntos de prueba Los métodos comparados fueron: Existe la posibilidad de utilizar combinaciones al azar de los niveles de los distintos factores, como una forma de explorar la ruta experimental, esto fue sugerido por Anderson (1953) y mencionado por Cochran y Cox (1980).

Factor único Pendiente en ascenso Factorial Selección al azar de puntos de prueba.

El método consiste en seleccionar al azar los niveles de los Xi entre el rango de exploración de cada uno de ellos. Se hace una selección independiente para cada factor y para cada combinación sucesiva de factores que se ensayan. En forma alternativa se podrían seleccionar un número de puntos igualmente espaciados y se realiza una elección de uno de estos niveles para cada prueba. Al final de las "n" pruebas, la combinación de factores que de la respuesta observada más elevada se considera una estimación de la combinación óptima.

El factorial representa el método del experimento único. Se uso un factorial 4x4 para 16 tratamientos y 5x6 para los 30 tratamientos. El resultado de los métodos fue medido en términos de las respuestas verdaderas 9(Xl, X2) a los valores óptimos de Xi y X2 conseguidos por el método. En la tabla 5.11 que se representa a continuación, se muestran los resultados del método.

254

Chacín I Análisis de Regresión

y

Superficies de Respuesta

255

Chacín I Análisis de Regresión y Superficies de Respuesta

Método del experimento único Cochran y Cox (1980) refieren que para la aplicación de los métodos anteriores se hace necesario. que los resultados de cada ensayo se conozcan en corto tiempo, debido fundamentalmente a que cada experimento requiere la culminación y posterior análisis del anterior. En áreas de investigación donde los experimentos pueden extenderse un tiempo relativamente largo para lograr conocer los resultados de los ensayos, como generalmente ocurre en la investigación agrícola, es una estratégica lógica tratar de obtener la combinación de variables óptimas con un experimento único. Muchos de los diseños que se estudiaran en los capítulos posteriores tratan sobre esta situación. Cuando la región de exploración donde se realizará el ensayo es grande, la Superficie de Respuesta puede ser muy compleja para ser aproximada por un polinomio de segundo orden. En esos casos debe considerarse la posibilidad de aproximar polinomios de orden superior o posiblemente una exploración adicional en un segundo experimento. La otra alternativa que se propone sería desarrollar una investigación exploratoria para iuego trabajar con el experimento en búsqueda 'del polinomio de segundo 'orden, pero ya con una región de exploración previamente estudiada.

Cochran y Cox (1980), refieren que aunque este método no tiene una estrategia planificada, cuando el número de los factores es grande y los errores pequeños, puede tener utilidad. Explican que existen dos metas cuyo logro puede esperar el investigador: 1) Llegar a una región de exploración de relativa alta respuesta, 2) Conocer algo con respecto a las variables X's que ejercen la mayor influencia sobre la respuesta "Y", de manera tal que los experimentos futuros puedan reducirse a un número mas pequeño de factores. Comparación de los métodos Expresan Cochran y Cox (1980) que la comparación práctica es difícil por lo costoso que sería y refieren que Brooks (1955) desarrolló una comparación matemática que simula una comparación práctica. El autor construyó cuatro superficies, cada una de éstas con punto máximo bien definido de dos variables. En cada superficie se probaron nueve diferentes posiciones iniciales. En la primera serie de experimentos artificiales a cada método se le asignó un total de 16 combinaciones de factores ó tratamientos para encontrar el óptimo y en la segunda serie se asignaron 30 combinaciones. Las series desarrolladas fueron bajo dos modalidades: con un moderado error experimental y sin error experimental. Se trabajaron varios procedimientos diferentes para obtener el óptimo.

Selección al azar de puntos de prueba Los métodos comparados fueron: Existe la posibilidad de utilizar combinaciones al azar de los niveles de los distintos factores, como una forma de explorar la ruta experimental, esto fue sugerido por Anderson (1953) y mencionado por Cochran y Cox (1980).

Factor único Pendiente en ascenso Factorial Selección al azar de puntos de prueba.

El método consiste en seleccionar al azar los niveles de los Xi entre el rango de exploración de cada uno de ellos. Se hace una selección independiente para cada factor y para cada combinación sucesiva de factores que se ensayan. En forma alternativa se podrían seleccionar un número de puntos igualmente espaciados y se realiza una elección de uno de estos niveles para cada prueba. Al final de las "n" pruebas, la combinación de factores que de la respuesta observada más elevada se considera una estimación de la combinación óptima.

El factorial representa el método del experimento único. Se uso un factorial 4x4 para 16 tratamientos y 5x6 para los 30 tratamientos. El resultado de los métodos fue medido en términos de las respuestas verdaderas 9(Xl, X2) a los valores óptimos de Xi y X2 conseguidos por el método. En la tabla 5.11 que se representa a continuación, se muestran los resultados del método.

256

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión

Tabla 5.11 Comparación de métodos para encontrar un máximo en cuatro superficies de respuesta. 1

2

3

4

Factor único

0,990

0,984

0,926

0,984

Máxima pendiente

0,993

0,989

0,979

0,985

Factorial

0,955

0,977

0,927

0,976

Al azar

0,902

0,911

0,913

0,936

Método

Fuente: Cochran y Cox (1980) El máximo verdadero para cada superficie fue 1, por consiguiente todos los métodos resultaron apropiados y el método de la pendiente en ascenso fue el mejor en las superficies. (figura 5.8). El método del factor único fue casi tan bueno en todas las superficies excepto en la tercera. Este es el caso, refiere Cochran y Cox (1980) en el cual una de las raíces características (A.) en la forma canónica de la aproximación cuadratica es pequeña. Esta es la situación de lomas ascendentes en el cual el método del factor único hace leves progresos después de la primera etapa. El método del experimento único con el factorial fue consistentemente inferior a los dos métodos anteriores (secuenciales), excepto en la superficie 3, que llega a ser casi igual al método del factor único. Una dificultad evidente con este método es que la superficie polinomial (cuadrática o cúbica) no ajustó los datos satisfactoriamente a causa del espaciamiento amplio en los niveles del factorial. La utilización del método de selección al azar de puntos de prueba fue claramente inferior a los otros métodos.

y

Superficies de Respuesta

257

en todas las etapas, para el método de la superficie en ascenso o de la máxima pendiente.

Método secuencial sugerido por el autor para experimentos agrícolas y otros campos de la ciencia. En la mayoría de los experimentos agrícolas, con la excepción de los ensayos en laboratorio o en la Agroindustria, reunir las condiciones para desarrollar el método de la máxima pendiente ó de la pendiente en ascenso como son fundamentalmente: 1) Errores pequeños y 2) Experimentos secuenciales en cortos periodos; son sumamente dificiles. El investigador agrícola generalmente lo que hace son experimentos únicos, tratando a través de dichos experimentos conseguir una buena aproximación de la superficie de respuesta verdadera, sin embargo, en la mayoría de los casos se consigue que la superficie estimada no ajusta apropiadamente los datos, obteniéndose resultados insatisfactorios. Por consiguiente parece necesaria una investigación previa que permita ajustar mas adecuadamente los niveles de los factores obviando las dificultades del método de la pendiente en ascenso. Debido a lo expresado anteriormente sugiere la aplicación del método descrito a continuación.

1.- Iniciar el proceso con un experimento 1 que denominaremos exploratorio J

Estos ensayos tendrá como niveles iniciales, los mínimos de los otros factores y variando uno a la vez. Supongamos que se necesita investigar ''k'' factores para explorar la respuesta "V". El experimento 1 estará compuesto por "k" ensayos con la siguiente estructura. Ensayo 1

Figura 5.8. Contornos típicos de superficies de respuesta Cochran y Cox (1980) manifiestan que las conclusiones van a ser alteradas si se estudian diferentes superficies de respuesta, número de factores o distintas cantidades de error experimental. Para las superficies estudiadas los resultados sugieren una gran confiabilidad

Tratamiento 1 2 3 4 5

Xl

:M

-2

-2 -2 -2 -2

-1

° 1 2

-2

X3 -2

-2 -2

-2 -2

............ .............. .............. o

•.•••.••

o

.•.•••••.•

............

-2 -2

-2

256

Chacín I Análisis de Regresión y Superficies de Respuesta

Chacin I Análisis de Regresión

Tabla 5.11 Comparación de métodos para encontrar un máximo en cuatro superficies de respuesta. 1

2

3

4

Factor único

0,990

0,984

0,926

0,984

Máxima pendiente

0,993

0,989

0,979

0,985

Factorial

0,955

0,977

0,927

0,976

Al azar

0,902

0,911

0,913

0,936

Método

Fuente: Cochran y Cox (1980) El máximo verdadero para cada superficie fue 1, por consiguiente todos los métodos resultaron apropiados y el método de la pendiente en ascenso fue el mejor en las superficies. (figura 5.8). El método del factor único fue casi tan bueno en todas las superficies excepto en la tercera. Este es el caso, refiere Cochran y Cox (1980) en el cual una de las raíces características (A.) en la forma canónica de la aproximación cuadratica es pequeña. Esta es la situación de lomas ascendentes en el cual el método del factor único hace leves progresos después de la primera etapa. El método del experimento único con el factorial fue consistentemente inferior a los dos métodos anteriores (secuenciales), excepto en la superficie 3, que llega a ser casi igual al método del factor único. Una dificultad evidente con este método es que la superficie polinomial (cuadrática o cúbica) no ajustó los datos satisfactoriamente a causa del espaciamiento amplio en los niveles del factorial. La utilización del método de selección al azar de puntos de prueba fue claramente inferior a los otros métodos.

y

Superficies de Respuesta

257

en todas las etapas, para el método de la superficie en ascenso o de la máxima pendiente.

Método secuencial sugerido por el autor para experimentos agrícolas y otros campos de la ciencia. En la mayoría de los experimentos agrícolas, con la excepción de los ensayos en laboratorio o en la Agroindustria, reunir las condiciones para desarrollar el método de la máxima pendiente ó de la pendiente en ascenso como son fundamentalmente: 1) Errores pequeños y 2) Experimentos secuenciales en cortos periodos; son sumamente dificiles. El investigador agrícola generalmente lo que hace son experimentos únicos, tratando a través de dichos experimentos conseguir una buena aproximación de la superficie de respuesta verdadera, sin embargo, en la mayoría de los casos se consigue que la superficie estimada no ajusta apropiadamente los datos, obteniéndose resultados insatisfactorios. Por consiguiente parece necesaria una investigación previa que permita ajustar mas adecuadamente los niveles de los factores obviando las dificultades del método de la pendiente en ascenso. Debido a lo expresado anteriormente sugiere la aplicación del método descrito a continuación.

1.- Iniciar el proceso con un experimento 1 que denominaremos exploratorio J

Estos ensayos tendrá como niveles iniciales, los mínimos de los otros factores y variando uno a la vez. Supongamos que se necesita investigar ''k'' factores para explorar la respuesta "V". El experimento 1 estará compuesto por "k" ensayos con la siguiente estructura. Ensayo 1

Figura 5.8. Contornos típicos de superficies de respuesta Cochran y Cox (1980) manifiestan que las conclusiones van a ser alteradas si se estudian diferentes superficies de respuesta, número de factores o distintas cantidades de error experimental. Para las superficies estudiadas los resultados sugieren una gran confiabilidad

Tratamiento 1 2 3 4 5

Xl

:M

-2

-2 -2 -2 -2

-1

° 1 2

-2

X3 -2

-2 -2

-2 -2

............ .............. .............. o

•.•••.••

o

.•.•••••.•

............

-2 -2

-2

258

Chacín I Análisisde Regresióny Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

2.- Experimento 2 (Experimento comprobatorio)

Ensayo 2 Xl

X2

M

Xk

1

-2

-2

-2

2

-2

-1

-2

-2 -2

3

-2

O

-2

-2

4

-2

1

-2

-2

-2

-2

Tratamiento

5

-2

2

Ensayo k Tratamiento 1 2

3 4 5

259

Xl -2 -2 -2 -2 -2

X2 -2 -2 -2 -2 -2

X3 -2 -2 -2 -2 -2

.. ..

M -2 -1

Este experimento es igual al experimento 1 con la variante de que no se utiliza para los ensayos los niveles mínimos sino los niveles óptimos obtenidos en el experimento 1, que denotaremos como Xio. El experimento 2, tendrá los siguientes ensayos. Ensayo 1 Xl

M

M

.......

Xk

1

-2

X2.0

Xa.o

.......

Xk.O

2

-1

X2.0

X3.0

3

O

X2.0

Xa.o

.......

M.O

4

1

X2.0

X3.0

. ......

M.O

5

2

M.O

X3.0

Xl

X2

Xa

........

M

1

XI.O

-2

M.O

.......

M.O

2

XI.O

-1

Xa.o

3

Xl.O

-O

X3.0

4

Xl.O

1

Xa.o

5

Xl.O

2

Xl

1

Tratamiento

o

••••

o

o.

Xk.O

Xk.O

••••••

O

1 2

Ensayo 2 Tratamiento

Como se observa cada uno de los ensayos servirá para explorar independientemente los niveles adecuados de cada factor en presencia de los niveles del tratamiento testigo de los otros factores. Por ejemplo, en el caso de experimentos con fertilizantes, el testigo es ausencia de nutrimentos agregados al suelo. En otros casos como densidad de siembra, puede tratarse de los valores que utiliza normalmente el agricultor.

o

••••••

o

••••••

Xk.O Xk.O " Xk.O

Xa.o

....... . ......

X2

Xa

.......

Xk

Xl.O

M.O

Xa.o

.......

-2

2

Xl.O

X2.0

M.O

1) Análisis de varianza para cada uno de los "k" ensayos.

3

Xl.O

X2.0

M.O

2) Análisis de regresión para cada uno de los "k" ensayos.

4

Xl.O

M.O

Xa.o

5

Xl.O

X2.0

M.O

Este ensayo exploratorio puede desarrollarse bajo un solo experimento, en cualquier diseño experimental: completamente al azar, bloques al azar o cuadrado latino dependiendo del control local que se quiera realizar. El análisis estadístico consiste en los siguientes pasos.

3) Obtención de los puntos óptimos o estacionarios para cada uno de los "k" ensayos. 4) Interpretación conjunta del experimento 1.

M.O

Ensayo k Tratamiento

o

-1

••••••

....... o

1

••••••

••••.

-O

o.

2

258

Chacín I Análisisde Regresióny Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

2.- Experimento 2 (Experimento comprobatorio)

Ensayo 2 Xl

X2

M

Xk

1

-2

-2

-2

2

-2

-1

-2

-2 -2

3

-2

O

-2

-2

4

-2

1

-2

-2

-2

-2

Tratamiento

5

-2

2

Ensayo k Tratamiento 1 2

3 4 5

259

Xl -2 -2 -2 -2 -2

X2 -2 -2 -2 -2 -2

X3 -2 -2 -2 -2 -2

.. ..

M -2 -1

Este experimento es igual al experimento 1 con la variante de que no se utiliza para los ensayos los niveles mínimos sino los niveles óptimos obtenidos en el experimento 1, que denotaremos como Xio. El experimento 2, tendrá los siguientes ensayos. Ensayo 1 Xl

M

M

.......

Xk

1

-2

X2.0

Xa.o

.......

Xk.O

2

-1

X2.0

X3.0

3

O

X2.0

Xa.o

.......

M.O

4

1

X2.0

X3.0

. ......

M.O

5

2

M.O

X3.0

Xl

X2

Xa

........

M

1

XI.O

-2

M.O

.......

M.O

2

XI.O

-1

Xa.o

3

Xl.O

-O

X3.0

4

Xl.O

1

Xa.o

5

Xl.O

2

Xl

1

Tratamiento

o

••••

o

o.

Xk.O

Xk.O

••••••

O

1 2

Ensayo 2 Tratamiento

Como se observa cada uno de los ensayos servirá para explorar independientemente los niveles adecuados de cada factor en presencia de los niveles del tratamiento testigo de los otros factores. Por ejemplo, en el caso de experimentos con fertilizantes, el testigo es ausencia de nutrimentos agregados al suelo. En otros casos como densidad de siembra, puede tratarse de los valores que utiliza normalmente el agricultor.

o

••••••

o

••••••

Xk.O Xk.O " Xk.O

Xa.o

....... . ......

X2

Xa

.......

Xk

Xl.O

M.O

Xa.o

.......

-2

2

Xl.O

X2.0

M.O

1) Análisis de varianza para cada uno de los "k" ensayos.

3

Xl.O

X2.0

M.O

2) Análisis de regresión para cada uno de los "k" ensayos.

4

Xl.O

M.O

Xa.o

5

Xl.O

X2.0

M.O

Este ensayo exploratorio puede desarrollarse bajo un solo experimento, en cualquier diseño experimental: completamente al azar, bloques al azar o cuadrado latino dependiendo del control local que se quiera realizar. El análisis estadístico consiste en los siguientes pasos.

3) Obtención de los puntos óptimos o estacionarios para cada uno de los "k" ensayos. 4) Interpretación conjunta del experimento 1.

M.O

Ensayo k Tratamiento

o

-1

••••••

....... o

1

••••••

••••.

-O

o.

2

260

Chacín I Análisis de Regresión y Superficies de Respuesta

Los pasos del análisis estadísticos serán los mismos del experimento 1 y un quinto paso que seria: comparación de los resultados del experimento 1 y 2. En este caso puede ocurrir que: a) La respuesta en cada uno de los experimentos sean similares. En este caso se utilizan estos niveles como el tratamiento central del experimento 3. b) La respuesta en cada uno de los experimentos sean diferentes. En este caso se utilizan ambos niveles en el experimento 3, como niveles intermedios, por ejemplo, si el experimento 3 tiene los niveles (-a, -1, 0, 1, a) para cada factor, los niveles obtenidos con el experimento 1 y 2 se utilizarán como niveles (-1 y 1) en el experimento 3, salvo que los niveles encontrados en estos experimentos sean extremos o se encuentren fuera de la región de exploración. En este caso el investigador debe utilizar criterios aproximados para la selección de los niveles en el experimento 3.

Tabla 5.12. Resultados del experimento 1 utilizando el método de experimentación secuencial sugerido por el autor. Ensayo1 Tratamiento

El experimento 1, esta constituido por dos ensayos que fueron planificados completamente al azar, con 5 niveles en cada variable regresara y en cada uno de los ensayos. A continuación describiremos los resultados (Tabla 5.12).

Xl

X2

1

2

3

4

5

-2

-2 -2

1,4 1,9

1,3 1,7

1,6 1,9

-2 -2 -2

2,3 2,8 1,9

2,1 2,4 1,6

2,3 2,6 2,1

1,3 1,6 2,1 2,7

1,6 1,9 2,3 2,9

2,0

2,1

-1

3 4

°1

5

2

Tratamiento

Observaciones deY

Niveles

Codificados

Xl

M -2 -1

1 2,5

2 2,2

2,9

°1

3,1 2,4

2

2,1

1 2

-2 -2

3 4 5

-2 -2 -2

Observaciones deY

4 2,3 2,8

5 2,6

2,6

3 2,4 2,7

3,2 2,1 1,9

3,4 2,4 2,0

3,1 2,8 2,1

3,0 2,5 2,2

2,7

ANALISIS ESTADISTICO 1.-

Análisis de varianza

para cada uno de los "k" ensayos

1.1.- Análisis de la varianza

del método

A. Experimento 1. Un experimento realizado en laboratorio de cultivo de tejidos con el objetivo de encontrar una superficie de respuesta entre el peso de las raíces (Y) y dos variables predíctoras; Xl = ppm de Hormona A y M = ppm de hormona B.

Codificados

Ensayoz

Experimento realizado preferiblemente con un diseño de superficie de respuesta,' Compuesto Central, San Cristóbal, doble Estrella, etc. Cualquiera de los que estudiaremos posteriormente con el objeto de ajustar la superficie de respuesta y de esta forma obtener los puntos óptimos, físicos, económicos y la naturaleza de la superficie.

Ejemplo ilustrativo

Niveles

1 2

3.- Experimento 3.

En algunas áreas de la agricultura por las características propias, podría obviarse la realización del experimento comprobatorio y pasar directamente al experimento 3 para ajustar la superficie de respuesta, utilizando como tratamiento central los niveles óptimos obtenidos en el experimento 1.

261

Chacín I Análisis de Regresión y Superficies de Respuesta

F. deV.

(Ensayo 1).

G. deL.

SC

CM

Fc

1,083 0,027

Total

24

4,333 0,540 4,873

40,43

EE

4 20

Trat.

260

Chacín I Análisis de Regresión y Superficies de Respuesta

Los pasos del análisis estadísticos serán los mismos del experimento 1 y un quinto paso que seria: comparación de los resultados del experimento 1 y 2. En este caso puede ocurrir que: a) La respuesta en cada uno de los experimentos sean similares. En este caso se utilizan estos niveles como el tratamiento central del experimento 3. b) La respuesta en cada uno de los experimentos sean diferentes. En este caso se utilizan ambos niveles en el experimento 3, como niveles intermedios, por ejemplo, si el experimento 3 tiene los niveles (-a, -1, 0, 1, a) para cada factor, los niveles obtenidos con el experimento 1 y 2 se utilizarán como niveles (-1 y 1) en el experimento 3, salvo que los niveles encontrados en estos experimentos sean extremos o se encuentren fuera de la región de exploración. En este caso el investigador debe utilizar criterios aproximados para la selección de los niveles en el experimento 3.

Tabla 5.12. Resultados del experimento 1 utilizando el método de experimentación secuencial sugerido por el autor. Ensayo1 Tratamiento

El experimento 1, esta constituido por dos ensayos que fueron planificados completamente al azar, con 5 niveles en cada variable regresara y en cada uno de los ensayos. A continuación describiremos los resultados (Tabla 5.12).

Xl

X2

1

2

3

4

5

-2

-2 -2

1,4 1,9

1,3 1,7

1,6 1,9

-2 -2 -2

2,3 2,8 1,9

2,1 2,4 1,6

2,3 2,6 2,1

1,3 1,6 2,1 2,7

1,6 1,9 2,3 2,9

2,0

2,1

-1

3 4

°1

5

2

Tratamiento

Observaciones deY

Niveles

Codificados

Xl

M -2 -1

1 2,5

2 2,2

2,9

°1

3,1 2,4

2

2,1

1 2

-2 -2

3 4 5

-2 -2 -2

Observaciones deY

4 2,3 2,8

5 2,6

2,6

3 2,4 2,7

3,2 2,1 1,9

3,4 2,4 2,0

3,1 2,8 2,1

3,0 2,5 2,2

2,7

ANALISIS ESTADISTICO 1.-

Análisis de varianza

para cada uno de los "k" ensayos

1.1.- Análisis de la varianza

del método

A. Experimento 1. Un experimento realizado en laboratorio de cultivo de tejidos con el objetivo de encontrar una superficie de respuesta entre el peso de las raíces (Y) y dos variables predíctoras; Xl = ppm de Hormona A y M = ppm de hormona B.

Codificados

Ensayoz

Experimento realizado preferiblemente con un diseño de superficie de respuesta,' Compuesto Central, San Cristóbal, doble Estrella, etc. Cualquiera de los que estudiaremos posteriormente con el objeto de ajustar la superficie de respuesta y de esta forma obtener los puntos óptimos, físicos, económicos y la naturaleza de la superficie.

Ejemplo ilustrativo

Niveles

1 2

3.- Experimento 3.

En algunas áreas de la agricultura por las características propias, podría obviarse la realización del experimento comprobatorio y pasar directamente al experimento 3 para ajustar la superficie de respuesta, utilizando como tratamiento central los niveles óptimos obtenidos en el experimento 1.

261

Chacín I Análisis de Regresión y Superficies de Respuesta

F. deV.

(Ensayo 1).

G. deL.

SC

CM

Fc

1,083 0,027

Total

24

4,333 0,540 4,873

40,43

EE

4 20

Trat.

262

y

Chacín I Análisis de Regresión

Chacín I Análisis de Regresión

Superficies de Respuesta

1.2.- Análisis de la varianza SC G. de L. F.deV.

CM

Fc 40,43

4

3,932

0,983

EE

20

1,468

0,073

Total

24

5,440

A

=

Y

2,997

A

1)

=-

y / 1) X2

X2

= -

- 0,118M

para cada uno de los "k" ensayos

Coeficiente de Regresión

Variable Regresora

t

p

=

Constante (bo)

2,3246

0,079743

29,15

0,0000

Xl

0,1880

0,036183

5,28

0,0000

X21

-0,1542

0,030588

-5,05

0,0000

RZ.

= 70,45%

RZ

a,¡

= 6776%

Cp= 3

,

CMresid

=

=

0,397X2

= -

°

0,297

conjunta

De acuerdo con los resultados del experimento 1, que incluye efectos independientes de las dos variables bajo estudio, el punto óptimo de la variable respuesta se obtiene con valores codificados de Xi 0,609 Y Xz 0,297.

(Ensayo 1)

Error estandar

- 0,198X~

0,118

0,118/0,397

4.- Interpretación

2.1.- Análisis de Regrestón

263

Superficies de Respuesta

3.2.- Ensayo 2

(Ensayo 2)

Trat.

2.- Análisis de Regresión

y

=-

B.- Experimento 2. (Experimento comprobatorio) Los resultados del experimento 2 aparecen a continuación (Tabla 5.13). Tabla 5.13. Resultados del experimento 2 utilizando el método de experimentación secuencial sugerida por el autor

0,06546

Ensayo1 2.2.- Análisis de Regresión Coeficiente de Regresión

Variable Regresora

(Ensayo 2)

Error estandar

t

p

Tratamiento

Niveles codificados

Observaciones de Y

Xl

Xz

1

2

3

4

5

Constante (bo)

2,997

0,092

32,35

0,0000

1

-2

-0,297

3,0

2,7

3,1

2,6

3,0

Xl

-0,118

0,042

-2,81

0,0000

2

-1

-0,297

3,6

3,4

3,5

3,0

3,7

X2

-0,198

0,025

-5,59

0,0000

3

-0,297

4,1

4,3

4,5

4,1

3,9

4

°1

-0,297

3,2

2,9

3,1

3,4

3,1

5

2

-0,297

2,9

2,7

2,7

2,8

2,4

1

RZ

= 64,01%

R:i

Cp = 3

= 60,73%

3.- Obtención de los puntos uno de los "k" ensayos

CMresid

Tratamiento

Y = 2,324 + 0,188XI

- 0, 1542X

y /1) Xl = 0,188 0,188/0,308

- 0,308XI

=

0,609

Niveles codificados

Observaciones de Y

2 1

A

=

para cada Ensayoz

A

Xi

0,088

óptimos o estacionarios

3.1.- Ensayo 1

1)

=

=

°

1

0,609

-2

2,5

2,2

2,4

2,3

2,6

2

0,609

-1

2,9

2,6

2,7

2,8

2,7

3

0,609

3,1

3,2

3,4

3,1

3,0

4

0,609

° 1

2,4

2,1

2,4

2,8

2,5

5

0,609

2

2,1

1,9

2,0

2,1

2,2

262

y

Chacín I Análisis de Regresión

Chacín I Análisis de Regresión

Superficies de Respuesta

1.2.- Análisis de la varianza SC G. de L. F.deV.

CM

Fc 40,43

4

3,932

0,983

EE

20

1,468

0,073

Total

24

5,440

A

=

Y

2,997

A

1)

=-

y / 1) X2

X2

= -

- 0,118M

para cada uno de los "k" ensayos

Coeficiente de Regresión

Variable Regresora

t

p

=

Constante (bo)

2,3246

0,079743

29,15

0,0000

Xl

0,1880

0,036183

5,28

0,0000

X21

-0,1542

0,030588

-5,05

0,0000

RZ.

= 70,45%

RZ

a,¡

= 6776%

Cp= 3

,

CMresid

=

=

0,397X2

= -

°

0,297

conjunta

De acuerdo con los resultados del experimento 1, que incluye efectos independientes de las dos variables bajo estudio, el punto óptimo de la variable respuesta se obtiene con valores codificados de Xi 0,609 Y Xz 0,297.

(Ensayo 1)

Error estandar

- 0,198X~

0,118

0,118/0,397

4.- Interpretación

2.1.- Análisis de Regrestón

263

Superficies de Respuesta

3.2.- Ensayo 2

(Ensayo 2)

Trat.

2.- Análisis de Regresión

y

=-

B.- Experimento 2. (Experimento comprobatorio) Los resultados del experimento 2 aparecen a continuación (Tabla 5.13). Tabla 5.13. Resultados del experimento 2 utilizando el método de experimentación secuencial sugerida por el autor

0,06546

Ensayo1 2.2.- Análisis de Regresión Coeficiente de Regresión

Variable Regresora

(Ensayo 2)

Error estandar

t

p

Tratamiento

Niveles codificados

Observaciones de Y

Xl

Xz

1

2

3

4

5

Constante (bo)

2,997

0,092

32,35

0,0000

1

-2

-0,297

3,0

2,7

3,1

2,6

3,0

Xl

-0,118

0,042

-2,81

0,0000

2

-1

-0,297

3,6

3,4

3,5

3,0

3,7

X2

-0,198

0,025

-5,59

0,0000

3

-0,297

4,1

4,3

4,5

4,1

3,9

4

°1

-0,297

3,2

2,9

3,1

3,4

3,1

5

2

-0,297

2,9

2,7

2,7

2,8

2,4

1

RZ

= 64,01%

R:i

Cp = 3

= 60,73%

3.- Obtención de los puntos uno de los "k" ensayos

CMresid

Tratamiento

Y = 2,324 + 0,188XI

- 0, 1542X

y /1) Xl = 0,188 0,188/0,308

- 0,308XI

=

0,609

Niveles codificados

Observaciones de Y

2 1

A

=

para cada Ensayoz

A

Xi

0,088

óptimos o estacionarios

3.1.- Ensayo 1

1)

=

=

°

1

0,609

-2

2,5

2,2

2,4

2,3

2,6

2

0,609

-1

2,9

2,6

2,7

2,8

2,7

3

0,609

3,1

3,2

3,4

3,1

3,0

4

0,609

° 1

2,4

2,1

2,4

2,8

2,5

5

0,609

2

2,1

1,9

2,0

2,1

2,2

264

3.- Obtención de los puntos uno de los "k".ensayos Ensayo 1

ANALISIS ESTADISTICO 1 Análisis

de varianza

para cada uno de los "k" ensayos

1.1.- Análisis de la varianza

óptimos

G.deL.

CM

Fc 35,48**

2

A

4

6,869

1,719

EE

20

0,968

0,048

Total

24

7,837

O Y / O X.

=-

0,07 - 0,545XI

Trat

4

EE Total

11,666

2,916

99,88**

20

0,584

0,029

24

12,250

Variable regresara

X2

Xi

Error estandar

P

t

37,15

0,000

Xl

-0,070

0,046

-1,50

0,146

X2I

-0,272

0,039

-6,94

0,000

=

66,86%

Cp = 3 CMResid. = 0,010

2.2.- Análisis de Regresión Variable regresara Constante (be) Xl X2

=

56,21%

(Ensayo 2 )

Coeficiente de regresión

Error estandar

3,118 -0,044 -0,314

1

2 Raj

=

52,23%

0,044 - 0,628X2

0,044/0,628

=-

=

°

0,070

conjunta

=-

0,128 Y X2 = - 0,07.

(Ensayo 1)

0,102

69,62% R!j

2

De acuerdo a los resultados del experimento 2, que incluye efectos independientes de las dos variables bajo estudio, el punto óptimo de la variable respuesta se obtiene con valores codificados de

3,809

=

=-

=-

4.- Interpretación

para cada uno de los "k" ensayos

Coeficiente de regresión

Constante(bo)

R2

O y / OX2 Fc

SC

2.2. Análisis de regresión

R2

(Ensayo 2) CM

2.- Análisis de regresión

°

Ensayo 2 A

1.2.- Análisis de la varianza

=

Xl = - 0,07/0,545 = - 0,128

Y = 3,118 - 0,044X2 - 0,314X2 G. de L.

para cada

Y = 3,809 - 0,07XI - 0,272 Xl

SC

Trat

F.deV.

o estacionarios

(Ensayo 1). A

F.deV.

265

ChacinI Análisisde Regresióny Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

t

0,153 0,069 0,059 Cp

=

3 CMResid

20,27 -0,63 -5,25

=

0,243

P 0,000 0,535 0,000

5.- Comparación

de los resultados

de los experimentos

1y 2

Los resultados de los dos experimentos aparecen a continuación: Puntos ó timos en el E erimento 1 Puntos ó timos en el E erimento 2 X2 0609 -0,297 -0,128 -0,070

x.

x.

x,

De acuerdo a estos resultados el nivel óptimo de una variable depende de la cantidad a la cual se encuentra la otra variable. En el primer experimento la cantidad de la variable Xi que optimiza la respuesta es de 0,609 (Valor Codificado), cuando X2 está a su nivel mínimo (ausencia) y el valor de X2 que optimiza las respuesta es de - 0,297 (Valor Codificado) cuando no está presente Xl (nivel mínimo). En el experimento 2, cuando se utiliza los niveles óptimos de las dos variables, el punto óptimo disminuye para Xi y aumenta para X2. Basado en estos resultados y en vista de la cercanía del punto óptimo para el fenómeno en estudio se realiza el experimento 3.

264

3.- Obtención de los puntos uno de los "k".ensayos Ensayo 1

ANALISIS ESTADISTICO 1 Análisis

de varianza

para cada uno de los "k" ensayos

1.1.- Análisis de la varianza

óptimos

G.deL.

CM

Fc 35,48**

2

A

4

6,869

1,719

EE

20

0,968

0,048

Total

24

7,837

O Y / O X.

=-

0,07 - 0,545XI

Trat

4

EE Total

11,666

2,916

99,88**

20

0,584

0,029

24

12,250

Variable regresara

X2

Xi

Error estandar

P

t

37,15

0,000

Xl

-0,070

0,046

-1,50

0,146

X2I

-0,272

0,039

-6,94

0,000

=

66,86%

Cp = 3 CMResid. = 0,010

2.2.- Análisis de Regresión Variable regresara Constante (be) Xl X2

=

56,21%

(Ensayo 2 )

Coeficiente de regresión

Error estandar

3,118 -0,044 -0,314

1

2 Raj

=

52,23%

0,044 - 0,628X2

0,044/0,628

=-

=

°

0,070

conjunta

=-

0,128 Y X2 = - 0,07.

(Ensayo 1)

0,102

69,62% R!j

2

De acuerdo a los resultados del experimento 2, que incluye efectos independientes de las dos variables bajo estudio, el punto óptimo de la variable respuesta se obtiene con valores codificados de

3,809

=

=-

=-

4.- Interpretación

para cada uno de los "k" ensayos

Coeficiente de regresión

Constante(bo)

R2

O y / OX2 Fc

SC

2.2. Análisis de regresión

R2

(Ensayo 2) CM

2.- Análisis de regresión

°

Ensayo 2 A

1.2.- Análisis de la varianza

=

Xl = - 0,07/0,545 = - 0,128

Y = 3,118 - 0,044X2 - 0,314X2 G. de L.

para cada

Y = 3,809 - 0,07XI - 0,272 Xl

SC

Trat

F.deV.

o estacionarios

(Ensayo 1). A

F.deV.

265

ChacinI Análisisde Regresióny Superficiesde Respuesta

Chacín I Análisisde Regresióny Superficiesde Respuesta

t

0,153 0,069 0,059 Cp

=

3 CMResid

20,27 -0,63 -5,25

=

0,243

P 0,000 0,535 0,000

5.- Comparación

de los resultados

de los experimentos

1y 2

Los resultados de los dos experimentos aparecen a continuación: Puntos ó timos en el E erimento 1 Puntos ó timos en el E erimento 2 X2 0609 -0,297 -0,128 -0,070

x.

x.

x,

De acuerdo a estos resultados el nivel óptimo de una variable depende de la cantidad a la cual se encuentra la otra variable. En el primer experimento la cantidad de la variable Xi que optimiza la respuesta es de 0,609 (Valor Codificado), cuando X2 está a su nivel mínimo (ausencia) y el valor de X2 que optimiza las respuesta es de - 0,297 (Valor Codificado) cuando no está presente Xl (nivel mínimo). En el experimento 2, cuando se utiliza los niveles óptimos de las dos variables, el punto óptimo disminuye para Xi y aumenta para X2. Basado en estos resultados y en vista de la cercanía del punto óptimo para el fenómeno en estudio se realiza el experimento 3.

266

267

Chacín / Análisis de Regresión y Superticies de Respuesta

Chacín I Análisis de Regresión y Superticies de Respuesta

C.- Experimento 3. Se ha realizado con un diseño Compuesto Central Rotable Uniformemente preciso (k = 2, no = 5), en un diseño completamente al azar. De acuerdo a la metodología, los niveles reales del punto central (0, O) son los niveles óptimos encontrados en el experimento 2 los resultados aparecen a continuación (Tabla 5.14).

El análisis indica que hay efecto evidente de la regresión, pero existe falta de ajuste, lo cual implica que existe algún efecto significativo no considerado en el modelo polinomial fijado. Estos efectos deben ser estudiados en futuros ensayos.

Tabla 5.14. Datos obtenidos con el diseño Compuesto Central Rotable k = 2, no = 5 (Experimento 3) Tratamiento

Codificadas Xl

Respuesta

x,

Y

1

-1

-1

3,0

2

-1

1

4,5

3

1

-1

4,0

4

1

1

4,6

° °

2,7 2,8

-1,414

3,1

1,414

3,2

° ° ° ° °

5,1

5

-1,414

6

1,414

7

° ° ° ° ° ° °

8 9 10 11 12 13

1.- Análisis

5,3

G.deL.

SC

Variable regresora

Coeficiente de regresion

Error estandar

t

P

Constante (ha)

5,21987

0,29158

17,902

0,0000

Xl

0,15519

0,23535

0,673

0,5224

X2

0,28021

0,23053

1,216

0,2036

X21

-0,96630

0,24755

-3,908

0,0058

X22

-0,76624

0,24755

-3,099

0,0173

XIX2

-0,22500

0,32600

-0,690

0,5123

R2

=

70,785% SC(residual)

=

2,97558

Press

=

20,784

En este análisis los efectos cuadráticos son significativos y los lineales no son estadísticamente significativos. Esto .'debido probablemente al estudio secuencial de la superficie de respuesta.

5,2

3.- Estudio

5,1

0,060048l Se determinó el punto estacionario Xo = [ J.y se estudió 0.174035 su naturaleza en base a los signos de las raíces características.

Análisis de la varianza para el modelo de primer orden Tratamiento

de Regresión

5,4

estadístico

F.deV.

2.- Análisis

CM

de la superficie

fijada

Raíces características Fc

Vectores propios Xl

X2

8

13,3243

1,6655

97,97**

-1,431038

-0,409588

0,912271

Regresión

5

10,4165

2,0833

122,54**

-2,033016

Falta de ajuste

0,912271

0,409588

3

2,9078

0,9693

57,02**

Error puro

4

0,0680

0,0170

TOTAL

12

13,3923

Al

=

-1,431038

A2

=

-2,033016

266

267

Chacín / Análisis de Regresión y Superticies de Respuesta

Chacín I Análisis de Regresión y Superticies de Respuesta

C.- Experimento 3. Se ha realizado con un diseño Compuesto Central Rotable Uniformemente preciso (k = 2, no = 5), en un diseño completamente al azar. De acuerdo a la metodología, los niveles reales del punto central (0, O) son los niveles óptimos encontrados en el experimento 2 los resultados aparecen a continuación (Tabla 5.14).

El análisis indica que hay efecto evidente de la regresión, pero existe falta de ajuste, lo cual implica que existe algún efecto significativo no considerado en el modelo polinomial fijado. Estos efectos deben ser estudiados en futuros ensayos.

Tabla 5.14. Datos obtenidos con el diseño Compuesto Central Rotable k = 2, no = 5 (Experimento 3) Tratamiento

Codificadas Xl

Respuesta

x,

Y

1

-1

-1

3,0

2

-1

1

4,5

3

1

-1

4,0

4

1

1

4,6

° °

2,7 2,8

-1,414

3,1

1,414

3,2

° ° ° ° °

5,1

5

-1,414

6

1,414

7

° ° ° ° ° ° °

8 9 10 11 12 13

1.- Análisis

5,3

G.deL.

SC

Variable regresora

Coeficiente de regresion

Error estandar

t

P

Constante (ha)

5,21987

0,29158

17,902

0,0000

Xl

0,15519

0,23535

0,673

0,5224

X2

0,28021

0,23053

1,216

0,2036

X21

-0,96630

0,24755

-3,908

0,0058

X22

-0,76624

0,24755

-3,099

0,0173

XIX2

-0,22500

0,32600

-0,690

0,5123

R2

=

70,785% SC(residual)

=

2,97558

Press

=

20,784

En este análisis los efectos cuadráticos son significativos y los lineales no son estadísticamente significativos. Esto .'debido probablemente al estudio secuencial de la superficie de respuesta.

5,2

3.- Estudio

5,1

0,060048l Se determinó el punto estacionario Xo = [ J.y se estudió 0.174035 su naturaleza en base a los signos de las raíces características.

Análisis de la varianza para el modelo de primer orden Tratamiento

de Regresión

5,4

estadístico

F.deV.

2.- Análisis

CM

de la superficie

fijada

Raíces características Fc

Vectores propios Xl

X2

8

13,3243

1,6655

97,97**

-1,431038

-0,409588

0,912271

Regresión

5

10,4165

2,0833

122,54**

-2,033016

Falta de ajuste

0,912271

0,409588

3

2,9078

0,9693

57,02**

Error puro

4

0,0680

0,0170

TOTAL

12

13,3923

Al

=

-1,431038

A2

=

-2,033016

268

Chacín I Análisisde Regresión y Superficiesde Respuesta

Los valores negativos de ambas raíces características indican claramente que el punto estacionario es un p~to óptimo (máximo) en el cual, el valor de la respuesta estimada es y = 5,2489 Tabla 5.15. Ilustración del análisis de aristas para la estimación de la máxima respuesta Radios Codificados

Respuesta estimada

Error estándar

Valores no

Codificados

Xl

X2

0,0

5,219870

0,291585

0,000000

0,000000

0,1

5,247387

0,290581

0,051464

0,131702

0,2

5,240938

0,287858

0,068458

0,274389

0,3

5,202584

0,285067

0,058576

0,420136

0,4

5,133678

0,284740

0,031845

0,564703

0,5

5,033486

0,290443

-0,004853

0,706983

0,6

4,906933

0,306175

-0,047596

0,847064

0,7

4,749765

0,335350

-0,094184

0,985309

0,8

4,562631

0,379895

-0,143340

1,122082

0,9

4,348626

0,440140

-0,194288

1,257682

1,0

4,104814

0,015415

-0,246530

1,292343

Los resultados presentados en l.a Tabla 5.15 indican que la respuesta máxima se obtiene con Xi = 0,060048, Xz = 0,1740035. Con estos resultados se cumple el objetivo fundamental de estos experimentos secuenciales, y es la. obtención de puntos óptimos (en este caso puntos máximos).

Referencias Bibliográficas Anscombe, F. J.; J. W. Tukey. 1963. The Examinations and Analysis ofResiduals. Teehnometrics 5: 141-160. Atkinson, A. C.; W. G. Hunter. 1968. The Design oí Experiments Parameter Estimations. Technometrics 10: 271~289.

for

Ben-Israel, A.; T. N. Greville. 1974. Generalizad Inverse Theoryand Aplications. New York, John Wiley and Son. 480 p. Bliss, C. 1. 1970 . .8tatistics in Biology. New York, Me Graw-:fIill. Volumen Il. 120 p. Box G., E. P. 1954. The Exploration and Explotation of Response Surface: Some General considerations and Examples. Biometrics 10: 16-60. Box G.; E. P.; N. R. Draper, 1959. A Basie for the aeleetion of a Response Surface Design ..J. Amer. Statist. Assoc. 54: 622"-654. Box G., E. P.; J. S. Hunter. 1957. Multifactor experimental Design for exploring response surfaces. J. R. Statis. Soc., Serie B. 13(1): 195-241. Box G., E. P.; H. L. Lucas. 1959. Design of Experiments in Nonlinear Situations. Biometrika 46: 77-90. Box G., E. P.; K. B. Wilson. 1951. On the Experimental Attainment Optimum Conditions. J. R. Statis. SocoSerie B 13: 1-45

of

Box G., E. P.; P. V. Youle. 1955. The Explorations and Explotation oí Response Surface: An Example oí the link Between the Fitted Surface and the Basic Mechanism oí the System. Bíometrics 11:287·322. Box, M. J. 1971. Bias in Nonlinear Estimation (with discussion). J. R. Statist. SocoSerie B. 33: 171-201. Boyd, D. A. 1972. Some Recent Ideas on Fertilizer Response Curves. Proc. Ninth. Int. Conj. Potash. Instit: 461-473. Cady, F. B.; D. M. Allen. 1972. Combining experimentos to predict future Yield data. Agronomy J. 64: 21-24.

268

Chacín I Análisisde Regresión y Superficiesde Respuesta

Los valores negativos de ambas raíces características indican claramente que el punto estacionario es un p~to óptimo (máximo) en el cual, el valor de la respuesta estimada es y = 5,2489 Tabla 5.15. Ilustración del análisis de aristas para la estimación de la máxima respuesta Radios Codificados

Respuesta estimada

Error estándar

Valores no

Codificados

Xl

X2

0,0

5,219870

0,291585

0,000000

0,000000

0,1

5,247387

0,290581

0,051464

0,131702

0,2

5,240938

0,287858

0,068458

0,274389

0,3

5,202584

0,285067

0,058576

0,420136

0,4

5,133678

0,284740

0,031845

0,564703

0,5

5,033486

0,290443

-0,004853

0,706983

0,6

4,906933

0,306175

-0,047596

0,847064

0,7

4,749765

0,335350

-0,094184

0,985309

0,8

4,562631

0,379895

-0,143340

1,122082

0,9

4,348626

0,440140

-0,194288

1,257682

1,0

4,104814

0,015415

-0,246530

1,292343

Los resultados presentados en l.a Tabla 5.15 indican que la respuesta máxima se obtiene con Xi = 0,060048, Xz = 0,1740035. Con estos resultados se cumple el objetivo fundamental de estos experimentos secuenciales, y es la. obtención de puntos óptimos (en este caso puntos máximos).

Referencias Bibliográficas Anscombe, F. J.; J. W. Tukey. 1963. The Examinations and Analysis ofResiduals. Teehnometrics 5: 141-160. Atkinson, A. C.; W. G. Hunter. 1968. The Design oí Experiments Parameter Estimations. Technometrics 10: 271~289.

for

Ben-Israel, A.; T. N. Greville. 1974. Generalizad Inverse Theoryand Aplications. New York, John Wiley and Son. 480 p. Bliss, C. 1. 1970 . .8tatistics in Biology. New York, Me Graw-:fIill. Volumen Il. 120 p. Box G., E. P. 1954. The Exploration and Explotation of Response Surface: Some General considerations and Examples. Biometrics 10: 16-60. Box G.; E. P.; N. R. Draper, 1959. A Basie for the aeleetion of a Response Surface Design ..J. Amer. Statist. Assoc. 54: 622"-654. Box G., E. P.; J. S. Hunter. 1957. Multifactor experimental Design for exploring response surfaces. J. R. Statis. Soc., Serie B. 13(1): 195-241. Box G., E. P.; H. L. Lucas. 1959. Design of Experiments in Nonlinear Situations. Biometrika 46: 77-90. Box G., E. P.; K. B. Wilson. 1951. On the Experimental Attainment Optimum Conditions. J. R. Statis. SocoSerie B 13: 1-45

of

Box G., E. P.; P. V. Youle. 1955. The Explorations and Explotation oí Response Surface: An Example oí the link Between the Fitted Surface and the Basic Mechanism oí the System. Bíometrics 11:287·322. Box, M. J. 1971. Bias in Nonlinear Estimation (with discussion). J. R. Statist. SocoSerie B. 33: 171-201. Boyd, D. A. 1972. Some Recent Ideas on Fertilizer Response Curves. Proc. Ninth. Int. Conj. Potash. Instit: 461-473. Cady, F. B.; D. M. Allen. 1972. Combining experimentos to predict future Yield data. Agronomy J. 64: 21-24.