Cap 10 y 13 Gujarati Final

++ UNIVERSIDAD DE CUENCA FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS CAPÍTULOS 10 Y 13 (DAMODAR GUJARATI) INTEG

Views 60 Downloads 0 File size 2MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

++

UNIVERSIDAD DE CUENCA FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS

CAPÍTULOS 10 Y 13 (DAMODAR GUJARATI)

INTEGRANTES: Adriana Bermeo Jessica Carrión Suley Naranjo Marcela Palacios

CURSO: EC 05-01

MULTICOLINEALIDAD

El problema de la multicolinealidad hace referencia a la existencia de relaciones lineales entre las variables explicativas del modelo de regresión. En los datos de series de tiempo, puede ser que las regresoras del modelo compartan una tendencia común; es decir, que todas aumenten o disminuyan a lo largo del tiempo. Por ejemplo, en la regresión del total del consumo sobre el ingreso, la riqueza y la población, las regresoras ingreso, riqueza y población tal vez todas crezcan con el tiempo a una tasa aproximadamente igual, con lo cual se presentaría la colinealidad entre dichas variables.

Existen diversas fuentes de multicolinealidad y puede deberse a los siguientes factores: 1. El método de recolección de información.

2. Restricciones en el modelo o en la población objeto de muestreo. 3. Especificación del modelo. 4. Un modelo sobre determinado. (el modelo tiene más variables explicativas que el número de observaciones). Dado el modelo de regresión lineal general 𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖 ∀𝑖 = 1,2,3 … , 𝑛 Se dice que existe una relación lineal exacta entre las variables explicativas del mismo siempre que 𝜆1 𝑋1𝑖 + 𝜆2 𝑋2𝑖 + ⋯ + 𝜆𝑖 𝑋𝑘𝑖 = 0 Y ∃𝜆𝑖 ≠ 0

∀𝑖 = 1,2,3 … , 𝑛

El término mencionado se utiliza con objeto de incluir tanto la problemática de la multicolinealidad perfecta como imperfecta ósea cuando la correlación entre las variables explicativas sea de la forma, esta vez agregando una variable aleatoria. 𝜆1 𝑋1𝑖 + 𝜆2 𝑋2𝑖 + ⋯ + 𝜆𝑖 𝑋𝑘𝑖 + 𝑣𝑖 = 0 Cuando es un problema de multicolinealidad perfecta y 𝜆2 ≠ 0, se puede expresar a 𝑋2 como una combinación lineal exacta entre el resto de las variables explicativas. 𝑋2𝑖 =

𝜆1 𝜆𝑘 𝑋 − ⋯ − 𝑋𝑘𝑖 𝜆2 1𝑖 𝜆2

Cuando es un problema de multicolinealidad imperfecta y 𝜆2 ≠ 0, se puede expresar a 𝑋2 como una combinación lineal de las variables explicativas y de la variable aleatoria 𝑣𝑖 . 𝑋2𝑖 = −

𝜆1 𝜆𝑘 1 𝑋1𝑖 − ⋯ − 𝑋𝑘𝑖 − 𝑣𝑖 𝜆2 𝜆2 𝜆2

En el caso de multicolinealidad perfecta, los coeficientes de regresión permanecen indeterminados y sus errores estándar son infinitos, en este caso no puede obtenerse una solución única para los coeficientes de regresión individual. Pero se puede obtener una solución única para combinaciones lineales de estos coeficientes. En términos matriciales el problema de multicolinealidad se aborda a partir del comportamiento de la matriz de regresores. La condición de que el rango de la matriz 𝑋 , 𝑋 coincida con el número

de variables explicativas del modelo permite la obtención de estimaciones más o menos precisas de sus parámetros. Sin embargo cuando el rango de dicha matriz sea menor que el número de regresores no se podrán estimar los parámetros porque la matriz no será invertible.

CONSECUENCIAS DE LA MULTICOLINEALIDAD El único efecto de la multicolinealidad tiene que ver con la dificultad de obtener los coeficientes estimados con errores estándar pequeños. En los casos de casi o alta multicolinealidad es probable que se presenten las siguientes consecuencias: 1. Los estimadores presentan varianzas y covarianzas grandes que dificultan la estimación precisa. 2. Los intervalos de confianza tienden a ser mucho más amplios, lo cual propicia una aceptación más fácil de la “hipótesis nula cero”. 3. La razón t de uno o más coeficientes tiende a ser estadísticamente no significativa. 4. La medida global de bondad de ajuste, puede ser muy alta. 5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los datos. Las consecuencias anteriores se demuestran de la siguiente manera Distintos supuestos acerca de la relación existente entre dos regresores se representan de la siguiente manera, dado un modelo con dos variables explicativas expresado en desviaciones con respecto a la media 𝑦𝑖 = 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + 𝑢𝑖

∀𝑖 = 1,2,3 … , 𝑛

el vector de estimadores mínimos cuadráticos de los parámetros 𝛽1 𝑦 𝛽2 𝑛 2 ∑ 𝑥2𝑖 𝑖=1 𝑛

1 𝛽̂ ( 1) = 2 𝑛 2 ∑𝑛 2 𝛽̂2 ∑𝑛𝑖 𝑥1𝑖 𝑖 𝑥2𝑖 − (∑𝑖=1 𝑥1𝑖 𝑥2𝑖 ) [

− ∑ 𝑥1𝑖 𝑥2𝑖 𝑖=1

𝑛

𝑛

− ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑦𝑖 𝑥1𝑖 𝑖=1 𝑛 2 ∑ 𝑥1𝑖 𝑖=1

𝑖=1 𝑛

∑ 𝑦𝑖 𝑥2𝑖 ] [ 𝑖=1 ]

y la estimación de la matriz estimada de varianzas-covarianzas del vector 𝛽̂ , 𝑉𝑎𝑟 − 𝑐𝑜𝑣 ̂ (𝛽̂ )

𝑛

̂ 𝑉𝑎𝑟 − 𝑐𝑜𝑣 ̂ (𝛽̂ ) =

𝜎̂𝑢2 2 ∑𝑛𝑖 𝑥1𝑖

2 ∑𝑛𝑖 𝑥2𝑖



𝑛

2 ∑ 𝑥2𝑖 𝑖=1 𝑛

2 (∑𝑛𝑖=1 𝑥1𝑖 𝑥2𝑖 )

− ∑ 𝑥1𝑖 𝑥2𝑖 𝑖=1 𝑛 2 ∑ 𝑥1𝑖

− ∑ 𝑥1𝑖 𝑥2𝑖

[

𝑖=1

𝑖=1

]

SUPUESTO DE AUSENCIA DE RELACIÓN LINEAL ENTRE LAS VARIABLES EXPLICATIVAS En el caso de que las variables x1 y x2 sean linealmente independientes la covarianza entre ambos será nula siendo 𝑛

1 𝛽̂ ( 1) = 𝑛 2 𝑛 2 ̂ ∑𝑖 𝑥1𝑖 ∑𝑖 𝑥2𝑖 𝛽2

𝑛

2 ∑ 𝑥2𝑖 𝑖=1

0

∑ 𝑦𝑖 𝑥1𝑖 𝑖=1 𝑛

𝑛

2 ∑ 𝑥1𝑖 ∑ 𝑦𝑖 𝑥2𝑖 ] [ 𝑖=1 ] 𝑖=1

0 [

∑𝑛𝑖=1 𝑦𝑖 𝑥1𝑖 ∑𝑛 𝑥 2 = 𝑛 𝑖 1𝑖 ∑𝑖=1 𝑦𝑖 𝑥2𝑖 2 [ ∑𝑛𝑖=1 𝑥2𝑖 ]

Dado que− ∑𝑛𝑖=1 𝑥1𝑖 𝑥2𝑖 = 0 y 𝑛 2 ∑ 𝑥2𝑖

̂ 𝑉𝑎𝑟 − 𝑐𝑜𝑣 ̂ (𝛽̂ ) =

𝜎̂𝑢2 𝑖=1 𝑛 𝑛 2 2 ∑𝑖 𝑥1𝑖 ∑𝑖 𝑥2𝑖

1

0 =

𝑛

0

[

2 ∑ 𝑥1𝑖 ] 𝑖=1

∑𝑛 𝑥 2 𝜎̂𝑢2 𝑖=1 1𝑖 1 2 [∑𝑛𝑖=1 𝑥2𝑖 ]

Se simplificaría el proceso de estimación cuando ambos factores explicativos se distribuyen de forma independiente.

SUPUESTO DE RELACIÓN LINEAL EXACTA ENTRE LAS VARIABLES EXPLICATIVAS En el caso de que la relación lineal entre las variables consideradas fuese exacta 𝑋2 = 𝜆𝑋1 El denominador de la matriz de betas sería igual a cero y no sería posible la estimación del modelo. Se particularizaría en una expresión indeterminada como 𝑛 2 ∑ 𝑥2𝑖 𝑖=1 𝑛

1 𝛽̂ ( 1) = 2 𝑛 2 ∑𝑛 2 𝛽̂2 ∑𝑛𝑖 𝑥1𝑖 𝑖 𝑥2𝑖 − (∑𝑖=1 𝑥1𝑖 𝑥2𝑖 ) [

− ∑ 𝑥1𝑖 𝑥2𝑖 𝑖=1

𝑛

𝑛

− ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑦𝑖 𝑥1𝑖 𝑖=1 𝑛 2 ∑ 𝑥1𝑖 𝑖=1

𝑖=1 𝑛

=

0 0

∑ 𝑦𝑖 𝑥2𝑖 ] [ 𝑖=1 ]

Mientras que las varianzas y desviaciones típicas de las betas aumentarían indefinidamente.

𝑛

̂ 𝑉𝑎𝑟 − 𝑐𝑜𝑣 ̂ (𝛽̂ ) =

𝜎̂𝑢2 2 𝜆2 ∑𝑛𝑖 𝑥1𝑖



2 𝜆2 (∑𝑛𝑖=1 𝑥 21𝑖 )

[ 𝑛

𝜎̂𝑢2 = 0 [

𝑛

2 ∑ 𝜆2 𝑥1𝑖 𝑖=1 𝑛 2 − ∑ 𝜆𝑥1𝑖 𝑖=1

2 ∑ 𝜆2 𝑥1𝑖 𝑖=1 𝑛 2 ∑ 𝑥1𝑖 𝑖=1

]

𝑛

2 ∑ 𝜆2 𝑥1𝑖 𝑖=1 𝑛 2 − ∑ 𝜆𝑥1𝑖 𝑖=1

2 ∑ 𝜆2 𝑥1𝑖 𝑖=1

𝑛

2 − ∑ 𝜆𝑥1𝑖 𝑖=1

]

En la práctica ante una situación de este tipo no sería posible separar las influencias individuales de 𝑋1 𝑦 𝑋2 sobre la muestra considerada. La estimación de Beta 1 representa la tasa promedio de cambio que experimenta la variable dependiente cuando 𝑋1 Se incrementa unitariamente permaneciendo 𝑋2 constante. Un problema de multicolinealidad Perfecta supone básicamente un problema de identificación del modelo. En una situación de multicolinealidad Perfecta se obtendrá únicamente una estimación única de las distintas combinaciones lineales de los coeficientes del modelo.

SUPUESTO DE LA RELACIÓN LINEAL NO EXACTA ENTRE LAS VARIABLES EXPLICATIVAS En la práctica generalmente se manifiesta la existencia de un cierto grado de multicolinealidad entre las variables explicativas del modelo considerado. En el caso de que la relación lineal entre las variables no fuese exacta 𝑋2 = 𝜆𝑋1 + 𝑣𝑖

∀𝑖 = 1,2,3 … , 𝑛

Siendo 𝜆 ≠ 0 y 𝑣𝑖 un termino de perturbación aleatoria tal que 𝑛

∑ 𝑥𝑗𝑖 𝑣𝑖 = 0 𝑖=1

La estimación de sus coeficientes sería factible si (

𝛽̂1 ) 𝛽̂2 𝑛 2

=

𝜆

1 2

2 2 2 ∑𝑛𝑖 𝑥1𝑖 (𝜆2 ∑𝑛𝑖=1 𝑥1𝑖 + ∑𝑛𝑖=1 𝑣𝑖2 ) − (𝜆 ∑𝑛𝑖=1 𝑥1𝑖 )

[

𝑛

2 ∑ 𝑥1𝑖 𝑖=1

+ ∑ 𝑣𝑖2 𝑖=1 𝑛 2 −𝜆 ∑ 𝑥1𝑖 𝑖=1

𝑛

𝑛

− ∑ 𝑥1𝑖 𝑥2𝑖 𝑖=1 𝑛 2 ∑ 𝑥1𝑖 𝑖=1

∑ 𝑦𝑖 𝑥1𝑖 𝑛

𝑖=1

𝑛

𝜆 ∑ 𝑦𝑖 𝑥1𝑖 + ∑ 𝑦𝑖 𝑣𝑖 ] [ 𝑖=1 ] 𝑖=1

Y ̂ 𝑉𝑎𝑟 − 𝑐𝑜𝑣 ̂ (𝛽̂ ) 𝑛

𝑛 2

=

∑(𝜆𝑥1𝑖 + 𝑣𝑖 )

𝜎̂𝑢2 2 ∑𝑛𝑖 𝑥1𝑖

∑𝑛𝑖=1(𝜆𝑥1𝑖

+ 𝑣𝑖

)2



(∑𝑛𝑖=1 𝑥1𝑖 (𝜆𝑥1𝑖

𝑖=1 𝑛

2

+ 𝑣𝑖 ))

[

− ∑ 𝑥1𝑖 (𝜆𝑥1𝑖 + 𝑣𝑖 ) 𝑖=1

− ∑ 𝑥1𝑖 (𝜆𝑥1𝑖 + 𝑣𝑖 ) 𝑖=1

𝑛 2 ∑ 𝑥1𝑖 𝑖=1

]

Obsérvese que si fuese suficientemente pequeño reflejarían una situación de una colinealidad casi perfecta entre las variables 𝑋1 𝑦 𝑋2 . El problema de multicolinealidad alta se presenta frecuentemente en el análisis empírico y presenta problemas de estimación suficientemente importantes para garantizar que le consideremos como una violación al modelo clásico de regresión lineal, incluso en el caso de multicolinealidad casi perfecta los estimadores mínimos cuadráticos continuarán siendo insesgados. Básicamente las consecuencias del problema de la multicolinealidad dependerán del grado de asociación lineal entre las variables explicativas es por ello por lo que muchos autores valoran en términos relativos las consecuencias de este problema. ¿Cómo detectar la multicolinealidad? Siendo un problema de tipo muestral, no hay estadísticas específicas aplicables para su detección. Pero, se han desarrollado reglas prácticas formales y otras informales para determinar cómo afecta la estimación y contraste del modelo y qué variable o variables son las causantes del mismo: 1. Un coeficiente de determinación 𝑹𝟐 elevado con pocos estadísticos t-Student significativos. Si el cociente de determinación toma un valor alto, la prueba F-Snedecor rechazará la hipótesis nula (los coeficientes de regresión poblacionales que acompañan a las variables explicativas sean simultáneamente iguales a cero). Si la prueba t-Student (valora la relevancia individual de cada variable explicativa) no fuese significativa, sería una situación contradictoria; lo que significaría que los regresores elegidos en la especificación influirían conjuntamente en el comportamiento de la variable dependiente, aunque no de forma individual. La multicolinealidad suele ser la causa que justifica una situación de este tipo.

2. Altas correlaciones de orden cero entre las variables explicativas. Siendo la observación del coeficiente de correlación simple entre dos variables explicativas, si el coeficiente tomara un alto valor, por ejemplo superior a 0,8, la multicolinealidad constituiría un problema a considerar en el modelo; se trata de una condición suficiente y no necesaria. 3. Regresiones auxiliares. La multicolinealidad es la existencia de relaciones lineales entre las variables explicativas del modelo. La regresión de cada variable explicativa 𝑋𝑗 en función del resto de regresores, (calculando el correspondiente coeficiente de determinación) permitirá averiguar qué regresor depende linealmente del resto de variables explicativas. Cada regresión se denomina regresión auxiliar a la regresión principal, teniendo en cuenta la relación entre el estadístico F-Snedecor y el coeficiente de determinación,

𝐹 ∗𝑗

𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 (𝑘 − 1) = (1 − 𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 ) (𝑛 − 𝑘)

Siendo el estadístico prueba particularizado, bajo hipótesis nula 𝐻0 = 𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 =0, a contrastar con el valor crítico correspondiente a una distribución F-Snedecor con k − 1 y n − k, grados de libertad en el numerador y denominador, respectivamente, siendo n el tamaño muestral y k el número de variables explicativas y, 𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 el coeficiente de determinación de la regresión auxiliar. Según Klein, el problema de la multicolinealidad se da en el modelo cuando el coeficiente de determinación original sea menor que el de la regresión auxiliar elegida. Si la regresión auxiliar es estadísticamente significativa, se decidirá si la variable 𝑋𝐽 considerada se elimina o no del modelo.

̂ 𝑱 ). 4. Factor de agrandamiento de la varianza 𝑭𝑨𝑽 (𝜷 Siendo la razón entre la varianza observada y la que habría sido en el caso de la variable 𝑋𝑗 considerada estuviera incorrelada con el resto de regresores del modelo. El 𝐹𝐴𝑉 (𝛽̂𝐽 ) muestra en qué medida aumenta la varianza del estimador 𝛽̂𝑗 , como consecuencia de la no ortogonalidad de las variables explicativas del modelo,

̂ 𝑱) = 𝑭𝑨𝑽 (𝜷

1 (1 − 𝑅𝑗2 )

𝑅𝑗2 ∶ Coeficiente de determinación de la regresión auxiliar. 5. El número de condición. Siendo la raíz cuadrada de la razón, entre las raíces características mayor y menor de la matriz X´X, 𝜆𝑚á𝑥 𝑥(𝑋) = √ 𝜆𝑚𝑖𝑛 Mide la sensibilidad de las estimaciones mínimo-cuadráticas, ante pequeñas modificaciones de los datos muestrales. Es el más adecuado en la actualidad. Según los estudios realizados, con datos observados y simulados, el problema demo de la multicolinealidad, es una cuestión a considerar cuando 𝑥(𝑋) tome un valor comprendido entre 20 y 30. Soluciones a la multicolinealidad Ya que la multicolinealidad muestra deficiencias en la información muestral, no se dispone de reglas generales para su corrección. Pero se dan algunas soluciones y recomendaciones según la severidad con que se presente el problema. Actuaciones sobre la muestra Un modelo econométrico tiene por objeto la modelización de un determinado fenómeno, en base a la información muestral disponible, por ello el diseño muestral es un objetivo prioritario. La existencia de las relaciones lineales entre las variables explicativas del modelo, aumenta sustancialmente la varianza muestral de los estimadores mínimo cuadráticos, las soluciones a proponer deben encaminarse hacia su reducción. Por lo que hay distintas vías alternativas. Aumentar la variabilidad de las variables explicativas colineales con la introducción de nuevas observaciones, no siempre es una solución viable, ni proporciona resultados satisfactorios, dado que lo importante no es el número de observaciones sino su contenido, si al añadir nuevas observaciones se mantiene la estructura del problema. En los diseños experimentales, se podrá además incrementar directamente la variabilidad de los regresores, sin necesidad de incrementar el tamaño muestral.

Una posible solución al problema de la multicolinealidad es la combinación de datos de corte transversal serie temporal, “mezcla de datos”. Siendo una técnica atractiva con numerosas aplicaciones y favorable en estimaciones de corte transversal no varían de una muestra a otra, su uso puede llevar a problemas de interpretación. Establecimiento de restricciones sobre comportamiento de los parámetros poblacionales En el problema de la multicolinealidad la utilización de la información extramuestral es una alternativa, estableciendo restricciones sobre el comportamiento de los parámetros del modelo o aprovechando información derivada de otros estudios empíricos. Utilizando esta opción, se reduce el número de parámetros a estimar en el modelo contribuyendo a corregir posibles deficiencias de la información muestral. Las restricciones consideradas en cada caso deberán tener un significado económico claro. Transformación de variables Con el problema de la multicolinealidad se presenta en una muestra en forma de serie temporal, la tendencia, aproximadamente común, una de las variables explicativas podrá ser la causa de dicho problema. En una situación de este tipo, la utilización de variables en forma de primeras diferencias puede hacer disminuir el grado de correlación entre los regresores del modelo. Las soluciones de este tipo, deben utilizarse con suma cautela, ya que pueden constituir el origen de otro tipo de problemas econométricos. La transformación que utiliza las primeras diferencias constituye el origen de algunos problemas adicionales. El término de error que aparece en el modelo transformado puede no satisfacer alguna de las hipótesis básicas del modelo de regresión, en concreto la independencia serial de los residuos mínimo-cuadráticos. Con una solución de este tipo se reducen los grados de libertad, al perderse una observación en el proceso de diferenciación, debiendo tener en cuenta en muestras de pequeñas. Además, el procedimiento de diferenciación no puede ser el adecuado en muestras de corte transversal, donde no existe un ordenamiento lógico de las observaciones. Otras transformaciones propuestas serían la consideración de las tasas de crecimiento, en vez de utilizar los valores absolutos de las variables, proporciones, transformaciones logarítmicas etc. Al proponer transformaciones se debe valorar su contenido económico. Eliminación de las variables

Consiste en omitir alguna de las variables colineales en el modelo, es una de las soluciones más simples, aunque puede dar origen a importantes sesgos y errores de especificación en el modelo. Esta solución se podrá adoptar cuando el objetivo se concretase en la realización de predicciones y, esta decisión se afianzaría si además se comprobase que los signos de los coeficientes de la regresión fuesen incorrectos cuando se considerase esa variable explicativa, y la varianza del error de predicción baja, cuando se excluyese. Técnicas estadísticas incluidas en el análisis multivariante, como análisis factorial y de componentes principales se utilizan para resolver el problema de multicolinealidad.

EJEMPLOS RESUELTOS CON EVIEWS CAPÍTULO 10

Sensibilidad de los estimadores de MCO y sus errores estándar ante cambios pequeños en los datos Siempre que la multicolinealidad no sea perfecta, es posible la estimación de los coeficientes de regresión; sin embargo, las estimaciones y sus errores estándar se tornan muy sensibles aun al más ligero cambio de los datos. Con base en los siguientes datos

Se obtiene la regresión 10.5.6 Comando: ls Y C X2 X3

Esta regresión muestra que ninguno de los coeficientes de regresión es individualmente significativo en los niveles de significancia convencionales de 1 o de 5%, a pesar de que 𝛽̂2 sea significativo en el nivel de 10% con base en la prueba t de una cola. Ahora consideremos la tabla

La única diferencia entre las tablas 10.3 y 10.4 es que se intercambiaron el tercer y el cuarto valores de X3. Con la información de la tabla 10.4 ahora obtenemos la regresión 10.5.7

Comando: ls Y C X2 X3

Como resultado de un ligero cambio en los datos vemos que β̂2, antes estadísticamente significativo en un nivel de significancia de 10%, deja ahora de serlo aun en ese nivel. Observe también que en (10.5.6) la cov (β̂2, β̂3) = −0.00868

Mientras que en (10.5.7) es −0.0282, un aumento superior a tres veces su valor inicial

En forma similar, los errores estándar de β̂2 y β̂3 aumentan entre las dos regresiones, síntoma característico de la colinealidad. Esto se confirma con las regresiones (10.5.6) y (10.5.7). En la primera regresión, la suma de los dos coeficientes parciales de las pendientes es 0.4493, en tanto que en la segunda regresión dicha suma es 0.4284, prácticamente la misma.

EJEMPLO 10.1 Gasto de consumo en relación con el ingreso y la riqueza Datos: Considere los datos hipotéticos de la tabla 7.4, sobre gasto de consumo Y, ingreso X2 y riqueza X3. (A9:C19)

La tabla 10.5 contiene datos hipotéticos sobre consumo, ingreso y riqueza. Si suponemos que el gasto de consumo se relaciona linealmente con el ingreso y la riqueza, entonces, con base en la tabla 10.5, obtenemos la regresión 10.6.1: Comando: ls Y C X2 X3

La regresión (10.6.1) muestra que el ingreso y la riqueza explican en conjunto alrededor de 96% de la variación en los gastos de consumo. A pesar de esto, ningún coeficiente de las pendientes es estadísticamente significativo de manera individual. Además, no sólo la variable riqueza es estadísticamente no significativa, sino que también tiene el signo incorrecto. A priori, se esperaría una relación positiva entre el consumo y la riqueza.

Es interesante observar este resultado desde un punto de vista geométrico. Para ello con base en la regresión (10.6.1) se establecieron intervalos de confianza individuales a 95% de confianza para β2 y β3. Procedimiento: 1. Se selecciona la regresión sobre la que se quiere establecer los parámetros. 2. Clic en View, y seguidamente en Coefficient Diagnostics

3. Seleccionar Confidence intervals

Se obtiene finalmente:

y gráficamente:

Como muestran estos intervalos, cada uno de ellos, en forma individual, incluye el valor de cero. Por tanto, individualmente podemos aceptar la hipótesis de que las dos pendientes parciales son cero. Pero cuando establecemos el intervalo de confianza conjunto para probar la hipótesis de que β2=β3= 0, esa hipótesis no puede aceptarse, pues el intervalo de confianza conjunto, en realidad una elipse, no incluye el origen. Como ya señalamos, cuando la colinealidad es alta, no son confiables las pruebas sobre las regresoras individuales; en tales casos, la prueba F global es la que mostrará si Y está relacionada con las diversas regresoras. El ejemplo muestra en forma muy evidente lo que hace la multicolinealidad. El hecho de que la prueba F sea significativa, pero los valores t de X2 y X3 no sean significativos individualmente implica que las dos variables están tan correlacionadas que es imposible aislar el impacto individual del ingreso o de la riqueza sobre el consumo.

Haciendo la regresión de X3 sobre X2 (10.6.3): Comando: ls X3 C X2

lo cual muestra una colinealidad casi perfecta entre X3 y X2. Ahora veamos lo que sucede si sólo efectuamos la regresión de Y sobre X2 (10.6.4) Comando: ls Y C X2

En (10.6.1), la variable ingreso no era estadísticamente significativa, mientras que ahora es muy significativa. Si en lugar de efectuar la regresión de Y sobre X2 lo hacemos sobre X3, obtenemos la regresión 10.6.5. Comando: ls Y C X3

Se observa que la riqueza tiene ahora un impacto significativo sobre el gasto de consumo, mientras que en (10.6.1) no tenía ninguno. Las regresiones (10.6.4) y (10.6.5) muestran con toda claridad que, en situaciones de extrema multicolinealidad, eliminar la variable altamente colineal con frecuencia provoca que la otra variable X se torne estadísticamente significativa. Este resultado sugiere que una forma de evadir la colinealidad extrema es eliminar la variable colineal.

EJEMPLO 10.2 Ejemplo ampliado: los datos Longley Se concluye este capítulo con el análisis de los datos recopilados por Longley. Aunque se obtuvieron originalmente para evaluar la exactitud de cálculo de los mínimos cuadrados estimados de varios paquetes de software, los datos Longley. Se convirtieron u ejemplo para ilustar diversos problemas econométricos incluyendo la multicolinealidad. Datos: Los datos se reproducen en la tabla 10.7 y son series de tiempo para el periodo 19471962, donde Y= número de personas con trabajo (en miles), X1= índice implícito de deflación de precios para el PIB, X2= PIB (en millones de dólares), X3= número de desempleados (en miles),

X4= número de personas enlistadas en las fuerzas armadas, X5= población no institucionalizada mayor de 14 años y X6= año (igual a 1 para 1947, 2 para 1948 y 16 para 1962).

Si el objetivo es predecir Y con base en las seis variables X, se obtienen los siguientes resultados

Comando: ls Y c X1 X2 X3 X4 X5 X6

A primera vista, dichos resultados sugerirían que se tiene un problema de colinealidad, pues el valor R2 es muy alto; sin embargo, unas cuantas variables son estadísticamente no significativas (X1, X2, y X5), lo cual constituye un síntoma característico de multicolinealidad. A continuación, se presentan las intercorrelaciones entre las seis regresoras En Eviews 10 se obtiene de la siguiente manera: 1. Seleccionar las 5 variables regresoras. 2. Clic en Quick 3. Seleccionar Group Series 4. Click en Correlations

Finalmente se obtiene:

Esta tabla suministra lo que se llama matriz de correlación. En la tabla, las entradas de la diagonal principal (las que van desde la esquina superior izquierda hacia la esquina inferior

derecha) suministran la correlación de una variable consigo misma, la cual por definición siempre es 1; además, las entradas fuera de la diagonal principal son las parejas de correlaciones entre las variables X. El primer renglón de esta tabla proporciona la correlación de X 1 con las otras variables X. Como se ve, varias de estas correlaciones a pares son muy altas, lo cual sugiere que quizá haya un grave problema de colinealidad. Con objeto de aclarar más la naturaleza del problema de la multicolinealidad, observe las regresiones auxiliares; es decir, la regresión de cada variable X sobre las restantes variables X. Para ahorrar espacio, se presentarán sólo los valores R2 obtenidos con base en esas regresiones, las cuales se listan en la tabla 10.10. Como los valores R2 de las regresiones auxiliares son muy altos (con la posible excepción de la regresión de X4) sobre las restantes variables X, al parecer existe un grave problema de colinealidad. La misma información se obtiene a partir de los factores de tolerancia. Como ya mencionamos, mientras más cercano a cero esté el factor de tolerancia, mayor será la evidencia de colinealidad. Para ello se toman los datos obtenidos en cada regresión, para adjuntar en una tabla resumen, en la que los términos de tolerancia vienen dados por 1- R2 Tabla

10.10

Al aplicar la regla práctica de Klein observamos que los valores R2 obtenidos de las regresiones auxiliares exceden el valor general R2 (es decir, el que se obtuvo de la regresión de Y sobre todas las variables X), que es igual a 0.9954, en 3 de 6 regresiones auxiliares, lo cual de nuevo sugiere que sin duda los datos Longley están plagados del problema de multicolinealidad. A propósito, si aplica la prueba F dada en (10.7.3), se debe verificar que todos los valores R2 dados en las tablas anteriores son estadística y significativamente diferentes de cero. Ahora que establecimos que existe un problema de multicolinealidad, ¿qué acciones correctivas pueden llevarse a cabo? Reconsidere el modelo original. En primer lugar, el PIB puede expresarse no en términos nominales, sino en términos reales, lo cual se realiza al dividir el PIB nominal entre el índice de deflación del precio implícito. Comando: SERIES X2_R= X2/X1

En segundo lugar, en vista de que la población no institucional mayor de 14 años aumenta con el tiempo debido al crecimiento natural de la población, estará muy correlacionada con el tiempo, la variable X6 del modelo. Por tanto, en lugar de conservar esas dos variables, mantenemos la variable X5 y desechamos X6. En tercer lugar, no hay ninguna razón de peso para incluir X3, el número de personas desempleadas; quizá la tasa de desempleo fuese una mejor medida de las condiciones del mercado de trabajo; sin embargo, no hay ningún dato al respecto. Por consiguiente, eliminamos la variable X3. Con estos cambios obtenemos los siguientes resultados de la regresión (PIB_REAL= PIB real): Comando: ls Y C X2_REAL X4 X5

Aunque R2 disminuyó un poco en comparación con la R2 original, aún es muy alta. Ahora todos los coeficientes estimados son significativos y sus signos tienen sentido desde el punto de vista económico.

CAPÍTULO 13

CREACION DE MODELOS ECONOMETRICOS: ESPECIFICACION DEL MODELO Y LAS PRUEBAS DE DIAGNOSTICO.

13.1. Criterios de selección del modelo Según Hendry y Richard, la elección de un modelo para el análisis empírico debe satisfacer los siguientes criterios: 1. Ser adecuado para los datos; es decir, las predicciones basadas en el modelo deben ser lógicamente posibles. 2. Ser consistente con la teoría; es decir, debe tener un sentido económico pertinente. 3. Tener regresoras exógenas débiles; es decir, las variables explicativas, o regresoras, no deben estar correlacionadas con el término de error. 4. Mostrar constancia en los parámetros; es decir, los valores de los parámetros deben ser estables. De otra forma el pronóstico se dificultará. 5. Exhibir coherencia en los datos; es decir, los residuos estimados a partir del modelo deben ser puramente aleatorios. 6. Ser inclusivo; es decir, el modelo debe abarcar o incluir todos los modelos contendientes, en el sentido de que debe poder explicar sus resultados. En resumen, otros modelos no pueden ser mejores que el elegido.

13.2. Tipos de errores de especificación

Si el modelo de regresión del análisis no está especificado “correctamente” nos enfrentamos al problema de error de especificación del modelo.

Al formular un modelo empírico, se puede cometer uno o más errores de especificación: 1. Omisión de una variable relevante: una vez formulado el modelo con base en la teoría pertinente, no se aconseja eliminar una variable de dicho modelo. 2. Inclusión de una variable innecesaria: el mejor enfoque es incluir sólo las variables explicativas que, en teoría, influyan directamente en la variable dependiente y no se hayan tomado en cuenta en otras variables incluidas. 3. Adopción de la forma funcional incorrecta: Para determinar si la incompetencia del modelo se debe a uno o más problemas están algunos métodos, como el examen de residuos, Durbin-Watson, entre otros. 4. Errores de medición. 5. Especificación incorrecta del término de error estocástico. 6. Suposición de que el término de error está normalmente distribuido. Los primeros cuatro tipos de error son errores de especificación del modelo, pues lo que se tiene en mente es un modelo “verdadero”, sin embargo, no estimamos el modelo correcto. En los errores de especificación incorrecta del modelo, donde, ni siquiera se sabe cuál es el verdadero modelo. Por lo que existe cierto tipo de controversia.

13.3. Consecuencias de los errores de especificación del modelo

Existen dos tipos de errores de especificación: 1. Subajuste de un modelo. 2. Sobreajuste de un modelo. Inclusión de una variable irrelevante (sobreajuste de un modelo) Ahora supongamos que: 𝑌𝑖 = 𝛽1 − 𝛽2 𝑋2𝑖 + 𝑢𝑖 (13.3.6) es verdadero, pero especificamos el siguiente modelo: 𝑌𝑖 = 𝛼1 + 𝛼2 𝑋2𝑖 + 𝛼3 𝑋3𝑖 + 𝑣𝑖 (13.3.7)

y cometemos así el error de especificación al incluir una variable innecesaria en el modelo. Las consecuencias de este error de especificación son las siguientes: 1. Todos los estimadores de MCO de los parámetros del modelo “incorrecto” son insesgados y consistentes. 2. La varianza del error 𝜎 2 está correctamente estimada. 3. Los procedimientos usuales de intervalos de confianza y de pruebas de hipótesis conservan su validez. 4. Las α estimadas por lo general serán ineficientes, es decir, sus varianzas generalmente serán más grandes que las de las 𝛽̂ del verdadero modelo.

EJEMPLO 13.1 Ejemplo ilustrativo: De nuevo la mortalidad infantil Datos: Los datos necesarios se proporcionan en la tabla 6.4. Fecundidad y otros datos de 64 países. (A8:D72)

MI es el número de muertes de niños menores de 5 años por cada 1000 nacido vivos, el PIBPC es el PIB per cápita en 1980 y la TAM se mide en porcentaje. Estimación: Al hacer la regresión de la mortalidad infantil (MI) sobre el PIB per cápita (PIBPC) y

sobre

la

tasa

de

alfabetización

de

las

mujeres

(TAM),

𝑀𝐼𝑖 = 𝛽1 + 𝛽2 𝑃𝐼𝐵𝑃𝐶𝑖 + 𝛽3 𝑇𝐴𝑀𝑖 + 𝑢𝑖

obtuvimos los siguientes resultados con el paquete estadístico EViews10:

Comando:

ls MI C PIBPC TAM

es

decir

se puede ver los valores parciales de los coeficientes de pendiente de las dos variables −0.0056 y −2.2316, respectivamente. Pero si ahora eliminamos la variable (TAM) obtenemos los resultados de la ecuación 𝑀𝐼𝑖 = 𝛼1 + 𝛼2 𝑃𝐼𝐵𝑃𝐶𝑖 + 𝑢𝑖 Comando:

ls MI C PIBPC

Si consideramos al primer modelo como el correcto, entonces este último es un modelo mal especificado, pues omite la variable relevante TAM. Ahora podemos observar que, en el modelo correcto, el coeficiente de la variable PIBPC fue −0.0056, en tanto que en el modelo “incorrecto” es ahora de −0.0114. Es decir, ahora la variable PIBPC tiene un mayor impacto sobre la MI en comparación con el verdadero modelo.

Pero si hacemos la regresión de TAM sobre PIBPC, es decir la regresión de la variable excluida sobre la incluida, 𝑇𝐴𝑀𝑖 = 𝛾 + 𝑏32 𝑃𝐼𝐵𝑃𝐶𝑖 + 𝑢𝑖 Comando:

ls TAM C PIBPC

observamos que el coeficiente de pendiente en la regresión (𝑏32 ) es 0.00256. Lo anterior indica que conforme PIBPC aumenta una unidad, en promedio, TAM se incrementa 0.00256 unidades. Omisión de una variable relevante (Subajuste del modelo) Siendo el verdadero modelo: 𝑌𝑖 = 𝛽1 − 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝑢𝑖 (13.3.1) pero, por alguna razón ajustamos el siguiente modelo: 𝑌𝑖 = 𝛼1 − 𝛼2 𝑋2𝑖 + 𝑣𝑖 (13.3.2) Las consecuencias de omitir 𝑋3 son las siguientes: 1. Si la variable excluida, está correlacionada con la variable incluida 𝑋2, el coeficiente de correlación entre las dos variables es diferente de cero, 𝛼̂1 𝑦 𝛼̂2 son sesgados e inconsistentes. 2. Aunque 𝑋2 𝑦 𝑋3 no estén correlacionados, 𝛼̂1 es sesgado, pese a que 𝛼̂2 sea ahora insesgado. 3. La varianza de la perturbación 𝜎 2 está incorrectamente estimada.

2 4. La varianza medida convencionalmente de 𝛼̂ 2 (= 𝜎 2 / ∑ 𝑥2𝑖 −) es un estimador

sesgado de la varianza del verdadero estimador 𝛽̂2 . 5. En consecuencia, es probable que el intervalo de confianza usual y los procedimientos de pruebas de hipótesis conduzcan a conclusiones equivocadas sobre la significancia estadística de los parámetros estimados. 6. Y que los pronósticos basados en el modelo incorrecto y los intervalos de confianza del pronóstico no son confiables.

Nos preguntamos ¿el coeficiente del PIB, 𝛼2 del modelo “incorrecto”, suministrará un estimado insesgado del verdadero impacto del PIBPC sobre MI, mismo que está dado por 𝛽2 en el modelo correcto, sabiendo que se ha omitido la variable 𝑋3(TAM) del modelo? Dado que TAM aumenta en 0.00256 unidades, su efecto en MI será (−2.2316)(0.00256) = 𝛽̂3 𝑏32 = −0.00543. Por tanto, aplicando la siguiente ecuación 𝐸(𝛼2 ) = 𝛽2 + 𝛽2 𝑏32 tenemos que [−0.0056 + (−2.2316)(0.00256)] ≈ −0.0111, que es casi el valor del coeficiente PIBPC, obtenido en el modelo incorrecto. Como ilustra este ejemplo, el verdadero efecto del PIBPC sobre la MI es mucho menor (−0.0056) de lo que indica el modelo incorrecto (−0.0114). 13.4. Pruebas de errores de especificación Detección de variables innecesarias (sobreajuste de un modelo) Suponga que desarrollamos un modelo de k variables para explicar un fenómeno: 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖 (13.4.1) Pero no se tiene la certeza de que, por ejemplo, la variable Xk debe estar en el modelo. Una forma fácil de averiguarlo es probar la significancia del 𝛽𝑘 estimado mediante la prueba t usual: 𝑡 = 𝛽̂𝑘 /𝑒𝑒 (𝛽̂𝑘 ). Con estas pruebas de significancia, tenemos en mente un modelo específico. Aceptamos ese modelo como hipótesis mantenida o “verdad”, con ese modelo, mediante las pruebas usuales t o F podemos averiguar la relevancia verdadera de una o más regresoras.

Pero observe con cuidado que con las pruebas t y F no podemos construir un modelo en forma iterativa, por lo que existe otra estrategia de elaborar un modelo se llama método ascendente, en el cual se empieza con un modelo más pequeño y se amplía conforme se prosigue. O, un término más descriptivo: minería de datos, conocido también como regresión al tanteo, extracción de datos, sondeo de datos y procesamiento masivo de datos numéricos. El objetivo principal de la minería de datos es desarrollar el “mejor” modelo después de varias pruebas de diagnóstico, de manera que el modelo final resulte “bueno” en el sentido de que todos los coeficientes estimados tengan los signos “correctos”, sean estadísticamente significativos de acuerdo con las pruebas t y F.

Nivel de significancia nominal frente a nivel de significancia verdadero en presencia de minería de datos. Un peligro de la minería de datos al cual se enfrenta el investigador desprevenido es que los niveles convencionales de significancia como 1, 5 o 10% no son los verdaderos. Por supuesto, en la práctica la mayoría de los investigadores sólo informa los resultados de su regresión “final” sin reconocer que llegaron a los resultados tras una considerable minería de datos. Sin embargo este enfoque no es factible ni deseable. No es factible porque es una teoría económica extraña que conduce a un modelo único. No es deseable porque un aspecto crucial del aprendizaje mediante los datos es conocer los tipos de modelos que los datos apoyan o rechazan. Aunque, por una extraña suerte, el modelo inicial mostrase un buen ajuste, con frecuencia resultará importante explorar y conocer las clases de modelos con que los datos concuerdan o no.

Pruebas para variables omitidas y forma funcional incorrecta En la práctica, nunca estamos seguros de que el modelo adoptado para pruebas empíricas represente “la verdad, toda la verdad y nada más que la verdad”. Con base en

la teoría y en el trabajo empírico previo; para determinar la validez del modelo se presentan algunos de los siguientes métodos: Examen de los residuos El examen de los residuos es un buen diagnóstico visual para detectar la autocorrelación o la heteroscedasticidad. Pero estos residuos también se examinan, para detectar errores de especificación en los modelos, como la omisión de una variable importante o la definición de una forma funcional incorrecta. Si en realidad existen tales errores, una gráfica de los residuos permite apreciar patrones distinguibles. Para ilustrarlo, considere la verdadera función del costo total, donde Y=costo total y X=producción: 𝑌𝑖 = β1 + β2 𝑋𝑖 + β3 𝑋𝑖2 + β4 𝑋𝑖3 + 𝑢𝑖 (13.4.4) pero un investigador ajusta la siguiente función cuadrática: 𝑌𝑖 = α1 + α2 𝑋𝑖 + α3 𝑋𝑖2 + 𝑢2𝑖 (13.4.5) y otro investigador ajusta la siguiente función lineal: 𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 (13.4.6) Se puede ver cómo se comportan los residuos estimados en los tres modelos. En la siguiente gráfica: a medida que nos movemos de izquierda a derecha, es decir, a medida que nos acercamos a la verdad, no sólo los residuos son más pequeños sino, asimismo, éstos no presentan los giros cíclicos pronunciados asociados con modelos mal especificados.

La utilidad de examinar la gráfica de residuos es entonces clara: si hay errores de especificación, los residuos presentan patrones distinguibles.

El estadístico d de Durbin-Watson Para aplicar la prueba de Durbin-Watson para detectar error (o errores) de especificación de un modelo, procedemos de la siguiente manera: 1. A partir de un modelo supuesto, obtenga los residuos de MCO. 2. Si se cree que el modelo supuesto está mal especificado porque excluye una variable explicativa relevante, 3. Calcule el estadístico d a partir de los residuos así ordenados mediante la fórmula d usual, a saber, 𝑑=

∑𝑛𝑡=2(𝑢̂𝑡 − 𝑢̂𝑡−1 )2 ∑𝑛𝑡=1 𝑢̂𝑡2

Nota: En este contexto, el subíndice t es el índice de la observación que no necesariamente se refiere a una serie de tiempo. 4. Con base en las tablas de Durbin-Watson, si el valor d estimado es signifi cativo, se puede aceptar la hipótesis de mala especificación del modelo. Si es así, las medidas correctivas surgen naturalmente por sí mismas. Prueba RESET de Ramsey

Ramsey propuso una prueba general de errores de especificación conocida como RESET (prueba del error de especificación en regresión). Con el ejemplo costoproducción, la función de costos es lineal en la producción de la siguiente forma: 𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 Si graficamos los residuos 𝑢̂𝑖 obtenidos de esta regresión frente a 𝑌̂𝑖 , la estimación de Yi de este modelo, obtenemos la gráfica:

Los pasos de RESET son los siguientes: 1. A partir del modelo se obtiene Yi estimada, es decir, 𝑌̂𝑖 . 2. Efectúe de nuevo la regresión, introduciendo 𝑌̂𝑖 en alguna forma, en la gráfica anterior, se observa una relación curvilínea entre 𝑢̂𝑖 y 𝑌̂𝑖 , que indica que se pueden introducir 𝑌̂2 𝑦 𝑌̂3 como regresoras adicionales. Así, efectuamos la regresión: 𝑌𝑖 = β1 + β2 𝑋𝑖 + β3 𝑋𝑖2 + β4 𝑋𝑖3 + 𝑢𝑖 3. Sea 𝑅 2 obtenida de R2nueva , y la obtenida de R2vieja Entonces utilizamos la prueba F introducida,

para averiguar si el incremento en 𝑅 2 , es estadísticamente significativo.

4. Si el valor F calculado es signifi cativo, por ejemplo, en el nivel de 5%, podemos aceptar la hipótesis de que el modelo está mal especificado. Del ejemplo ilustrativo, tenemos los siguientes resultados (errores estándar entre paréntesis):

Ahora, al aplicar la prueba F, tenemos que:

El valor F es muy significativo, lo cual indica que el modelo está mal especificado. Por supuesto, llegamos a la misma conclusión con el examen visual de los residuos como también con el valor d de Durbin-Watson. Debe añadirse que, en vista de que 𝑌̂𝑖 es estimada, se trata de una variable aleatoria y, por tanto, las pruebas de significancia habituales aplican si la muestra es razonablemente grande. Una ventaja de RESET es que es fácil de aplicar, pues no requiere la especificación del modelo alterno. Sin embargo, ésta también es su desventaja, pues saber que el modelo está mal especificado no necesariamente ayuda a elegir una opción mejor.

Prueba del multiplicador de Lagrange (ML) para agregar variables Ésta es una alternativa para la prueba RESET de Ramsey.

Si comparamos la función lineal de costos 𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 con la función cúbica de costos 𝑌𝑖 = β1 + β2 𝑋𝑖 + β3 𝑋𝑖2 + β4 𝑋𝑖3 + 𝑢𝑖 la primera es una versión restringida de la última. La regresión restringida 𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 supone que los coeficientes de los términos de producción elevados al cuadrado y al cubo son iguales a cero. Para probar esto, la prueba ML se realiza de la siguiente manera: 1. Estime la regresión restringida mediante MCO y obtenga los residuos, 𝑢̂𝑖 . 2. Si la regresión no restringida resulta ser la verdadera regresión, los residuos obtenidos en la función restringida deben estar relacionados con los términos de la producción elevada al cuadrado y al cubo, es decir, 𝑋𝑖2 , 𝑋𝑖3 . 3. Esto indica que se efectúe la regresión de los 𝑋𝑖2 obtenidos en el paso 1 sobre todas las regresoras (incluidas las de la regresión restringida), lo cual, en el presente caso, significa que:

(13.4.11) v es un término de error con las propiedades usuales. 4. Para un tamaño de muestra grande, Engle demostró que n (el tamaño de la muestra) multiplicado por 𝑅 2 estimado en la regresión (auxiliar) sigue una distribución ji cuadrada con gl iguales al número de restricciones impuestas por la regresión restringida, dos en el ejemplo presente, pues los términos 𝑋𝑖2 , 𝑋𝑖3 son eliminados del modelo. Simbólicamente:

(13.4.12) asin:asintóticamente, es decir, en muestras grandes. 5. Si el valor ji cuadrada obtenido de (13.4.12) excede el valor ji cuadrada crítico en el nivel de significancia seleccionado, rechazamos la regresión restringida. De lo contrario, no la rechazamos. Los resultados de la regresión: (13.4.13)

donde Y es el costo total y X es la producción. Cuando se hace la regresión con los residuos de (13.4.13), como se acaba de sugerir en el paso 3, obtenemos los siguientes resultados:

(13.4.14)

EJEMPLO 13.2 Reconsidere la función cúbica del costo total de producción. Datos: Considere los datos de la Tabla 7.4 sobre Producción de un bien (X) y su costo de producción total (Y) en el corto plazo. (A7:B17)

Examen de los residuos Los residuos se examinan, para detectar errores de especificación en los modelos, como la omisión de una variable importante o la definición de una forma funcional incorrecta. Si en realidad existen tales errores, una gráfica de los residuos permite apreciar patrones distinguibles. Para ilustrar lo anterior, suponga que la verdadera función del costo total se describe de la siguiente manera,

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝛽3 𝑋𝑖2 + 𝛽4 𝑋𝑖3 + 𝑢𝑖 pero un investigador ajusta la siguiente función cuadrática: 𝑌𝑖 = 𝛼1 + 𝛼2 𝑋𝑖 + 𝛼3 𝑋𝑖2 + 𝑢2𝑖 y otro investigador ajusta la siguiente función lineal: 𝑌𝑖 = 𝜆1 + 𝜆2 𝑋𝑖 + 𝑢3𝑖 veamos cómo se comportan los residuos estimados en los tres modelos a partir de los resultados obtenidos del paquete estadístico EViews10: Procedimiento: 1. Ejecutar la regresión lineal con el comando: ls Y C X 2. En View de la ventana regres_lineal ir a Actual, Fitted, Residual, y hacer click en Residual Graph.

3. Repetir el proceso para la regresión cuadrática usando el comando: ls Y C X X^2. De la misma forma para la regresión cúbica con el comando: ls Y C X X^2 X^3 4. Finalmente, se obtienen los siguientes gráficos

La figura habla por sí misma: a medida que nos movemos de izquierda a derecha, es decir, a medida que nos acercamos a la verdad, no sólo los residuos son más pequeños (en valor absoluto) sino, asimismo, éstos no presentan los giros cíclicos pronunciados asociados con modelos mal especificados. La utilidad de examinar la gráfica de residuos es entonces clara: si hay errores de especificación, los residuos presentan patrones distinguibles. El estadístico 𝒅 de Durbin-Watson Con base en las tablas de Durbin-Watson, si el valor 𝑑 estimado es significativo, se puede aceptar la hipótesis de mala especificación del modelo. El estadístico 𝑑 de DurbinWatson se puede visualizar en los resultados obtenidos de cada regresión.

Para la función lineal de costos, vemos que el 𝑑 estimado es 0.716, lo cual indica que hay “correlación” positiva en los residuos estimados: para 𝑛 = 10 y 𝑘 ′ = 1, los valores 𝑑 críticos a 5% son 𝑑𝐿 = 0.879 y 𝑑𝑈 = 1.320.

De la misma manera, el valor 𝑑 calculado para la función cuadrática de costos es 1.038, mientras que los valores críticos a 5% son 𝑑𝐿 = 0.697 y 𝑑𝑈 = 1.641, lo cual señala indecisión.

Para la función cúbica de costo, la verdadera especificación, el valor 𝑑 estimado es 2.700 la cual no indica “correlación” positiva alguna en los residuos.

En conclusión, el estadístico 𝑑 para las funciones de costos lineal y cuadrática indica la presencia de errores de especificación. Los remedios son claros: introduzca los términos cuadrático y cúbico en la función lineal de costos y el término cúbico en la función cuadrática de costos. En otras palabras, efectúe la regresión del modelo cúbico de costos. Prueba RESET de Ramsey Es una prueba general de errores de especificación propuesta por Ramsey. Para ejemplificar esta prueba consideramos que la función de costos es lineal en la producción y obtenemos una gráfica de sus residuos estimado (𝑢̂𝑖 ) frente a 𝑌̂𝑖 , la estimación de 𝑌𝑖 ,. Usando el paquete estadístico Eviews10 procedemos de la siguiente manera: 1. En View de la ventana regres_lineal ir a Actual, Fitted, Residual, y hacer click en

Actual, Fitted, Residual Table

2.

̂𝑖 (columna Fitted) como 3. A continuación, copiar y pegar tanto los valores de los 𝑌 de los 𝑢̂𝑖 (columna Residual) en un empty group.

4. Dar nombre a las series, ir a view y seleccionar Graph…

5. Elegir el tipo de grafico “XY Line” .

6. Finalmente, obtenemos el siguiente gráfico

Los residuos en esta figura muestran un patrón en el cual su media cambia sistemáticamente con 𝑌̂𝑖 , además esta relación curvilínea entre 𝑢̂𝑖 y 𝑌̂𝑖 , indica que se pueden introducir 𝑌̂𝑖2 y 𝑌̂𝑖3 como regresoras adicionales. Así, efectuamos la regresión

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝛽3 𝑌̂𝑖2 + 𝛽4 𝑌̂𝑖3 + 𝑢𝑖 Comando: ls Y C X Y_ESTIMADO^2 Y_ESTIMADO^3

A continuación, debemos averiguar si el incremento en 𝑅 2 es estadísticamente significativo lo que sugeriría que la función lineal de costos estaba mal especificada, para ello nos apoyamos en una prueba 𝐹 . Mediante Eviews10 proseguimos de la siguiente manera: 1. En View de la ventana de esta regresión ir a Coefficient Diagnostics, y hacer click en Wald Test-Coefficient Restrictions.

2. Ingresar la hipótesis nula, como se observa a continuación

3. Finalmente se obtiene los siguientes resultados.

Tenemos un valor 𝐹 de 284.43 que resulta muy significativo, lo cual indica que el modelo lineal está mal especificado. Por supuesto, llegamos a la misma conclusión con el examen visual de los residuos como también con el valor d de Durbin-Watson. Debe añadirse que, en vista de que 𝑌̂𝑖 es estimada, se trata de una variable aleatoria y, por tanto, las pruebas de significancia habituales aplican si la muestra es razonablemente grande. Una ventaja de RESET es que es fácil de aplicar, pues no requiere la especificación del modelo alterno. Sin embargo, ésta también es su desventaja, pues saber que el modelo está mal especificado no necesariamente ayuda a elegir una opción mejor. Prueba del multiplicador de Lagrange (𝑴𝑳) para agregar variables Ésta es una alternativa para la prueba RESET de Ramsey. Si comparamos la función lineal de costos con la función cúbica de costos, la primera es una versión restringida de la última. La regresión restringida supone que los coeficientes de los términos de producción elevados al cuadrado y al cubo son iguales a cero. Para probar esto, la prueba 𝑀𝐿 se realiza de la siguiente manera usando el paquete estadístico Eviews10: 1. Obtener los residuos estimados 𝑢̂𝑖 de la regresión restringida 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑢𝑖 , (datos ya hallados en pasos previos). 2. Efectúe la regresión de los 𝑢̂𝑖 obtenidos en el paso 1 sobre todas las regresoras (incluidas las de la regresión restringida), es decir 𝑢̂𝑖 = 𝛼1 + 𝛼2 𝑋𝑖 + 𝛼3 𝑋𝑖2 + 𝛼4 𝑋𝑖3 + 𝑣𝑖

Comando: ls RESIDUO C X X^2 X^3

2 Aplicando la prueba 𝑀𝐿, es decir 𝑛𝑅 2 ~ 𝒳(𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑡𝑟𝑖𝑐𝑐𝑖𝑜𝑛𝑒𝑠) aunque el

tamaño de la muestra sea de 10, obtenemos 𝑛𝑅 2 = (10)(0.9896) = 9.896. De la tabla 𝑗𝑖 cuadrada observamos que, para 2 gl, el valor 𝑗𝑖 cuadrada crítico a 1% es alrededor de 9.21. Por consiguiente, el valor observado de 9.896 es significativo en el nivel de 1% y la conclusión sería rechazar la regresión restringida (es decir, la función lineal de costos). Con base en la prueba RESET de Ramsey llegamos a una conclusión similar.

13.5. Errores de Medición Errores de medición en la variable dependiente Y Los errores de medición en la variable dependiente aún producen estimaciones insesgadas de los parámetros y de sus variaciones Sin embargo, las varianzas estimadas son más grandes que en el caso en el cual no existen errores de medición.

Considerando: (1) 𝑌𝑖∗ = 𝛼 + 𝛽𝑋𝑖 + 𝜇𝑖 𝑌𝑖∗ = 𝑔𝑎𝑠𝑡𝑜 𝑑𝑒 𝑐𝑜𝑛𝑠𝑢𝑚𝑜 𝑝𝑒𝑟𝑚𝑎𝑛𝑒𝑛𝑡𝑒 𝑋𝑖 = 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑎𝑐𝑡𝑢𝑎𝑙 Puesto que el gasto de consumo permanente, no puede medirse directamente puede utilizarse una variable de gasto observable Y: 𝑌𝑖 = 𝑌𝑖∗ + 𝜀𝑖 𝜀𝑖 : 𝑑𝑒𝑛𝑜𝑡𝑎 𝑙𝑜𝑠 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑑𝑒 𝑚𝑒𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑛 𝑌𝑖∗ 𝑌𝑖 = (𝛼 + 𝛽𝑋𝑖 + 𝜇𝑖 ) + 𝜀𝑖 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + (𝜇𝑖 + 𝜀𝑖 ) (2) 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + 𝑣𝑖 Donde 𝑣𝑖 = 𝜇𝑖 + 𝜀𝑖 es un término de error compuesto que contiene el término de perturbación poblacional y el término de error de medición. Suponiendo que los errores de medición en 𝑌𝑖∗ no están correlacionados con 𝑋𝑖 y el error ecuacional y el error de medición no están correlacionados. Los β estimados de (1) y (2) son estimadores insesgados de los verdaderos valores de β. Las varianzas si son distintas: 𝑣𝑎𝑟(𝛽̂ ) =

𝜎𝜇2 (1) ∑ 𝑥𝑖2

𝑣𝑎𝑟(𝛽̂ ) =

𝜎𝜇2 + 𝜎𝜀2 ∑ 𝑥𝑖2

Errores de medición en la variable explicativa X La presencia de errores de medición en las variables explicativas hacen imposible la estimación consistente de los parámetros. Considerando: (1) 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖∗ + 𝜇𝑖

𝑌𝑖 = 𝑔𝑎𝑠𝑡𝑜 𝑑𝑒 𝑐𝑜𝑛𝑠𝑢𝑚𝑜 𝑎𝑐𝑡𝑢𝑎𝑙 𝑋𝑖∗ = 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 permanente En vez de observar el ingreso permanente se observa: 𝑋𝑖 = 𝑋𝑖∗ + 𝑤𝑖 𝑤𝑖 : 𝑑𝑒𝑛𝑜𝑡𝑎 𝑙𝑜𝑠 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑑𝑒 𝑚𝑒𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑛 𝑋𝑖∗ 𝑌𝑖 = 𝛼 + 𝛽(𝑋𝑖 − 𝑤𝑖 ) + 𝜇𝑖 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + (𝜇𝑖 − 𝛽𝑤𝑖 ) (2) 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + 𝑧𝑖 Donde 𝑧𝑖 = 𝜇𝑖 − 𝛽𝑤𝑖 una composición de error ecuacional y de medición. Aunque supongamos que 𝑤𝑖 tiene media cero es serialmente independiente y no está correlacionado con 𝜇𝑖 no se puede suponer que el término de error compuesto 𝑧𝑖 es independiente de X ya que: 𝑐𝑜𝑣(𝑧𝑖 , 𝑋𝑖 ) = −𝛽𝜎𝑤2 La variable 𝑋𝑖 y 𝑧𝑖 están correlacionados, como consecuencia se viola un supuesto básico del MCRL de que la variable explicativa no está correlacionada con el término de perturbación estocástico, entonces los estimadores MCO no solamente están sesgados, sino que son también inconsistentes, es decir permanecen sesgados aun cuando el tamaño de la muestral aumente.

¿Cuál es la solución si los errores de medición están presentes en las variables explicativas? 1. Se puede suponer que si 𝜎𝑤2 es pequeña comparada con 𝜎𝑥2 no existe problema y se procede a la estimación usual MCO. Sin embargo en la práctica no es fácil medir 𝜎𝑤2 o 𝜎𝑥2 y por consiguiente no se puede juzgar sus magnitudes. 2. Usar variables instrumentales o representadas que aunque están altamente correlacionadas con las variables explicativas no están correlacionadas con los términos de error ecuacional y de medición.

En realidad, no hay respuesta convincente al problema de los errores de estimación y es por ello que es crucial que la medición de los datos sea los más precisa posible.

13.6. Especificación incorrecta del término de error estocástico

Un problema común de los investigadores es la especificación del término de error, que ingresa en el modelo de regresión. Como el término de error no se puede observar de manera directa, no hay una forma sencilla de determinar la forma en que ingresa en el modelo. Consideramos que el logaritmo del error satisface los supuestos característicos de MCO, como resultado nos genera una esperanza matemática de un estimador sesgado pues su valor promedio no es igual a la verdadera beta.

Resultando: e = base del logaritmo natural. 𝛼̂= es un estimador insesgado, su valor promedio no es igual a la verdadera β.

13.7 Modelos Anidados y no anidados Es útil diferenciar entre modelos anidados y no anidados una vez se haya hecho la prueba de especificación. Para distinguirlos, considere los siguientes modelos: Modelo A: Yi = β1 + β2 X2i + β3 X3i + β4 X4i + β5 X5i + ui Modelo B: Yi = β1 + β2 X2i + β3 X3i + ui Decimos que el modelo B está anidado en el modelo A porque es un caso especial del modelo A, el modelo A se reduce al modelo B si estimamos el modelo de A y rechazamos la hipótesis de que los β4 = β5 = 0 con la prueba F o con la prueba t. Modelo C: Yi = α1 + α2 X2i + α3 X3i + ui

Modelo D: Yi = β1 + β2 Z2i + β3 Z3i + vi Los modelos C y D son no anidados porque no puede derivarse uno como caso especial del otro, ya que pues el modelo C no contiene a 𝑍3𝑖 , y el modelo D no contiene a 𝑋2𝑖. Incluso si se encuentran las mismas variables en el modelo, por la forma funcional pueden ser dos modelos no anidados MODELO E: Yi = β1 + β2 lnZ2i + β3 lnZ3i + wi Los modelos D y E son no anidados, pues no se puede derivar uno como caso especial del otro. EJEMPLO 13.3 Un ejemplo Datos: Considere los datos de la Tabla 13.2 que proporciona información hipotética sobre 𝑌* (verdadero gasto de consumo), 𝑋* (verdadero ingreso), 𝑌 (gasto de consumo medido) y 𝑋 (ingreso medido). Todas las cifras están en dólares. (B13:H23)

Errores de medición en la variable dependiente 𝒀 Con base en esta información y usando Eviews10 se obtiene la verdadera función de consumo (regresión 𝑌𝑖 *sobre 𝑋𝑖 *): Comando: ls Y_ C X_

mientras que si utilizamos 𝑌𝑖 en lugar de 𝑌𝑖 *, obtenemos Comando: ls Y C X_

Como indican estos resultados y de acuerdo con la teoría, los coeficientes estimados continúan siendo iguales. El único efecto de los errores de medición en la variable dependiente es que los errores estándar estimados de los coeficientes tienden a ser más grandes, lo cual se aprecia con claridad.

Errores de medición en la variable explicativa X.

Sabiendo que la regresión verdadera sigue siendo la misma. Suponemos ahora que en lugar de 𝑋𝑖 * utilizamos 𝑋𝑖 . (Nota: En realidad, 𝑋𝑖 * pocas veces es observable.) Los resultados de la regresión obtenida en Eviews10 son los siguientes: Comando: ls Y_ C X

Estos resultados están de acuerdo con la teoría: cuando hay errores de medición en la(s) variable(s) explicativa(s), los coeficientes estimados están sesgados. Por fortuna, en este ejemplo el sesgo es relativamente pequeño; de la fórmula del límite de 2 probabilidad de 𝛽 es evidente que el sesgo depende de 𝜎𝑤2 /𝜎𝑋∗ , y en la generación de la 2 información supusimos que 𝜎𝑤2 = 36 y 𝜎𝑋∗ = 3667, con lo que redujimos el factor de

sesgo, alrededor de 0.98% ( 36/3 667).

13.8 Pruebas de hipótesis no anidadas Existen dos métodos para probar hipótesis no anidadas: 1) el método de discriminación 2) el método de discernimiento se toma en cuenta la información proporcionada por otros modelos. Método de discriminación Cuando ambos modelos tienen la misma variable dependiente, podemos elegir entre dos (o más) modelos con base en algún criterio de bondad de ajuste, como:



𝑅2



𝑅 2 Ajustada



el criterio de información de Akaike (CIA)



el criterio de información de Schwarz (CIS)



el criterio Cp de Mallows.

Al comparar dos o más modelos, la regresada debe ser la misma Método de discernimiento La prueba F no anidada o la prueba F incluyente En base a estos modelos no aninados Modelo C: Yi = α1 + α2 X2i + α3 X3i + ui Modelo D: Yi = β1 + β2 Z2i + β3 Z3i + vi Estimamos el siguiente modelo hibrido: MODELO F: Yi = λ1 + λ2 X2i + λ3 X3i +λ4 Z2i + λ5 Z3i + ui El modelo anida a los modelos C y D sin embargo C no esta anidada en D ni viceversa, para demostrarlo utilizamos una prueba F usual. Sin embargo, surgen problemas con este procedimiento de prueba. En primer lugar, si las X y las Z están demasiado correlacionadas, entonces es muy probable que una o más de las λ sean en lo individual estadísticamente insignificantes. En este caso, no hay forma de decidir si el modelo C o el D es el correcto. En segundo lugar, la elección de la hipótesis de referencia puede determinar el resultado de la elección del modelo sobre todo si hay una gran multicolinealidad en las regresoras rivales. La prueba J de Davidson-MacKinnon La prueba J procede de la siguiente forma: 1. Estimamos el modelo D y de él obtenemos los valores Y estimados, ̂ YiD . 2. Agregamos el valor Y pronosticado como una regresora adicional al modelo C y estimamos el siguiente modelo: Yi = α1 + α2 X2i + α3 X3i + α4 ̂ YiD + ui

3. Con la prueba t, se prueba la hipótesis de que α4 = 0 4. Si no se rechaza la hipótesis de que α4 = 0 , podemos aceptar el modelo C como el verdadero modelo, pues ̂ YiD no tiene un poder explicativo adicional más allá de lo que contribuye el modelo C. En otras palabras, el modelo C incluye al modelo D. 5. Ahora cambiamos los papeles de las hipótesis, o de los modelos C y D. Estimamos primero el modelo C. Las pruebas dadas se realizan de manera independiente, tenemos los siguientes resultados probables:

En caso de que ambos se rechacen, ningún modelo explica el comportamiento de Y. Otro problema con la prueba J es que cuando se utiliza el estadístico t para probar la significancia de la variable Y estimada en los modelos, el estadístico t tiene la distribución normal estándar sólo para muestras grandes. Por consiguiente, la prueba J quizá no sea muy poderosa (en el sentido estadístico) para muestras pequeñas, pues tiende a rechazar la hipótesis. Otras pruebas para la selección del modelo 

la prueba Cox



la prueba JA



la prueba P



la prueba de inclusión Mizon-Richard

EJEMPLO 13.4 Gasto de consumo personal e ingreso personal disponible Datos: Considere los datos de la Tabla 13.3, la cual proporciona el gasto de consumo personal per cápita (𝐺𝐶𝑃𝑃) y el ingreso personal disponible per cápita (𝐼𝑃𝐷𝑃), ambos en dólares de 2008, en Estados Unidos de 1970 a 2005.

La prueba J de Davidson-MacKinnon Para ilustrarla, nos basamos en la información de la tabla 13.3 y procedemos a comparar dos modelos rivales, la hipótesis o modelo A con la hipótesis o modelo B, los mismos que son: A partir de la información previa de la tabla 13.3, consideramos los siguientes modelos rivales: Modelo A:

𝐺𝐶𝑃𝑃𝑡 = 𝛼1 + 𝛼2 𝐼𝑃𝐷𝑃𝑡 + 𝛼3 𝐼𝑃𝐷𝑃𝑡−1 + 𝑢𝑡

Modelo B:

𝐺𝐶𝑃𝑃𝑡 = 𝛽1 + 𝛽2 𝐼𝑃𝐷𝑃𝑡 + 𝛽3 𝐺𝐶𝑃𝑃𝑡−1 + 𝑢𝑡

El modelo A establece que el GCPP depende del IPDP en el periodo actual y previo; este modelo es un ejemplo de modelo de rezago distribuido. El modelo B postula que el GCPP depende del IPDP actual y del GCPP del periodo anterior; este modelo representa el modelo autorregresivo. Los resultados obtenidos en Eviews10 de la estimación de estos modelos son los siguientes: Modelo A:

Comando: ls GCPP C IPDP IPDP(-1)

Modelo B: Comando: ls GCPP C IPDP GCPP(-1)

Si se tuviese que elegir entre estos dos modelos con base en el método de discriminación, según el criterio 𝑅 2 , quizá se elegiría el modelo B porque es un poco más alto que el A. Además, en el modelo B ambas variables son estadísticamente significativas en lo individual, en tanto que en el A sólo el IPDP actual es estadísticamente significativo (aunque puede haber un problema de colinealidad). Sin

embargo, para efectos predictivos no existe mucha diferencia entre los dos valores estimados de 𝑅 2 . Para aplicar la prueba J, procedemos a comparar los dos modelos rivales anteriormente vistos. Procedemos a aplicar la prueba J, primero suponga que el modelo A es la hipótesis nula, es decir, el modelo mantenido, y el modelo B es la hipótesis alternativa. A continuación, seguimos los siguientes pasos en Eviews 10: 1. Obtener los valores estimados del modelo B

2. Utilizar los valores estimados del GCPP en el paso 1 como una regresora incondicional en el modelo A, y estimamos el nuevo modelo: ̂ 𝑡𝐵 + 𝑢𝑡 𝐺𝐶𝑃𝑃𝑡 = 𝛼1 + 𝛼2 𝐼𝑃𝐷𝑃𝑡 + 𝛼3 𝐼𝑃𝐷𝑃𝑡−1 + 𝛼4 𝐺𝐶𝑃𝑃 Comando: ls GCPP C IPDP IPDP(-1) GCPP_B

3. Además aplicamos una prueba 𝑡, con la hipótesis de que 𝛼4 = 0 (dato ya hallado en el paso anterior)

̂ 𝑡𝐵 , es estadísticamente significativo (al nivel de Como vemos el coeficiente de 𝐺𝐶𝑃𝑃 dos colas 0,004) con un estadístico 𝑡 alto de 3.31, según el procedimiento de la prueba J se tiene que rechazar el modelo A y aceptar el B. Ahora supondremos que el modelo B es la hipótesis mantenida y que el A es la alternativa, exactamente siguiendo el mismo procedimiento de antes, es decir obtenemos los valores GCPP estimados del modelo A, que los usamos como regresoras del modelo B y finalmente aplicamos una prueba 𝑡, donde ahora probamos la hipótesis de que 𝛽4 = 0. Siendo los resultados de la regresión del nuevo modelo los siguientes: ̂ 𝑡𝐴 + 𝑢𝑡 𝐺𝐶𝑃𝑃𝑡 = 𝛼1 + 𝛼2 𝐼𝑃𝐷𝑃𝑡 + 𝛼3 𝐺𝐶𝑃𝑃𝑡−1 + 𝛼4 𝐺𝐶𝑃𝑃

̂ 𝑡𝐴 también es estadísticamente significativo En esta regresión el coeficiente de 𝐺𝐶𝑃𝑃 (al nivel de dos colas 0,0425), con un estadístico 𝑡 de −2.19. Este resultado indica que ahora debemos preferir el modelo B en vez del A. Todo lo anterior muestra que ningún modelo es particularmente útil para explicar el comportamiento del gasto de consumo personal per cápita en Estados Unidos de 1970 a 2005. 13.9 Criterios para la selección de modelos Existen diversos criterios para elegir entre modelos rivales y/o comparar con propósitos de pronóstico dentro y fuera de la muestra. El primero señala sobre todo cómo elegir el modelo que se ajusta a los datos de determinada muestra. El pronóstico fuera de la muestra se refiere a la forma de determinar cómo un modelo ajustado pronostica valores futuros de la regresada, dados los valores de las regresoras, por lo cual hay diversos criterios para este fin: El criterioR2 Se define como R2 =

SCE SCR = 1− SCT SCT

Surgen varios problemas con R2 . En primer lugar, mide la bondad de ajuste dentro de la muestra, por lo cual no hay garantía de que pronosticará bien las observaciones fuera de la muestra. En segundo lugar, al comparar dos o más valores de R2 , la variable dependiente debe ser la misma. En tercer lugar, es que una R2 no puede disminuir cuando se agregan más variables al modelo.

𝐑𝟐 𝐚𝐣𝐮𝐬𝐭𝐚𝐝𝐚 Debido a la inconveniencia de aumentar regresoras para incrementar el valor de R2 , se desarrolló una R2 ajustada

R2 ajustada penaliza cuando se agregan más regresora y se incrementa solo si el valor absoluto de la variable añadida es mayor que 1, es mejor que R2 sin embargo regresada debe ser la misma para que la comparación sea válida. Criterio de información Akaike (CIA) La idea de imponer una penalización por añadir regresoras al modelo se desarrolló más en el criterio CIA, el cual se define como:

O también

Al comparar dos o más modelos, se preferirá el que tenga el menor valor CIA. Una ventaja del CIA es que resulta útil para la predicción fuera de la muestra de un modelo de regresión. Criterio de información Schwarz (CIS)

El criterio CIS se define como

al igual que en CIA, CIS sirve para comparar el desempeño del pronóstico dentro de la muestra y fuera de la muestra de un modelo. Criterio Cp de Mallows C.P. Mallows elaboró el siguiente criterio para seleccionar modelos, conocido como criterio Cp:

Si el modelo con p regresoras es adecuado en lo que se refiere a que no muestra una carencia de ajuste, se puede demostrar que es aproximadamente que

Al elegir un modelo de acuerdo con el criterio, se debe buscar un modelo con un valor bajo de Cp, aproximadamente igual que p. En otras palabras, si seguimos el principio de parsimonia, elegiremos un modelo con p regresoras (p < k) que proporcione un ajuste adecuado a los datos. Pronóstico ji cuadrada (χ2) Este es un modelo de regresión basado en n observaciones y con el cual se desea pronosticar con él los valores (medios) de la regresada para t observaciones adicionales

El pronóstico χ2 se define como sigue:



û2i es el error de pronóstico para el periodo i (n + 1, n + 2, . . . , + n + t)



σ2 es el estimador usual de MCO para σ2 basada en la regresión ajustada. ̂



con t grados de libertad, donde t es el número de periodos para los que se realizó el pronóstico.

χ2 tiene un poder estadístico débil, lo cual significa que la probabilidad de que la prueba rechace correctamente una hipótesis nula falsa es baja y por tanto la prueba debe utilizarse más como indicador. 13.10 Otros temas relacionados con la creación de modelos econométricos Valores atípicos, apalancamiento e influencia Al reducir la suma de cuadrado residual (SCR), los MCO dan igual ponderación a cada observación en la muestra. Pero cada una de éstas quizá no tenga igual efecto en los resultados de la regresión debido a la presencia de tres tipos de puntos de datos especiales, llamados valores atípicos, puntos de apalancamiento y puntos de influencia. Un valor atípico puede definirse como una observación con un “gran residuo”. El residuo representa la diferencia (positiva o negativa) entre el valor real de la regresada y su valor estimado. Un dato ejerce apalancamiento (grande) si está desproporcionadamente distante de la mayor parte de los valores de una(s) regresora(s). Es capaz de empujar la línea de regresión hacia él mismo, lo que distorsiona la pendiente de la línea de regresión. Si esto sucede, este punto se denomina un punto de influencia. La eliminación de tales puntos de datos de la muestra afecta de manera drástica a la línea de regresión. En base a esto es importante detectarlos con diferentes paquetes de software.

Mínimos cuadrados recursivos Los utilizamos si no conocemos el punto de inflexión estructural en datos de series de tiempo. Suponga que primero utilizamos los datos de un periodo t y estimamos la función, para obtener los estimados de β1 y β2 . Luego utilizamos los datos de t +1 y de nuevo estimamos la función para obtener los estimados de los dos parámetros. Continuamos añadiendo así puntos de datos sobre Y y X hasta agotar la muestra. Como es de imaginarse, cada regresión proporciona un nuevo conjunto de estimaciones para los parámetros. Si el modelo es estructuralmente estable, las variaciones de los valores estimados de los dos parámetros serán mínimas y en esencia aleatorias y si los valores estimados de los parámetros cambian en forma significativa, esto indica un rompimiento estructural. Por tanto, los MCR constituyen una herramienta útil con las series de tiempo, pues el tiempo está ordenado cronológicamente. Prueba de la falla de predicción de Chow Esta prueba se puede modificar para comprobar el poder predictivo de un modelo de regresión, esta prueba es igual al pronóstico chi cuadrado. Si no hay un cambio estructural significativo en los valores de los parámetros, los valores de ahorro estimados del periodo t, con base en las estimaciones de los parámetros del periodo anterior, no deben ser muy distintos de los valores reales que prevalecieron en el último periodo mencionado. Si hay una diferencia mediante la prueba F verificamos si es grande o pequeña.

Si los errores son independientes y están distribuidos de manera idéntica y normal, el estadístico F dado sigue la distribución F, con n1 y n2 , gl, respectivamente. 13.11 UN EJEMPLO CONCLUYENTE 1. Un modelo de determinación de salarios por hora

Para examinar los factores que determinan los salarios por hora consideraremos un modelo salarial tipo Mincer a fin de saber qué factores determinan los salarios por hora :

𝑆𝑎𝑙ℎ𝑜 = 𝛽1 + 𝛽2 𝐸𝑠𝑐𝐽 + 𝛽3 𝑆𝑒𝑥𝑜𝑗 + 𝛽4 𝐻𝑖𝑠𝑝𝑎𝑛𝑜𝐽 + 𝛽5 𝐸𝑥𝑝𝑜𝑗 + 𝛽6 𝐸𝑑𝑜𝑐𝑖𝐽 + 𝛽7 𝑅𝑎𝑧𝑎𝑗 + 𝛽8 𝑅𝑒𝑔𝑖𝑜𝑛 𝐽 + 𝛽9 𝑆𝑖𝑛𝑑𝑗 + 𝑢𝑖



𝑆𝑎𝑙ℎ𝑜 : salario por hora ($),



Esc: escolaridad en años



Sexo: 1 si es femenino, 0 en otro caso



Hispano: 1 si es hispano, 0 en otro caso



Raza: 1 si no es ni blanco ni hispano, 0 en otro caso



Expo: Experiencia en el mercado laboral



Edoci: Estado civil. 1 si es casado, 0 en otro caso



Región: Región de residencia, 1 si es del sur, 0 en otro caso



Sind: 1 Si es trabajo sindicalizado, 0 en otro caso Los datos consistieron en 528 personas entrevistadas en 1985 como parte de la encuesta sobre población lo que periódicamente realiza la oficina de censos de Estados Unidos. Se espera que el salario por hora este positivamente relacionado con la escolaridad, la experiencia el estado civil, la pertenencia a sindicatos; y que negativamente esté relacionado con las categorías hispano, raza , sexo y religión. Los resultados de la regresión son los siguientes:

Como puede observarse todas las variables son estadísticamente significativas. El valor de 𝑅 2 de casi 0.2826 podria parecer bajo, pero estos valores se suelen observar en datos transversales cuando hay muchas observaciones además este valor es estadísticamente significativo puesto que el valor de F también lo es y el valor p es casi cero. Debido a que las variables hispano, estado civil y raza tienen insignificancia estadística individual se las elimina y se corre la regresión nuevamente:

Ahora todas las variables son estadísticamente significativas en lo individual a un nivel del 5% vemos que los coeficientes se pueden interpretar de manera directa, por ejemplo el valor -0.8408 de la región sugiere que si las otras variables se mantienen constantes, en promedio los trabajadores del sur ganan casi 84 centavos menos por hora que sus colegas de cualquier otra parte, quizá por el costo de vida menor en el sur.

Como se esperaba la regresión donde se eliminan las tres variables tiene un R20 ajustada menor que la regresión larga. Los estadísticos Akaike y Schawardz : ambos son menores en las regresiones cortas en comparación con las largas lo cual muestra como penalizan por introducir más regresoras en el modelo. 13.13 Advertencia para el practicante El econometrista aplicado, como el teórico, pronto descubre a partir de la experiencia que un modelo útil no es el ‘verdadero’ o ‘real’, sino el escueto, factible e informativo. Kennedy, de la Universidad Simon Fraser de Canadá, establece los siguientes “diez mandamientos de la econometría aplicada. 1. Utilizarás el sentido común y la teoría económica. 2. Plantearás las preguntas adecuadas. 3. Conocerás el contexto. 4. Inspeccionarás los datos. 5. No idolatrarás la complejidad. 6. Verás las consecuencias de tus resultados y serás perseverante con ellos. 7. Estarás consciente de los costos de la minería de datos. 8. Estarás dispuesto a comprometerte. 9. No confundirás significancia con sustancia 10. Te confesarás ante la presencia de la sensibilidad.