Clase 12 Multicolinealidad - UNI

Multicolinealidad Econometr´ıa I Prof: Luigui Maximo Suclupe Gallegos Resumen Normalmente existe un grado de correlaci´

Views 122 Downloads 5 File size 241KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

  • Author / Uploaded
  • CARD
Citation preview

Multicolinealidad Econometr´ıa I Prof: Luigui Maximo Suclupe Gallegos

Resumen Normalmente existe un grado de correlaci´on entre los regresores de un modelo; sin embargo, ha medida que este grado aumente se podr´ıa incumplir el supuesto de rango completo (en el caso extremo). Por ello, es u ´til saber cuales son sus consecuencias y que criterios podr´ıan usarse para su detecci´ on y soluci´ on.

M. Multicolinealidad Considerando el supuesto de rango completo, es pr´acticamente imposible encontrar dos variables explicativas que tengan correlaci´ on igual a cero cuando ambas resultan significativas para explicar el comportamiento de la variable dependiente. De hecho, lo usual es encontrar que estas est´en correlacionadas, sobretodo en un contexto macroecon´omico. El problema es que est´en fuertemente o perfectamente correlacionadas. A este fen´omeno se le conoce como Multicolinealidad. Como la multicolinealidad no incumple alguno de los supuestos (salvo en el caso extremo), el “problema” no est´ a, en realidad, bien definido. Cuando se dice que la multicolinealidad surge al estimar un correlaci´ on entre las variables “cercana” a uno, “cercana” se pone entre comillas porque no hay un n´ umero absoluto que se pueda citar para concluir que la multicolinealidad es un problema. A´ un as´ı, es u ´til examinar cuales son las principales consecuencias de este fen´omeno. Sea el modelo: Y = β0 + β1 X1 + β2 X2 + ... + βk Xk + u

(1)

Se pueden identificar dos tipos de multicolinealidad:

a) Multicolinealidad perfecta o exacta En este caso se podr´ıa identificar la ecuaci´on: Xi = γ1 X1 + γ2 X2 + ... + γi−1 Xi−1 + γi+1 Xi+1 + ... + γk Xk donde al menos uno de los γi es diferente de cero. Con ello, X 0 X sera singular y por lo tanto @ (X 0 X)−1 ya que |X 0 X| = 0. En el sistema (X 0 X)βˆ = X 0 Y , βˆ tiene infinitas soluciones. Este tipo de multicolinealidad es f´ acil de detectar ya que ning´ un software econom´etrico podr´ıa calcular (X 0 X)−1 y por ende saldr´ıa el mensaje de error. Asumiendo un modelo con dos variables y una constante, si ajustamos las variables respecto a sus medias, es decir multiplicamos el sistema por 10 : n X i=1

yi = n βˆ0 + βˆ1

n X

x1i + βˆ2

i=1

n X i=1

x2i +

n X

u ˆi

i=1

⇒ Y = βˆ0 + βˆ1 X 1 + βˆ2 X 2 ⇒ (Y − Y ) = βˆ1 (X1 − X 1 ) + βˆ2 (X2 − X 2 ) + u ˆ ⇒ y = βˆ1 x1 + βˆ2 x2 + u ˆ

1

Asumiendo que se cumple X2 = λX1 . Por ecuaciones normales:  0     0   βˆ1 x1  x1 x1 x2 = Y ˆ x02 x02 β2   X  1 λ   βˆ1  X 1 ⇒ x21 = x y 1 λ λ2 λ βˆ2 X X X ⇒ x1 y = βˆ1 x21 + λβˆ2 x21 Lo que se obtiene es una ecuaci´ on con dos inc´ognitas, P lo queˆ por ´aˆlgebra P sabemos Pque genera infinitas soluciones. Sin embargo, si agregamos: x1 y = (β1 + λβ2 ) x21 = α ˆ x21 , habr´ıa una u ´nica soluci´ on para la combinaci´ on lineal. La conclusi´on del an´alisis anterior es que en el caso de multicolinealidad perfecta, no puede obtenerse una soluci´on u ´nica para los coeficientes de regresi´ on individual, pero si puede obtenerse soluciones u ´nicas para combinaciones lineales de estos. Sin embargo, estas carecer´ an, generalmente, de interpretaci´on econ´omica.

b) Multicolinealidad imperfecta o aproximada Este es el caso mas com´ un y que se presenta con frecuencia en la practica, ya que encontrar una relaci´ on lineal exacta entre las variables en X es muy dif´ıcil, especialmente en variables econ´omicas. El problema que surge con este tipo de multicolinealidad es que no existe un criterio exacto para definirla. Partiendo del sistema (1), se puede definir: Xi = γ1 X1 + γ2 X2 + ... + γi−1 Xi−1 + γi+1 Xi+1 + ... + γk Xk + vi Notese que en esta ocasi´ on aparece un termino de error, vi , y como consecuencia |X 0 X| ≈ 0. En este caso el problema es estad´ıstico. El problema no es de identificaci´on sino de precisi´on. Cuanto mas correlacionados est´en los regresores, mas imprecisos ser´an los estimadores. Del ejemplo anterior, el modelo con una constante y dos variables explicativas, si a las variables 1 2 , x1 = X1σ−X y x2 = X2σ−X , no solo las ajustamos a su media, sino las estadarizamos: y = Y σ−Y y x x 1

2

y = ˆb1 x1 + ˆb2 x2 + εˆ    0   ˆb1 x01  x1 x x ⇒ 1 2 ˆb2 = x02 Y x02   P 2    P P ˆb1 x1 x1 x2 x1 y P P P ⇒ ˆb2 = x1 x2 x22 x2 y "  " σx1 Y # σx1 x2 #  ˆb1 n σx σy n n σx σx 1 2 1 ⇒ σ ˆb2 = n σx2 Y n σxx1σxx2 n σx σy 



1

2

2

D´ andole valores a los coeficientes de correlaci´on: 

1 0, 9 0, 9 1



ˆb1 ˆb2



 =

0, 4 0, 6



 ⇒

ˆb1 ˆb2



 =

−0, 74 1, 26



Si asumimos que el coeficiente de correlaci´on entre los regresores aumenta 

1 0, 99 0, 99 1



ˆb1 ˆb2



 =

0, 4 0, 6



 ⇒

ˆb1 ˆb2



 =

−9, 75 10, 25

los valores de los estimadores cambian dr´asticamente. Si cambiamos x0 y = 

1 0, 99 0, 99 1



ˆb1 ˆb2



 =

0, 5 0, 6

2



 ⇒

ˆb1 ˆb2



 =



−4, 72 5, 28



0, 5 0, 6 

 :

Cambiando nuevamente el coeficiente de correlaci´on:  

1 0, 5 0, 5 1



1 0, 5 0, 5 1



ˆb1 ˆb2



ˆb1 ˆb2



 =  =

0, 4 0, 6



0, 5 0, 6



 ⇒  ⇒

ˆb1 ˆb2



ˆb1 ˆb2





0, 13 0, 53





0, 27 0, 47



= =

A su vez como V ar(b) = σ 2 (X 0 X)−1 . Evaluando casos:     1 1 0, 9 1 −0, 9 0 0 −1 XX= ⇒ (X X) = 0, 9 1 −0, 9 1 1 − 0, 81   5, 26 −4, 74 2 ˆ V ar(b) = σ −4, 74 5, 26     1 1 0, 99 1 −0, 99 0 0 −1 XX= ⇒ (X X) = 0, 99 1 −0, 99 1 1 − 0, 9801   50, 25 −49, 79 V ar(ˆb) = σ 2 −49, 79 50, 25     1 1 0, 5 1 −0, 5 X 0X = ⇒ (X 0 X)−1 = 0, 5 1 −0, 5 1 1 − 0, 25   1, 33 −0, 67 V ar(ˆb) = σ 2 −0, 67 1, 33 ˆ i , debido a los grandes errores Como los intervalos de confianza est´ an definidos como: βˆi ± tα/2 d.e. est´ andar, los intervalos tienden a ser grandes. A su vez, como: ti = muy bajo con lo cual se aceptar´ıa la H0 muy f´acilmente.

βˆi , d.e.(βˆi )

entonces ti puede ser

En resumen, se puede sospechar que existe un importante grado de multicolinealidad si se tienen alguna de las siguientes situaciones: (i) Los estimadores MCO presentar´ an varianzas y covarianzas grandes, lo que hace dif´ıcil su ˆ = σ 2 (X 0 X)−1 porque porque para |X 0 X| ≈ estimaci´ on precisa. Grandes valores para V ar(β) 0 −1 0, (X X) tiene valores grandes. (ii) Intervalos de confianza muy extensos, q en consecuencia, falta de precisi´on en los estimadores. ˆ = ajj σ 2 son grandes donde ajj es el j-´esimo Esto se debe a que los valores de V ar(β) 0 −1 elemento diagonal de la matriz (X X) , j = 0, 1, 2, . . . , k. En consecuencia, se tender´a a aceptar m´ as f´ acilmente la hip´ otesis nula de no significancia en una prueba t. (iii) De existir un alto grado de multicolinealidad entre los regresores, ser´a frecuente encontrar un R2 alto para la ecuaci´ on de regresi´on. Ante esto, la prueba de significancia global siempre rechazar´ a la hip´ otesis nula, aunque sea incorrecto, porque el estad´ıstico F calculado ser´a alto. (iv) Los estimadores MCO y sus errores est´andar pueden ser bastante sensibles a peque˜ nos cambios en la informaci´ on de la muestra. Los coeficientes pueden tener signo opuesto al esperado o una magnitud poco cre´ıble. La presencia de estad´ısticos t poco significativos y un R2 alto puede verificarse m´as claramente desde un punto de vista geom´etrico. Consideremos para esto el siguiente ejemplo: Ejemplo: Consumo de una familia Consideremos una regresi´ on donde se pretende estimar el consumo de una familia a partir de su ingreso y su riqueza. Sobre la base de informaci´on hipot´etica se obtuvieron los siguientes resultados: Yˆi =24.7747 − 0.9415 X2i − 0.0424 X3i (6.7525)

(0.8229)

2

R =0.9635

3

(0.0807)

Los resultados de la regresi´ on muestran que el ingreso y la riqueza explican conjuntamente alrededor del 96% de las variaciones en el consumo. Sin embargo, ninguno de los coeficientes de las variables involucradas es estad´ısticamente significativo. M´as a´ un, no s´olo la variable riqueza no resulta significativa sino que el signo del coeficiente asociado a esta variable es contrario al esperado. Evidentemente, es de esperar que las variables involucradas presenten un alto nivel de colinealidad, espec´ıficamente, se deber´ıa esperar una relaci´on positiva entre el consumo y la riqueza. Verifiquemos ahora estas conclusiones desde un punto de vista geom´etrico. Si establecemos intervalos de confianza para β2 y β3 notaremos que ambos incluyen el valor de cero. Por tanto, resulta factible que, individualmente, se acepte la hip´otesis nula de que los par´ametros son iguales a cero. Sin embargo, al construir el intervalo de confianza conjunto para la hip´otesis β2 = β3 = 0, dado por la elipse en la Figura (1), resulta evidente que esta hip´otesis no puede ser aceptada ya que este intervalo no incluye el origen.

Figure 1: Relaci´ on entre la prueba t y F bajo multicolinealidad

De otro lado, la relaci´ on entre el R2 y la varianza de los estimadores se puede formalizar partiendo de que en la matriz inversa (X 0 X)−1 el k-´esimo elemento diagonal (tomamos k igual a uno para simplificar) es (x01 M[X2 ] x1 )−1 =(x01 x1 − x01 X2 (X20 X2 )−1 X20 x1 )−1   −1 x0 X2 (X20 X2 )−1 X20 x1 = x01 x1 1 − 1 x01 x1 1 = S11 (1 − R12 ) siendo R12 el R2 obtenido de a regresi´ on de x1 sobre todas las dem´as variables independientes del modelo. Por tanto, la varianza de βˆ1 es V ar(βˆ1 ) =

σ2 (1 − R12 )S11

Imaginemos que a˜ nadimos a la regresi´ on una variable que este altamente correlacionada con x1 . S11 no cambiar´ a, mientras que R12 aumentar´a y, por tanto, tambi´en aumentar´a V ar(βˆ1 ) y con ello la prueba t de significancia perder´ a potencia (Ver Figura). 4

Figure 2: V ar(βˆ1 ) como funci´on de R12 Detecci´ on de la multicolinealidad Existen diversos indicadores y m´etodos para constatar presencia de multicolinealidad imperfecta en el modelo, los m´ as u ´tiles son: 1. Calcular la matriz de correlaciones entre las variables explicativas y observar el grado de correlaci´ on lineal entre cada par de ellas. Si alguno de los coeficientes de correlaci´on es elevado (pr´ oximo a ±1), ser´ a indicativo de existencia de multicolinealidad aproximada. Calcular el determinante de la matriz de correlaciones es utilizado tambi´en como criterio. Cuanto m´as pr´ oximo a cero se halle este determinante, mayor sospecha se tendr´a de multicolinealidad. 2. Estimar el modelo y analizar la significaci´on individual y conjunta. Si existe multicolinealidad aproximada, hay altas posibilidades de hallar variables explicativas individualmente no significativas, pero con una capacidad explicativa conjunta alta. Examinar si no existe significancia individual de las variables explicativas, aun cuando el R2 sea alto. 3. La medida m´ as satisfactoria de multicolinealidad se basa en los autovalores de la matriz (X 0 X). Recordemos que una matriz sim´etrica y definida positiva puede escribir como: X 0 X = CΛC 0 donde C es una matriz ortogonal, en la cual C 0 = C −1 , y Λ es una matriz diagonal que contiene los autovalores {λ1 , λ2 , . . . , λk }. Se cumple que el determinante de una matriz es el producto de sus autovalores |X 0 X| = |CΛC 0 | = |C||Λ||C 0 | = |Λ| = λ1 · λ2 · . . . · λk Existir´ıa multicolinealidad alta si alguno de los autovalores es peque˜ no. 4. Realizar la regresi´ on de cada una de las variables explicativas sobre el resto1 y analizar los coeficientes de determinaci´ on de cada regresi´on. Si alguno o algunos de estos coeficientes de determinaci´ on (Rj2 ) son altos, estar´ıa se˜ nalando la posible existencia de un problema de multicolinealidad. 5. Neter, Wasserman y Kutner (1990) consideran una serie de indicadores para analizar el grado de multicolinealidad entre los regresores de un modelo, como por ejemplo los llamados Tolerancia (TOL) y Factor de Inflaci´on de la Varianza (FIV) que se definen: F IVj = 1 En

1 1 − Rj2

T OLj =

1 F IVj

cada regresi´ on se incluye el t´ ermino constante como regresor pero no como variable dependiente.

5

siendo Rj2 el coeficiente de determinaci´on de la regresi´on auxiliar de la variable xj sobre el resto de las variables explicativas y 1 ≤ F IVj ≤ ∞. La varianza de cada uno de los coeficientes de la regresi´ on MCO de un modelo de regresi´on lineal general se puede expresar como2 : 1 σ2 σ2 P = F IVj V ar(βˆj ) = Pn n 2 2 2 i=1 (xij − xj ) (1 − Rj ) i=1 (xij − xj ) Como vemos existe una relaci´ on inmediata entre el valor F IVj y la varianza del coeficiente estimado. Cuanto m´ as se acerque Rj2 a la unidad, es decir, cuanto mayor sea la colinealidad de la variable xj con el resto, mayor es el valor de F IVj y mayor es la varianza del coeficiente estimado, porque tal y como hemos dicho, la multicolinealidad “infla” la varianza. Seg´ un estos autores, si F IVj > 10, entonces concluiremos que la colinealidad de xj con las dem´as variables es alta. Notese que un alto F IVj no es condici´ on suficiente ni necesaria para que V ar(βˆj ) sea alta ya P n 2 que es posible que σ sea peque˜ na o i=1 (xij − xj )2 grande y se compensen. Soluciones a la multicolinealidad Permaneciendo todo lo dem´ as constante, para estimar βi , lo mejor es tener poca correlaci´on entre Xi y las dem´ as variables independientes. Esta observaci´on suele conducir a la discusi´on de c´omo “resolver” el problema de multicolinealidad. Algunas de las soluciones propuestas son: • La soluci´ on m´ as utilizada es la eliminaci´on de una o m´as variables causantes de la multicolinealidad. Por desgracia, eliminar una variable relevante para el modelo puede llevar a un problema de error de especificaci´ on. Si se tuviera que eliminar una variable, se tendr´ıa que comparar varios modelos para asegurarse que no se incurre en error de especificaci´on. • Aumentar el tama˜ no de la muestra. Si el tama˜ no de la muestra es peque˜ na, se tendr´a probablemente grandes desviaciones de los errores. Un aumento en la muestra, ocasionar´a un incremento en la precisi´ on de la estimaci´on de los coeficientes y consecuentemente una reducci´ on en los errores est´ andar de los estimadores de los coeficientes. • Ignorar la multicolinealidad. Si el prop´osito de la construcci´on del modelo es la predicci´on, se puede ignorar la presencia de multicolinealidad (imperfecta) donde R2 resulta alto, siempre y cuando no exista quiebre estructural del modelo. La multicolinealidad no incumple ninguno de los supuestos del MRL por lo que las propiedades MELI de los estimadores no son afectadas. Si el fin es realizar un an´alisis estructural del modelo, donde se quiere detectar y cuantificar la influencia de sus factores no se puede ignorar el problema. • En la literatura se han propuesto algunas t´ecnicas de estimaci´on, v´alidas en presencia de multicolinealidad. Por ejemplo: estimaci´on cresta o por componentes principales. De las dos, la mas usada es la segunda. Observaci´ on3 : (i) Suponga que se desea estimar el efecto de diversas categor´ıas de gastos en la educaci´on sobre el desempe˜ no de los estudiantes. Es posible que los gastos en sueldos para los profesores, material did´ actico, deporte, etc., est´en fuertemente correlacionados. Es claro que es dif´ıcil estimar el efecto de una determinada categor´ıa de gastos sobre el desempe˜ no de los estudiantes cuando es reducida la diferencia entre las variaciones de las categor´ıas (esto conduce a un R2 alto y similar, as´ı se prescinda de algunas variables explicativas). Tales problemas de multicolinealidad pueden atenuarse recolectando m´as datos, pero en cierto sentido el problema ha sido auto-impuesto: se est´an haciendo preguntas que pueden ser demasiado dif´ıciles de responder con precisi´ on mediante los datos con que se cuenta. Tal vez sea mejor modificar el enfoque del an´ alisis y colocar juntas todas las categor´ıas de gastos, dado que ya no se tratar´ıa de estimar el efecto de cada una. (ii) Un alto grado de correlaci´ on entre ciertas variables independientes puede ser irrelevante respecto a qu´e tan bien pueden estimarse otros par´ametros del modelo. Por ejemplo, para 2 La

demostraci´ on queda como ejercicio para el alumno. de los comentarios de esta secci´ on son tomados del libro Introducci´ on a la econometr´ıa: Un enfoque moderno, Wooldridge, 4ta edici´ on. 3 Muchos

6

estudiar la relaci´ on entre tasa de aprobaci´on de cr´editos y el porcentaje de minor´ıas en una vecindad pueden incluirse variables como ingreso promedio, valor promedio de la vivienda, medidas de capacidad crediticia, etc., ya que estos factores deben ser tomados en consideraci´ on con objeto de obtener conclusiones causales acerca de la discriminaci´on. Ingreso, valor promedio de la vivienda y capacidad de cr´edito por lo general est´an fuertemente correlacionados unos con otros. Pero la fuerte correlaci´on entre estos controles no dificulta determinar los efectos de la discriminaci´on. (iii) A algunos investigadores les parece u ´til calcular estad´ısticos con los que pretenden determinar la severidad de la multicolinealidad en una aplicaci´on determinada. Por desgracia, es f´ acil usar mal estos estad´ısticos, ya que, como se ha dicho, no se puede especificar cu´anta correlaci´ on entre las variables explicativas es “demasiada”. Algunos “diagn´osticos” de la multicolinealidad son estad´ısticos generales en el sentido de que detectan relaciones lineales fuertes entre cualquier conjunto de variables explicativas. Por las razones reci´en vistas, tales estad´ısticos tienen un valor cuestionable porque pueden indicar que hay un “problema” tan s´ olo porque dos variables de control, cuyos coeficientes no interesan, est´an fuertemente correlacionadas. Ejercicio: Suponga que est´ a interesado en calcular la relaci´on ceteris paribus entre y y x1 . Para tal prop´osito, se puede recolectar datos sobre dos variables de control, x2 y x3 . Sea β˜1 la estimaci´on de la regresi´on simple de y sobre x1 y sea βˆ1 el estimado de la regresi´on m´ ultiple de y sobre x1 , x2 , x3 . • Si x1 est´ a altamente correlacionada con x2 y x3 en la muestra, y x2 y x3 tienen efectos parciales grandes sobre y, ¿esperar´ıa que β˜1 y βˆ1 sean similares o muy diferentes? Explique. • Si x1 casi no est´ a correlacionada con x2 y x3 , pero x2 y x3 est´an fuertemente correlacionadas ¿β˜1 y βˆ1 tender´ an a ser similares o muy diferentes? Explique. • Si x1 est´ a fuertemente correlacionada con x2 y x3 , y x2 y x3 tienen efectos parciales peque˜ nos sobre y, ¿esperar´ıa que d.e.(β˜1 ) o d.e.(βˆ1 ) fueran m´as peque˜ nos? Explique. • Si x1 casi no est´ a correlacionada con x2 y x3 , x2 y x3 tienen efectos parciales grandes sobre y, y x2 y x3 est´ an fuertemente correlacionadas, ¿esperar´ıa que d.e.(β˜1 ) o d.e.(βˆ1 ) fueran m´as peque˜ nos? Explique.

Bibliograf´ıa J.M. WOOLDRIDGE, Introductory Econometrics: A Modern Approach, South-Western College Pub, 2013, 5th edition. W. GREENE, Econometric Analysis, MacMillan Company, 2012, 7th edition. A. NOVALES, Econometr´ıa, McGraw-Hill, 1993, 2da edici´on. C. CASAS, Econometr´ıa Moderna, Centro de Investigaci´on de la Universidad del Pac´ıfico, Ebook.

7