Truncados&Censurados

Modelos elección discreta y variable dependiente limitada: Modelos censurados y truncados Profesor: Graciela Sanroman Fa

Views 34 Downloads 1 File size 285KB

Report DMCA / Copyright

DOWNLOAD FILE

Citation preview

Modelos elección discreta y variable dependiente limitada: Modelos censurados y truncados Profesor: Graciela Sanroman Facultad de Ciencias Ecónomicas y administración

Año 2010

Modelos truncados y censurados Cuando analizo microdatos también tendré casos en los cuales la variable dependiente tiene un comportamiento en parte “cualitativo”, en parte “cuantitativo”, por ejemplo: las horas trabajadas, la cantidad invertida en maquinaria por parte de una empresa, los salarios. Veremos en términos generales dos tipos de modelos de regresión truncados, censurados. Nos limitaremos a ver el caso de modelos de regresión truncados y censurados en los cuales el término de error del modelo latente sigue una distribución normal.

Modelos con variable dependiente truncada Sólo observamos el valor de la variable para un subconjunto de la muestra. Por ejemplo: El salario: sólo observamos el salario en aquellos casos en los que la persona está ocupada y eso se da si el salario que obtendría la persona es mayor que su salario de reserva: yi = yi si yi > salario de reserva de i ¿Cuál es sería el salario de los que no trabajan? No es cero obviamente, pero no observamos ningún valor.

Modelos con variable dependiente censurada La variable dependiente se observa con censura, por ejemplo: inversión en maquinarias (censurada inferiormente en cero) horas de trabajo (censurada inferiormente en cero) yi =

yi c

yi > 0 yi 0

o yi = max(0, yi )

ingreso del hogar en algunas encuestas (censurada superiormente, ya que si el ingreso es mayor que un determinado valor sólo se registra eso). Por ejemplo yi =

yi c

yi < c yi > c

o yi = min(c, yi )

Modelos con variable dependiente censurada Es necesario distinguir: censura dada por soluciones de esquina en el problema de decisión ecónomica del agente censura por la características de los datos

Truncamiento simple: densidad y media condicionales Sea ε una v.a. con fda Pr (ε c ) = F (c ) y función de densidad f (ε). Supongamos que dicha distribución está sujeta a truncamiento inferior en el punto c, si tenemos una variable aleatoria continua con una función de densidad f (z ), la función de densidad de la variable truncada a partir del valor c es la función de densidad condicional: f (ε j ε > c ) =

f (ε) f (ε) = P [ε > c ] 1 F (c )

y la media condicional de una distribución truncada es Z +∞

f (ε) dε 1 F (c ) ∞ mayor que E(ε) y mayor que c

E( ε j ε > c ) =

ε

Truncamiento simple inferior: densidad condicional en la Normal En el caso de que ε N (µ, σ2 ) entonces, suponiendo que hay un truncamiento inferior tenemos: f (ε j ε > c ) = denotando ε =

ε µ σ

yc =

ε µ σ ) c µ Φ( σ )

f( 1

=

( σ1 )φ( ε σ µ ) 1

Φ(

c µ σ

f (ε j ε > c ) =

1 φ(ε ) σ 1 Φ (c )

c µ σ )

Truncamiento simple inferior: media condicional en la Normal En el caso de que ε N (µ, σ2 ) de…no ε tal que ε = µ + σε y ε N (0, 1): E( ε

j =

ε > c) =

+ Z∞ c

+ Z∞

(µ + σε )

c

= µ+σ

+ Z∞ c

ε

ε f (ε j ε > c )dε 1 φ(ε ) σdε σ 1 Φ (c )

φ(ε ) dε 1 Φ (c )

se puede demostrar que E( ε j ε > c ) = µ + σ λ (c ) =

φ (c ) 1 Φ (c )

φ (c ) = µ + σλ(c ) 1 Φ (c )

se conoce como la "inversa del ratio de Mills"

Truncamiento simple superior: densidad y media condicional en la Normal La densidad con truncamiento superior si la distribución es normal es f (ε j ε < c ) =

1 φ(ε ) σ Φ (c )

mientras que la media E( ε

j

ε < c) = µ

= µ λ (c ) = de Mills"

φ (c ) Φ (c )

σ

φ (c ) Φ (c )

σλ (c )

se conoce como el complementario de la "inversa del ratio

Modelos de Regresión Truncada Los modelos de regresión truncada se concentran en explicar el valor esperado de una variable endógena y truncada superior o inferiormente condicional a los valores de las variables explicativas x. El modelo de regresión truncada re‡eja un modelo poblacional que cumple con los supuestos del modeo lineal clásico: 0

= xi β + εi εi jxi = yi si yi > c

yi yi

N (0, σ2 )

si observaramos yi el procedimiento MCO produce los estimadores lineales e insesgados de mínima varianza. El problema es que sólo se observarán valores de y cuando sobrepasa un cierto umbral mínimo c, por lo que para estimar el vector β y σ necesitamos conocer la distribución de y dado que yi > c, en de…nitiva una distribución de probabilidad truncada. 0 Si c = 0 entonces E(yi jxi , yi > 0 ) = xi β + σλi con λi = λi

0

β

xi σ

=

0 β σ 0 β xi σ

φ xi

Φ

Modelos de Regresión Truncada Sea di = 1(yi > c )

Cuando di = 1 la contribución del individuo i a verosimilitud (bajo el supuesto de normalidad de las perturbaciones de la ecuación estructural) estará dada por la función de densidad de una normal truncada: " # 0 yi xi β 1 f (yi j xi , yi > c ) = φ σ σ Cuando di = 0 la información del individuo i no realizará ninguna contribución a la verosimilitud Notar: sólo la información de los individuos con yi > c es utilizada en el modelo de regresión truncada

Modelos de Regresión Truncada Por lo que la función de verosimilitud de un modelo de regresión truncada, será: h i 3d i 2 y i x0i β 1 N φ σ σ h i5 L( β, σ) = ∏ 4 c xi β 1 Φ i =1 σ

y la de log-verosimilitud será (eliminado los términos constantes): ( " #) N c xi/ β 1 1 / 2 2 L( β, σ) = ∑ di ln(σ ) + 2 (yi xi β) + ln 1 Φ( ) 2 2σ σ i =1 a partir de esta función se obtienen los estimadores máximo verosímiles para β y σ; el estimador máximo verosímil de la matriz de covarianzas puede obtenerse de la inversa de la matriz hessiana. Notar que hay identi…cación separada de β y σ.

Efectos parciales en el modelo de regresión truncada Tenemos ∂E (yi jxi ) = βj ∂xj pero aquí estimo un modelo de esperanza condicional E (yi jxi , yi > c ), para simpli…car supongamos c = 0. Tenemos 0 E(yi jxi , yi > 0 ) = xi β + σλi con λi = λi

0

β

xi σ

=

0 β σ 0 β xi σ

φ xi Φ

∂E(yi jxi , yi > 0 ) ∂xj

, entonces

= βj + σ = βj 1

∂λi ∂xj 0

xi

β + λi σ

λi

Efectos parciales en el modelo de regresión truncada ∂E(yi jxi ) Pero podemos estar interesados en siendo ∂xj E (yi jxi ) = E (yi jxi , yi > 0 ) Pr (yi > 0)

ln E (yi jxi ) = ln E (yi jxi , yi > 0 ) + ln Pr (yi > 0) la elasticidad puede escribirse como xji

∂ ln E (yi jxi , yi > 0 ) ∂ ln Pr (yi > 0) ∂ ln E (yi jxi ) = xji + xji ∂xj ∂xj ∂xj

a estos términos se le suele denominar "margen intensivo" y "margen extensivo", para indicar que el efecto de un cambio en xj afecta: la esperanza condicional la probabilidad de que la observación pertenezca al intervalo donde es observable 0

Nota: Pr(yi > 0 jxi ) = Φ xi σ

β

y

∂ Pr (yi >0 jxi ) ∂xj

=

βj σ

0

β

φ xi σ

Distribuciones censuradas (censura inferior) Existen casos en los cuales se dispone de observaciones de las variables aleatorias en el punto límite pero no a la izquierda de éste, lo que se de…ne como censura. La variable censurada inferiormente se de…ne como: yi =

yi c

yi > c yi c

o yi = max(c, yi )

La distribución de una variable censurada es una mezcla de una distribución discreta (con punto de acumulación en c) y una distribución de densidad continua. Recordar que la censura puede estar asociada a soluciones de esquina características de los datos.

Distribuciones censuradas (censura inferior) Consideremos el caso de una v.a. ε con fda Pr (ε de densidad f (ε ) con -∞ < ε < ∞, se cumple ε=

ε c

ε >c ε c

c ) = F (c ) y función

ε = max(c, ε )

ε > c f (ε ) con c < ε < ∞ ε c Pr(ε = c ) = F (c ) la media de ε E (ε) = cF (c ) + E (ε j ε > c ) [1

F (c )]

Si ε s N µ, σ2

con c =

c µ σ

E (ε) = µ + σ fc Φ (c ) + φ (c )g

Distribuciones censuradas: modelo Tobit Cierto tipo de modelos censurados son denominados modelos Tobit, en honor al economista James Tobin que estudió la demanda de bienes durables en un artículo de 1959. El modelo Tobit puede ser más sencillamente presentado como un modelo de variable latente: 0

yi = xi β + ui , ui

N (0, σ2 ) 0

yi = max(c, yi ) = max(c, xi β + ui ) La variable latente cumple con las suposiciones del modelo lineal clásico. En el caso de censura a la izquierda la variable observada y es y cuando y > c, y y es c cuando y < c.

Distribuciones censuradas: modelo Tobit La distribución de la variable y es mixta, ya que es discreta en c (cuando y < c):

P (yi

0

0

= c j xi β)=P (yi 6 c j xi β) = P (ui 6 c 0

0

xi β)

0

c xi β c xi β ui = P( 6 ) = Φ( ) σ σ σ

y continua en los demás valores. Supondremos en adelante que c = 0.

Distribuciones censuradas: modelo Tobit Sea di = 1(yi > 0)

Cuando di = 1 la contribución del individuo a verosimilitud estará dada por la función de densidad de una normal: " # 0 y xi β 1 φ f (yi j xi ) = σ σ Cuando di = 0 la contribución del individuo a la verosimilitud estará dada por Pr(di

= 0 j xi ) = Pr(yi 0

= Pr(ui 6 = 1

Φ(

0

0 j xi )

xi β j xi )

xi β ) σ

Distribuciones censuradas: modelo Tobit De esta forma la función de verosimilitud será: #1 d i " " 0 N xi β 1 ) L( β, σ) = ∏ 1 Φ( σ σ i =1 y la log-verosimilitud ( N

L( β, σ) =



i =1

(1

"

di ) log 1

Φ

0

xi β σ

!#

φ

+ di

"

y

"

1 φ σ

0

xi β σ

##di

0

yi

xi β σ

!#)

A partir de la maximización de la ecuación anterior se obtienen los estimadores β y σ; el estimador máximo verosímil de la matriz de covarianzas puede obtenerse de la inversa de la matriz de información.

Distribuciones censuradas: modelo Tobit Si multiplicamos la ecuación de la verosimilitud antes de…nida por la siguiente expresión: !#di " 0 N N xi β 1 Φ ∏ ∏ di 0 σ x β i =1 i =1 Φ σi reacomodando se llega a que: 8 0 y xi β > 1 > φ < N σ σ L( β, σ) = ∏ 0 > i =1 > : Φ xσi β

9d i > > = > > ;

N



i =1

"

1

Φ

0

xi β σ

!#1

di

"

Φ

0

xi β σ

!#di

donde la primer productoria es un modelo truncado (cuando c = 0) y la segunda corresponde a un probit que modela si la observaciòn es censurada o no. Esto sugiere que un modelo tobit es una combinación de un modelo probit, que determina las observaciones que son censuradas y las que no, y un modelo truncado para las observaciones no censuradas.

Modelo Tobit En el modelo Tobit 0

yi = xi β + ui , ui

N (0, σ2 ) 0

yi = max(c, yi ) = max(c, xi β + ui ) Una expresión de importancia es E (yi j yi > 0, xi ) = xi β + σ

1

0

xi β σ ) 0 x β Φ( σi )

φ(

0

donde nuevamente aparece la razón λi = λ( inversa del ratio de Mills.

0

xi β σ )

0

= xi β + σλi

= λ(ri ) =

φ (r i ) 1 Φ (r i )

la

Efectos parciales en el modelo Tobit Para obtener los efectos parciales, podemos derivar la ecuación 0

E (yi j yi > 0, xi ) = xi β + σλi respecto a xj , .se obtiene que ∂E (y j y > 0, x) = βj ∂xj

(

0

1

λi

xi β + λi σ

!)

Efectos parciales en el modelo Tobit Pero otros parámetros de importancia podrían ser: El efecto parcial sobre la variable latente, variable que en ocasiones tiene un sentido económico y en otros no: ∂E (yi j xi ) = βj ∂xj El efecto parcial sobre la variable y : E (yi

j xi ) = 0 Pr(yi = 0 j xi ) + E (yi j yi > 0, xi ) = E (yi j yi > 0, xi ) Pr(yi > 0 j xi ) = E (yi j xi ) = Φ(

0

xi β 0 ) xi β + σλi σ

Pr(yi > 0 j xi

0

= m(xi β, σ2 )

derivando y desarrollando la expresión anterior con respecto a xj se llega a: ! 0 xi β ∂E (yi j xi ) = βj Φ ∂xj σ

Modelos de Regresión Censurada Los modelos de regresión censurada son extensiones del modelo de Tobit, las generalizaciones pueden ser diferentes: censura superior censura inferior y superior censuras que dependen de características del individuo modelos censurados en donde la censura o el truncamiento se da respecto de otra variable (ver Amemiya (1985), Wooldridge (2002))

Truncamiento respecto a otra variable La densidad con truncamiento respecto a otra variable se puede escribir

f ( ε1 , ε2

j

Pr (ε2 > c2 ) =

ε 2 > c2 ) = Z ∞Z ∞ c2



f ( ε1 , ε2 ) Pr (ε2 > c2 )

∞ < ε1 < + ∞ c2 ε 2 < + ∞

f ( ε1 , ε2 )d ε1 d ε2

entonces f ( ε 1 j ε 2 > c2 ) = f ( ε 1 )

Pr (ε2 > c2 jε1 ) Pr (ε2 > c2 )

Truncamiento respecto a otra variable: la normal bivariada Supongamos ε1 µ1 σ21 σ12 sN , ε2 µ2 σ22 La media E ( ε 1 j ε 2 > c2 ) = µ 1 +

σ12 c2 µ2 λ( ) σ2 σ22

El modelo generalizado de selección (Heckman, 1979) El modelo Tobit no es apropiado cuando el proceso que genera que algunos individuos estén en el punto de censura no es aleatorio, por ejemplo cuando responde a situaciones en las cuales el individuo está restringido respecto a las decisiones a tomar (por ejemplo desempleo involuntario). Heckman propone descomponer el modelo censurado en dos procesos, de manera que tendremos un modelo bivariante con dos ecuaciones: 0

y1i

= xi β + u1i

y2i

= zi γ + u2i

0

se observa fyi , di , xi , zi g: di yi

= 1 (y2i > c ) = y1i si di = 1

Si u1i y u2i están correlacionados estaremos ante un caso de "selección endógena" de la muestra, debido a la selección basada en y2i .

El modelo generalizado de selección (Heckman, 1979) Podemos reescribir yi = di y1i + (1

di )c =

c si di = 0 y1i si di = 1

lo cual corresponde a la versión censurada del modelo de selección muestral. También se puede construir la versión truncada, la cual sería: yi = di yi

El modelo generalizado de selección (Heckman, 1979) Consideremos el caso del modelo censurado con c = 0, 0

y1i

= xi β + u1i

y2i

= zi γ + u2i

0

se observa fyi , di , xi , zi g: di yi

= 1 (y2i > 0) = y1i si di = 1

se supone u1i u2i

sN

0 0

,Ω =

σ21 σ12 σ22

El modelo generalizado de selección (Heckman, 1979) Cuando di = 1 la contribución del individuo a verosimilitud estará dada por la función de densidad de una normal: Pr (di = 1 j zi ) f (y1i

j

zi , xi , di = 1) Pr (di = 1 j u1 , Pr (di = 1 j zi 0 0 1 " # 0 σ12 0 z γ + y x β i 2 i i y xi β σ A q2 φ Φ@ σ12 σ1 σ2 σ2

= Pr (di = 1 j zi ) =

1 σ1

f (y1i j zi , xi )

2

Cuando di = 0 la contribución del individuo a la verosimilitud estará dada por Pr (di = 0 j zi ) = Pr(u2i 6

= 1

Φ

0

zi γ j zi ) ! 0 zi γ σ2

El modelo generalizado de selección (Heckman, 1979) La verosimilitud del modelo la podemos escribir: N

L( β, γ, Ω) = ∏ [Pr (di = 0 j zi )]1 i =1

di

[Pr (di = 1 j zi ) f (y1i j xi , di = 1)]di

tomando logaritmos y desarrollando obtenemos: ( " L( β, γ, Ω) =

N



i =1

(1

di ) ln 1

"

Φ

0

zi γ σ2

!#

!# 0 yi xi β 1 2 +di ln σ1 + ln φ 2 σ1 2 0 0 13 0 zi γ + σσ122 yi xi β A5 q2 +di ln 4Φ @ σ2 σσ122 2

y el modelo se estima por máxima verosimilitud.

El modelo generalizado de selección (Heckman, 1979) Retomemos las ecuaciones: 0

y1i

= xi β + u1i

y2i

= zi γ + u2i 0 = xi β + u1i si y2i > 0

yi

0

el modelo de esperanza condicional para las observaciones no censuradas queda: 0 γ 0 σ12 λ zi E (y1i j y2i > 0) = xi β + σ2 σ2 0

donde λi = λ zi σγ2 es la inversa del ratio de Mills, también denominada en el contexto de este modelo "lambda de Heckman".

El modelo generalizado de selección (Heckman, 1979) Podemos re-escribir el modelo en forma de ecuación de error como 0

yi = xi β +

σ12 λi + vi σ2

Notar que: el segundo término desaparece cuando σ12 = 0 0

el término σσ122 λ zi σγ2 selección",

se conoce en la literatura como "Sesgo de

se podría estimar en forma consistente β y

σ12 σ2

si λi fuera observable.

Procedimiento en dos etapas de Heckman Normalicemos σ2 = 1 entonces σσ122 = σ12 y σγ2 = γ. Heckman también propone estimar el modelo en un procedimiento bietápico: ETAPA 1: Estimar γ en el modelo y2i di

0

= zi γ + u2i = 1 (y2i > 0)

mediante un PROBIT de di sobre zi y calcular 0

0

b i = λ zi γ b = λ

ETAPA 2: Estimar β y σ en

1

b φ zi γ

0

b Φ zi γ

0

b i + vi yi = xi β + σ12 λ

b i usando a través de una regresión MCO de yi sobre xi y λ UNICAMENTE las observaciones para las cuales di = 1.

Procedimiento en dos etapas de Heckman Comentarios: IDENTIFICACION: Restricción de exclusión z y x pueden compartir variables, pero z debe contener al menos una variable (continua) que sea determinante del proceso de selección (y2 ) pero no de y1 . Si no se satisface la restricción de exclusión el modelo está identi…cado por "forma funcional" Contraste de existencia de sesgo de selección Ho : σ12 = 0 bi Comparar coe…cientes directamente con una MCO de yi sobre xi y λ usando UNICAMENTE las observaciones para las cuales di = 1. b i ): cálculo de los errores TERMINO DE ERROR vi = u1i + σ12 (λi λ estándar caso heterocedástico pero no se corrige con White.