Ejercicios IP

ESTADÍSTICA E INTR. A LA ECONOMETRÍA Curso 2007-2008 UNIDAD TEMÁTICA III: INFERENCIA ESTADÍSTICA Tema 12 ESTIMACIÓN PU

Views 27 Downloads 0 File size 170KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

  • Author / Uploaded
  • cegal
Citation preview

ESTADÍSTICA E INTR. A LA ECONOMETRÍA Curso 2007-2008 UNIDAD TEMÁTICA III: INFERENCIA ESTADÍSTICA

Tema 12

ESTIMACIÓN PUNTUAL Notas y resúmenes de clase Prof. Mª Dolores González Galán

ESTRUCTURA DEL CAPÍTULO 1. Introducción 2. Propiedades de un estimador 1. Estimador insesgado 2. Eficiencia de un estimador 3. Error cuadrático medio de un estimador 4. Estimador consistente 5. Estimador suficiente 3. Procedimientos de estimación 1. El método de la máxima verosimilitud 2. El método de los momentos

1. INTRODUCCIÓN

muestra

Población

ESTIMACIÓN DE PARAMETROS

Inferecia Estadística: Proceso mediante el cual se utiliza la información de una muestra para extraer conclusiones de la población

PRUEBAS DE HIPOTESIS

1. INTRODUCCIÓN La Teoría de la Estimación es la parte de la Inferencia Estadística que sirve para determinar el valor de los parámetros poblacionales.

1. Estimación puntual 2. Estimación por intervalo No se trata de dos formas alternativas de estimación, sino complementarias. La estimación puntual representa el primer paso para obtener la estimación por intervalo, que es la que siempre debemos de obtener nosotros.

1. INTRODUCCIÓN ESTIMACIÓN PUNTUAL Se trata de asignar al parámetro poblacional un (único) valor; que será un valor aproximado y que depende de la muestra POBLACIÓN con parámetro desconocido θ

x ∼ f (x/θ)

m.a.s.: X1X2,..., Xn v.a.i.i.d. ^

θ = g(x1x2,..., xn)

Un estimador (puntual) para un parámetro es una función de las variables aleatorias que forman la muestra, cuyos valores son válidos como valores para ese parámetro

1. INTRODUCCIÓN En la práctica los estimadores habituales son (método analógico): Parámetros poblacionales Media

µ

Estimadores puntuales n

Media muestral x=

Desviación típica σ

∑x n

Cuasidesviación típica muestral

p

= µ$

∑ (x n

i

i =1

S′ =

Proporción

i

i =1

n− 1

n

Proporción muestral

p$ =

− x)

2

∑x i =1

i

n

Se dice, por ejemplo, que µ^ es el estimador puntual de µ ^ a partir de ella, se dice Cuando se haya obtenido la muestra y calculado µ entonces que ese valor es una estimación de µ

= σ$

1. INTRODUCCIÓN

¿cómo se eligen los estimadores? 9Propiedades de los estimadores • • • • •

Estimador insesgado Eficiencia de un estimador Error cuadrático medio Estimador consistente Estimador suficiente

9Criterios para seleccionar estimadores • •

Método de la máxima verosimilitud Método de los momentos

2. PROPIEDADES DE UN ESTIMADOR

1.

Insesgado.

Un buen estimador es aquél que es cercano al valor verdadero

E(θ$) = θ Si un estimador no es insesgado ⇒

estimador sesgado

Sesgo(θ$) = E (θ$) − θ

EJEMPLOS DE ESTIMADORES INSESGADOS: ¾ Media Muestral: Para estimar la esperanza matemática µ de una distribución de probabilidad, la media muestral x de una m.a.s. es siempre un estimador insesgado:

E [x ] = µ Aplicaciones: ¾Normal

N(µ; σ2)



¾Poisson

P(λ)



¾Bernoulli

Be(p)



E [x ] = µ E [x ] = λ E [ pˆ ] = p

µ

X

EJEMPLOS DE ESTIMADORES INSESGADOS: ¾Cuasivarianza Muestral: es un estimador insesgado de la varianza poblacional

∑ (x n

′2

S =

i =1

i

− x)

2

[ ]

E S´ = σ 2

n− 1

2

Demostración:

[

]

1 1 ⎡ n ⎡ n ⎤ 2⎤ 2 2 E S´ = E ⎢∑ [( xi − µ ) − ( x − µ )] ⎥ = E ⎢∑ ( xi − µ ) + ( x − µ ) − 2( xi − µ )( x − µ ) ⎥ = n − 1 ⎣ i =1 ⎦ n − 1 ⎣ i =1 ⎦ 1 1 ⎡ n 1 ⎡ n 2 2⎤ 2 2⎤ 2 2 2 ( ) ( ) = − − − E ⎢ ∑ ( x i − µ ) − n( x − µ ) ⎥ = E x µ nE x µ = n σ − σ = σ i ⎢∑ ⎥ n −1 n − 1 ⎣ i =1 ⎦ n − 1 ⎣ i =1 ⎦

( ) 2

[

]

EJEMPLOS DE ESTIMADORES INSESGADOS: ¾Varianza Muestral: es un estimador sesgado de la varianza poblacional. n 2

S = 2

∑ (x i =1

i

− x)

[ ]

ES

n

2

n −1 2 = σ n

n− 1 2 2 2 ( − 1) Sesgo( S ) = E ( S ) − σ = σ −σ =σ n n 2

2

2

9Un estimador es asintóticamente insesgado si su posible sesgo tiende a cero al aumentar el tamaño muestral con que se calcula.

2. PROPIEDADES DE UN ESTIMADOR

2.Eficiencia Sean θ^1 y θ^2 dos estimadores insesgados de un parámetro desconocido θ. Decimos que θ^1 es más eficiente que θ^2 si :

Var (θ2 ) > Var (θ1 ) ^

^

La eficiencia relativa de θ^1 respecto a ^θ2 en una muestra se ^ ^ mide por el ratio: Var (θ2) / Var (θ1)

2. PROPIEDADES DE UN ESTIMADOR Teorema . Desigualdad de Cramer-Rao Sea X1X2,..., Xn una m.a.s. extraída de una población f (X;θ), y ^ Sea θ = g(X1,X2,..., Xn) un estimador insesgado del parámetro θ ⇒

Var (θ$) ≥

⎛∂ nE ⎜ ⎝ ^

1 2 ln f ( x;θ ⎞ ⎟ ⎠ ∂θ

Un estimador insesgado θ de un parámetro poblacional desconocido θ se dice eficiente si su varianza es tan baja como la cota de Cramer-Rao

EJEMPLOS DE ESTIMADORES EFICIENTES:

N(µ; σ2)

P(λ)

E(x) = µ

σ V (x) = n

2

Be(p)

E(x) = λ E(x) = p p(1 − p) λ V (x) = V (x) = n n

¾Normal

N(µ; σ2)

⇒ x es un estimador eficiente de µ

¾Poisson

P(λ)

⇒ x es un estimador eficiente de λ

¾Bernoulli

Be(p)

⇒ x es un estimador eficiente de p

2. PROPIEDADES DE UN ESTIMADOR

3. Error

Cuadrático Medio

(

ECM (θ$) = E θ$ − θ Teorema 9.6.

a)

)

2

[ () ]

ECM (θ$) = Var (θ$) + E θ$ − θ

b) Si

()

E θ$ = θ

2

Sesgo



Insesgado

ECM (θ$) = Var (θ$)

2. PROPIEDADES DE UN ESTIMADOR

4. Consistencia Un estimador θ^ asintóticamente insesgado, cuya varianza tienda a cero al aumentar el tamaño muestral ⇒ es consistente Aplicaciones:

La media muestral es un estimador consistente de la media poblacional

E(x) = µ

σ V (x) = n

2

¾Normal

N(µ; σ2)

⇒ x es un estimador consistente de µ

¾Poisson

P(λ)

⇒ x es un estimador consistente de λ

¾Bernoulli

Be(p)

⇒ x es un estimador consistente de p

2. PROPIEDADES DE UN ESTIMADOR

4. Suficiencia Un estimador θ$ es suficiente cuando no da lugar a pérdida de información; es decir, cuando la inferencia basada en θ$ es tan buena como la que hiciera uso de toda la muestra.

2. PROPIEDADES DE UN ESTIMADOR Para identificar estadísticos suficientes se utiliza el teorema de factorización: Una condición necesaria y suficiente para que θ$ = g ( X 1 , X 2 ,..., X n ) sea suficiente para θ es que la densidad conjunta de la muestra f(X1,X2,...,Xn; θ) pueda expresarse así:

f ( X 1 , X 2 ,..., X n ;θ ) =

ϕ (θ$;θ ) h( X 1 , X 2 ,..., X n )

f ( X 1 ;θ ) . f ( X 2 ;θ )... f ( X n ;θ )

EJEMPLOS DE ESTIMADORES SUFICIENTES: ¾Ejemplo: P(λ)

⇒ x es un estimador suficiente de λ n

f ( X 1 , X 2 ,..., X n ; λ ) = e − λ

∑ xi

xn i =1 λ − λ λ x2 λ λ e ... e − λ = e − λn n x1 ! x2 ! xn ! ∏ xi ! x1

i =1

f ( X 1 , X 2 ,..., X n ; λ ) = e

− λn

λ

1

xn n

∏x! i =1

i

ϕ (θ$;θ ) h( X , X ,..., X ) 1 2 n

EJEMPLOS DE ESTIMADORES SUFICIENTES:

N(µ;

σ2)

Be(p)

⎛ 1 ⎞ ⎟ f ( X 1 , X 2 ,..., X n ; µ , σ ) = ⎜ ⎝ 2πσ 2 ⎠ 2

n/2

e

n 1 ( Xi − µ ) − 2 i =1 σ2



2

x n− x f ( X 1 , X 2 ,..., X n ; p = p ∑ i (1 − p) ∑ i

¾Normal

N(µ; σ2)

⇒ x es un estimador suficiente de µ

¾Bernoulli

Be(p)

⇒ x es un estimador suficiente de p

3. PROCEDIMIENTOS DE ESTIMACIÓN

Método de la máxima verosimilitud Función de verosimilitud de la muestra Si en la función de densidad conjunta f(X1,X2,...,Xn; θ) de una muestra fijamos los valores de (X1,X2,...,Xn) en aquéllos que se han presentado en una realización muestral, tenemos una función de θ que llamaremos función de verosimilitud asociada a dicha realización muestral.

L(θ/ x1,x2,..., xn ) = P(θ/ X1=x1, X2= x2,..., Xn= xn )

3. PROCEDIMIENTOS DE ESTIMACIÓN

Método de la máxima verosimilitud El estimador de máxima verosimilitud de θ ó EMV(θ) es ^ el valor de θMV que maximiza la función de verosimilitud

∂ L(θ / x1 , x2 ,..., xn ) =0 ∂θ

∂ ln L(θ / x1 , x2 ,..., xn ) =0 ∂θ

EJEMPLOS DE ESTIMADORES MÁXIMO VEROSÍMILES

N(µ;

σ2)

P(λ) B(p)

⎛ 1 ⎞ L( µ , σ / x1 , x2 ,... xn ) = ⎜ 2⎟ ⎝ 2πσ ⎠

n/2

2

e

1 − 2



λ∑ i x1 ! x2 !.. xn ! x

L(λ / x1 , x2 ,... xn ) = e − λn

xi n − ∑ xi ∑ L( p / x1 , x2 ,... xn ) = p (1 − p)

¾Normal

N(µ; σ2) ⇒ EMV(µ )=x

¾Poisson

P(λ)

⇒ EMV(λ)=x

¾Bernoulli

B(p)

⇒ EMV(p )=x

y EMV(σ2 )=S2

( xi − µ ) 2 σ2

PROPIEDADES DE LOS ESTIMADORES MÁXIMO VEROSÍMILES

1. Los E.M.V. no son , en general, insesgados, aunque si asintóticamente insesgados. Son, en general, consistentes 2. Si existe un estadístico suficiente, el E.M.V. es función únicamente de dicho estadístico. 3. El E.M.V. es invariante: ^ es E.M.V. de g(θ) Si ^ θ es E.M.V. θ ⇒ g(θ) 4. Si existe un estimador eficiente del parámetro en estudio, éste es necesariamente el E.M.V.

3. PROCEDIMIENTOS DE ESTIMACIÓN

Método de los momentos El procedimiento consiste en igualar momentos poblacionales respecto al origen (αr) a los correspondientes momentos muestrales (ar), formando así tantas ecuaciones como parámetros poblacionales se pretenden estimar: n

α 1 = E ( X ) = µ ⇒ α$1 = a1 =

∑x

i

i =1

n

= x

n

α 2 = E( X ) 2

⇒ α$2 = a2 =

∑x i =1

n

2 i

En general: n

α r = E( X r )

⇒ α$r = ar =



i =1

x ir

n

EJEMPLOS DE ESTIMADORES POR EL MÉTODO DE LOS MOMENTOS ¾Poisson

P(λ)



λ = E ( X ) = µ ⇒ λ$ = x

¾Bernoulli

B(p)



p = E ( X ) = µ ⇒ p$ = x

¾Normal

N(µ; σ2) ⇒ Parámetros a estimar: µ y σ2

µ = E( X ) σ 2 = α2 − µ 2 ⇒ α2 = σ 2 + µ 2 Por el método de los momentos, sabemos que los estimadores de µ y α2 son a1 y a2 respectivamente:

x=µ a2 = σ 2 + µ 2

µ$ = x σ$ 2 = a2 − x 2 = S 2