Notas de Muestreo 2

NOTAS DE MUESTREO EN ´ POBLACIONES BIOLOGICAS Dr. Guillermo Mart´ınez Fl´orez ii ´Indice general 1. Estimadores de r

Views 74 Downloads 4 File size 1MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

NOTAS DE MUESTREO EN ´ POBLACIONES BIOLOGICAS Dr. Guillermo Mart´ınez Fl´orez

ii

´Indice general 1. Estimadores de regresi´ on 1.1. Estimador diferencia . . . . . . . . . . . . 1.1.1. Efecto de Dise˜ no . . . . . . . . . . 1.2. Introducci´on a los estimadores de regresi´on 1.3. La varianza de un estimador de regresi´on .

. . . .

7 7 10 12 20

2. Estimadores de regresi´ on para dominios 2.1. Modelo heterocedastico sin intersecto en dominio . . . . . . . . . . . . . . .

25 27

3. Estimadores de regresi´ on para dise˜ no de elementos 3.1. El modelo de raz´on constante y el estimador de raz´on . . . . . . . . . . . . . 3.1.1. Eficiencia del tˆyra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2. Estimaci´on de la varianza . . . . . . . . . . . . . . . . . . . . . . . . 3.2. El estimador de raz´on bajo otros dise˜ nos . . . . . . . . . . . . . . . . . . . . 3.2.1. Estimador de la raz´on bajo un dise˜ no de muestreo Bernoulli . . . . . 3.2.2. Estimador de la raz´on bajo un dise˜ no de muestreo ΠP T . . . . . . . 3.3. El modelo de media constante . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Modelos que envuelven grupos poblacionales . . . . . . . . . . . . . . . . . . 3.5. El muestreo ESTMAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. El estimador de raz´on de grupo y el estimador de raz´on separada . . . . . . 3.6.1. El dise˜ no MAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2. El dise˜ no ESTMAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.3. Estimador de regresi´on simple . . . . . . . . . . . . . . . . . . . . . . 3.7. Estimaci´on de una raz´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1. Cuando una sola variable X explica tanto a Y como a Z . . . . . . . 3.7.2. Cuando se tienen dos variables auxiliares X1 que explica Y y X2 que explica Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33 34 37 37 38 38 40 41 43 48 50 51 51 52 55 58

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

72

4. Estimadores de regresi´ on para muestreo de conglomerados y muestreo en dos etapas 89 4.1. Estimadores de regresi´on para muestreo de conglomerados . . . . . . . . . . 90 iii

´INDICE GENERAL

iv

4.2. Modelo de raz´on constante para totales de UPMs . . . 4.3. Estimadores de la media poblacional de conglomerados 4.3.1. Estimadores alternativos . . . . . . . . . . . . . 4.4. Estimadores de regresi´on para modelamiento en el nivel 4.4.1. Estimadores alternativos para el caso C . . . . . 4.5. Modelo de raz´on constante para elementos . . . . . . . 5. Muestro en dos fases 5.1. Notaciones . . . . . . . . . . . . . . . . . . 5.2. El π ∗ -estimador . . . . . . . . . . . . . . . 5.3. Muestreo en dos fases para estratificaci´on . 5.4. Estimadores de diferencia . . . . . . . . . 5.5. Estimadores de regresi´on para muestreo en 5.5.1. Segunda fase . . . . . . . . . . . . 5.5.2. Primera fase . . . . . . . . . . . . . 5.5.3. Casos especiales . . . . . . . . . . .

. . . . . . . . dos . . . . . .

6. Dispersi´ on espacial de una poblaci´ on 6.1. Pautas b´asicas para un programa de muestreo 6.1.1. Estudios de Flora y Fauna . . . . . . . 6.1.2. Estudios cuantitativos . . . . . . . . . 6.1.3. Dise˜ nos muestrales . . . . . . . . . . .

. . . . . . . . . . . . fases . . . . . . . . .

. . . .

. . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . . . . . . . de elementos . . . . . . . . . . . . . . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . .

. . . . . . . .

. . . .

. . . . . .

. . . . . . . .

. . . .

. . . . . .

. . . . . . . .

. . . .

. . . . . .

93 95 97 97 100 101

. . . . . . . .

109 109 111 114 117 119 119 120 121

. . . .

131 132 133 133 133

7. Muestreo de redes (network) 137 7.1. Estimador de multiplicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 7.2. Estimador de Horvitz-Thompson . . . . . . . . . . . . . . . . . . . . . . . . 140 8. Estimaci´ on de tama˜ no poblacional 8.1. Estimaci´on por captura y recaptura . . . . . . . . . . . . . . . . . 8.2. Tablas de contingencia para experimentos con captura y recaptura 8.3. Estimaci´on con varias recapturas . . . . . . . . . . . . . . . . . . 8.4. Muestro por cuadriculas (´areas) . . . . . . . . . . . . . . . . . . . 8.5. Muestreo por fajas o bandas y l´ıneas transversales . . . . . . . . . 8.6. Transectas de ancho fijo . . . . . . . . . . . . . . . . . . . . . . . 8.7. Muestro por intercepto de l´ıneas . . . . . . . . . . . . . . . . . . . 8.8. Estimadores de par´ametros poblacionales . . . . . . . . . . . . . . 8.9. Variables cuantitativas . . . . . . . . . . . . . . . . . . . . . . . . 8.9.1. Muestreo de una l´ınea . . . . . . . . . . . . . . . . . . . . 8.9.2. Muestreo replicado con k l´ıneas . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

145 145 148 150 155 155 158 162 163 164 164 166

´INDICE GENERAL

v

9. Muestreo de conglomerados adaptativos 169 9.1. Muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 9.2. Un estimador usando probabilidades de intersecci´on inicial . . . . . . . . . . 171 9.3. Estimaci´on usando el n´ umero de intersecciones iniciales . . . . . . . . . . . . 173 10.Muestreo de conglomerados adaptativos estratificado 10.1. Dise˜ nos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2. Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.1. Estimadores usando n´ umeros esperados de intersecciones iniciales 10.2.2. Estimadores usando probabilidades iniciales de intersecci´on. . . . 11.Detectabilidad y muestreo 11.1. Detectabilidad constante en una regi´on . . . . . . . . . . . . . . . 11.2. Estimaci´on de la detectabilidad . . . . . . . . . . . . . . . . . . . 11.3. Detectabilidad con muestreo aleatorio simple . . . . . . . . . . . . 11.4. Detectabilidad estimada y muestreo aleatorio simple . . . . . . . . 11.5. Muestreo con reemplazamiento . . . . . . . . . . . . . . . . . . . 11.6. Muestreo probabil´ıstico de grupos con probabilidades de detecci´on

. . . .

. . . . . . . . . . . . . . . . . . . . . . . . . desigual

12.L´ıneas y puntos transectos 12.1. M´etodos para estimaci´on de densidad por l´ınea transecta . . . . . . . 12.2. M´etodo de franja estrecha . . . . . . . . . . . . . . . . . . . . . . . . 12.3. M´etodo de suavizado al ojo . . . . . . . . . . . . . . . . . . . . . . . 12.4. M´etodos param´etricos . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5. M´etodos no param´etricos . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.1. Estimaci´on de f (0) por el m´etodo Kernel . . . . . . . . . . . . 12.5.2. M´etodo de la serie de Fourier . . . . . . . . . . . . . . . . . . 12.5.3. Nota sobre la estimaci´on de la varianza para el m´etodo Kernel 12.6. Dise˜ nos para seleccionar transectas . . . . . . . . . . . . . . . . . . . 12.7. Muestra aleatoria simple de transectos . . . . . . . . . . . . . . . . . 12.7.1. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . 12.7.2. Estimador de raz´on . . . . . . . . . . . . . . . . . . . . . . . . 12.8. Estimador Jackknife en MAS de transectos . . . . . . . . . . . . . . . 12.8.1. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . 12.8.2. Selecci´on con probabilidad proporcional a la longitud . . . . . 12.9. Selecci´on sistem´atica de los transectos . . . . . . . . . . . . . . . . . . 12.10.Esfuerzo de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.10.1.Tama˜ no de muestra m´ınimo . . . . . . . . . . . . . . . . . . . 12.10.2.Estimaci´on de esfuerzo total necesario . . . . . . . . . . . . . 12.10.3.Muestreo punto de transectos . . . . . . . . . . . . . . . . . . 12.10.4.Muestreo de l´ıneas transectas . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . .

. . . .

181 182 185 185 187

. . . . . .

193 193 195 197 199 200 201

. . . . . . . . . . . . . . . . . . . . .

203 204 205 207 208 211 212 213 214 216 217 218 220 221 221 223 225 226 226 227 227 228

vi

´INDICE GENERAL

13.Muestreo por intersecto de l´ıneas 229 13.1. Muestra aleatoria de l´ıneas: direcci´on fija . . . . . . . . . . . . . . . . . . . . 229 13.2. L´ıneas de posici´on aleatoria y direcci´on . . . . . . . . . . . . . . . . . . . . . 234

Cap´ıtulo 1 Estimadores de regresi´ on El principal t´opico de esta secci´on es el estimador de regresi´on, sin embargo hacemos una introducci´on al estimador diferencia por las siguientes razones: 1. Un entendimiento del estimador diferencia simplifica el paso al estimador de regresi´on. 2. El estimador diferencia es simple al manipularse algebraicamente.

1.1.

Estimador diferencia

Asumamos que existen J variables auxiliares denotadas x1 , x2 , ..., xj , ..., xJ donde el valor de la j−´esima variable para el k−´esimo elemento poblacional es denotado por xjk . Para el k−´esimo elemento se define el vector xk = (x1k , x2k , ..., xjk , ..., xJk )0 . Como es natural la variable de estudio y toma el valor yk para el k−´esimo elemento. Los valores y1 , y2 , ..., yN se asumen desconocidos donde x1 , x2 , ..., xj , ..., xN son conocidas. El par´ametro poblacional al ser estimado, es el total poblacional de y: X ty = yk U

Una muestra probabil´ıstica s es seleccionada de U = {1, 2, ..., N } mediante un dise˜ no p (·) con probabilidad de inclusi´on πk > 0 y πkl > 0, ∀k, l ∈ s. Para todos los elementos de la muestra k ∈ s se observan yk y por supuesto xk La idea principal del estimador diferencia es la de usar informaci´on auxiliar para formar o conjuntos de N representativos valores de y, denotados y1o , y2o , ..., yN , tal que yko es al menos una adecuada aproximaci´on de yk .

7

´ 1. ESTIMADORES DE REGRESION

8

Con informaci´on auxiliar x1k , x2k , ..., xjk , ..., xJk , se expresa yko como una combinaci´on lineal de xk , es decir: J X

yko =

Aj xjk = A0 xk

j=1

donde A = (A1 , A2 , ..., AJ )0 es un vector de valores conocidos. Observe que yko se puede calcular para todo k ∈ U . Cuando se asume una aproximaci´on lineal: J

. X yk = Aj xjk = A0 xk j=1

es razonable escoger yko

=

J X

Aj xjk = A0 xk

j=1

Cuando se tiene una sola variable auxiliar x, xj = x y Aj = 1, entonces: yko = Ajk = xk y se sigue que . yk = yko = xk , ∀k ∈ U Ahora, el total poblacional desconocido a ser estimado puede escribirse como:

ty =

X

yk

U

yko +

X

U

U

X

yko +

X

=

X

=

U

(yk − yko ) Dk

U

donde Dk = yk − yko Luego se define el estimador diferencia como sigue:

(1.1.1)

1.1. ESTIMADOR DIFERENCIA

9

tˆy,dif =

X

yko +

X Dk πk

s

U

=

X

yko +

X

ˇk D

s

U

Si xk es conocida en el universo y Aj tambi´en, entonces yko es conocido. V´ease el siguiente resultados: Resultado 1.1.1. tˆy,dif , es insesgado para ty y su varianza viene dada por: XX

AV (tˆy,dif ) =

∆kl

U

Dk Dl π k πl

Con estimador: Vˆ (tˆy,dif ) =

X X ∆kl Dk Dl s

πkl πk πl

Demostraci´on. Veamos si tˆy,dif , es insesgado para ty :

E(tˆy,dif ) = E

X

yko +

s

U

=

X

=

X

yko + E yko +

U

X

U

yko +

U

=

X

yko +

X

=

X

=

X

yko +

Ik (S)

E (Ik (S)) πk

Dk

X

(yk − yko )

U

(yko

U

= ty .

X

πk

πk

!

U

U

U

πk

X Dk U

U

=

X Dk

!

πk

X Dk U

U

=

X Dk

yk

+ yk − yko )

(1.1.2)

´ 1. ESTIMADORES DE REGRESION

10

En cuanto a la expresi´on de la varianza y su estimaci´on, se siguen los mismos pasos para el π−estimador, sin abrir Dk . Para tama˜ nos de muestra fijo: 1 XX AV (tˆy,dif ) = − ∆kl 2 U



Dk Dl − πk πl

2

Con estimador: 1 Vˆ (tˆy,dif ) = − 2

X X ∆kl  Dk Dl 2 − πkl πk πl s

Por ejemplo, si se emplea un dise˜ no MAS, se tiene que: tˆy,dif =

X

yko +

U

NX Dk n s

N2 2 ˆ AVM AS (ty,dif ) = (1 − f )SD U n 2   N = (1 − f ) Sy2U + Sx2U − 2SxyU n y su varianza estimada: N2 2 VˆM AS (tˆy,dif ) = (1 − f )SD s n   N2 = (1 − f ) Sy2s + Sx2s − 2Sxys n donde Sy2U y Sx2U son las varianzas poblacionales de y y x respectivamente, y: SxyU =

1.1.1.

1 X (xk − x¯U ) (yk − y¯U ) . N −1 U

Efecto de Dise˜ no

Partiendo de que la correlaci´on poblacional se define como: rxyU =

SxyU Sx2U Sy2U

1.1. ESTIMADOR DIFERENCIA

11

Si esta correlaci´on es alta, el estimador diferencia producir´a a menudo una gran reducci´on en la varianza en comparaci´on al π−estimador. De esto tenemos que:

def f tˆy,dif , tˆyπ = 

N2 (1 n

  − f ) Sy2U + Sx2U − 2SxyU N2 (1 n

− f )Sy2U

=1+

Sx2U Sxy − 2 2U 2 SyU SyU

=1+

Sx2U rxy Sx −2 U U. 2 SyU S yU

Luego, si:  Sx2 rxy Sx def f tˆy,dif , tˆyπ < 1 ⇒ 2U − 2 U U < 0 SyU SyU Sx ⇒ U − 2rxyU < 0 SyU SxU . ⇒ rxyU < 2SyU Esto significa que el estimador diferencia es m´as eficiente que el π−estimador, cuando la correlaci´on entre las dos variables es menor que que el medio del cociente entre las varianzas de cada variable. Una manera alternativa de escribir el estimador diferencia es la siguiente: tˆy,dif =

X

=

X

yko +

X

ˇk D

s

U

yko +

U

X yk − y o k

s

πk

J XX

J X yk X 1 X = Aj xjk + − Aj xjk πk πk j=1 s s U j=1 ! J X yk X X X xjk = + Aj xjk − π πk k s s j=1 U J X yk X  = + Aj txj − tˆxjπ . πk j=1 s

De manera explicita, esto quiere decir que el estimador diferencia es igual al π−estimador m´as un termino de ajuste.

´ 1. ESTIMADORES DE REGRESION

12

1.2.

Introducci´ on a los estimadores de regresi´ on

Cuando en el estimador diferencia tˆy,dif los coeficientes A1 , A2 , ..., Aj no son conocidos, estos pueden ser estimado de la muestra S. Se define el estimador de regresi´on:

tˆy,reg = tˆyπ +

J X

βˆj txj − tˆxjπ



j=1

= tˆyπ + (tx − ˆtxπ )0 Bˆ con

ˆ B

= Tˆ −1 t =

X

0 xk xk

s

σk2 πk

!−1 X

xk yk

s

σk2 πk

!

= Bˆ π donde:  tx

  = 

tx1 tx2 .. .



    

txj

y

ˆ txπ

  = 

tˆπ1 tˆxπ2 .. . tˆxπj

    

En lo que sigue se denotar´a por ξ el modelo de regresi´on, el cual tendr´a las siguientes caracter´ısticas: i) y1 , y2 , ..., yN se asumen valores realizados de las variables aleatorias independientes (v.a.i) Y1 , Y2 , ..., YN . ii) Eξ (Yk ) =

J X

βj xjk con k = 1, 2, ..., N .

j=1

iii) Vξ (Yk ) = σk2 con k = 1, 2, ..., N . 2 Donde β1 , ..., βN y σ12 , ..., σN son los par´ametros del modelo. Sin importar la distribuci´on del modelo.

Dos ejemplos del modelo envolviendo una sola variable explicativa son:

´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION

13

Heterocedastico sin intersecto: 

Eξ (Yk ) = βxk Vξ (Yk ) = σ 2 xk

(1.2.1)

Eξ (Yk ) = β1 + β2 xk Vξ (Yk ) = σ 2

(1.2.2)

donde (x1 , ..., xN > 0). Homocedastico con intersecto: 

Para k = 1, 2, ..., N se tiene que: B

= (β1 , β2 , ..., βJ )0 = T−1 t !−1 ! X xk y k X xk x0 k = 2 σ σk2 k s s −1

= (XΣX0 )

(XΣY)

con Σ = diag (σk2 ) (k = 1, ..., N ), Y = (y1 , ..., yN ) y XJ×N ; ademas, TJ×J una matriz sim´etrica y tJ×1 es un J−vector columna. Tambi´en los elementos de T y de t, respectivamente, son de la forma: tjj 0 =

X xjk xj 0 k U

σk2

= tj 0 j y tj0 =

X xjk yk σk2

U

entonces: tˆjj 0 =

X xjk xj 0 k U

σk2 πk

= tˆj 0 j y tˆj0 =

X xjk yk U

σk2 πk

los cuales son insesgados para tjj 0 y tj0 . Bajo el modelo Heterocedastico sin intersecto: 

se obtiene que:

Eξ (Yk ) = βxk Vξ (Yk ) = σ 2 xk (x1 , ..., xN > 0)

´ 1. ESTIMADORES DE REGRESION

14

ˆ B

=

X

0 xk xk

s

σk2 πk

!−1 X

xk y k

s

σk2 πk

!

!−1 ! X xk xk X xk y k = σ 2 x k πk σ 2 xk πk s s !−1 ! 1 X yk 1 X xk = σ 2 s πk σ 2 s πk X yk πk s =X xk πk s =

tˆyπ . tˆxπ

Consecuentemente se tiene que:

tˆy,reg = tˆyπ + (tx − ˆtxπ )0 Bˆ  tˆyπ = tˆyπ + tx − tˆxπ tˆxπ tˆyπ ˆ tˆyπ − txπ = tˆyπ + tx tˆxπ tˆxπ tˆyπ ˆ = tˆyπ + tx − tyπ tˆxπ tx = tˆyπ . tˆxπ Ahora, bajo el modelo Homocedastico con intersecto: 

Eξ (Yk ) = β1 + β2 xk Vξ (Yk ) = σ 2

Se tiene el vector xk = (x1k , x2k ) = (1, xk ) y B = (β1 , β2 ), y teniendo en cuenta lo tratado en el capitulo de Estimaci´ on de par´ ametros distintos al total; para este modelo (modelo de regresi´on simple):

´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION

15

X (xk − x˜s ) (yk − y˜s ) βˆ2 =

πk

s

X (xk − x˜s )2 s

y βˆ1 = y˜s − βˆ2 x˜s

πk

Con esto se obtiene que:   tˆy,reg = tˆyπ + βˆ1 tx1 − tˆx1 π + βˆ2 tx2 − tˆx2 π     ˆ + βˆ2 tx − tˆxπ = tˆyπ + y˜s − βˆ2 x˜s N − N ˆ y˜s − N βˆ2 x˜s + N ˆ βˆ2 x˜s + βˆ2 N x¯U − βˆ2 tˆxπ = tˆyπ + N y˜s − N ˆ y˜s + N y˜s − N ˆ y˜s − N βˆ2 x˜s + N ˆ βˆ2 x˜s + βˆ2 N x¯U − βˆ2 tˆxπ =N = N y˜s − N βˆ2 x˜s + βˆ2 N x¯U h i = N y˜s + βˆ2 (¯ xU − x˜s ) . Cuando se va a estimar el modelo de regresi´on, se requiere de los yk , los xk y de tx . No siempre se obtienen los x’s para toda la poblaci´on y adem´as que su correlaci´on con la variable y sea buena. Se puede usar el estimador de regresi´on siempre que se tenga tx ; pero cuando no se tiene, se consigue una aproximaci´on a trav´es de otros estudios con la consecuencia de obtener un mayor sesgo. “El estimador de regresi´on, usualmente, es m´as preciso que el π−estimador” Para una muestra s, bajo un modelo ξ, produce Bˆ ; y para k = 1, 2, .., N se obtienen los valores ajustados (o predichos): yˆk = xk Bˆ =

J X

βˆj xjk

(1.2.3)

j=1

para k ∈ s, y los residuales muestrales vienen dados por: eks = yk − yˆk N´otese, que los yˆk pueden obtenerse para todo k = 1, 2, .., N ; pero eks solo para los k ∈ s.

´ 1. ESTIMADORES DE REGRESION

16

Ahora:

X y− yˆk

tˆy,reg =

X

=

X U

s

=

X

X

yˆk +

U

yˆk + yˆk +

πk s X eks eˇks

(1.2.4)

s

U

Si la relaci´on lineal es perfecta, esto es yk =

πk

J X

βj xjk entonces

X

eˇks = 0 y tˆy,reg =

s

j=1

X

yˆk

U

Teorema 1.2.1. Una condici´on suficiente para que X eks s

πk

=0

(1.2.5)

para todo s ∈ =0 , es que existe un vector columna λ tal que ∀k ∈ U :

σk2 = λ0 xk donde =0 es el conjunto de todas las muestras bajo un dise˜ no con probabilidades de inclusi´on fijas π1 , ..., πN .

Demostraci´on. Se tiene por definici´on que: X eks s

Ahora:

πk

=

X yk X yˆk − π πk k s s

´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION

X 1 X yˆk 0 ˆ = xk B π π k k s s X 1 λ0 xk x0 kˆ = B 2 π σ k k s X 1 λ0 xk x0k Bˆ = 2 πk σk s ! X xk x0 k ˆ = λ0 B 2 π σ k k s ! !−1 X xk x0 X xk x0 k k = λ0 2 2 π σ σ π k k k k s s ! X xk yk = λ0 πk σk2 s X λ0 xk yk = σk2 πk s X yk = πk s

17

X

xk y k

s

σk2 πk

= tˆyπ Por tanto, esto es: X eks s

πk

= tˆyπ − tˆyπ = 0.

Otra forma de escribir el estimador de regresi´on es: tˆy,reg = tˆyπ + (tx − ˆtxπ )0 Bˆ = tˆyπ + (tx − ˆtxπ )0 Tˆ −1 t X yk X xk y k = + (tx − ˆtxπ )0 Tˆ −1 πk σk2 πk s s  X yk 0 ˆ −1 xk = 1 + (tx − ˆtxπ ) T 2 σk πk s X yk = gks . πk s

!

!

´ 1. ESTIMADORES DE REGRESION

18

Donde gks = 1 + (tx − ˆtxπ )0 Tˆ −1

xk

σk2

.

Bajo el modelo Heterocedastico sin intersecto: gks = 1 + (tx − ˆtxπ )0 Tˆ −1 = 1 + (tx − ˆtxπ )

=1+

=1+

=1+ =1+ =1+

0

xk

σk2

X

0 xk xk

s

σk2 πk

!−1

xk

σk2

!−1  X xk x k xk tx − tˆxπ 2 σ x k πk σ 2 xk s !−1  X xk 1 tx − tˆxπ 2 σ πk σ2 s !−1  X xk tx − tˆxπ πk s  1 tx − tˆxπ tˆxπ tx −1 tˆxπ

tx tˆxπ N x¯U = . ˆ x˜s N

=

Ahora, para el modelo Homocedastico con intersecto se llega a que:

gks

" # x¯U − x˜s N = 1+ (xk − x˜s ) ˆ S˜x2s N N = [1 + as (xk − x˜s )] ˆ N

con as =

x¯U − x˜s S˜x2 s

y

´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION

19

" # X x2 1 k ˆ x˜2 S˜x2s = −N s 2 ˆ π N k s 1 X (xk − x˜s )2 = ˆ πk N s Se conoce que yko = x0k B y por tanto los residuales poblacionales son: Ek = yk − yko ⇒ yk = yko + Ek Luego como tˆy,reg =

X

gks yˇk , entonces:

s

tˆy,reg =

X

=

X

gks

s

yko + Ek πk

gks yˇko + Eˇk



s

Adem´as:

X

gks xˇ0k

=

s

X

1+

s

= = =

X

0 xk

s

πk

X

0 xk

s

πk

X

0 xk

s

πk

+



(tx − ˆtxπ )0 Tˆ −1

X

0 xk xk

s

σk2 πk

+ (tx − ˆtxπ )0 Tˆ −1 Tˆ + (tx − ˆtxπ )0 I

= ˆt0xπ + t0x − ˆt0xπ X 0 xk = t0x = U

De esto se obtiene que:

0 xk

xk (tx − ˆtxπ )0 Tˆ −1 2 σk

πk !

´ 1. ESTIMADORES DE REGRESION

20

! X

X

gks yˇko =

s

gks x0k

B

s

! X

=

0 xk

B

U

=

X

=

X

0 xk B

U

yko

U

Por tanto: yko + Ek πk s X gks y o X gks Ek k = + π πk k s s X X gks Eˇk gks yˇko + =

tˆy,reg =

X

=

X

gks

s

s

yko

gks Eˇk .

s

U

1.3.

+

X

La varianza de un estimador de regresi´ on

El estimador de regresi´on es aproximadamente insesgado por la linealizaci´on de Taylor: . tˆy,reg = tˆy,r0 = tˆyπ + (tx − ˆtxπ )0 Bˆ X X = yko + Eˇk

(1.3.1)

s

U

Cuya varianza aproximada es: AV (tˆy,reg ) =

XX

=

XX

U

U

∆kl

Ek El πk πl

∆kl Eˇk Eˇl

(1.3.2)

´ 1.3. LA VARIANZA DE UN ESTIMADOR DE REGRESION

21

Con estimador:

Vˆ (tˆy,reg ) =

 XX ∆kl eks els      πkl πk πl  s

=

XX

ˇ kl eˇks eˇls ∆

s

 X X ∆kl gks eks gks els XX   ˇ kl gks eˇks gls eˇls  = ∆   π π π kl k l s s As´ı, un intervalo de confianza al 100(1 − α) % para ty viene dado por: q ˆ ty,reg ± Z(1− α ) Vˆ (tˆy,reg )

(1.3.3)

2

Si el modelo es bueno y mide el comportamiento de la poblaci´on, se obtiene una varianza estimada relativamente peque˜ na. Para el modelo Heterocedastico sin intersecto, la estimaci´on de la varianza es de la siguiente manera:

Vˆ (tˆy,reg ) =

X X ∆kl gks eks gks els

πk πl  X X ∆kl tx eks   tx els  = πkl tˆxπ πk tˆxπ πl s  2 X X tx ∆kl = eˇks eˇls ˆ πkl txπ s s

πkl

(1.3.4)

Bajo un dise˜ no M AS: N2 AVM AS (tˆy,reg ) = (1 − f )SE2 U n   N2 (1 − f ) Sy2U + Sx2U − 2SxyU = n

(1.3.5)

y su varianza estimada: 2 2 N x ¯ N U VˆM AS (tˆy,reg ) = (1 − f )Se2s N x¯s n  2 2 h i x¯U N ˆ xys = (1 − f ) Sy2s + βˆ2 Sx2s − 2βS x¯s n 

(1.3.6)

22

´ 1. ESTIMADORES DE REGRESION

Ejemplo 1.3.1. A continuaci´on, se muestra un ejemplo aplicativo sobre la estimaci´on del total, la aproximaci´on de la varianza, la varianza estimada, el coeficiente de variaci´on y un intervalo de confianza a (1 − α)100 %, en un modelo Heterosedastico sin intersecto bajo un dise˜ no M AS:

> > + + + + + + + + > > >

set.seed(1) gen.corr.data B=sum(Y)/sum(X) > Ek=Y-B*X > b=sum(yk)/sum(xk) > ek=yk-b*xk #Aproximaci´ on de la Varianza > AVtyr=(N^2/n)*(1-(n/N))*var(Ek);AVtyr [1] 1386.129 #Varianza estimada > Vtyr=(gks^2)*(N^2/n)*(1-(n/N))*var(ek);Vtyr [1] 1276.294 #Coeficiente de variaci´ on > cvr=sqrt(Vtyr)/tyr;cvr [1] 0.0001804073 #IC al (1-alpha)100%; alpha=0.05 > alpha=0.05 > Ic 0- Adem´as, las pendientes βd pueden variar con el dominio. Este modelo, puede escribirse en terminos del modelo general, si se tiene en cuenta que B

= (β1 , ..., βd , ..., βD )0

y xk

= (z1k xk , ..., zdk xk , ..., zDk xk )0

donde zdk es la funci´on indicadora del dominio. Ahora, el estimador de raz´on de dominios viene dado por

tˆdra

P ˇk s y = xk P d ˇk sd x Ud ! X ˆd = xk B X

Ud

(2.1.1)

´ PARA DOMINIOS 2. ESTIMADORES DE REGRESION

28

con el requerimiento de que el total poblacional de x en el dominio sea conocido. Los residuales y las g−ponderaciones son ˆ d xk eks = yk − B y ! P x k PUd zdk ˇk sd x

gdks =

La varianza y su estimador son los ya dados anteriormente. Ejemplo 2.1.1. Bajo un M AS con n elementos obtenidos de N : P X ˇk s y tˆdra = xk P d ˇk sd x Ud P X Nn s yk = xk N P d s d xk n Ud P X s yk = xk P d s d xk U d

= Nd y¯Ud

y¯sd x¯sd

cuya aproximaci´on de la varianza es N2 Nd − 1 2 AV (tˆdra ) = (1 − f ) S n N − 1 EUd donde 2 SEU = d

1 X (yk − Bd xk )2 Nd − 1 U d

P U yk con Bd = P d y le estimaci´on de la varianza viene dada por Ud x k      n (n − 1) x ¯ 1 1 U s 2 2 d d Vˆ (tˆdra ) = Nd − Ses d ˆ (n − 1) nss x¯sd ns d Nd     1 1 . x¯Ud 2 = Nd2 − Ses d ˆd x¯sd ns d N ˆd = N nsd , x¯U y x¯s son las medias en Ud y sd correspondientes y donde N d d n 2 1 X 2 ˆ d xk y − B Ses = k d nd − 1 s s

Ahora se muestra una simulaci´on donde la poblaci´on es generada con datos correlacionados:

2.1. MODELO HETEROCEDASTICO SIN INTERSECTO EN DOMINIO

#Generar muestra correlacionada > set.seed(1999) > gen.corr.data tyd0=sum(Yd0);tyd0 [1] 19821.72 > ty=sum(datdom$Y);ty

29

30

´ PARA DOMINIOS 2. ESTIMADORES DE REGRESION

[1] 68338.14 #Funci´ on que estima en dominio > N=500;n=50 > MRadom