NOTAS DE MUESTREO EN ´ POBLACIONES BIOLOGICAS Dr. Guillermo Mart´ınez Fl´orez ii ´Indice general 1. Estimadores de r
Views 74 Downloads 4 File size 1MB
NOTAS DE MUESTREO EN ´ POBLACIONES BIOLOGICAS Dr. Guillermo Mart´ınez Fl´orez
ii
´Indice general 1. Estimadores de regresi´ on 1.1. Estimador diferencia . . . . . . . . . . . . 1.1.1. Efecto de Dise˜ no . . . . . . . . . . 1.2. Introducci´on a los estimadores de regresi´on 1.3. La varianza de un estimador de regresi´on .
. . . .
7 7 10 12 20
2. Estimadores de regresi´ on para dominios 2.1. Modelo heterocedastico sin intersecto en dominio . . . . . . . . . . . . . . .
25 27
3. Estimadores de regresi´ on para dise˜ no de elementos 3.1. El modelo de raz´on constante y el estimador de raz´on . . . . . . . . . . . . . 3.1.1. Eficiencia del tˆyra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2. Estimaci´on de la varianza . . . . . . . . . . . . . . . . . . . . . . . . 3.2. El estimador de raz´on bajo otros dise˜ nos . . . . . . . . . . . . . . . . . . . . 3.2.1. Estimador de la raz´on bajo un dise˜ no de muestreo Bernoulli . . . . . 3.2.2. Estimador de la raz´on bajo un dise˜ no de muestreo ΠP T . . . . . . . 3.3. El modelo de media constante . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Modelos que envuelven grupos poblacionales . . . . . . . . . . . . . . . . . . 3.5. El muestreo ESTMAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. El estimador de raz´on de grupo y el estimador de raz´on separada . . . . . . 3.6.1. El dise˜ no MAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2. El dise˜ no ESTMAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.3. Estimador de regresi´on simple . . . . . . . . . . . . . . . . . . . . . . 3.7. Estimaci´on de una raz´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1. Cuando una sola variable X explica tanto a Y como a Z . . . . . . . 3.7.2. Cuando se tienen dos variables auxiliares X1 que explica Y y X2 que explica Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33 34 37 37 38 38 40 41 43 48 50 51 51 52 55 58
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
72
4. Estimadores de regresi´ on para muestreo de conglomerados y muestreo en dos etapas 89 4.1. Estimadores de regresi´on para muestreo de conglomerados . . . . . . . . . . 90 iii
´INDICE GENERAL
iv
4.2. Modelo de raz´on constante para totales de UPMs . . . 4.3. Estimadores de la media poblacional de conglomerados 4.3.1. Estimadores alternativos . . . . . . . . . . . . . 4.4. Estimadores de regresi´on para modelamiento en el nivel 4.4.1. Estimadores alternativos para el caso C . . . . . 4.5. Modelo de raz´on constante para elementos . . . . . . . 5. Muestro en dos fases 5.1. Notaciones . . . . . . . . . . . . . . . . . . 5.2. El π ∗ -estimador . . . . . . . . . . . . . . . 5.3. Muestreo en dos fases para estratificaci´on . 5.4. Estimadores de diferencia . . . . . . . . . 5.5. Estimadores de regresi´on para muestreo en 5.5.1. Segunda fase . . . . . . . . . . . . 5.5.2. Primera fase . . . . . . . . . . . . . 5.5.3. Casos especiales . . . . . . . . . . .
. . . . . . . . dos . . . . . .
6. Dispersi´ on espacial de una poblaci´ on 6.1. Pautas b´asicas para un programa de muestreo 6.1.1. Estudios de Flora y Fauna . . . . . . . 6.1.2. Estudios cuantitativos . . . . . . . . . 6.1.3. Dise˜ nos muestrales . . . . . . . . . . .
. . . . . . . . . . . . fases . . . . . . . . .
. . . .
. . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . . . . . . . . . . . . . . . . . . de elementos . . . . . . . . . . . . . . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . . . .
. . . .
. . . . . .
. . . . . . . .
. . . .
. . . . . .
. . . . . . . .
. . . .
. . . . . .
. . . . . . . .
. . . .
. . . . . .
93 95 97 97 100 101
. . . . . . . .
109 109 111 114 117 119 119 120 121
. . . .
131 132 133 133 133
7. Muestreo de redes (network) 137 7.1. Estimador de multiplicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 7.2. Estimador de Horvitz-Thompson . . . . . . . . . . . . . . . . . . . . . . . . 140 8. Estimaci´ on de tama˜ no poblacional 8.1. Estimaci´on por captura y recaptura . . . . . . . . . . . . . . . . . 8.2. Tablas de contingencia para experimentos con captura y recaptura 8.3. Estimaci´on con varias recapturas . . . . . . . . . . . . . . . . . . 8.4. Muestro por cuadriculas (´areas) . . . . . . . . . . . . . . . . . . . 8.5. Muestreo por fajas o bandas y l´ıneas transversales . . . . . . . . . 8.6. Transectas de ancho fijo . . . . . . . . . . . . . . . . . . . . . . . 8.7. Muestro por intercepto de l´ıneas . . . . . . . . . . . . . . . . . . . 8.8. Estimadores de par´ametros poblacionales . . . . . . . . . . . . . . 8.9. Variables cuantitativas . . . . . . . . . . . . . . . . . . . . . . . . 8.9.1. Muestreo de una l´ınea . . . . . . . . . . . . . . . . . . . . 8.9.2. Muestreo replicado con k l´ıneas . . . . . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
145 145 148 150 155 155 158 162 163 164 164 166
´INDICE GENERAL
v
9. Muestreo de conglomerados adaptativos 169 9.1. Muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 9.2. Un estimador usando probabilidades de intersecci´on inicial . . . . . . . . . . 171 9.3. Estimaci´on usando el n´ umero de intersecciones iniciales . . . . . . . . . . . . 173 10.Muestreo de conglomerados adaptativos estratificado 10.1. Dise˜ nos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2. Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.1. Estimadores usando n´ umeros esperados de intersecciones iniciales 10.2.2. Estimadores usando probabilidades iniciales de intersecci´on. . . . 11.Detectabilidad y muestreo 11.1. Detectabilidad constante en una regi´on . . . . . . . . . . . . . . . 11.2. Estimaci´on de la detectabilidad . . . . . . . . . . . . . . . . . . . 11.3. Detectabilidad con muestreo aleatorio simple . . . . . . . . . . . . 11.4. Detectabilidad estimada y muestreo aleatorio simple . . . . . . . . 11.5. Muestreo con reemplazamiento . . . . . . . . . . . . . . . . . . . 11.6. Muestreo probabil´ıstico de grupos con probabilidades de detecci´on
. . . .
. . . . . . . . . . . . . . . . . . . . . . . . . desigual
12.L´ıneas y puntos transectos 12.1. M´etodos para estimaci´on de densidad por l´ınea transecta . . . . . . . 12.2. M´etodo de franja estrecha . . . . . . . . . . . . . . . . . . . . . . . . 12.3. M´etodo de suavizado al ojo . . . . . . . . . . . . . . . . . . . . . . . 12.4. M´etodos param´etricos . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5. M´etodos no param´etricos . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.1. Estimaci´on de f (0) por el m´etodo Kernel . . . . . . . . . . . . 12.5.2. M´etodo de la serie de Fourier . . . . . . . . . . . . . . . . . . 12.5.3. Nota sobre la estimaci´on de la varianza para el m´etodo Kernel 12.6. Dise˜ nos para seleccionar transectas . . . . . . . . . . . . . . . . . . . 12.7. Muestra aleatoria simple de transectos . . . . . . . . . . . . . . . . . 12.7.1. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . 12.7.2. Estimador de raz´on . . . . . . . . . . . . . . . . . . . . . . . . 12.8. Estimador Jackknife en MAS de transectos . . . . . . . . . . . . . . . 12.8.1. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . 12.8.2. Selecci´on con probabilidad proporcional a la longitud . . . . . 12.9. Selecci´on sistem´atica de los transectos . . . . . . . . . . . . . . . . . . 12.10.Esfuerzo de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.10.1.Tama˜ no de muestra m´ınimo . . . . . . . . . . . . . . . . . . . 12.10.2.Estimaci´on de esfuerzo total necesario . . . . . . . . . . . . . 12.10.3.Muestreo punto de transectos . . . . . . . . . . . . . . . . . . 12.10.4.Muestreo de l´ıneas transectas . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . .
181 182 185 185 187
. . . . . .
193 193 195 197 199 200 201
. . . . . . . . . . . . . . . . . . . . .
203 204 205 207 208 211 212 213 214 216 217 218 220 221 221 223 225 226 226 227 227 228
vi
´INDICE GENERAL
13.Muestreo por intersecto de l´ıneas 229 13.1. Muestra aleatoria de l´ıneas: direcci´on fija . . . . . . . . . . . . . . . . . . . . 229 13.2. L´ıneas de posici´on aleatoria y direcci´on . . . . . . . . . . . . . . . . . . . . . 234
Cap´ıtulo 1 Estimadores de regresi´ on El principal t´opico de esta secci´on es el estimador de regresi´on, sin embargo hacemos una introducci´on al estimador diferencia por las siguientes razones: 1. Un entendimiento del estimador diferencia simplifica el paso al estimador de regresi´on. 2. El estimador diferencia es simple al manipularse algebraicamente.
1.1.
Estimador diferencia
Asumamos que existen J variables auxiliares denotadas x1 , x2 , ..., xj , ..., xJ donde el valor de la j−´esima variable para el k−´esimo elemento poblacional es denotado por xjk . Para el k−´esimo elemento se define el vector xk = (x1k , x2k , ..., xjk , ..., xJk )0 . Como es natural la variable de estudio y toma el valor yk para el k−´esimo elemento. Los valores y1 , y2 , ..., yN se asumen desconocidos donde x1 , x2 , ..., xj , ..., xN son conocidas. El par´ametro poblacional al ser estimado, es el total poblacional de y: X ty = yk U
Una muestra probabil´ıstica s es seleccionada de U = {1, 2, ..., N } mediante un dise˜ no p (·) con probabilidad de inclusi´on πk > 0 y πkl > 0, ∀k, l ∈ s. Para todos los elementos de la muestra k ∈ s se observan yk y por supuesto xk La idea principal del estimador diferencia es la de usar informaci´on auxiliar para formar o conjuntos de N representativos valores de y, denotados y1o , y2o , ..., yN , tal que yko es al menos una adecuada aproximaci´on de yk .
7
´ 1. ESTIMADORES DE REGRESION
8
Con informaci´on auxiliar x1k , x2k , ..., xjk , ..., xJk , se expresa yko como una combinaci´on lineal de xk , es decir: J X
yko =
Aj xjk = A0 xk
j=1
donde A = (A1 , A2 , ..., AJ )0 es un vector de valores conocidos. Observe que yko se puede calcular para todo k ∈ U . Cuando se asume una aproximaci´on lineal: J
. X yk = Aj xjk = A0 xk j=1
es razonable escoger yko
=
J X
Aj xjk = A0 xk
j=1
Cuando se tiene una sola variable auxiliar x, xj = x y Aj = 1, entonces: yko = Ajk = xk y se sigue que . yk = yko = xk , ∀k ∈ U Ahora, el total poblacional desconocido a ser estimado puede escribirse como:
ty =
X
yk
U
yko +
X
U
U
X
yko +
X
=
X
=
U
(yk − yko ) Dk
U
donde Dk = yk − yko Luego se define el estimador diferencia como sigue:
(1.1.1)
1.1. ESTIMADOR DIFERENCIA
9
tˆy,dif =
X
yko +
X Dk πk
s
U
=
X
yko +
X
ˇk D
s
U
Si xk es conocida en el universo y Aj tambi´en, entonces yko es conocido. V´ease el siguiente resultados: Resultado 1.1.1. tˆy,dif , es insesgado para ty y su varianza viene dada por: XX
AV (tˆy,dif ) =
∆kl
U
Dk Dl π k πl
Con estimador: Vˆ (tˆy,dif ) =
X X ∆kl Dk Dl s
πkl πk πl
Demostraci´on. Veamos si tˆy,dif , es insesgado para ty :
E(tˆy,dif ) = E
X
yko +
s
U
=
X
=
X
yko + E yko +
U
X
U
yko +
U
=
X
yko +
X
=
X
=
X
yko +
Ik (S)
E (Ik (S)) πk
Dk
X
(yk − yko )
U
(yko
U
= ty .
X
πk
πk
!
U
U
U
πk
X Dk U
U
=
X Dk
!
πk
X Dk U
U
=
X Dk
yk
+ yk − yko )
(1.1.2)
´ 1. ESTIMADORES DE REGRESION
10
En cuanto a la expresi´on de la varianza y su estimaci´on, se siguen los mismos pasos para el π−estimador, sin abrir Dk . Para tama˜ nos de muestra fijo: 1 XX AV (tˆy,dif ) = − ∆kl 2 U
Dk Dl − πk πl
2
Con estimador: 1 Vˆ (tˆy,dif ) = − 2
X X ∆kl Dk Dl 2 − πkl πk πl s
Por ejemplo, si se emplea un dise˜ no MAS, se tiene que: tˆy,dif =
X
yko +
U
NX Dk n s
N2 2 ˆ AVM AS (ty,dif ) = (1 − f )SD U n 2 N = (1 − f ) Sy2U + Sx2U − 2SxyU n y su varianza estimada: N2 2 VˆM AS (tˆy,dif ) = (1 − f )SD s n N2 = (1 − f ) Sy2s + Sx2s − 2Sxys n donde Sy2U y Sx2U son las varianzas poblacionales de y y x respectivamente, y: SxyU =
1.1.1.
1 X (xk − x¯U ) (yk − y¯U ) . N −1 U
Efecto de Dise˜ no
Partiendo de que la correlaci´on poblacional se define como: rxyU =
SxyU Sx2U Sy2U
1.1. ESTIMADOR DIFERENCIA
11
Si esta correlaci´on es alta, el estimador diferencia producir´a a menudo una gran reducci´on en la varianza en comparaci´on al π−estimador. De esto tenemos que:
def f tˆy,dif , tˆyπ =
N2 (1 n
− f ) Sy2U + Sx2U − 2SxyU N2 (1 n
− f )Sy2U
=1+
Sx2U Sxy − 2 2U 2 SyU SyU
=1+
Sx2U rxy Sx −2 U U. 2 SyU S yU
Luego, si: Sx2 rxy Sx def f tˆy,dif , tˆyπ < 1 ⇒ 2U − 2 U U < 0 SyU SyU Sx ⇒ U − 2rxyU < 0 SyU SxU . ⇒ rxyU < 2SyU Esto significa que el estimador diferencia es m´as eficiente que el π−estimador, cuando la correlaci´on entre las dos variables es menor que que el medio del cociente entre las varianzas de cada variable. Una manera alternativa de escribir el estimador diferencia es la siguiente: tˆy,dif =
X
=
X
yko +
X
ˇk D
s
U
yko +
U
X yk − y o k
s
πk
J XX
J X yk X 1 X = Aj xjk + − Aj xjk πk πk j=1 s s U j=1 ! J X yk X X X xjk = + Aj xjk − π πk k s s j=1 U J X yk X = + Aj txj − tˆxjπ . πk j=1 s
De manera explicita, esto quiere decir que el estimador diferencia es igual al π−estimador m´as un termino de ajuste.
´ 1. ESTIMADORES DE REGRESION
12
1.2.
Introducci´ on a los estimadores de regresi´ on
Cuando en el estimador diferencia tˆy,dif los coeficientes A1 , A2 , ..., Aj no son conocidos, estos pueden ser estimado de la muestra S. Se define el estimador de regresi´on:
tˆy,reg = tˆyπ +
J X
βˆj txj − tˆxjπ
j=1
= tˆyπ + (tx − ˆtxπ )0 Bˆ con
ˆ B
= Tˆ −1 t =
X
0 xk xk
s
σk2 πk
!−1 X
xk yk
s
σk2 πk
!
= Bˆ π donde: tx
=
tx1 tx2 .. .
txj
y
ˆ txπ
=
tˆπ1 tˆxπ2 .. . tˆxπj
En lo que sigue se denotar´a por ξ el modelo de regresi´on, el cual tendr´a las siguientes caracter´ısticas: i) y1 , y2 , ..., yN se asumen valores realizados de las variables aleatorias independientes (v.a.i) Y1 , Y2 , ..., YN . ii) Eξ (Yk ) =
J X
βj xjk con k = 1, 2, ..., N .
j=1
iii) Vξ (Yk ) = σk2 con k = 1, 2, ..., N . 2 Donde β1 , ..., βN y σ12 , ..., σN son los par´ametros del modelo. Sin importar la distribuci´on del modelo.
Dos ejemplos del modelo envolviendo una sola variable explicativa son:
´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION
13
Heterocedastico sin intersecto:
Eξ (Yk ) = βxk Vξ (Yk ) = σ 2 xk
(1.2.1)
Eξ (Yk ) = β1 + β2 xk Vξ (Yk ) = σ 2
(1.2.2)
donde (x1 , ..., xN > 0). Homocedastico con intersecto:
Para k = 1, 2, ..., N se tiene que: B
= (β1 , β2 , ..., βJ )0 = T−1 t !−1 ! X xk y k X xk x0 k = 2 σ σk2 k s s −1
= (XΣX0 )
(XΣY)
con Σ = diag (σk2 ) (k = 1, ..., N ), Y = (y1 , ..., yN ) y XJ×N ; ademas, TJ×J una matriz sim´etrica y tJ×1 es un J−vector columna. Tambi´en los elementos de T y de t, respectivamente, son de la forma: tjj 0 =
X xjk xj 0 k U
σk2
= tj 0 j y tj0 =
X xjk yk σk2
U
entonces: tˆjj 0 =
X xjk xj 0 k U
σk2 πk
= tˆj 0 j y tˆj0 =
X xjk yk U
σk2 πk
los cuales son insesgados para tjj 0 y tj0 . Bajo el modelo Heterocedastico sin intersecto:
se obtiene que:
Eξ (Yk ) = βxk Vξ (Yk ) = σ 2 xk (x1 , ..., xN > 0)
´ 1. ESTIMADORES DE REGRESION
14
ˆ B
=
X
0 xk xk
s
σk2 πk
!−1 X
xk y k
s
σk2 πk
!
!−1 ! X xk xk X xk y k = σ 2 x k πk σ 2 xk πk s s !−1 ! 1 X yk 1 X xk = σ 2 s πk σ 2 s πk X yk πk s =X xk πk s =
tˆyπ . tˆxπ
Consecuentemente se tiene que:
tˆy,reg = tˆyπ + (tx − ˆtxπ )0 Bˆ tˆyπ = tˆyπ + tx − tˆxπ tˆxπ tˆyπ ˆ tˆyπ − txπ = tˆyπ + tx tˆxπ tˆxπ tˆyπ ˆ = tˆyπ + tx − tyπ tˆxπ tx = tˆyπ . tˆxπ Ahora, bajo el modelo Homocedastico con intersecto:
Eξ (Yk ) = β1 + β2 xk Vξ (Yk ) = σ 2
Se tiene el vector xk = (x1k , x2k ) = (1, xk ) y B = (β1 , β2 ), y teniendo en cuenta lo tratado en el capitulo de Estimaci´ on de par´ ametros distintos al total; para este modelo (modelo de regresi´on simple):
´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION
15
X (xk − x˜s ) (yk − y˜s ) βˆ2 =
πk
s
X (xk − x˜s )2 s
y βˆ1 = y˜s − βˆ2 x˜s
πk
Con esto se obtiene que: tˆy,reg = tˆyπ + βˆ1 tx1 − tˆx1 π + βˆ2 tx2 − tˆx2 π ˆ + βˆ2 tx − tˆxπ = tˆyπ + y˜s − βˆ2 x˜s N − N ˆ y˜s − N βˆ2 x˜s + N ˆ βˆ2 x˜s + βˆ2 N x¯U − βˆ2 tˆxπ = tˆyπ + N y˜s − N ˆ y˜s + N y˜s − N ˆ y˜s − N βˆ2 x˜s + N ˆ βˆ2 x˜s + βˆ2 N x¯U − βˆ2 tˆxπ =N = N y˜s − N βˆ2 x˜s + βˆ2 N x¯U h i = N y˜s + βˆ2 (¯ xU − x˜s ) . Cuando se va a estimar el modelo de regresi´on, se requiere de los yk , los xk y de tx . No siempre se obtienen los x’s para toda la poblaci´on y adem´as que su correlaci´on con la variable y sea buena. Se puede usar el estimador de regresi´on siempre que se tenga tx ; pero cuando no se tiene, se consigue una aproximaci´on a trav´es de otros estudios con la consecuencia de obtener un mayor sesgo. “El estimador de regresi´on, usualmente, es m´as preciso que el π−estimador” Para una muestra s, bajo un modelo ξ, produce Bˆ ; y para k = 1, 2, .., N se obtienen los valores ajustados (o predichos): yˆk = xk Bˆ =
J X
βˆj xjk
(1.2.3)
j=1
para k ∈ s, y los residuales muestrales vienen dados por: eks = yk − yˆk N´otese, que los yˆk pueden obtenerse para todo k = 1, 2, .., N ; pero eks solo para los k ∈ s.
´ 1. ESTIMADORES DE REGRESION
16
Ahora:
X y− yˆk
tˆy,reg =
X
=
X U
s
=
X
X
yˆk +
U
yˆk + yˆk +
πk s X eks eˇks
(1.2.4)
s
U
Si la relaci´on lineal es perfecta, esto es yk =
πk
J X
βj xjk entonces
X
eˇks = 0 y tˆy,reg =
s
j=1
X
yˆk
U
Teorema 1.2.1. Una condici´on suficiente para que X eks s
πk
=0
(1.2.5)
para todo s ∈ =0 , es que existe un vector columna λ tal que ∀k ∈ U :
σk2 = λ0 xk donde =0 es el conjunto de todas las muestras bajo un dise˜ no con probabilidades de inclusi´on fijas π1 , ..., πN .
Demostraci´on. Se tiene por definici´on que: X eks s
Ahora:
πk
=
X yk X yˆk − π πk k s s
´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION
X 1 X yˆk 0 ˆ = xk B π π k k s s X 1 λ0 xk x0 kˆ = B 2 π σ k k s X 1 λ0 xk x0k Bˆ = 2 πk σk s ! X xk x0 k ˆ = λ0 B 2 π σ k k s ! !−1 X xk x0 X xk x0 k k = λ0 2 2 π σ σ π k k k k s s ! X xk yk = λ0 πk σk2 s X λ0 xk yk = σk2 πk s X yk = πk s
17
X
xk y k
s
σk2 πk
= tˆyπ Por tanto, esto es: X eks s
πk
= tˆyπ − tˆyπ = 0.
Otra forma de escribir el estimador de regresi´on es: tˆy,reg = tˆyπ + (tx − ˆtxπ )0 Bˆ = tˆyπ + (tx − ˆtxπ )0 Tˆ −1 t X yk X xk y k = + (tx − ˆtxπ )0 Tˆ −1 πk σk2 πk s s X yk 0 ˆ −1 xk = 1 + (tx − ˆtxπ ) T 2 σk πk s X yk = gks . πk s
!
!
´ 1. ESTIMADORES DE REGRESION
18
Donde gks = 1 + (tx − ˆtxπ )0 Tˆ −1
xk
σk2
.
Bajo el modelo Heterocedastico sin intersecto: gks = 1 + (tx − ˆtxπ )0 Tˆ −1 = 1 + (tx − ˆtxπ )
=1+
=1+
=1+ =1+ =1+
0
xk
σk2
X
0 xk xk
s
σk2 πk
!−1
xk
σk2
!−1 X xk x k xk tx − tˆxπ 2 σ x k πk σ 2 xk s !−1 X xk 1 tx − tˆxπ 2 σ πk σ2 s !−1 X xk tx − tˆxπ πk s 1 tx − tˆxπ tˆxπ tx −1 tˆxπ
tx tˆxπ N x¯U = . ˆ x˜s N
=
Ahora, para el modelo Homocedastico con intersecto se llega a que:
gks
" # x¯U − x˜s N = 1+ (xk − x˜s ) ˆ S˜x2s N N = [1 + as (xk − x˜s )] ˆ N
con as =
x¯U − x˜s S˜x2 s
y
´ A LOS ESTIMADORES DE REGRESION ´ 1.2. INTRODUCCION
19
" # X x2 1 k ˆ x˜2 S˜x2s = −N s 2 ˆ π N k s 1 X (xk − x˜s )2 = ˆ πk N s Se conoce que yko = x0k B y por tanto los residuales poblacionales son: Ek = yk − yko ⇒ yk = yko + Ek Luego como tˆy,reg =
X
gks yˇk , entonces:
s
tˆy,reg =
X
=
X
gks
s
yko + Ek πk
gks yˇko + Eˇk
s
Adem´as:
X
gks xˇ0k
=
s
X
1+
s
= = =
X
0 xk
s
πk
X
0 xk
s
πk
X
0 xk
s
πk
+
(tx − ˆtxπ )0 Tˆ −1
X
0 xk xk
s
σk2 πk
+ (tx − ˆtxπ )0 Tˆ −1 Tˆ + (tx − ˆtxπ )0 I
= ˆt0xπ + t0x − ˆt0xπ X 0 xk = t0x = U
De esto se obtiene que:
0 xk
xk (tx − ˆtxπ )0 Tˆ −1 2 σk
πk !
´ 1. ESTIMADORES DE REGRESION
20
! X
X
gks yˇko =
s
gks x0k
B
s
! X
=
0 xk
B
U
=
X
=
X
0 xk B
U
yko
U
Por tanto: yko + Ek πk s X gks y o X gks Ek k = + π πk k s s X X gks Eˇk gks yˇko + =
tˆy,reg =
X
=
X
gks
s
s
yko
gks Eˇk .
s
U
1.3.
+
X
La varianza de un estimador de regresi´ on
El estimador de regresi´on es aproximadamente insesgado por la linealizaci´on de Taylor: . tˆy,reg = tˆy,r0 = tˆyπ + (tx − ˆtxπ )0 Bˆ X X = yko + Eˇk
(1.3.1)
s
U
Cuya varianza aproximada es: AV (tˆy,reg ) =
XX
=
XX
U
U
∆kl
Ek El πk πl
∆kl Eˇk Eˇl
(1.3.2)
´ 1.3. LA VARIANZA DE UN ESTIMADOR DE REGRESION
21
Con estimador:
Vˆ (tˆy,reg ) =
XX ∆kl eks els πkl πk πl s
=
XX
ˇ kl eˇks eˇls ∆
s
X X ∆kl gks eks gks els XX ˇ kl gks eˇks gls eˇls = ∆ π π π kl k l s s As´ı, un intervalo de confianza al 100(1 − α) % para ty viene dado por: q ˆ ty,reg ± Z(1− α ) Vˆ (tˆy,reg )
(1.3.3)
2
Si el modelo es bueno y mide el comportamiento de la poblaci´on, se obtiene una varianza estimada relativamente peque˜ na. Para el modelo Heterocedastico sin intersecto, la estimaci´on de la varianza es de la siguiente manera:
Vˆ (tˆy,reg ) =
X X ∆kl gks eks gks els
πk πl X X ∆kl tx eks tx els = πkl tˆxπ πk tˆxπ πl s 2 X X tx ∆kl = eˇks eˇls ˆ πkl txπ s s
πkl
(1.3.4)
Bajo un dise˜ no M AS: N2 AVM AS (tˆy,reg ) = (1 − f )SE2 U n N2 (1 − f ) Sy2U + Sx2U − 2SxyU = n
(1.3.5)
y su varianza estimada: 2 2 N x ¯ N U VˆM AS (tˆy,reg ) = (1 − f )Se2s N x¯s n 2 2 h i x¯U N ˆ xys = (1 − f ) Sy2s + βˆ2 Sx2s − 2βS x¯s n
(1.3.6)
22
´ 1. ESTIMADORES DE REGRESION
Ejemplo 1.3.1. A continuaci´on, se muestra un ejemplo aplicativo sobre la estimaci´on del total, la aproximaci´on de la varianza, la varianza estimada, el coeficiente de variaci´on y un intervalo de confianza a (1 − α)100 %, en un modelo Heterosedastico sin intersecto bajo un dise˜ no M AS:
> > + + + + + + + + > > >
set.seed(1) gen.corr.data B=sum(Y)/sum(X) > Ek=Y-B*X > b=sum(yk)/sum(xk) > ek=yk-b*xk #Aproximaci´ on de la Varianza > AVtyr=(N^2/n)*(1-(n/N))*var(Ek);AVtyr [1] 1386.129 #Varianza estimada > Vtyr=(gks^2)*(N^2/n)*(1-(n/N))*var(ek);Vtyr [1] 1276.294 #Coeficiente de variaci´ on > cvr=sqrt(Vtyr)/tyr;cvr [1] 0.0001804073 #IC al (1-alpha)100%; alpha=0.05 > alpha=0.05 > Ic 0- Adem´as, las pendientes βd pueden variar con el dominio. Este modelo, puede escribirse en terminos del modelo general, si se tiene en cuenta que B
= (β1 , ..., βd , ..., βD )0
y xk
= (z1k xk , ..., zdk xk , ..., zDk xk )0
donde zdk es la funci´on indicadora del dominio. Ahora, el estimador de raz´on de dominios viene dado por
tˆdra
P ˇk s y = xk P d ˇk sd x Ud ! X ˆd = xk B X
Ud
(2.1.1)
´ PARA DOMINIOS 2. ESTIMADORES DE REGRESION
28
con el requerimiento de que el total poblacional de x en el dominio sea conocido. Los residuales y las g−ponderaciones son ˆ d xk eks = yk − B y ! P x k PUd zdk ˇk sd x
gdks =
La varianza y su estimador son los ya dados anteriormente. Ejemplo 2.1.1. Bajo un M AS con n elementos obtenidos de N : P X ˇk s y tˆdra = xk P d ˇk sd x Ud P X Nn s yk = xk N P d s d xk n Ud P X s yk = xk P d s d xk U d
= Nd y¯Ud
y¯sd x¯sd
cuya aproximaci´on de la varianza es N2 Nd − 1 2 AV (tˆdra ) = (1 − f ) S n N − 1 EUd donde 2 SEU = d
1 X (yk − Bd xk )2 Nd − 1 U d
P U yk con Bd = P d y le estimaci´on de la varianza viene dada por Ud x k n (n − 1) x ¯ 1 1 U s 2 2 d d Vˆ (tˆdra ) = Nd − Ses d ˆ (n − 1) nss x¯sd ns d Nd 1 1 . x¯Ud 2 = Nd2 − Ses d ˆd x¯sd ns d N ˆd = N nsd , x¯U y x¯s son las medias en Ud y sd correspondientes y donde N d d n 2 1 X 2 ˆ d xk y − B Ses = k d nd − 1 s s
Ahora se muestra una simulaci´on donde la poblaci´on es generada con datos correlacionados:
2.1. MODELO HETEROCEDASTICO SIN INTERSECTO EN DOMINIO
#Generar muestra correlacionada > set.seed(1999) > gen.corr.data tyd0=sum(Yd0);tyd0 [1] 19821.72 > ty=sum(datdom$Y);ty
29
30
´ PARA DOMINIOS 2. ESTIMADORES DE REGRESION
[1] 68338.14 #Funci´ on que estima en dominio > N=500;n=50 > MRadom