Solucionario de La Practica Calificada II Estadistica Bayesiana

Solucionario de la Pr´actica Calificada II Estad´ıstica Bayesiana Angie Cris´ostomo Casasola1 1 Asignatura: Estad´ıstic

Views 45 Downloads 0 File size 216KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Solucionario de la Pr´actica Calificada II Estad´ıstica Bayesiana Angie Cris´ostomo Casasola1 1

Asignatura: Estad´ıstica Bayesiana Profesor: MSc. Christian Amao Suxo 3 Escuela Profesional de Ingenier´ıa Estad´ıstica 4 Universidad Nacional de Ingenier´ıa 2

10/06/2019 Resumen

El presente trabajo muestra la resoluci´on de la Pr´actica Calificada, con las t´ecnicas aprendidas en el actual semestre, los temas a evaluar son Teorema de Bayes, Prioris no-informativas y Proceso de Elicitaci´ on.

1. 1.1.

Solucionario de ejercicios Problema 1

Responda si son ciertas las siguientes proposiciones. Encaso no sean ciertas, comente cu´ al es su punto de vista. a) La priori de Jeffreys es un tipo de priori subjetiva que considera la informaci´ on esperada de Fisher para su definici´on. b) En un proceso de elicitaci´ on, se requiere la m´axima cantidad de informaci´ on posible del par´ ametro por parte del facilitador para poder elicitar una distribuci´ on adecuada. c) La priori de Jeffreys posee la propiedad de invarianza frente a transformaciones de escala y traslaci´ on del par´ametro. Esto es si p(θ) ∝ I(θ)1/2 entonces ϕ = (θ − a)/b con b 6= 0, tiene una distribuci´on priori p(ϕ) ∝ I(ϕ)1/2 . d) En un proceso de elicitaci´ on es recomendable usar la priori de Jeffreys porque esta considera la cantidad de informaci´on muestral a trav´es de la informaci´on esperada de Fisher, haciendo de esta manera que la distribuci´on posteriori aproveche la m´ axima informaci´on disponible de la muestra. e) Para definir prioris jer´ arquicas de un par´ametro, se tiene que establecer primero la fase estructural en donde se establecen las relaciones que hay entre las observaciones de la muestra y su estad´ıstico m´aximo veros´ımil.

1

Soluci´ on: a) (F) La distribuci´ on priori de Jeffreys, es una priori objetiva, que surgen por la poca o nula informaci´on disponible que tambi´en se les conoce como prioris no informativas, para el caso de la priori de Jeffreys esta dada por π(θ) ∝ I(θ)1/2 , donde I(θ) es la informaci´on esperada de Fisher. b) (F) En un proceso de elicitaci´on, la informaci´on sobre el par´ametro la provee el experto. c) (V) La priori de Jeffreys es invariante frente a transformaciones, debido a que esta funci´ on es biyectiva, ϕ = (θ − a)/b con b 6= 0. d) (F) El proceso de elicitaci´ on es un proceso de evaluaci´on del conocimiento de alguien sobre una cantidad incierta involucrada, es decir hay una informaci´on previa que estar´ıa sujeta a en la elicitacion; por lo que la priori involucrada es una distribuci´ on priori subjetiva. e) (F) Para la definici´ on de prioris jer´arquicas de un par´ametro, en la fase estructural se establecen las relaciones que hay con los par´ametros.

1.2.

Problema 2

Dos bi´ ologos marinos est´ an interesados en estudiar c´omo evoluciona la poblaci´ on de anchovetas en el norte del Per´ u. Para ello, los bi´ologos realizan mediciones de la cantidad de anchovetas por pie c´ ubico en dos lugares distintos del litoral peruano. Adem´ as ambos bi´ ologos realizan la misma cantidad de mediciones y denotando por θ y φ a la cantidad promedio de anchovetas por metro c´ ubico observados en los dos distintos lugares. Por su parte, un estad´ıstico establece que por las condiciones del experimento, lo m´as adecuado para la distribuci´on priori ser´ıa p(θ, φ) = p(θ)p(φ) ∝ k Si los bi´ ologos est´ an interesados en ψ = θ/(θ + φ) y η = θ + φ. a) Obtenga la distribuci´ on priori para (ψ, η). b) Halle la densidad posteriori de ψ y η usando la informaci´on muestral de ambos bi´ ologos. ¿Son estas distribuciones independientes? Justifique. Soluci´ on: a) Para obtener la distribuci´ on priori conjunta p(ψ, η), utilizaremos el m´etodo de transformaci´ on de vectores aleatorios, que estar´ıa expresado de la siguiente forma: p(ψ, η) = p(θ(ψ, η); φ(ψ, η)) ∗ abs(|J|)

2

Ya que la distribuci´ on conjunta de θ y φ es proporcional a una constante k, la distribuci´ on conjunta de ψ y η, p(ψ, η) resulta: p(ψ, η) ∝ abs(|J|) Donde la determinante del Jacobiano, queda determinado por: ! J=

∂θ ∂ψ ∂φ ∂ψ

∂θ ∂η ∂φ ∂η

(1)

Expresando θ y φ en funci´ on de ψ y η:

θ = ψη φ = η(1 − ψ) De las derivadas parciales se obtiene: ∂θ ∂ψ



∂θ ∂η



∂φ ∂ψ

= −η

∂φ ∂η

=1−ψ

Reemplazando en (1), la determinante del jacobiano resultar´ıa  J=

η −η

ψ 1−ψ

 (2)

Entonces la determinante del Jacobiano; |J| = η(1 − ψ) + ηψ = η Finalmente la distribuci´ on conjunta de ψ y η s´olo depender´a del rango de η para saber si esta distribuci´on esta bien definida, deberemos evaluar los valores de ψ y η p(ψ, η) ∝ η Del problema θ, φ > 0, ya que son valores discretos que sirven para una medida de conteo. ψ = θ/(θ + φ) > 0, η =θ+φ>0 De esto finalmente la distribuci´on priori de ψ y η es impropia porque la integral en su rango no llega 1.

3

b) Describiendo lo enunciado, sean Xi y Yi son las mediciones hechas por el bi´ ologo 1 y 2 respectivamente para i : 1, 2, ..., m Xi |θ ∼ P(θ) Yi |θ ∼ P(φ) Estas son independientes pues son las medidas hechas en dos lugares distintos, asi, entonces L(θ, φ) = p(X, Y |θ, φ), resume la informaci´on de las muestras. L(θ, φ) = p(X|θ, φ)p(Y |θ, φ) pues X, Y son independientes. L(θ, φ) = p(X|θ)p(Y |φ) L(θ, φ) =

Qn

i=1

e−θ θxi

L(θ, φ) ∝ e−n(θ+φ) θ

Qn

Pn

i=1

i=1

e−φ φyi

xi

Pn

φ

i=1

yi

Se pide: p(ψ, η|X, Y ) ∝ p(ψ, η)LX,Y (ψ, η) Reemplazando los valores de θ y φ en funci´on de ψ y η L(ψ, η) ∝ e−n(η) (nψ) Pn

p(ψ, η|X, Y ) ∝ ηe−n(η) n( p(ψ, η|X, Y ) ∝ [e−n(η) n(

i=1

Pn

i=1

Pn

i=1

xi

(n(1 − ψ))

P xi + n i=1 yi )

P xi + n i=1 yi +1)

ψ

Pn

][ψ

i=1

Pn

Pn

i=1

xi

i=1

xi

Pn

(1 − ψ)

xi

i=1

Pn

(1 − ψ)

yi

i=1

yi

]

As´ı finalmente el primer producto es el kernel de la distribuci´on Gamma, mientras que el segundo producto es el kernel de la distribuci´on Beta. De lo que resulta Pn n|X, Y ∼ G( i=1 (xi + yi + 2); η) ψ|X, Y ∼ B(

Pn

i=1

xi + 1;

Pn

i=1

yi + 1)

Estas distribuciones son independientes pues es el producto de p(η|X, Y ) y p(ψ|X, Y ) nos resulta la distribuci´on conjunta de p(ψ, η|X, Y ).

4

1.3.

Problema 3

La Universidad Nacional de Ingenier´ıa desea hacer un estudio sobre el IQ de sus estudiantes, por lo que contrata a un grupo de psic´ologos expertos que deciden extraer una muestra de n estudiantes de pregrado cuyo IQ medio real cada uno es θi , para i = 1, 2, ..., n. Por practicidad, los psic´ologos suponen que los θi , constituyen una muestras aleatoria de una poblaci´on de IQs con media desconocida µ y varianza conocida b. Un test para medir el IQ es aplicado, brindando las observaciones independientes Y1 , ..., Yn donde Yi ∼ N (θ, a), con a conocido. Con los datos experimento, construya una priori jer´arquica para los par´ ametros θ1 , θ2 , ..., θn . Soluci´ on: Piden una priori jer´ arquica, entonces la estructura jer´arquica queda determinada de la siguiente manera. Se realiza una prueba tal que se extrae una muestra Y1 , Y2 , ..., Yn , donde cada uno tiene un IQ IQc/estudiante = θi Fase Estructural, donde estableceremos los niveles de jerarqu´ıa del par´ametro. Yi |θi ∼ N (θi , a) θi |µ ∼ N (µ, b) µ ∼ N (α, β) Fase de Elicitaci´ on R p(θ1 , θ2 , ..., θn ) = R p(θ Qn1 , θ2 , ..., θn |µ)p(µ)dµ p(θ1 , θ2 , ..., θn ) = i=n p(θi |µ)p(µ)dµ Donde se conoce −b 2 √ 1 e 2 (θi −µ) 2πb −β 2 1 e 2 (µ−α) p(µ|α, β) = √2πβ Pn R∞ 1 2 2 1 √ √ e−0,5∗[b i=1 (θi −µ) +β(µ−α) ] dµ 2πbβ (2π)− (n+1)/2 0

p(θi |µ, b) =

p(θ1 , θ2 , ..., θn ) =

De esto todas las constantes las tomaremos como un k, por lo que s´olo depender´a de una exponencial, esto pertenece al kernel de la distribuci´on norma. p(θ1 , θ2 , ..., θn ) ∝ e

5

αβ 2 −1 2 [µ− β−1 ] [β−1]