Distribucin Beta

Distribución beta Teoría En esta fórmula K es una constante que usamos para convertir estas alturas de la curva en una f

Views 174 Downloads 4 File size 632KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Distribución beta Teoría En esta fórmula K es una constante que usamos para convertir estas alturas de la curva en una función de densidad. Puesto que la suma de todas las probabilidades debe ser uno, habría que dividir cada altura por la suma (integral) para todos los valores de p. En la práctica no tenemos que preocuparnos de la fórmula de cálculo para usar la distribución Beta, ya que podemos usar las tablas de la distribución o bien programas estadísticos para calcularlas. Una ventaja de la distribución Beta es que puede tomar formas muy diferentes, dependiendo de los valores a y b, por lo que es sencillo encontrar una distribución beta que exprese nuestras creencias sobre las probabilidades inicial de la proporción. Algunos ejemplos de gráficas de la distribución Beta se presentan en la figura 3.2 Figura 3.2. Forma de la distribución Beta para distintos valores de a y b

Las funciones de densidad beta vienen definidas por dos números, a y b y la llamamosB(a,b). La función de densidad en la distribución beta toma la forma siguiente:

La distribución uniforme podría ser razonable para representar la situación en que no tenemos ninguna información previa sobre la proporción. Pero en muchos casos, este supuesto es poco razonable, por ejemplo: 

Proporción de varones entre todos los recién nacidos en un mes en un cierto hospital. Sabemos que lo más probable es que esta proporción esté alrededor de 0,51, aunque podría



variar más o menos alrededor de este número, sobre todo si el número de niños que nace es pequeño. Proporción de ancianos con enfermedad de Alzheimer entre los residentes en un centro de mayores.

En los casos en que no es razonable pensar que todos los valores son equiprobables, una buena solución es usar la distribución Beta. Dada una distribución de probabilidad inicial B(a, b), si al hacer un nuevo experimento observamos e éxitos y f fracasos, la distribución de probabilidad final sería una nueva distribución Beta B (a + e, b + f). En resumen, una vez seleccionada la función de densidad inicial, es fácil actualizarla con los datos. Bastaría con sumar los éxitos a a y sumar los fracasos a b al realizar el experimento. ELECCIÓN DE LA DISTRIBUCIÓN INICIAL Y CÁLCULO DE LA DISTRIBUCIÓN FINAL Para encontrar una función que se ajuste a la distribución de probabilidad inicial hay que tener en cuenta que: • Para a= b= 1 obtenemos la distribución uniforme (distribución no informativa) donde todos los valores de p tienen la misma probabilidad • Podemos interpretar a como el número de éxitos y b el número de fracasos al hacer un experimento a+b veces e interpretar B(a,b) como una generalización de la distribución binomial. Pero mientras en la distribución binomial p era fijo y a y b eran variables ya que nos interesábamos por el número de éxitos, ahora la variable es p , siendo a y b fijos. • El valor medio es a/(a+b) . Así para a= 2; b=8 el valor medio es 0,2; para a=b=5, el valor medio es 0,5; para a =7, b=3 , el valor medio es 0,7. Esto nos da el valor más probable de la proporción en la distribución inicial. • Para el mismo valor medio, la mayor dispersión depende de la suma total de a +b . Así al comparar B(7, 3) con B (70, 30) o B(5,5) con B (50, 50) la dispersión disminuye cuando aumenta la suma de a+ b. Esto es lógico si pensamos que la información que proporcionan 50 éxitos en un experimento de 100 ensayos es mayor de la que proporcionan 5 éxitos en un experimento de 10 ensayos. Por lo tanto, al estar más seguros del valor más probable para la proporción, elegimos una distribución con menor dispersión para representar nuestra creencia. Las funciones Beta también facilitan el cálculo probabilidades final (actualización de las probabilidades, a la luz de nuevos datos) sin tener que calcular la verosimilitud. CÁLCULO DE PROBABILIDADES Y OBTENCIÓN DE INFERENCIAS CON LA DISTRIBUCIÓN BETA

Para calcular probabilidades en las distribuciones discretas bastaba con sumar las probabilidades asociadas a cada valor. Con las distribuciones continuas no tiene sentido hablar de probabilidades de que p tome un valor puntual. Ahora operamos con probabilidades asociadas a intervalos y tenemos que calcular el área que encierra la curva entre dos puntos.

Podemos ayudarnos en los cálculos con una hoja de cálculo Excel (ver ejemplo 3.2) y de este modo calcular intervalos de credibilidad para la proporción a partir de la distribución final. Mejor estimador de una proporción A partir de la distribución final podemos estimar la proporción poblacional desconocida. Nuestra apuesta más razonable sería el valor de algún promedio de la distribución final, como la moda, que es el valor más probable. En este caso la moda de la distribución final Beta. Intervalos de credibilidad El intervalo de credibilidad del 95% para la proporciòn poblacional se calcula tomando los valores centrales (alrededor de la moda) que den una probabilidad del 95% en la distribución final. Igualmente podemos calcular el intervalo de confianza del 99% o de cualquier otro valor de credibilidad. De hecho, los límites del intervalo de credibilidad bayesiano coinciden con el intervalo de confianza clásico, cuando no hay información previa (distribución inicial uniforme) pero la interpretación de uno y otro es muy diferente: • El intervalo de credibilidad del r% para la proporción nos indica que hay una probabilidad igual al r% de que la proporción de la población se encuentre en el intervalo. • El intervalo de confianza del r % no nos da la probabilidad de que la proporción esté en el intervalo. Lo que nos dice es la proporción de intervalos que, con el mismo tamaño de muestra, contienen la proporción de la población. Es decir, si tomamos 100 muestras del mismo tamaño y calculamos para cada una de ellas el intervalo de confianza, a partir de los datos obtenidos, en r intervalos estará incluida la proporción verdadera de la población. Pero, en concreto, no sabemos si la proporción està o no incluída en el nuestro. • Los límites de los intervalos de confianza y credibilidad no coinciden si hubiésemos usado una distribución inicial informativa, es decir cuando hay información previa. Observa en Ejemplo 3.3. que: • A mayor credibilidad, más anchura del intervalo. • Para la misma credibilidad y distribución inicial, a mayor tamaño de muestra menor anchura de intervalo. Contraste bayesiano Podemos tambíén usar las distribuciones final para contrastar una hipótesis sobre un posible valor de la proporción en la población.

Contrastar una hipótesis significa (desde el punto de vista bayesiano) encontrar su probabilidad final. Por ejemplo supongamos que quiero contrastar la hipótesis de que una moneda está trucada y produce pocas caras, es decir H: p