Estadistica Ii

ESTADISTICA II Espacio muestral En la teoría de probabilidades, el espacio muestral o espacio de muestreo (denotado E,

Views 131 Downloads 1 File size 179KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

ESTADISTICA II

Espacio muestral En la teoría de probabilidades, el espacio muestral o espacio de muestreo (denotado E, S, Ω o U) consiste en el conjunto de todos los posibles resultados de un experimento aleatorio, junto con una estructura sobre el mismo Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio muestral es el conjunto: Ω = {(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un evento o suceso es cualquier subconjunto del espacio muestral con estructura de σálgebra,1 llamándose a los sucesos que contengan un único elemento sucesos elementales. En el ejemplo, el suceso "sacar cara en el primer lanzamiento", o {(cara, cara), (cara, cruz)}, estaría formado por los sucesos elementales {(cara, cara)} y {(cara, cruz)}.

Combinaciones Las Combinaciones (o Combinaciones de m elementos tomados de n en n con m≥n) son formas de agrupar elementos de un conjunto en las que:   no se toman todos los elementos de un conjunto  no se repiten los elementos del conjunto  no importa el orden ({A, B} se considera lo mismo que {B, A}) Ejemplo: sea el conjunto {A, B, C, D}, ¿cuántos grupos de dos letras diferentes se pueden formar sin tener en cuenta el orden? Si buscamos los diferentes grupos, obtenemos: {A, B}, {A, C}, {A, D}, {B, C}, {B, D}, {C, D} → obtenemos 6 combinaciones diferentes Fórmula: Para calcular el número de combinaciones podemos emplear la siguiente fórmula:

Donde m es el número de elementos tomados de n en n. En el ejemplo anterior m = 4 y n = 2, por lo tanto: Cmn = C42 = 4! / [2! (4-2)!] = 4! / (2! · 2!) = 4 · 3 · 2 · 1 / 4 = 6 → obtenemos el mismo resultado Ejemplo 2: En una heladería tienen se venden helados de dos sabores diferentes, ¿cuántos helados de sabores diferentes podemos elegir entre los sabores de nata, vainilla, chocolate, limón y naranja? Solución:  Primero verificamos que estamos ante una Combinación: o No se toman todos los elementos del grupo (se toman solo de dos en dos) → correcto

o o 

No se repiten elementos (los helados son de dos sabores diferentes) → correcto El orden no importa (un helado de chocolate y vainilla es el mismo que uno de vainilla y chocolate) → correcto Después de comprobar que efectivamente se trata de una combinación, calculamos el número de helados diferentes:

m = 5 sabores diferentes n = 2 (helados de dos sabores) Cmn = C52 = 5! / [2! (5-2)!] = 5! / (2! · 3!) = (5 · 4 · 3 · 2 · 1) / (2 · 3 · 2) = 10 combinaciones

Propiedades de la probabilidad  



La probabilidad de un suceso es un número comprendido entre 0 y 1.

0 ≤ P (A )≤ 1 

. La probabilidad del suceso seguro es 1 y la del suceso imposible 0.

P( E)=1 , P( Ø)=0 

La probabilidad de la unión de dos sucesos incompatibles es.

P ( AUB )=P ( A ) + P ( B ) 

La suma de las probabilidades de los sucesos elementales es 1.

P ( A 1 ) + P ( A 2 ) + P ( A3 ) +…+ P ( A n )=1 

´ ) son contrarios, entonces sus probabilidades suman 1: Si dos sucesos A y ( A ´ )=P ( B ) → P ( A )=1−P ( A ´) P ( A )+ P ( A



La probabilidad de un suceso es la suma de las probabilidades de sus sucesos elementales:

Notas:

Variable aleatoria En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura máxima medida a lo largo del día en una ciudad concreta). Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento aún no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de una medición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo

pero puede tomar diferentes valores; una distribución de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. En términos formales una variable aleatoria es una función definida sobre un espacio de probabilidad. Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lógicos, funciones o cualquier tipo de elementos (de un espacio medible). El término elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocástico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo). Las variables aleatorias se clasifican en discretas y continuas:  Discreta: La variable aleatoria X se dice que es discreta si los números asignados a los sucesos elementales de E son puntos aislados. Sus posibles valores constituyen un conjunto finito o infinito numerable. Por ejemplo, supongamos el experimento consistente en lanzar tres veces una moneda no trucada; si consideramos la variable aleatoria X=”número de caras obtenidas en los tres lanzamientos”, los valores que puede tomar esta variable aleatoria son finitos (0, 1, 2, 3). Se relaciona con el conteo de elementos. 

Continua: La variable aleatoria X será continua si los valores asignados pueden ser cualesquiera, dentro de ciertos intervalos, es decir, puede tomar cualquier valor de R. Por ejemplo, si consideramos el experimento aleatoria consistente en medir el nivel de agua en un embalse y tomamos la variable aleatoria X=”nivel de agua”, esta puede tomar valores entre 0 y más infinito. Se relaciona con mediciones de magnitudes como longitud masa, tiempo, volumen, velocidad, entre otras.

Función de Probabilidad: Una Función de Probabilidad (también llamada Variable Estocástica) es aquella función (P) que asigna a cada valor de una variable aleatoria (xi) la probabilidad de que suceda (pi):

f ( x i ) =p ( X=x i )= p i Donde se cumple que:  0 ≤ pi ≤ 1, es decir, la probabilidad de un suceso está comprendido entre cero (imposible) y 1 (seguro) 

p1 + p2 + ··· + pn = 1, es decir, la suma de las probabilidades de todos los casos es igual a1

Ejemplo: El lanzamiento dos monedas. La variable aleatoria X toma los siguientes valores para cada caso: (cara-cara) → x1 (cara-cruz, cruz-cara) → x2 (cruz-cruz) → x3

En el caso anterior, la función P(xi) = pi da los siguientes resultados: P(x1) = p1 = 0,25 P(x2) = p2 = 0,5 P(x3) = p3 = 0,25 Vemos que se cumple que la suma de probabilidades de cada caso es igual a 1: Σ pi = p1 + p2 + p3 = 0,25 + 0,5 + 0,25 = 1 Ejemplo2: Una variable aleatoria discreta tiene la siguiente función de probabilidad: X -2 -1 0 1 2 p

0,08

0,21

0,1

 0,34

3

0,23

0,04

Función de distribución Una Función de Distribución de una variable aleatoria (X) es aquella función (F) que indica la probabilidad (p) de obtener un valor menor o igual a un suceso (x):

F (x)=P( X ≤ x ) La función de distribución asocia a cada valor de la variable aleatoria la probabilidad acumulada hasta ese valor. 

Función de Distribución para variables aleatorias discretas:

Por ejemplo, para el tiro de un dado (6 caras) la función de distribución de que salga 5 o menos sería la suma de probabilidades de que salga 1, 2, 3, 4 y 5, es decir 1/6+1/6+1/6+1/6+1/6 = 5/6.  

Función de Distribución para variables aleatorias continúas:

Esta fórmula es aplicable a aquellas variables que son continuas como por ejemplo la altura o el peso de una persona, por lo que se hace necesario emplear integrales. Ejemplo 1: En este caso el mencionado tiro de un dado de 6 caras. Es discreto porque solo puede tomar valores discretos (1, 2, 3, 4, 5 y 6). Dependiendo del valor que salga, la variable toma los siguientes valores: Valores de la V.A. = (x1 = 1 ; x2 = 2 ; x3 = 3 ; x4 = 4 ; x5 = 5 ; x6 = 6) La función de probabilidad (f) es igual para cada xi (cada suceso tiene una probabilidad igual de salir): X

1

2

3

4

5

6

p

1/6

1/6

1/6

1/6

1/6

Por lo tanto, la función de distribución (F) es igual a aquella en la que se cumple que: X 1 2 3 4 5 p 1/6 2/6 3/6 4/6 5/6

1/6

6 1

Esperanza matemática discreta: En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X, es el número E(X) o μ que formaliza la idea de valor medio de un fenómeno aleatorio. Es un concepto análogo a la media aritmética de un conjunto de datos. Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad promedio que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra (el valor de la esperanza puede ser improbable o incluso imposible). n

E ( X ) =μ=x 1 . p1 + x 2 . p 2+ …+ x n . pn=∑ xi . p i i=1

x = Producto de la probabilidad de cada suceso. p = Valor de dicho de evento.

Varianza discreta:

En teoría de probabilidad, la varianza o variancia (que suele representarse como σ 2de una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media. Su unidad de medida corresponde al cuadrado de la unidad de medida de la variable: por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La varianza tiene como valor mínimo 0. La desviación estándar (raíz cuadrada positiva de la varianza) es una medida de dispersión alternativa, expresada en las mismas unidades que los datos de la variable objeto de estudio. Es una medida de dispersión que se emplea para indicar que tan cercanos de la media se encuentran los elementos de la colección y se representa por σ 2. Si la varianza es cero, entonces los elementos coinciden con la media; mientras mayor sea la varianza, mayor dipersión.

2

2

n

μ = Esperanza o media 2 i

S =σ =∑ x . pi−μ i=1

2

Desviación típica discreta:

x = Producto de la probabilidad de cada suceso. p = Valor de dicho de evento.

En estadística, la desviación típica (también conocida como desviación estándar y desvío típico y representada de manera abreviada por la letra griega minúscula sigma σ o la letra latina s, así como por las siglas SD (de standard

deviation, en algunos textos traducidos del inglés)) es una medida que se utiliza para cuantificar la variación o la dispersión de un conjunto de datos numéricos. Una desviación estándar baja indica que la mayor parte de los datos de una muestra tienden a estar agrupados cerca de su media (también denominada el valor esperado), mientras que una desviación estándar alta indica que los datos se extienden sobre un rango de valores más amplio. Es una medida de dispersión que se emplea para indicar que tan cercanos de la media se encuentran los elementos de la colección y se representa por sigma σ . Si la desviación estándar es cero, entonces los elementos coinciden con la media; mientras mayor sea la desviación estándar, mayor dispersión.

n

S=σ=

√∑ i=1

μ = Esperanza o media x 2i . pi−μ 2

x = Producto de la probabilidad de cada suceso. p = Valor de dicho de evento.

Distribución binomial Es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de {n} ensayos independientes entre sí, con una probabilidad de éxito {p}.Una distribución binomial, en estadística, es una distribución de probabilidad discreta (función que asigna a cada suceso definido sobre la variable la probabilidad de que dicho suceso ocurra) que describe el número de éxitos al realizar n experimentos o ensayos de Bernoulli independientes entre sí, acerca de una variable aleatoria. Un experimento de Bernoulli se caracteriza por tener solo dos resultados. Uno de ellos se denomina «éxito» y al otro, «fracaso». Por ejemplo, imagínate el lanzamiento de una moneda cuyo resultado de «sacar cara» es el éxito. Si lanzamos 5 veces la moneda y contamos los éxitos que obtenemos, nuestra distribución de probabilidades se ajustaría a una distribución binomial. De este modo, en otras palabras, la distribución binomial se define como una serie de experimentos o ensayos en los que solo podemos tener 2 posibles resultados (éxito o fracaso), siendo el éxito la variable aleatoria.

P ( x ) = n p x . q n−x x

()

n = es el número de pruebas. x = es el número de éxitos. p = es la probabilidad de éxito.

Combinación es:

n! n= x x ! ( n−x ) !

()

Propiedades de la distribución binomial

q = es la probabilidad de fracaso.

( nx) = es el número combinatorio.

Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que cumplir las siguientes propiedades:       

Como hemos dicho, en cada ensayo, experimento o prueba solo puede haber dos posibles resultados (éxito o fracaso). La probabilidad de éxito ha de ser constante. Por ejemplo, la probabilidad de que salga un número par al lanzar un dado es 0,5 y esta es constante dado que el dado no cambia en cada ensayo y las probabilidades de sacar par es constate. La probabilidad de fracaso ha de ser también constate. Cada experimento es independiente de los demás y no influye en las probabilidades de los que hagamos posteriormente, por lo que en cada uno la probabilidad de que se dé uno de los dos resultados será exactamente la misma. Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los dos al mismo tiempo. Al lanzar un dado, no puede salir par e impar a la vez, ni al lanzar una moneda puede salir cara y cruz al mismo tiempo. Los resultados son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir. Si no sale par, sale impar, y si no sale cara, sale cruz. La variable aleatoria que sigue una distribución binomial se suele representar así: X ~ (n, p), donde, como ya sabes, n representa el número de ensayos o experimentos y p la probabilidad de éxito.

1. En cada prueba que se realice solamente son posibles dos resultados; Éxito y Fracaso. 2. El resultado de cada prueba es independiente de las anteriores. 3. La probabilidad de éxito se mantiene constante en cada prueba.

Distribución geométrica o de pascal La distribución geométrica es un modelo adecuado para aquellos procesos en los que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes aplicaciones en los muestreos realizados de esta manera. También implica la existencia de una dicotomía de posibles resultados y la independencia de las pruebas entre sí.

P ( X )=q x−1 . p

Los parámetros media, varianza y desviación típica de esta distribución vienen dados por:

x = Número de ensayo para producir un evento p = Probabilidad de que ocurra un evento (Éxito) q = Probabilidad de que NO ocurra un evento (Fracaso) q=1-p

Propiedades de la distribución geométrica o des Pascal  

El proceso consta de un número no definido de pruebas o experimentos separados o separables. El proceso concluirá cuando se obtenga por primera vez el resultado deseado (éxito). Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A



La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado no A es q siendo (p + q = 1).

Ejemplo 1: Supongamos que queremos hacer un estudio sobre la variable aleatoria referente al número de veces que un jugador necesita para poder efectuar la salida en el juego del parchís. Hay que recordar que, en este juego, un jugador no comienza el mismo hasta obtener un 5 al lanzar el dado. Podría ocurrir que solamente necesitara:  Una tirada X = 1; con probabilidad 1/6  Dos tiradas X = 2 con probabilidad (5/6)(1/6)  Tres tiradas X =3 con probabilidad (5/6)(5/6)(1/6)  ...  "k" tiradas X = k con probabilidad

La variable puede seguir tomando valores indefinidamente puesto que es posible encontrar a un jugador cuya “mala suerte“ haga que NUNCA obtenga el dichoso 5. Estaríamos ante el caso de una distribución geométrica de parámetro 1/6. Ejemplo 2: Un matrimonio quiere tener una hija, y por ello deciden tener hijos hasta el nacimiento de la esperada hija. Calcular el número esperado de hijos (entre varones y hembras) que tendrá el matrimonio. Calcular la probabilidad de que la pareja acabe teniendo tres hijos o más.

En la siguiente escena puedes observar la función de probabilidad de la distribución Geométrica. Puedes cambiar los diferentes parámetros que configuran dicha distribución y observar cómo cambia esta función a medida que se varía alguno de ellos. Extrae tus propias consecuencias. Así mismo puedes utilizar también la escena como calculadora directa que permite resolver situaciones particulares que se puedan plantear en problemas concretos.

Distribución binomial negativa Esta distribución puede considerarse como una extensión o ampliación de la distribución geométrica. La distribución binomial negativa es un modelo adecuado para tratar aquellos procesos en los que se repite un determinado ensayo o prueba hasta conseguir un número = Número degran experimentos determinado de resultados favorables (por vez primera) .Esxpor tanto de utilidad para r = Éxitos deseados p = Probabilidad de que ocurra un evento (Éxito) q = Probabilidad de que NO ocurra un evento (Fracaso) q=1-p

aquellos muestreos que procedan de esta manera. Si el número de resultados favorables buscados fuera 1 estaríamos en el caso de la distribución geométrica. Está implicada también la existencia de una dicotomía de resultados posibles en cada prueba y la independencia de cada prueba o ensayo, o la reposición de los individuos muestreados.

P ( x ) = x−1 . pr . q x−r r −1

( )

n! (nr )= r ! ( n−r )! Los parámetros media, varianza y desviación típica de esta distribución vienen dados por:

Propiedades de la distribución binomial negativa  El proceso consta de un número no definido de pruebas separadas o separables. El proceso concluirá cuando se obtenga un determinado número de resultados favorables K  Cada prueba puede dar dos resultados posibles mutuamente excluyentes A y no A  La probabilidad de obtener un resultado A en cada una de las pruebas es p siendo la probabilidad de no A, q. Lo que nos lleva a que p+q=1 Una distribución binomial negativa de parámetros "r" y "p" surge como una secuencia infinita de intentos de tipo Bernoulli en los que:  Cada secuencia es independiente de las otras.  En cada intento solamente son posibles dos resultados (éxito o fracaso).  La probabilidad de éxito es constante en cada secuencia.  Los intentos continúan hasta que se consigan r éxitos. Ejemplo 1 Para tratar a un paciente de una afección de pulmón, han de ser operados en operaciones independientes sus 5 lóbulos pulmonares. La técnica a utilizar es tal que si todo va bien, lo que ocurre con probabilidad de 7/11, el lóbulo queda definitivamente sano, pero si no es así se deberá esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se practicará la cirugía hasta que 4 de sus 5 lóbulos funcionen correctamente. ¿Cuál es el valor de intervenciones que se espera que deba padecer el paciente? ¿Cuál es la probabilidad de que se necesiten 10 intervenciones? Este es un ejemplo claro de experimento aleatorio regido por una ley binomial negativa, ya que se realizan intervenciones hasta que se obtengan 4 lóbulos sanos, y éste es el criterio que se utiliza para detener el proceso. Identificando los parámetros se tiene que si X= Número de operaciones hasta obtener r=4 con resultado positivo,

Ejemplo 2: Se sabe que la probabilidad de que un niño expuesto a una enfermedad contagiosa la contraiga es de 0,4. Calcula la probabilidad de que el décimo niño estudiado sea el tercero en contraer la enfermedad. Podemos enfocar el problema como una binomial negativa de parámetros X = 10, k=3 y p=0,4

Distribución Poisson Esta distribución es una de las más importantes distribuciones de variable discreta. Sus principales aplicaciones hacen referencia a la modelización de situaciones en las que nos interesa determinar el número de hechos de cierto tipo que se pueden producir en un intervalo de tiempo o de espacio, bajo presupuestos de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus usos frecuentes es la consideración límite de procesos dicotómicos reiterados un gran número de veces si la probabilidad de obtener un éxito es muy pequeña. Utilice la distribución de Poisson para describir el número de veces que un evento ocurre en un espacio finito de observación. Por ejemplo, una distribución de Poisson puede describir el número de defectos en el sistema mecánico de un avión o el número de llamadas a un centro de llamadas en una hora. La distribución de Poisson se utiliza con frecuencia en el control de calidad, los estudios de fiabilidad/supervivencia y los seguros.

x λ λ ( ) ( ) f x = p X =x =e . x!

Los parámetros media, varianza y desviación típica de esta distribución vienen dados por:

x = Número de veces que ocurre el evento e = Exponencial λ = Promedio de frecuencia del evento

. Una variable sigue una distribución de Poisson si se cumplen las siguientes condiciones:  Los datos son conteos de eventos (enteros no negativos, sin límite superior).  Todos los eventos son independientes.  La tasa promedio no cambia durante el período de interés.  Cuando ocurre en un lugar y tiempo determinado. Ejemplo 1: Cierta enfermedad tiene probabilidad de ocurrir p=1/100000, lo que en Medicina se denomina prevalencia. Calcula la probabilidad de que en una ciudad de 500000 habitantes haya más de 3 personas con dicha enfermedad. ¿Cuál sería en dicha ciudad el número de enfermos esperado? Solución: El problema se podría abordar mediante una B( 500000, 0,00001 ) En este caso aproximaremos por un modelo de Poisson de parámetro

Ejemplo 2: En una carretera se producen un promedio de 2 accidentes anuales. Calcula la probabilidad de que este año se produzcan más de 3 accidentes.