Probabilidad Miguel Angel M´endez Antonio ITAM 13 de agosto de 2013 ´Indice 1 Fundamentos Espacios de probabilidad
Views 51 Downloads 1 File size 1MB
Probabilidad Miguel Angel M´endez Antonio ITAM
13 de agosto de 2013
´Indice
1 Fundamentos
Espacios de probabilidad 2 T´ ecnicas de conteo 3 Probabilidad condicional e
independencia de eventos Probabilidad condicional
Independencia entre eventos 4 Probabilidad total y regla de Bayes Ejercicios1 5 Variables Aleatorias 6 Funci´ on de distribuci´on 7 Distribuciones continuas
Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar
Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar Un espacio de probabilidad, asociado a un fenomeno aleatorio, es una terna (Ω, F, P) donde Ω es el espacio muestral, F es una sigma ´algebra( σ-´algebra) de subconjuntos de Ω y P es una medida de probabilidad (m.p.).
Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar Un espacio de probabilidad, asociado a un fenomeno aleatorio, es una terna (Ω, F, P) donde Ω es el espacio muestral, F es una sigma ´algebra( σ-´algebra) de subconjuntos de Ω y P es una medida de probabilidad (m.p.). Observaci´ on A cada fen´ omeno aleatorio asociamos un espacio de probabilidad (Ω, F, P). Es posible asociar m´as de un espacio de probabilidad a un fen´omeno aleatorio
Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar Un espacio de probabilidad, asociado a un fenomeno aleatorio, es una terna (Ω, F, P) donde Ω es el espacio muestral, F es una sigma ´algebra( σ-´algebra) de subconjuntos de Ω y P es una medida de probabilidad (m.p.). Observaci´ on A cada fen´ omeno aleatorio asociamos un espacio de probabilidad (Ω, F, P). Es posible asociar m´as de un espacio de probabilidad a un fen´omeno aleatorio A continuaci´on definimos los componentes de la terna y sus propiedades que deben satisfacer
Espacio muestral Ω Definici´on. Espacio muestral Ω: Es un conjunto que contiene los resultados posibles de inter´es de un fen´ omeno aleatorio.
Espacio muestral Ω Definici´on. Espacio muestral Ω: Es un conjunto que contiene los resultados posibles de inter´es de un fen´ omeno aleatorio. Ejemplo. Sea lanzar un dado honesto Ω = {1, 2, 3, 4, 5, 6}
Espacio muestral Ω Definici´on. Espacio muestral Ω: Es un conjunto que contiene los resultados posibles de inter´es de un fen´ omeno aleatorio. Ejemplo. Sea lanzar un dado honesto Ω = {1, 2, 3, 4, 5, 6} Ejemplo. Sea lanzar dos veces un dado Ω = {(i, j); i, j ∈ N, i, j ≤ 6}
Espacio muestral Ω Ejemplo. : Examinar una caja con 50 fusibles de la producci´on de una f´abrica y contar el n´ umero de defectuosos Ω = {0, 1, . . . , 50}
Espacio muestral Ω Ejemplo. : Examinar una caja con 50 fusibles de la producci´on de una f´abrica y contar el n´ umero de defectuosos Ω = {0, 1, . . . , 50} Ejemplo. : lanzamos una moneda Ω={´ aguila , sol}
Espacio muestral Ω Ejemplo. : Examinar una caja con 50 fusibles de la producci´on de una f´abrica y contar el n´ umero de defectuosos Ω = {0, 1, . . . , 50} Ejemplo. : lanzamos una moneda Ω={´ aguila , sol} Observaci´ on: Los elementos de un espacio muestral pueden ser n´ umeros, vectores, palabras, etc. y los llamaremos en forma gen´erica resultados elementales.
Espacio muestral Ω Diremos que un espacio muestral es discreto cuando tiene un n´ umero finito o numerable de resultados elementales. Un espacio muestral es no discreto cuando tiene un n´ umero infinito no numerable de resultados elementales.
Espacio muestral Ω Diremos que un espacio muestral es discreto cuando tiene un n´ umero finito o numerable de resultados elementales. Un espacio muestral es no discreto cuando tiene un n´ umero infinito no numerable de resultados elementales. σ-´algebra F: En principio, uno desear´ıa poderle asignar una probabilidad positiva a cada resultado de Ω. Sin embargo, como veremos mas adelante, esto no es posible en general. La limitaci´on se produce con los espacios muestrales no discretos y es por ellos que se introdujo la σ-´algebra. El razonamiento fue: Si no podemos asignarle una probabilidad positiva a cada resultado elemental, ¿ser´a posible definir una colecci´on de subconjuntos de Ω a los que si podamos asignarle probabilidades positivas y resulte u ´til en la practica?. pero por otra parte, la colecci´ on de subconjuntos buscada no deber´ıa imponer restricciones a los espacios muestrales discretos. la respuesta es s´ı y esta fue la σ-´algebra siguiente.
σ-´algebra
Definici´on. Sea Ω un espacio de probabilidad. Sea F una colecci´on de subconjuntos de Ω. Decimos que F es una σ-´algebra si satisface las siguientes propiedades: 1
Ω∈F
2
Si A ∈ F entonces Ac ∈ F
3
Si Ai ∈ F para i ∈ N entonces,
S∞
i=1 Ai
∈ F.
σ-´algebra
Definici´on. Sea Ω un espacio de probabilidad. Sea F una colecci´on de subconjuntos de Ω. Decimos que F es una σ-´algebra si satisface las siguientes propiedades: 1
Ω∈F
2
Si A ∈ F entonces Ac ∈ F
3
Si Ai ∈ F para i ∈ N entonces,
S∞
i=1 Ai
∈ F.
Los elementos de F son llamados eventos y s´ olo a ellos les podremos calcular una probabilidad.
σ-´algebra
Definici´on. Sea Ω un espacio de probabilidad. Sea F una colecci´on de subconjuntos de Ω. Decimos que F es una σ-´algebra si satisface las siguientes propiedades: 1
Ω∈F
2
Si A ∈ F entonces Ac ∈ F
3
Si Ai ∈ F para i ∈ N entonces,
S∞
i=1 Ai
∈ F.
Los elementos de F son llamados eventos y s´ olo a ellos les podremos calcular una probabilidad. Diremos que un evento C ocurre cuando el resultado del experimento bajo estudio ε es el resulado elemental ω y ω pertenece a C .
Ejemplos de σ-´algebra
Ejemplo. F = {∅, Ω}.
Ejemplos de σ-´algebra
Ejemplo. F = {∅, Ω}. Ejemplo. F = {∅, A, Ac , Ω}
Ejemplos de σ-´algebra
Ejemplo. F = {∅, Ω}. Ejemplo. F = {∅, A, Ac , Ω} Ejemplo. F = 2Ω
Ejemplos de σ-´algebra
Ejemplo. F = {∅, Ω}. Ejemplo. F = {∅, A, Ac , Ω} Ejemplo. F = 2Ω Ejemplo. Sean A y B subconjuntos de Ω tal que A ⊆ B. F = {∅, A, Ac , B, B c , B − A, (B − A)c , Ω}.
Ejemplo. La intersecci´on finita, infinita numerable o bien arbitraria de σ-´algebras es nuevamente una σ-´algebra. Si {Fi , i ∈ I } es una familia de σ-´algebras de Ω, entonces la intersecci´on ∩Fi tambi´en es una σ-´algebra.
Ejemplo. La intersecci´on finita, infinita numerable o bien arbitraria de σ-´algebras es nuevamente una σ-´algebra. Si {Fi , i ∈ I } es una familia de σ-´algebras de Ω, entonces la intersecci´on ∩Fi tambi´en es una σ-´algebra. Ejemplo. Sea A una familia arbitraria de subconjuntos de Ω, y sea σ{A} la intersecci´on de todas las σ-´algebras de Ω que contienen A. Entonces, por el ejemplo anterior, σ{A} es una σ-´algebra y de hecho, es la m´ınima de σ-´algebra que contiene a A; es decir, si F es cualquier σ-´algebra de Ω que contiene a A, entonces σ{A} ⊂ F. A σ{A} se le llama la σ-´algebra generada por A.
Ejemplo. La intersecci´on finita, infinita numerable o bien arbitraria de σ-´algebras es nuevamente una σ-´algebra. Si {Fi , i ∈ I } es una familia de σ-´algebras de Ω, entonces la intersecci´on ∩Fi tambi´en es una σ-´algebra. Ejemplo. Sea A una familia arbitraria de subconjuntos de Ω, y sea σ{A} la intersecci´on de todas las σ-´algebras de Ω que contienen A. Entonces, por el ejemplo anterior, σ{A} es una σ-´algebra y de hecho, es la m´ınima de σ-´algebra que contiene a A; es decir, si F es cualquier σ-´algebra de Ω que contiene a A, entonces σ{A} ⊂ F. A σ{A} se le llama la σ-´algebra generada por A.Por ejemplo, sup´ongase que A consiste de un u ´nico conjunto B ⊂ Ω, es decir, A = {B}. Entonces σ{A} = {B, B c , Ω, ∅}.
Conjuntos de Borel
Definici´on. Considere la colecci´on de todos los intervalos abiertos (a, b) de R, en donde a ≤ b. A la m´ınima σ-´algebra generada por esta colecci´on se le llama σ-´algebra de Borel de R, y se le nota por B(R) B(R) = σ{(a, b) ⊆ R : a ≤ b}. A los elementos de B(R) se le llama conjuntos de Borel, Borelianos o conjuntos de Borel medibles.
Conjuntos de Borel
Definici´on. Considere la colecci´on de todos los intervalos abiertos (a, b) de R, en donde a ≤ b. A la m´ınima σ-´algebra generada por esta colecci´on se le llama σ-´algebra de Borel de R, y se le nota por B(R) B(R) = σ{(a, b) ⊆ R : a ≤ b}. A los elementos de B(R) se le llama conjuntos de Borel, Borelianos o conjuntos de Borel medibles. Al par (Ω, F) se le llama espacio medible y si Ω = R y F = B(R) tenemos el espacio Borel medible (R, B(R)).
Medidas de Probabilidad [Kolmogorov 1933]
Definici´on. Sea (Ω, F) un espacio medible. Una medida de probabilidad es una funci´on P : F → [0, 1] que satisface 1
P(Ω) = 1
2
P(A) ≥ 0, para cualquier A ∈ F
3
Si A1 , A2 , . . . ∈ F son ajenos, esto es, Ai ∩ Aj = ∅, i 6= j, entonces P(
∞ [
n=1
An ) =
∞ X
P(An )
σ − aditividad
n=1
La terna (Ω, F, P) se llama espacio de probabilidad
Probabilidad Cl´asica
Sea ε un experimento aleatorio con espacio muestral finito Ω. Sea F = 2Ω y para todo A de Ω defina P(A) =
#A #Ω
donde # significa cardinalidad, n´ umero de elementos. Entonces P es una probabilidad, y es llamada probabilidad cl´asica. Se ha acostumbrado a decir P(A) es casos favorables entre casos totales.
Probabilidad Geom´etrica
Sea Ω ⊂ R2 una regi´on tal que su ´area es positiva y finita. Sea F una σ-´algebra de subconjuntos de Ω para los cuales el concepto de ´area est´e bien definido. Para cada A en F defina ´ ´ P(A) = Area (A)/Area (Ω). La funci´on de probabilidad P es una medida de probabilidad y es llamada probabilidad geom´etrica. Este caso se puede extender a Rn .
Otro tipo de probabilidad: discreto
Considere un experimento aleatorio con espacio muestral Ω = N y F = 2N . Para cualquier subconjunto A de N defina P(A) =
X 1 2n
n∈A
Es decir, el n´ umero natural n tiene asociada la probabilidad 1/2n . P es efectivamente una medida de probabilidad concentrada en N.
Otro tipo de probabilidad: continuo
Considere (R, B(R)). R Sea f : R → [0, ∞) una funci´on no negativa y continua, tal que R f (x)dx = 1. La funci´ on definida para todo A ∈ B(R) por la integral Z P(A) = f (x)dx A
es una medida de probabilidad.
Propiedades elementales Proposici´on. Sea (Ω, F, P) un espacio de probabilidad. Entonces: 1
P(∅) = 0
2
Si A1 , . . . , An ∈ F son ajenos por parejas, entonces P(
n [
Ak ) =
k=1
n X
P(Ak )
k=1
3
P(Ac ) = 1 − P(A)
4
Si A ⊆ B, entonces P(B − A) = P(B) − P(A)
5
Si A ⊆ B, entonces P(A) ≤ P(B)
6
0 ≤ P(A) ≤ 1
7
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
8
P(A ∪ B) ≤ P(A) + P(B).
T´ecnicas de conteo
Cuando un espacio muestral Ω es muy grande y enumerar manualmente cada punto se torna tedioso o imposible, contar el n´ umero de puntos en Ω y en un evento de inter´es puede ser el u ´nico camino eficaz para calcular la probabilidad de un evento. De hecho, si Ω contiene N puntos con la misma probabilidad y un evento A contiene exactamente n puntos, la probabilidad cl´asica nos dice que P(A) = n/N.
T´ecnicas de conteo
Cuando un espacio muestral Ω es muy grande y enumerar manualmente cada punto se torna tedioso o imposible, contar el n´ umero de puntos en Ω y en un evento de inter´es puede ser el u ´nico camino eficaz para calcular la probabilidad de un evento. De hecho, si Ω contiene N puntos con la misma probabilidad y un evento A contiene exactamente n puntos, la probabilidad cl´asica nos dice que P(A) = n/N. Definici´on. (Regla de la multiplicaci´ on) Si una operaci´on se puede llevar a cabo de m formas, y si para cada una de ´estas se puede realizar una segunda operaci´on en n formas, entonces las dos operaciones se pueden ejecutar juntas en mn formas.
Ejemplo. Un experimento consiste en lanzar un par de dados y observar los n´ umeros de la cara superior. Encuentre el n´ umero de puntos muestrales en Ω, el espacio muestral del experimento.
Ejemplo. Un experimento consiste en lanzar un par de dados y observar los n´ umeros de la cara superior. Encuentre el n´ umero de puntos muestrales en Ω, el espacio muestral del experimento. Soluci´ on El primer dado puede caer de m = 6 maneras diferentes, El segundo dado puede caer de n = 6 maneras diferentes. As´ı el total de puntos muestrales de Ω es mn = (6)(6) = 36
Regla de multiplicaci´on generalizada Definici´on. Si una operaci´on se puede ejecutar de n1 formas, y si para cada una de ´estas se puede llevar a cabo una segunda operaci´on en n2 formas, y para cada una de las primeras dos se puede realizar una tercera en n3 formas, y as´ı sucesivamente, entonces la serie de k operaciones se puede realizar en n1 n2 · · · nk formas.
Regla de multiplicaci´on generalizada Definici´on. Si una operaci´on se puede ejecutar de n1 formas, y si para cada una de ´estas se puede llevar a cabo una segunda operaci´on en n2 formas, y para cada una de las primeras dos se puede realizar una tercera en n3 formas, y as´ı sucesivamente, entonces la serie de k operaciones se puede realizar en n1 n2 · · · nk formas. Ejemplo. ¿Cu´antos comidas que consisten en una sopa, emparedado, postre y una bebida son posibles si podemos seleccionar de 4 sopas, 3 tipos de emparedados, 5 postres y 4 bebidas?
Regla de multiplicaci´on generalizada Definici´on. Si una operaci´on se puede ejecutar de n1 formas, y si para cada una de ´estas se puede llevar a cabo una segunda operaci´on en n2 formas, y para cada una de las primeras dos se puede realizar una tercera en n3 formas, y as´ı sucesivamente, entonces la serie de k operaciones se puede realizar en n1 n2 · · · nk formas. Ejemplo. ¿Cu´antos comidas que consisten en una sopa, emparedado, postre y una bebida son posibles si podemos seleccionar de 4 sopas, 3 tipos de emparedados, 5 postres y 4 bebidas? Soluci´ on Como n1 = 4, n2 = 3, n3 = 5 y n4 = 4, hay n1 · n2 · n3 · n4 = (4)(3)(5)(4) = 240 diferentes maneras de elegir una comida.
Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?.
Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?. Soluci´ on Por la regla de la multiplicaci´ on generalizada 26 · 26 · 26 · 10 · 10 · 10 · 10 = 175, 760, 000
Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?. Soluci´ on Por la regla de la multiplicaci´ on generalizada 26 · 26 · 26 · 10 · 10 · 10 · 10 = 175, 760, 000
Ejemplo. Del anterior ejemplo, ¿cu´antas placas son posibles si la repetici´on entre n´ umeros o letras esta prohibida.?
Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?. Soluci´ on Por la regla de la multiplicaci´ on generalizada 26 · 26 · 26 · 10 · 10 · 10 · 10 = 175, 760, 000
Ejemplo. Del anterior ejemplo, ¿cu´antas placas son posibles si la repetici´on entre n´ umeros o letras esta prohibida.? Soluci´ on En este caso 26 · 25 · 24 · 10 · 9 · 8 · 7 = 78, 624, 000
Ejemplo. ¿Cu´antas funciones definidas sobre n puntos son posibles si cada valor de la funci´on es 0 ´ o 1?
Ejemplo. ¿Cu´antas funciones definidas sobre n puntos son posibles si cada valor de la funci´on es 0 ´ o 1? Soluci´ on Sean los puntos 1, 2, . . . , n. Dado que f (i) deber´a ser 0 o 1 para cada i = 1, 2, . . . , n, se sigue que existen 2n posibles funciones.
PERMUTACIONES ¿Cu´antos arreglos ordenados diferentes son posibles de las letras a, b y c?
PERMUTACIONES ¿Cu´antos arreglos ordenados diferentes son posibles de las letras a, b y c? Por enumeraci´on directa podemos ver que son 6, a saber abc, acb, bac, bca, cab y cba cada arreglo es conocido como una permutaci´ on. As´ı existen 6 posibles permutaciones de 3 objetos.
PERMUTACIONES ¿Cu´antos arreglos ordenados diferentes son posibles de las letras a, b y c? Por enumeraci´on directa podemos ver que son 6, a saber abc, acb, bac, bca, cab y cba cada arreglo es conocido como una permutaci´ on. As´ı existen 6 posibles permutaciones de 3 objetos. Este resultado puede ser obtenido de la regla de multiplicaci´on: El primer objeto de la permutaci´ on puede ser cualquiera de los 3, el segundo objeto en la permutaci´ on puede seleccionarse de los cualquiera dos restantes, y el tercero objeto en la permutaci´on es entonces el restante 1. As´ı son 3 · 2 · 1 = 6 posibles permutaciones
Permutaciones
Definici´on. Un arreglo ordenado de r objetos diferentes recibe el nombre de permutaci´on. La cantidad de maneras de ordenar n objetos diferentes tomando r a la vez se representa mediante el s´ımbolo Prn .
Permutaciones
Definici´on. Un arreglo ordenado de r objetos diferentes recibe el nombre de permutaci´on. La cantidad de maneras de ordenar n objetos diferentes tomando r a la vez se representa mediante el s´ımbolo Prn . Teorema. Prn = n(n − 1)(n − 2) · · · (n − r + 1) =
n! (n − r )!
donde n! = n(n − 1)(n − 2) · · · 3 · 2 · 1 y 0! := 1! := 1
Permutaciones
Ejemplo. De una urna que contiene los nombres de 30 empleados de una peque˜ na empresa se van a elegir aleatoriamente, sin reemplazo, los nombres de 3. El individuo cuyo nombre sale primero recibe 100 dolares, el siguiente en salir recibe 50 y el tercero recibe 25. ¿Cu´antos puntos muestrales se asocian con este experimento?.
Permutaciones
Ejemplo. De una urna que contiene los nombres de 30 empleados de una peque˜ na empresa se van a elegir aleatoriamente, sin reemplazo, los nombres de 3. El individuo cuyo nombre sale primero recibe 100 dolares, el siguiente en salir recibe 50 y el tercero recibe 25. ¿Cu´antos puntos muestrales se asocian con este experimento?. Soluci´ on Como los montos de las recompensas son diferentes, el n´ umero de puntos muestrales es el n´ umero de arreglos de r = 3 de los n = 30 nombres posibles. As´ı P330 =
30! = (30)(29)(28) = 24, 360 3!
Permutaciones El siguiente resultado calcula el n´ umero de subconjuntos de tama˜ nos diversos que pueden formarse partiendo de un conjunto de n objetos en k grupos que no se superponen. Teorema. La cantidad de formas de dividir n objetos distintos en k grupos que contengan n1 , n2 , . . . , nk objetos, en forma P respectiva, donde cada objeto figura en un grupo exactamente y ki=1 ni = n, es n n! N= = n1 n2 . . . nk n1 !n2 ! · · · nk !
Permutaciones El siguiente resultado calcula el n´ umero de subconjuntos de tama˜ nos diversos que pueden formarse partiendo de un conjunto de n objetos en k grupos que no se superponen. Teorema. La cantidad de formas de dividir n objetos distintos en k grupos que contengan n1 , n2 , . . . , nk objetos, en forma P respectiva, donde cada objeto figura en un grupo exactamente y ki=1 ni = n, es n n! N= = n1 n2 . . . nk n1 !n2 ! · · · nk ! El teorema anterior tambi´en lo podemos usar para encontrar las diferentes permutaciones de n objetos, de los cuales los n1 son iguales,los n2 son iguales,..., los nk son iguales.
Permutaciones
Ejemplo. Un torneo de ajedrez tiene 10 competidores, de los cuales 4 son de Rusia, 3 de los Estados Unidos, 2 de Alemania, y 1 de Brasil. Si el resultado del torneo lista justo las nacionalidades de los jugadores en el orden en los cuales ellos aparecen, ¿cu´antos resultados son posibles?.
Permutaciones
Ejemplo. Un torneo de ajedrez tiene 10 competidores, de los cuales 4 son de Rusia, 3 de los Estados Unidos, 2 de Alemania, y 1 de Brasil. Si el resultado del torneo lista justo las nacionalidades de los jugadores en el orden en los cuales ellos aparecen, ¿cu´antos resultados son posibles?. Soluci´ on Existen
10! = 12, 600 posibles resultados 4!3!2!1!
Permutaciones
Ejemplo. ¿De cu´antas maneras se pueden asignar siete cient´ıficos a una habitaci´on de hotel triple y a dos dobles?
Permutaciones
Ejemplo. ¿De cu´antas maneras se pueden asignar siete cient´ıficos a una habitaci´on de hotel triple y a dos dobles? Soluci´ on
7 3, 2, 2
=
7! = 210 3!2!2!
Combinaciones
En muchos casos los puntos muestrales se identifican mediante una selecci´on de s´ımbolos en las que el orden es irrelevante. Por ejemplo, las permutaciones de las letras a, b y c son 6: abc, acb, bac, bca, cab y cba pero si el orden es irrelevante s´ olo nos interesa una de ellas, que ser´a la combinaci´on.
Combinaciones
En muchos casos los puntos muestrales se identifican mediante una selecci´on de s´ımbolos en las que el orden es irrelevante. Por ejemplo, las permutaciones de las letras a, b y c son 6: abc, acb, bac, bca, cab y cba pero si el orden es irrelevante s´ olo nos interesa una de ellas, que ser´a la combinaci´on. Definici´on. El n´ umero de combinaciones de n objetos tomados r a la vez es el n´ umero de subconjuntos de tama˜ no r , que se pueden formar con los n objetos. El n´ umero se denota por Crn o nr .
Combinaciones Teorema. El n´ umero de subconjuntos no ordenados, de tama˜ no r elegidos (sin reemplazo) de entre los n objetos disponibles es n n! = Crn = r ≤n r r !(n − r )! Por convenci´on, 0! = 1! = 1. As´ı si r < 0 o r > n.
n 0
=
n n
= 1. Tambi´en
n r
=0
Combinaciones Teorema. El n´ umero de subconjuntos no ordenados, de tama˜ no r elegidos (sin reemplazo) de entre los n objetos disponibles es n n! = Crn = r ≤n r r !(n − r )! Por convenci´on, 0! = 1! = 1. As´ı si r < 0 o r > n.
n 0
=
n n
= 1. Tambi´en
Ejemplo. Un comite de 3 ser´a formado de un grupo de 20 personas. ¿Cu´antas comites diferentes son posibles?.
n r
=0
Combinaciones Teorema. El n´ umero de subconjuntos no ordenados, de tama˜ no r elegidos (sin reemplazo) de entre los n objetos disponibles es n n! = Crn = r ≤n r r !(n − r )! Por convenci´on, 0! = 1! = 1. As´ı si r < 0 o r > n.
n 0
=
n n
= 1. Tambi´en
n r
=0
Ejemplo. Un comite de 3 ser´a formado de un grupo de 20 personas. ¿Cu´antas comites diferentes son posibles?. Soluci´ on 20
=
20!
=
20 · 19 · 18
= 1, 140 posibles comites
Ejemplo. ¿Cu´antas comites consistentes de dos mujeres y tres hombres se pueden formar si en total existen 5 mujeres y 7 hombres?.
Ejemplo. ¿Cu´antas comites consistentes de dos mujeres y tres hombres se pueden formar si en total existen 5 mujeres y 7 hombres?. Soluci´ on Existen 52 posibles grupos de 2 mujeres y 73 posibles grupos de 3 hombres, por la regla de la multiplicaci´ on existen 52 73 = 350 posibles comites formados por 2 mujeres y 3 hombres.
El binomio de Newton Los valores nr en ocasiones son referidos como coeficientes binomiales debido a su presencia en el teorema binomial. Teorema. (Teorema binomial) n X n k n−k (x + y ) = x y k n
k=0
El binomio de Newton Los valores nr en ocasiones son referidos como coeficientes binomiales debido a su presencia en el teorema binomial. Teorema. (Teorema binomial) n X n k n−k (x + y ) = x y k n
k=0
Ejemplo. Desarrollar (x + y )3
El binomio de Newton Los valores nr en ocasiones son referidos como coeficientes binomiales debido a su presencia en el teorema binomial. Teorema. (Teorema binomial) n X n k n−k (x + y ) = x y k n
k=0
Ejemplo. Desarrollar (x + y )3 3
(x + y )
3 X 3 k 3−k = x y k k=0 3 0 3 3 1 2 3 2 3 3 0 = x y + x y + x y+ x y 0 1 2 3
= y 3 + 3xy 2 + 3x 2 y + x 3
Teorema binomial
Ejemplo. ¿Cu´antos subconjuntos existen de un conjunto consistente de n elementos?
Teorema binomial
Ejemplo. ¿Cu´antos subconjuntos existen de un conjunto consistente de n elementos? Soluci´ on n = n´ umero de subconjuntos de tama˜ no k k Entonces n X n k=0
.
k
=
n X n k=0
k
1k 1n−k = (1 + 1)n = 2n
Probabildad condicional
La probabilidad de un evento depender´a en ocasiones de nuestro conocimiento de que han ocurrido otros eventos.
Probabildad condicional
La probabilidad de un evento depender´a en ocasiones de nuestro conocimiento de que han ocurrido otros eventos. Definici´on. La probabilidad condicional del evento A dado que el evento B ya ocurri´o, denotada P(A|B), est´a definida por P(A|B) = siempre y cuando P(B) > 0.
P(A ∩ B) P(B)
Probabilidad condicional Observaci´on. En el momento que B ya ocurrio la σ-´algebra original F es modificada a B ∩ F = {B ∩ E |E ∈ F}. El espacio muestral es ahora Ω ∩ B = B y la medida de probabilidad es P(·|B), esto es, el nuevo espacio de probabilidad es (B, B ∩ F, P(·|B)). Formalmente, debemos mostrar que B ∩ F es una σ-´algebra y que P(·|B) es una medida de probabilidad. Dejamos de tarea demostrar que B ∩ F es una σ-´algebra y
Probabilidad condicional Observaci´on. En el momento que B ya ocurrio la σ-´algebra original F es modificada a B ∩ F = {B ∩ E |E ∈ F}. El espacio muestral es ahora Ω ∩ B = B y la medida de probabilidad es P(·|B), esto es, el nuevo espacio de probabilidad es (B, B ∩ F, P(·|B)). Formalmente, debemos mostrar que B ∩ F es una σ-´algebra y que P(·|B) es una medida de probabilidad. Dejamos de tarea demostrar que B ∩ F es una σ-´algebra y Teorema. P(·|B) es una medida de probabilidad definida en B ∩ F.
Probabilidad condicional Observaci´on. En el momento que B ya ocurrio la σ-´algebra original F es modificada a B ∩ F = {B ∩ E |E ∈ F}. El espacio muestral es ahora Ω ∩ B = B y la medida de probabilidad es P(·|B), esto es, el nuevo espacio de probabilidad es (B, B ∩ F, P(·|B)). Formalmente, debemos mostrar que B ∩ F es una σ-´algebra y que P(·|B) es una medida de probabilidad. Dejamos de tarea demostrar que B ∩ F es una σ-´algebra y Teorema. P(·|B) es una medida de probabilidad definida en B ∩ F. Demostraci´ on: Debemos verificar que se satisfacen los tres axiomas de medida de probabilidad.
Probabilidad condicional Observaci´on. Como P(·|B) es una medida de probabilidad podemos utilizar los resultados obtenidos 1
P(Ac |B) = 1 − P(A|B)
2
P(E ∪ F |B) = P(E |B) + P(F |B) − P(E ∩ F |B)
3
P(C |B) ≤ P(D|B) si C ∩ B ⊂ D ∩ B.
Probabilidad condicional Observaci´on. Como P(·|B) es una medida de probabilidad podemos utilizar los resultados obtenidos 1
P(Ac |B) = 1 − P(A|B)
2
P(E ∪ F |B) = P(E |B) + P(F |B) − P(E ∩ F |B)
3
P(C |B) ≤ P(D|B) si C ∩ B ⊂ D ∩ B.
Ejemplo. Suponga que un dado equilibrado se lanza una vez. Encuentre la probabilidad de que salga un 1, si ya se obtuvo un n´ umero impar.
Probabilidad condicional Observaci´on. Como P(·|B) es una medida de probabilidad podemos utilizar los resultados obtenidos 1
P(Ac |B) = 1 − P(A|B)
2
P(E ∪ F |B) = P(E |B) + P(F |B) − P(E ∩ F |B)
3
P(C |B) ≤ P(D|B) si C ∩ B ⊂ D ∩ B.
Ejemplo. Suponga que un dado equilibrado se lanza una vez. Encuentre la probabilidad de que salga un 1, si ya se obtuvo un n´ umero impar. Soluci´ on: sean los siguientes eventos: A: se observa un 1 y B: se observa un n´ umero impar. P(A|B) =
P(A ∩ B) P({1}) 1/6 = = = 1/3 P(B) P({1, 3, 5}) 3/6
Independencia entre eventos Definici´on. Sea (Ω, F, P) un espacio de probabilidad. Sean A1 , A2 , . . . , An con n ≥ 2, eventos. Decimos que A1 , A2 , . . . , An son mutuamente independientes si y s´olo si para todo subconjunto de tama˜ no k, 2 ≤ k ≤ n, {i1 , i2 , . . . , ik } de {1, 2, . . . , n} se cumple la igualdad P(
k \
j=1
Aij ) = Πkj=1 P(Aij ).
Independencia entre eventos Definici´on. Sea (Ω, F, P) un espacio de probabilidad. Sean A1 , A2 , . . . , An con n ≥ 2, eventos. Decimos que A1 , A2 , . . . , An son mutuamente independientes si y s´olo si para todo subconjunto de tama˜ no k, 2 ≤ k ≤ n, {i1 , i2 , . . . , ik } de {1, 2, . . . , n} se cumple la igualdad P(
k \
Aij ) = Πkj=1 P(Aij ).
j=1
Para el caso n = 2, la definici´ on establece que los eventos A1 y A2 son independientes ssi P(A1 ∩ A2 ) = P(A1 )P(A2 ).
Independencia entre eventos Cuando n = 3, la definici´ on de independencia nos dice que A1 , A2 , A3 son mutuamente independientes ssi P(A1 ∩ A2 ) = P(A1 )P(A2 ) P(A1 ∩ A3 ) = P(A1 )P(A3 ) P(A2 ∩ A3 ) = P(A2 )P(A3 ) P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ) No es suficiente que sean independientes a pares.
Independencia entre eventos Cuando n = 3, la definici´ on de independencia nos dice que A1 , A2 , A3 son mutuamente independientes ssi P(A1 ∩ A2 ) = P(A1 )P(A2 ) P(A1 ∩ A3 ) = P(A1 )P(A3 ) P(A2 ∩ A3 ) = P(A2 )P(A3 ) P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ) No es suficiente que sean independientes a pares. Ejemplo. Sea el experimento que consiste en lanzar dos veces una moneda honesta, entonces Ω = {AA, AS, SA, SS} = {ω1 , ω2 , ω3 , ω4 } Definamos los eventos: A = {ω1 , ω2 }, B = {ω1 , ω3 }, C = {ω1 , ω3 } ¿Son los eventos A, B y C independientes?.
Independencia entre eventos
Soluci´ on: Con la moneda honesta podemos proponer P({ωi }) = 1/4, i = 1, . . . , 4. Entonces P(A) = P(B) = P(C ) = 1/2 P(A ∩ B) = P({ω1 }) = 1/4 = P(A)P(B) P(A ∩ C ) = P({ω1 }) = 1/4 = P(A)P(C ) P(B ∩ C ) = P({ω1 }) = 1/4 = P(B)P(C ) pero P(A ∩ B ∩ C ) = P({ω1 }) = 1/4 = P(A)P(B)P(C ) = 1/8 Concluimos que los eventos no son mutuamente independientes.
Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e?
Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e? Soluci´ on: 2n − n0 − n1 = 2n − 1 − n
Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e? Soluci´ on: 2n − n0 − n1 = 2n − 1 − n Observaci´on. De manera informal se acostumbra decir que n eventos son independientes cuando la ocurrencia de uno de ellos no altera la ocurrencia o no ocurrencia de los dem´as.
Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e? Soluci´ on: 2n − n0 − n1 = 2n − 1 − n Observaci´on. De manera informal se acostumbra decir que n eventos son independientes cuando la ocurrencia de uno de ellos no altera la ocurrencia o no ocurrencia de los dem´as. Observaci´on. A ∩ B = ∅ no significa que A y B son independientes. De hecho si P(A) > 0 y P(B) > 0 y A ∩ B = ∅, entonces P(A ∩ B) = P(∅) = 0 6= P(A)P(B) > 0.
Independencia entre eventos Consecuencias de la independencia entre eventos Proposici´on. Sean A y B dos eventos independientes, entonces 1
A y B c son independientes (y por simetr´ıa AC y B son tambi´en independientes )
2
Ac y B c son independientes.
Independencia entre eventos Consecuencias de la independencia entre eventos Proposici´on. Sean A y B dos eventos independientes, entonces 1
A y B c son independientes (y por simetr´ıa AC y B son tambi´en independientes )
2
Ac y B c son independientes.
Demostraci´ on: (1)
A − B = A ∩ Bc
A = (A ∩ B c ) ∪ (A ∩ B) uni´ on disjunta P(A) = P(A ∩ B c ) + P(A)P(B) por independencia Entonces P(A ∩ B c ) = P(A) − P(A)P(B) = P(A)[1 − P(B)] = P(A)P(B c ) (2) Tarea.
Independencia entre eventos
Observaci´on. La proposici´on anterior es generalizable a m´as de dos eventos. Por ejemplo, para 3 eventos A, B y C mutuamente independientes tendremos que los siguientes eventos son mutuamente independientes Ac , B, C ; A, B c , C ; A, B, C c ; Ac , B c , C ; Ac , B, C c ; A, B c , C c y Ac B c C c Tarea.
Independencia entre eventos
Observaci´on. La proposici´on anterior es generalizable a m´as de dos eventos. Por ejemplo, para 3 eventos A, B y C mutuamente independientes tendremos que los siguientes eventos son mutuamente independientes Ac , B, C ; A, B c , C ; A, B, C c ; Ac , B c , C ; Ac , B, C c ; A, B c , C c y Ac B c C c Tarea. Lema. Sean A y B dos eventos en un espacio (Ω, F, P). Si P(B) > 0 entonces A y B son independientes si y s´ olo si P(A|B) = P(A)
Demostraci´ on:⇒) Suponga que A y B son independientes (P(A ∩ B) = P(A)P(B)) y P(A|B) =
P(A)P(B) P(A ∩ B) = = P(A) P(B) P(B)
Demostraci´ on:⇒) Suponga que A y B son independientes (P(A ∩ B) = P(A)P(B)) y P(A|B) =
P(A)P(B) P(A ∩ B) = = P(A) P(B) P(B)
⇐) Suponga que P(A|B) = P(A) P(A ∩ B) = P(A|B)P(B) = P(A)P(B)
Demostraci´ on:⇒) Suponga que A y B son independientes (P(A ∩ B) = P(A)P(B)) y P(A|B) =
P(A)P(B) P(A ∩ B) = = P(A) P(B) P(B)
⇐) Suponga que P(A|B) = P(A) P(A ∩ B) = P(A|B)P(B) = P(A)P(B) El lema pudo ser establecido con P(B|A) = P(B) y el supuesto P(A) > 0.
La f´ormula de probabilidad total y la regla de Bayes Sea (Ω, F, P) un espacio de probabilidad Definici´on. Sea k ∈ Z+ y los eventos B1 , B2 , . . . , Bk que satisfacen 1
Ω = B1 ∪ B2 ∪ . . . ∪ Bk
2
Bi ∩ Bj = ∅ si i 6= j.
Entonces {B1 , B2 , . . . , Bk } es una partici´ on de Ω.
La f´ormula de probabilidad total y la regla de Bayes Sea (Ω, F, P) un espacio de probabilidad Definici´on. Sea k ∈ Z+ y los eventos B1 , B2 , . . . , Bk que satisfacen 1
Ω = B1 ∪ B2 ∪ . . . ∪ Bk
2
Bi ∩ Bj = ∅ si i 6= j.
Entonces {B1 , B2 , . . . , Bk } es una partici´ on de Ω. Teorema. (Ley de probabilidad total) Si {B1 , B2 , . . . , Bk } es una partici´ on de Ω tal que P(Bi ) > 0, para i = 1, 2, . . . , k, entonces para todo A ∈ F P(A) =
k X i=1
P(A|Bi )P(Bi )
Demostraci´ on: A = A ∩ Ω = A ∩ (B1 ∪ B2 ∪ . . . ∪ Bk ) = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bk ) Adem´as (A ∩ Bi ) ∩ (A ∩ Bj ) = A ∩ (Bi ∩ Bj ) = A ∩ ∅ = ∅ y as´ı
Demostraci´ on: A = A ∩ Ω = A ∩ (B1 ∪ B2 ∪ . . . ∪ Bk ) = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bk ) Adem´as (A ∩ Bi ) ∩ (A ∩ Bj ) = A ∩ (Bi ∩ Bj ) = A ∩ ∅ = ∅ y as´ı P(A) = P(A ∩ B1 ) + P(A ∩ B2 ) + . . . + P(A ∩ BK ) = P(A|B1 )P(B1 ) + P(A|B2 )P(B2 ) + . . . + P(A|Bk )P(Bk ) =
k X i=1
P(A|Bi )P(Bi )
Regla de Bayes
Teorema. ( Regla de Bayes) Sea {B1 , . . . , Bk } una partici´ on de Ω tal que P(Bi ) > 0, para i = 1, 2, . . . , k. Entonces P(A|Bj )P(Bj ) P(Bj |A) = Pk i=1 P(A|Bi )P(Bi )
Regla de Bayes
Teorema. ( Regla de Bayes) Sea {B1 , . . . , Bk } una partici´ on de Ω tal que P(Bi ) > 0, para i = 1, 2, . . . , k. Entonces P(A|Bj )P(Bj ) P(Bj |A) = Pk i=1 P(A|Bi )P(Bi ) Demostraci´ on: P(Bj |A) =
P(Bj ∩ A) P(A|Bj )P(Bj ) = Pk P(A) i=1 P(A|Bi )P(Bi )
Ejemplo. Si dos eventos, A y B, tienen las siguientes probabilidades: P(A) = 0,5, P(B) = 0,3 y P(A ∩ B) = 0,1, encuentre las siguientes probabilidades: 1
P(A|B) y P(B|A)
2
P(A|A ∪ B)
3
P(A|A ∩ B)
4
P(A ∩ B|A ∪ B)
Ejemplo. Dos eventos A y B son tales que P(A) = 0,2, P(B) = 0,3 y P(A ∪ B) = 0,4. Encuentre las siguientes probabilidades 1
P(Ac ∩ B)
2
P(Ac ∪ B)
3
P(Ac ∩ B c )
Variables aleatorias Con frecuencia cuando se lleva a cabo un experimento, estamos interesados principalmente en alguna funci´ on de los resultados que en los resultados mismos. Por ejemplo, cuando lanzamos un par de dados, podemos estar interesados por la suma de los dados y no estar preocupados por los valores reales independientes de cada vector. Es decir, podemos estar interesados en saber que la suma es 7 y no puede interesarnos acerca si el resultado real fue (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1).
Variables aleatorias Con frecuencia cuando se lleva a cabo un experimento, estamos interesados principalmente en alguna funci´ on de los resultados que en los resultados mismos. Por ejemplo, cuando lanzamos un par de dados, podemos estar interesados por la suma de los dados y no estar preocupados por los valores reales independientes de cada vector. Es decir, podemos estar interesados en saber que la suma es 7 y no puede interesarnos acerca si el resultado real fue (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1). Definici´on. Una variable aleatoria (v.a.) es una funci´ on X : Ω → R tal que para cualquier conjunto Boreliano B, se cumple que el conjunto X −1 (B) ∈ F. Donde X −1 (B) = {ω ∈ Ω : X (ω) ∈ B}
Variable aleatoria Ejemplo. Sea : Lanzamos una moneda tres veces y observamos Ω = {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} Sea X la v.a.: El n´ umero de ´aguilas obtenidas. X (AAA) → 3 X (AAS) → 2 X (ASA) → 2 X (SAA) → 2 X (ASS) → 1 .. .. . . X (SSS) → 0 X : Ω → {0, 1, 2, 3} ⊂ R.
Variable aleatoria Observaci´on. No toda funci´on X : Ω → R es una v.a. sino s´ olo aquellas que satisfacen X −1 (B) ∈ F para todo B ∈ B(R) y se dice entonces que X es medible. Si X es continua entonces X es v.a. y tambi´en si Ω es discreto y F = 2Ω entonces tambi´en X es v.a.. El concepto es un poco t´ecnico y a continuaci´ on damos algunos resultados sin demostraci´on.
Variable aleatoria Observaci´on. No toda funci´on X : Ω → R es una v.a. sino s´ olo aquellas que satisfacen X −1 (B) ∈ F para todo B ∈ B(R) y se dice entonces que X es medible. Si X es continua entonces X es v.a. y tambi´en si Ω es discreto y F = 2Ω entonces tambi´en X es v.a.. El concepto es un poco t´ecnico y a continuaci´ on damos algunos resultados sin demostraci´on. Proposici´on. La funci´on constante X (ω) = c para todo ω ∈ Ω es una v.a.
Variable aleatoria Observaci´on. No toda funci´on X : Ω → R es una v.a. sino s´ olo aquellas que satisfacen X −1 (B) ∈ F para todo B ∈ B(R) y se dice entonces que X es medible. Si X es continua entonces X es v.a. y tambi´en si Ω es discreto y F = 2Ω entonces tambi´en X es v.a.. El concepto es un poco t´ecnico y a continuaci´ on damos algunos resultados sin demostraci´on. Proposici´on. La funci´on constante X (ω) = c para todo ω ∈ Ω es una v.a. Proposici´on. Si X y Y son variables aleatorias y c es una constante entonces cX , X + Y , XY , X /Y con Y 6= 0 y |X | son tambi´en variables aleatorias.
Variable aleatoria
Observaci´on. Recordemos que P es una medida de probabilidad definida sobre el espacio medible (Ω, F). Si X es una v.a. entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B(R)) del siguiente modo: Si B ∈ B(R) definimos PX (B) = P(X −1 (B)), lo cual es posible pues X −1 (B) ∈ F. La funci´ on PX : B(R) → [0, 1] resulta ser una medida de probabilidad, y se le llama medida de probabilidad inducida por la v.a. X . Se le conoce tambi´en con el nombre de distribuci´on o ley de probabilidad de X . De este modo se construye el espacio de probabilidad (R, B(R), Px ).
Variable aleatoria
Ejemplo. Sea : Lanzamos una moneda tres veces y observamos Ω = {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} Sea X la v.a.: El n´ umero de ´aguilas obtenidas. p(0) = PX (X = 0) = P(X −1 (0)) = P({SSS}) = 1/8 p(1) = PX (X = 1) = P(X −1 (1)) = P({ASS, SAS, SSA}) = 3/8 p(2) = PX (X = 2) = P(X −1 (2)) = P({AAS, ASA, SAA}) = 3/8 p(3) = PX (X = 3) = P(X −1 (3)) = P({AAA}) = 1/8
v.a.s discretas y sus distribuciones de probabilidad Definici´on. Una v.a. X es discreta si puede tomar s´ olo una cantidad de valores finito o infinito numerable.
v.a.s discretas y sus distribuciones de probabilidad Definici´on. Una v.a. X es discreta si puede tomar s´ olo una cantidad de valores finito o infinito numerable. Ejemplo. La probabilidad que X tome el valor x, P(X = x), se define como la suma de las probabilidades de los puntos muestrales de Ω que tienen asignado el valor x. Se representa a P(X = x) como p(x). p(x) es una funci´on, llamada funci´ on de probabilidad de X o funci´on de masa de probabilidad.
v.a.s discretas y sus distribuciones de probabilidad Definici´on. Una v.a. X es discreta si puede tomar s´ olo una cantidad de valores finito o infinito numerable. Ejemplo. La probabilidad que X tome el valor x, P(X = x), se define como la suma de las probabilidades de los puntos muestrales de Ω que tienen asignado el valor x. Se representa a P(X = x) como p(x). p(x) es una funci´on, llamada funci´ on de probabilidad de X o funci´on de masa de probabilidad. Observaci´on. La distribuci´on de probabilidad para una v.a. X puede representarse mediante una f´ ormula, una tabla o una gr´afica, que proporciona p(x) = P(X = x) para toda x.
Distribuci´on de probabilidad Ejemplo. Sea : Lanzamos una moneda tres veces y observamos Ω = {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} X : El n´ umero de ´ aguilas observadas
Tabla: Distribucion de probabilidad
x 0 1 2 3
p(x) 1/8 3/8 3/8 1/8 1
Ejemplo. El supervisor de una planta de manufactura tiene a tres hombres y tres mujeres a su cargo. Debe elegir dos trabajadores para una tarea especial. Como no desea actuar con prejuicio en la selecci´on del personal, decide elegir dos trabajadores al azar. Si Y es el n´ umero de mujeres en el grupo elegido, encuentre la distribuci´on de probabilidad para Y . Soluci´ on Y puede tomar los valores 0, 1 y 2. 3 3 p(0) = P(Y = 0) =
0
2 = 1/5
6 2
3
p(1) = P(Y = 1) =
3 1
1 = 3/5
6 2 3 2
3
p(2) = P(Y = 2) =
0 = 1/5
6 2
Tabla: Distribuci´ on de Probabilidad
y 0 1 2
p(y) 1/5 3/5 1/5
Por medio de una f´ormula: p(y ) =
3 y
3 2−y 6 2
,
y = 0, 1, 2
Distribuci´on de probabilidad Teorema. Cualquier distribuci´on de probabilidades debe satisfacer lo siguiente: 1 2
0 ≤ p(y ) ≤ 1 P y p(y ) = 1.
∀y ∀y
Definici´on. Si X es una v.a., entonces la funci´ on F (x) definida por X F (x) = P[X ≤ x] = ( p(x)) para el caso discreto y ≤x
es llamada la funci´on de distribuci´ on (acumulada) de X .
Definici´on. Si X es una v.a. discreta con funci´ on de probabilidad p(x). Entonces, el valor esperado de X , E (X ), se define como X E (X ) = xp(x) x
siempre que
P
x
|x|p(x) < ∞
Definici´on. Si X es una v.a. discreta con funci´ on de probabilidad p(x). Entonces, el valor esperado de X , E (X ), se define como X E (X ) = xp(x) x
siempre que
P
x
|x|p(x) < ∞
Definici´on. La varianza de una v.a. X se define como el valor esperado de (X − E [X ])2 . Es decir: V (X ) = E [(X − E [X ])2 ]. La varianza es una medida de la diferencia p de los valores de X respecto a su esperanza. La cantidad V (X ) es llamada la desviaci´on est´andar de X .
Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}
∀x ∈ R
Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}
Proposici´on. La FX de una v.a. satisface (a) Si x < y entonces F (x) ≤ F (y )
∀x ∈ R
Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}
∀x ∈ R
Proposici´on. La FX de una v.a. satisface (a) Si x < y entonces F (x) ≤ F (y ) (b) FX (+∞) := l´ımx→−∞ (x) = 1 y FX (∞) := l´ımx→∞ (x) = 0
Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}
∀x ∈ R
Proposici´on. La FX de una v.a. satisface (a) Si x < y entonces F (x) ≤ F (y ) (b) FX (+∞) := l´ımx→−∞ (x) = 1 y FX (∞) := l´ımx→∞ (x) = 0 (c) FX es continua por la derecha, i.e. si FX (x+) := l´ımy →x + FX (y ), entonces, FX (x+) = FX (x)
Definici´on. Cualquier funci´on F : R → [0, 1] que satisface (a) − (c) de arriba se dice que es una funci´ on de distribuci´ on de probabilidad (fdp)
Tipos de v.a.s Definici´on. Se dice que una v.a. X es discreta si el n´ umero de valores de X es finito o infinito numerable. Si X es discreta su F (x) es una funci´ on constante por pedazos (escalonada) y viceversa.
Tipos de v.a.s Definici´on. Se dice que una v.a. X es discreta si el n´ umero de valores de X es finito o infinito numerable. Si X es discreta su F (x) es una funci´ on constante por pedazos (escalonada) y viceversa. Definici´on. La v.a. X se llama continua si su F (x) es una funci´on continua.
Tipos de v.a.s Definici´on. Se dice que una v.a. X es discreta si el n´ umero de valores de X es finito o infinito numerable. Si X es discreta su F (x) es una funci´ on constante por pedazos (escalonada) y viceversa. Definici´on. La v.a. X se llama continua si su F (x) es una funci´on continua. Definici´on. Se dice que una v.a. X es absolutamente continua si existe una funci´on de Borel f : R → R, no-negativa, y tal que Z x FX (x) = f (y )dy ∀x ∈ R −∞
En este caso se dice que f es la densidad de probabilidad de X .
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y )
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x)
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−)
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y )
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −)
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −) (e) P{y < X < x} = FX (x−) − FX (y )
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −) (e) P{y < X < x} = FX (x−) − FX (y ) (f) P{y ≤ X < x} = FX (x−) − FX (y −)
Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −) (e) P{y < X < x} = FX (x−) − FX (y ) (f) P{y ≤ X < x} = FX (x−) − FX (y −) (g) P{X = x} = FX (x) − FX (x−); por lo tanto, FX es continua en x ssi P{X = 0} = 0.
Nota:
Si FX es continua en x, entonces FX (x−) = FX (x+) = FX , As´ı si FX es continua en x, (b) P{X < x} = FX (x) Si FX es continua en x e y , entonces (d) − (f ) son iguales a (c)
Ejercicios
Ejemplo. Una caja tiene 12 pelotas numeradas de 1 a 12. Dos pelotas son seleccionadas aleatoriamente de la caja. Sea X el n´ umero m´as grande de las dos pelotas. Encuentre la densidad de X si las bolas son seleccionadas: a)con reemplazo. Grafique esta densidad. b)sin reemplazo. Grafique esta densidad.
Ejercicios
Ejemplo. Una caja tiene 12 pelotas numeradas de 1 a 12. Dos pelotas son seleccionadas aleatoriamente de la caja. Sea X el n´ umero m´as grande de las dos pelotas. Encuentre la densidad de X si las bolas son seleccionadas: a)con reemplazo. Grafique esta densidad. b)sin reemplazo. Grafique esta densidad. Ejemplo. Sea X una variable aleatoria tal que P(|X − 1| = 2) = 0. Exprese P(|X − 1| ≥ 2) en t´erminos de la funci´ on de distribuci´on acumulada FX (x).
Ejercicios
Ejemplo. Sea X una variable aleatoria cuya funci´ on de distribuci´on acumulada est´a dada por: 0, x ≤0 x/3, 0 ≤ x < 1 F (x) = x/2, 1 ≤ x < 2 1, x ≥2 Encuentre f (x) y grafique esta funci´ on.
Ejemplo. Sea X una variable aleatoria continua cuya funci´ on de densidad est´a dada por 1 f (x) = e −|x| 2 (a) Encuentre P(1 ≤ |x| ≤ 2) (b) Encuentre FX (x)
−∞ 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P).
Casos especiales (a) Si h(x) = x k para alg´ un k > 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P). Para k = 1, el momento de orden 1 de X coincide con la esperanza de X .
Casos especiales (a) Si h(x) = x k para alg´ un k > 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P). Para k = 1, el momento de orden 1 de X coincide con la esperanza de X . (b) Sea mX := EX y sea h(x) := (x − mX )k . Entonces, suponiendo que (5) se cumple, Eh(X ) := E (X − mX )k se llama momento central de orden k de la v.a. X.
Casos especiales (a) Si h(x) = x k para alg´ un k > 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P). Para k = 1, el momento de orden 1 de X coincide con la esperanza de X . (b) Sea mX := EX y sea h(x) := (x − mX )k . Entonces, suponiendo que (5) se cumple, Eh(X ) := E (X − mX )k se llama momento central de orden k de la v.a. X.En particular, para k = 2 se llama la varianza de X y se denota por Var (X ) ´o σX2 , es decir Var (X ) ≡ σX2 = E (X − mX )2 .
(6)
La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable.
La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable. Definici´on. (Varianza) La varianza de una v.a. X , denotada por Var (X ), se define como Var (X ) := E [X − EX ]2 = E (X − µ)2 donde µ = EX
La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable. Definici´on. (Varianza) La varianza de una v.a. X , denotada por Var (X ), se define como Var (X ) := E [X − EX ]2 = E (X − µ)2 donde µ = EX En el caso discreto Var (X ) =
X x
(x − µ)2 f (x)
La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable. Definici´on. (Varianza) La varianza de una v.a. X , denotada por Var (X ), se define como Var (X ) := E [X − EX ]2 = E (X − µ)2 donde µ = EX En el caso discreto X
Var (X ) =
(x − µ)2 f (x)
x
En el caso continuo Z
∞
Var (X ) = −∞
(x − µ)2 f (x)dx
Notaci´on
La varianza se denota regularmente por el s´ımbolo σ 2 . A la ra´ız cuadrada positiva de Var (X ) se le llama desviaci´ on est´ andar, y se le denota por σ
Notaci´on
La varianza se denota regularmente por el s´ımbolo σ 2 . A la ra´ız cuadrada positiva de Var (X ) se le llama desviaci´ on est´ andar, y se le denota por σ Teorema. Si X es una v.a., entonces Var (X ) = σ 2 = E (X − µ)2 = E (X 2 ) − µ2
Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones:
Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones: 1
El intervalo de tiempo (o la regi´ on) se pueden dividir en subintervalos (subregiones) muy peque˜ nos, de manera que la probabilidad de que ocurra m´as de un resultado en tal intervalo corto o regi´ on peque˜ na es insignificante
Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones: 1
El intervalo de tiempo (o la regi´ on) se pueden dividir en subintervalos (subregiones) muy peque˜ nos, de manera que la probabilidad de que ocurra m´as de un resultado en tal intervalo corto o regi´ on peque˜ na es insignificante
2
El n´ umero de resultados que ocurren en un intervalo o regi´on es independiente del n´ umero que ocurre en cualquier otro intervalo o regi´on.
Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones: 1
El intervalo de tiempo (o la regi´ on) se pueden dividir en subintervalos (subregiones) muy peque˜ nos, de manera que la probabilidad de que ocurra m´as de un resultado en tal intervalo corto o regi´ on peque˜ na es insignificante
2
El n´ umero de resultados que ocurren en un intervalo o regi´on es independiente del n´ umero que ocurre en cualquier otro intervalo o regi´on.
3
La probabilidad de que ocurra un solo resultado durante un intervalo muy corto o una regi´ on muy peque˜ na es proporcional a la longitud del intervalo o regi´ on.
Distribuci´on Poisson
Observaci´on. Si λ es el valor promedio de Y , entonces dividimos un intervalo (o regi´on) en n subintervalos de modo que en cada uno de ellos s´olo pueda suceder a lo mas un resultado, entonces cada subintervalo tendra una probabilidad de p = λ/n y asi la distribuci´on de probabilidad del n´ umero de sucesos en el intervalo de tiempo sigue una distribuci´ on binomial, pero en donde n (el n´ umero de subintervalos o subregiones) es muy grande, de donde n y λy e −λ p(y ) = l´ım p (1 − p)n−y = n→∞ y y! donde p es la probabilidad de que el evento suceda y λ = np
Distribuci´on Poisson Definici´on. La variable aleatoria Y se dice que tiene una distribuci´on de probabilidad Poisson si y s´ olo si p(y ) =
λy e −λ y!
y = 0, 1, 2, . . . ,
λ>0
Distribuci´on Poisson Definici´on. La variable aleatoria Y se dice que tiene una distribuci´on de probabilidad Poisson si y s´ olo si p(y ) =
λy e −λ y!
y = 0, 1, 2, . . . ,
Ejemplo. Sea Y ∼ Poisson(2). Encuentre 1
P(Y = 4)
2
P(Y ≥ 4)
3
P(Y < 4)
4
P(Y ≥ 4|Y ≥ 2)
λ>0
Distribuci´on Poisson Definici´on. La variable aleatoria Y se dice que tiene una distribuci´on de probabilidad Poisson si y s´ olo si p(y ) =
λy e −λ y!
y = 0, 1, 2, . . . ,
Ejemplo. Sea Y ∼ Poisson(2). Encuentre 1
P(Y = 4)
2
P(Y ≥ 4)
3
P(Y < 4)
4
P(Y ≥ 4|Y ≥ 2)
Sol. 1)0,090, 2)0,143, 3)0,857, 4)0,241
λ>0
Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1
no lleguen mas de tres clientes
2
por lo menos lleguen dos compradores
3
lleguen exactamente cinco clientes.
Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1
no lleguen mas de tres clientes
2
por lo menos lleguen dos compradores
3
lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1
no lleguen mas de tres clientes
2
por lo menos lleguen dos compradores
3
lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Ejemplo. Suponga que Y posee una distribuci´ on binomial con n = 20 y p = 0,1. Determine P(Y ≤ 3). Aproxime esta probabilidad mediante una Poisson.
Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1
no lleguen mas de tres clientes
2
por lo menos lleguen dos compradores
3
lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Ejemplo. Suponga que Y posee una distribuci´ on binomial con n = 20 y p = 0,1. Determine P(Y ≤ 3). Aproxime esta probabilidad mediante una Poisson. Sol. Bin. 0,867; Poisson 0,857 Dif. 0,01
Distribuci´on Poisson
Teorema. Si Y es una v.a. Poisson con par´ametro λ, entonces µ = E (Y ) = λ
y
σ 2 = Var (Y ) = λ
Tarea:Distribuci´on Poisson 1
Si X se distribuye Poisson, obtenga las siguientes probabilidades: a)P(X ≤ 4); b)P(X ≥ 6); c)P(2 < X ≤ 6); d)P(X ≤ 6|X ≥ 3). Con 1)λ = 0,6 y con 2)λ = 15.
2
La cantidad de veces que se equivoca una mecan´ ografa tiene una distribuci´ on de Poisson con un promedio de cuatro errores por cuartilla; si excede este n´ umero, debe volver a mecanografiar la pagina completa. ¿Qu´ e probabilidad hay de que no necesite repetirla?.
3
El n´ umero de defectos Y por pie en la producci´ on de cierto tipo de cuerda tiene una distribuci´ on de Poisson con media λ = 2. La utilidad por pie que se obtienen al venderla est´ a representada por X , donde X = 50 − 2Y − Y 2 . Calcule la utilidad esperada por pie.
4
Suponga que el n´ umero de pasajeros que documenta su equipaje en cierta l´ınea a´ erea se puede modelar como una variable aleatoria Poisson y que en promedio 12 pasajeros por hora documenta su equipaje en esta l´ınea. 1) Obtenga la probabilidad de que entre las 8 a.m. y las 9 a.m. m´ as de 6 pasajeros documenten su equipaje en esta l´ınea, si ya han documentado su equipaje al menos 4. 2) Si el costo por hora de documentar equipaje por la l´ınea a´ erea esta dado por C = 800 − X 2 Obtenga el costo esperado y la varianza del costo. ´ MULTIPLE ´ 3) PREGUNTA DE OPCION ¿Cu´ al es la probabilidad de que entre las 10 a.m. y las 10 : 30 a.m. m´ as de 3 pasajeros documente su equipaje en esta l´ınea? a)0,849
5
b)0,735
c)0,151
d)Ninguna de las anteriores
Suponga que el n´ umero de accidentes fatales de automovil, en cierta zona de la ciudad, obedece una distribuci´ on de Poisson con un promedio de un accidente por d´ıa. ¿Cu´ al es la probabilidad de que haya m´ as de 10 accidentes en una semana?. Sol. 2)0,6288, 3)40, 5)0,0985
Tarea Poisson adicional 1
Use la aproximaci´ on Poisson para calcular: a) La probabilidad de que a lo m´ as 2 de 50 tengan licencia vencida, si usualmente 5 % de las personas tienen vencida su licencia. b) La probabilidad de que una caja de 100 fusibles tengan a lo mas 2 fusibles defectuosos si se sabe que el 3 % de los fusibles fabricados sean defectuosos.
2
Si X es una v.a. con distribuci´ on Poisson para la cual P(X = 0) = P(X = 1), ¿cu´ al es el valor de λ?.
3
Un vendedor ha encontrado que el n´ umero de art´ıculos de la marca ABC que puede vender en un d´ıa es una v.a. Poisson(4). a) Construya una gr´ afica de la fdp correspondiente, b) ¿Cu´ antos art´ıculos de la marca ABC debe tener el vendedor para estar 95 % seguro de que tiene los suficientes art´ıculos para que le duren 5 d´ıas?.
4
Una compa˜ n´ıa de seguros encontr´ o que el 0,005 % de las personas en un pa´ıs, mueren por cierto tipo de accidente cada a˜ no. ¿Cu´ al es la probabilidad de que la compa˜ n´ıa tenga que pagar a m´ as de tres de un total de 10000 asegurados debido a este accidente en un a˜ no?. Calcule la probabilidad exacta y tambi´ en en forma aproximada.
5
La deficiencia de c´ elulas rojas en la sangre se puede determinar examinando una muestra de sangre en el microscopio. Suponga que en las personas normales una muestra de volumen espec´ıfico de sangre contiene en promedio 20 c´ elulas rojas. ¿Cu´ al es la probabilidad de que para una persona normal, una muestra de sangre pueda contener menos de 15 c´ elulas rojas?
Sol. 1)a) : X ∼ Poisson(2,5); P(X ≤ 2) = 0,543813; b) : X ∼ Poisson(3); P(X ≤ 2) = 0,4231 2) : λ = 1 3) : X ∼ Poisson(20), P(X ≤ x) = 0,95. 4) : X ∼ Bin(10000, 0,00005); P(X > 3) = 0,00175083; aprox.X ∼ Poisson(1/2); P(X > 3) = 0,00175162 5) : X ∼ Poisson(20); P(X < 15) = 0,104864
Tarea: de todo un poco
1
Se form´ o un jurado de seis personas de un grupo de 20 posibles miembros, de los cuales 8 eran mujeres y 12 eran hombres. El jurado se seleccion´ o aleatoriamente, pero solo conten´ıa a una mujer. ¿Tiene usted alg´ un motivo para dudar de la aleatoriedad en la selecci´ on?.
2
El Centro de C´ omputo de una Universidad muy reconocida tiene 300 pc’s para el uso diario de los estudiantes. La probabilidad de que alguna pc requiera servicio un determinado d´ıa es 0,015. ¿Cu´ al es la probabilidad de que en un d´ıa a) a lo m´ as dos terminales requieran servicio? b) por lo menos cinco terminales requieran servicio? c) tres requieran servicio? Para cada uno de los incisos anteriores obtenga la probalidad en forma exacta y tambien en forma aproximada
Sol.1) : P(Unamujer ) =
8 12 1 5 20 6
= 0,1634
Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1
Ensayos id´enticos e independientes
Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1
Ensayos id´enticos e independientes
2
Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).
Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1
Ensayos id´enticos e independientes
2
Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).
3
P(E ) = p; P(F ) = 1 − p = q
Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1
Ensayos id´enticos e independientes
2
Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).
3
P(E ) = p; P(F ) = 1 − p = q
4
La v.a. geom´etrica es el n´ umero del ensayo en que ocurre el primer ´exito. Y : 1, 2, 3, . . .
Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1
Ensayos id´enticos e independientes
2
Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).
3
P(E ) = p; P(F ) = 1 − p = q
4
La v.a. geom´etrica es el n´ umero del ensayo en que ocurre el primer ´exito. Y : 1, 2, 3, . . .
p(y ) = P(Y = y ) = P(FF . . . FE ) = q · q . . . qp = q y −1 p
Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1
Ensayos id´enticos e independientes
2
Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).
3
P(E ) = p; P(F ) = 1 − p = q
4
La v.a. geom´etrica es el n´ umero del ensayo en que ocurre el primer ´exito. Y : 1, 2, 3, . . .
p(y ) = P(Y = y ) = P(FF . . . FE ) = q · q . . . qp = q y −1 p Definici´on. Una v.a. Y tiene una distribuci´ on de probabilidad geom´etrica ssi p(y ) = q y −1 p,
y = 1, 2, 3, . . . , 0 ≤ p ≤ 1
En algunos textos utilizan p(y ) = pq y , y = 0, 1, 2, . . .
distribuci´on Geom´etrica p(y ) es una distribuci´on de probabilidad. En efecto: 1
p(y ) ≥ 0
2
X
p(y ) =
y
∞ X y =1
q y −1 p = p
∞ X y =1
q y −1 = p
∞ X y =0
qy = p
1 =1 1−q
Ejemplo. Suponga que la probabilidad de que falle un motor durante cualquier periodo de una hora es p = 0,02. Encuentre la probabilidad de que un motor funcione bien durante dos horas (i.e. falle a partir de la tercer hora) Sol. P(Y ≥ 3) = 0,9604
Distribuci´on Geom´etrica
Teorema. Si Y es una v.a. con distribuci´ on geom´etrica, E (Y ) =
1 p
y
V (Y ) =
1−p p2
Distribuci´on Geom´etrica
Teorema. Si Y es una v.a. con distribuci´ on geom´etrica, E (Y ) =
1 p
y
V (Y ) =
1−p p2
Ejemplo. Si la probabilidad de que un motor falle en el intervalo de una hora es de p = 0,02, y si Y denota el n´ umero de intervalos que transcurren hasta la primera falla, encuentre la media, la varianza y desviaci´on est´andar de Y .
Distribuci´on Geom´etrica
Teorema. Si Y es una v.a. con distribuci´ on geom´etrica, E (Y ) =
1 p
y
V (Y ) =
1−p p2
Ejemplo. Si la probabilidad de que un motor falle en el intervalo de una hora es de p = 0,02, y si Y denota el n´ umero de intervalos que transcurren hasta la primera falla, encuentre la media, la varianza y desviaci´on est´andar de Y . E (Y ) = 50, V (Y ) = 2450, σ = 49,497
Tarea: Distribuci´on geom´etrica
1
Suponga que x ∼ Geo(p). Encuentre la probabilidad de cada uno de los siguientes eventos. a) {X > 3}; b){4 < X ≤ 7} ∪ {X > 9}; c){3 ≤ X ≤ 5} ∪ {4 ≤ X ≤ 10};d) {X > 7} si se sabe que {X > 4}. 1. si p = 0,8 y 2. si P = 0,3 Sol. 1a)0,0016, 1b)0,0003971, 1c)0,00953, 1d)0,008; 2a)0,2401, 2b)0,13866, 2c)0,44567, 2d)0,343
2
Sea Y una v.a. geom´ etrica con una probabilidad de ´ exito p. a) Demuestre que para un entero positivo a, P(Y > a) = q a . b) Demuestre que para los enteros positivos a y b, P(Y > a + b|Y > a) = q b = P(Y > b). A este resultado se le conoce como perdida de memoria de la distribuci´ on geom´ etrica
La Binomial Negativa
La distribuci´on binomial negativa surge de un contexto semejante al que conduce a la distribuci´ on geom´etrica. 1 2
Se tienen ensayos id´enticos e independientes, ´ Cada ensayo tiene uno de dos posibles resultados: Exito o Fracaso,
3
P(E ) = p y P(F ) = 1 − p := q en cada ensayo,
4
La variable aleatoria de inter´es Y , es el n´ umero del ensayo en que ocurre el r -´esimo ´exito.
Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}
y
Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}
P(Y = y ) = P(A ∩ B) = P(A) · P(B) y − 1 r −1 y −r = p q ·p r −1 y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1
y
Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}
P(Y = y ) = P(A ∩ B) = P(A) · P(B) y − 1 r −1 y −r = p q ·p r −1 y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1 Nota: P(A) = 0 si (y − 1) < (r − 1) o si y < r .
y
Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1
Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1
Ejemplo. Un estudio geol´ogico indica que una perforaci´ on de prueba para localizar petr´oleo en una determinada regi´ on encuentra ´este con una probabilidad de 0,2. Encuentre la probabilidad que lo encuentre por tercera vez al perforar el quinto pozo.
Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1
Ejemplo. Un estudio geol´ogico indica que una perforaci´ on de prueba para localizar petr´oleo en una determinada regi´ on encuentra ´este con una probabilidad de 0,2. Encuentre la probabilidad que lo encuentre por tercera vez al perforar el quinto pozo. Sol. P(Y = 5) =
4 (0,2)3 (0,8)2 = 0,0307 2
Teorema. Si Y es una v.a. con distribuci´ on binomial negativa. E (Y ) =
r p
y
V (Y ) =
r (1 − p) p2
Ejemplo. Un gran almac´en de bombas usadas resguarda 20 % de m´aquinas descompuestas. Se env´ıa al deposito a una t´ecnica en mantenimiento con tres juegos de refacciones. Ella elige aleatoriamente las bombas, las prueba de una en una, y va separando las que funcionan. Cuando encuentra alguna que no funciona, las repara con uno de sus juegos de refacciones. Suponga que tarda 10 minutos en probar que funciona y 30 minutos en probar y reparar una bomba averiada. Encuentre la media y la varianza del tiempo que le toma a la t´ecnica utilizar sus tres juegos de refacciones.
Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60.
Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60. Como para reparar cada bomba se requieren otros 20 min. , el tiempo total necesario para emplear los tres juegos de refacciones es T = 10Y + 3(20) y E (T ) = 210 y V (Y ) = 6000.
Tarea: Binomial Negativa
1
Suponga que el 10 % de los motores armados en una l´ınea de montaje est´ an defectuosos. Si se selecciona en forma aleatoria uno por uno y se prueba, ¿qu´ e probabilidad hay de localizar el primer motor que no contiene defecto en el segundo ensayo?.
2
Rem´ıtase al ejercicio 1. Encuentre la probabilidad de localizar el tercer motor sin defecto: a) en el quinto ensayo; c) en el quinto ensayo o antes.
3
Rem´ıtase al ejecicio 1. Encuentre la media y la varianza del n´ umero del ensayo en el que se localiza: a) el primer motor sin defecto; b) el tercer motor que no tiene defecto. Sol. 1. p(2) = 10 (0,9)(0,1) = 0,09; 2a)P(5) = 42 (0,9)3 (0,1)2 = 0,04374; 2b)p(3) + p(4) + p(5) = 0,99144 3a)E (Y ) = 1,11, V (Y ) = 0,1234; 3b)E (Y ) = 3,33, V (Y ) = 0,37
Momentos y funciones generadoras de momentos
Definici´on. El k-´esimo momento de una v.a. Y respecto al origen se define como E (Y k ) y se denota mediante µ0k .
Momentos y funciones generadoras de momentos
Definici´on. El k-´esimo momento de una v.a. Y respecto al origen se define como E (Y k ) y se denota mediante µ0k . Observaci´on. En particular E (Y ) = µ01 = µ y E (Y 2 ) = µ02 .
Momentos y funciones generadoras de momentos
Definici´on. El k-´esimo momento de una v.a. Y respecto al origen se define como E (Y k ) y se denota mediante µ0k . Observaci´on. En particular E (Y ) = µ01 = µ y E (Y 2 ) = µ02 . Definici´on. El k-´esimo momento de una v.a. Y respecto a la media, o el k-´esimo momento central de Y , se define como E [(Y − µ)k ] y se denota µk .
fgm Definici´on. La funci´on generadora de momentos m(t) para una v.a. Y se define como m(t) = E (e tY ). Decimos que existe una funci´on generadora de momentos para Y si hay una constante positiva b tal que m(t) es finita para |t| ≤ b.
fgm Definici´on. La funci´on generadora de momentos m(t) para una v.a. Y se define como m(t) = E (e tY ). Decimos que existe una funci´on generadora de momentos para Y si hay una constante positiva b tal que m(t) es finita para |t| ≤ b. ¿Por qu´e E (e tY ) se llama funci´ on generadora de momentos (fgm)?
E (e ty ) =
X
=
X
e ty p(y ) =
y
X
[1 + ty +
y
yp(y ) + t
y
= 1 + tµ01 +
X
yp(y ) +
y
t2 2!
µ02 + . . .
(ty )2 + . . .]p(y ) 2!
t2 X 2 y p(y ) . . . 2! y
fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0
fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0 Ejemplo. Encuentre la funci´on generadora de momentos para una v.a. con distribuci´on Poisson y media λ
fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0 Ejemplo. Encuentre la funci´on generadora de momentos para una v.a. con distribuci´on Poisson y media λ t m(t) = e λ(e −1)
fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0 Ejemplo. Encuentre la funci´on generadora de momentos para una v.a. con distribuci´on Poisson y media λ t m(t) = e λ(e −1)
Ejemplo. Emplee la funci´on generadora de momentos para encontrar la media y la varianza de la v.a. Poisson.
fgm
Observaci´on. La principal aplicaci´on de una fgm consiste en demostrar que una v.a. posee una distribuci´ on de probabilidad particular p(y ). Si m(t) existe para una distribuci´ on de probabilidad p(y ), entonces es u ´nica. Asimismo, si las funciones generadoras de momentos de dos v.a.s Y y Z son iguales (para |t| ≤ b, b > 0), entonces Y y Z deben tener la misma distribuci´ on de probabilidades. Ejemplo. Supongamos que Y es una v.a. con fgm mY (t) = e 3,2(e es la distribuci´on de Y ?.
t−1 )
. ¿Cu´al
fgm
Observaci´on. La principal aplicaci´on de una fgm consiste en demostrar que una v.a. posee una distribuci´ on de probabilidad particular p(y ). Si m(t) existe para una distribuci´ on de probabilidad p(y ), entonces es u ´nica. Asimismo, si las funciones generadoras de momentos de dos v.a.s Y y Z son iguales (para |t| ≤ b, b > 0), entonces Y y Z deben tener la misma distribuci´ on de probabilidades. Ejemplo. Supongamos que Y es una v.a. con fgm mY (t) = e 3,2(e es la distribuci´on de Y ?. Sol. Y ∼ Poisson(3,2)
t−1 )
. ¿Cu´al
Tarea: fgm 1
Si Y tiene una distribuci´ on binomial con n ensayos y una probabilidad de ´ exito p, demuestre que la funci´ on generadora de momentos para Y es m(t) = (pe t + q)n , q =1−p
2
Utilice la fgm del ejercicio 1 para encontrar E (Y ), E (Y 2 ) y V (Y ).
3
Si Y posee una distribuci´ on geom´ etrica con probabilidad de ´ exito p, demuestre que la funci´ on generadora de momentos para Y es m(t) =
pe t 1−qe t
q =1−p
4
Utilice la fgm del ejercicio 3 para encontrar E (Y ), E (Y 2 ) y V (Y ).
5
Aplique la unicidad de las funciones generadoras de momentos para obtener la distribuci´ on de una variable aleatoria con funci´ on generadora de momentos m(t) = (0,6e t + 0,4)3
6
Aplique la unicidad de las funciones generadoras de momentos para obtener la distribuci´ on de una variable aleatoria con funci´ on generadora de momentos m(t) =
7
0,3e t 1−0,7e t
Encuentre las dsitribuciones de las variables que poseen cada una de las siguientes funciones generadoras de momentos: a)m(t) = [(1/3)e t + (2/3)]5 ;
b)m(t) =
et 2−e t
;
t c)m(t) = e 2(e −1) .
8
Rem´ıtase al ejercicio 7. Deduzca por simple observaci´ on la media y la varianza de las v.a’s relacionadas con las fgm de los incisos a), b) y c).
9
Sea m(t) = (1/6)e t + (2/6)e 2t + (3/6)e 3t . Encuentre lo siguiente: a)E (Y ); b)V (Y ); c) la distribuci´ on de Y .
10
Si Y es una v.a. con fgm m(t), y si W est´ a determinada por W = aY + b, demuestre que la fgm de W es e tb m(at).
11
Utilice el resultado del ejercicio 10 para probar que si W = aY + b, entonces E (W ) = aE (Y ) + b y V (W ) = a2 V (Y ).
Teorema de Chebyshev El siguiente resultado se utiliza para determinar una cota o l´ımite inferior para la probabilidad de que una v.a. Y caiga en un intervalo µ ± kσ = (µ − kσ, µ + kσ) Teorema. (Teorema de Chebyshev) Si Y es una v.a. con media finita µ y varianza σ 2 , entonces, para cualquier constante positiva k > 0, P(|Y − µ| < kσ) ≥ 1 −
1 k2
o
P(|Y − µ| ≥ kσ) ≤
1 . k2
Teorema de Chebyshev El siguiente resultado se utiliza para determinar una cota o l´ımite inferior para la probabilidad de que una v.a. Y caiga en un intervalo µ ± kσ = (µ − kσ, µ + kσ) Teorema. (Teorema de Chebyshev) Si Y es una v.a. con media finita µ y varianza σ 2 , entonces, para cualquier constante positiva k > 0, P(|Y − µ| < kσ) ≥ 1 −
1 k2
o
P(|Y − µ| ≥ kσ) ≤
1 . k2
Observaci´on. Los resultados del teorema anterior son muy conservadores en el sentido de que la probabilidad real por lo com´ un rebasa la cota inferior en una cantidad considerable.
Teorema de Chebyshev
Ejemplo. La cantidad de clientes que llega cada d´ıa a un mostrador, Y , observada por un periodo prolongado tiene una media de 20 y una desviasci´on est´andar de 2. Se desconoce la distribuci´on de probabilidad. ¿Qu´e se puede decir de la probabilidad de que ma˜ nana, Y ´este entre 16 y 24?.
Teorema de Chebyshev
Ejemplo. La cantidad de clientes que llega cada d´ıa a un mostrador, Y , observada por un periodo prolongado tiene una media de 20 y una desviasci´on est´andar de 2. Se desconoce la distribuci´on de probabilidad. ¿Qu´e se puede decir de la probabilidad de que ma˜ nana, Y ´este entre 16 y 24?. sol. 15/16
Tarea:Chebyshev
1
Si Y es una v.a. con una media de 11 y una varianza de 9, mediante el teorema de Chebyshev encuentre: a) un l´ımite inferior para P(6 < Y < 16); b) el valor de C , tal que P(|Y − 11| > C ) ≤ 0,09
2
La casa de moneda de Estados Unidos produce monedas de diez centavos con un promedio de 0,5 pulgadas y una desviaci´ on est´ andar de 0,01. Con el Teorema de Chebyshev, encuentre una cota inferior para el n´ umero de monedas en un lote de 400, que se espera que tengan un di´ ametro entre 0,48 y 0,52 pulgadas.
Distribuciones continuas
Definici´on. Sea Y una v.a. con funci´ on de distribuci´ on F (y ). Se dice que Y es continua si la funci´on de distribuci´ on F (y ) es continua para −∞ < y < ∞.
Distribuciones continuas
Definici´on. Sea Y una v.a. con funci´ on de distribuci´ on F (y ). Se dice que Y es continua si la funci´on de distribuci´ on F (y ) es continua para −∞ < y < ∞. Observaci´on. En el caso de una v.a. continua Y , debemos tener, para cualquier numero real y , P(Y = y ) = 0. Si esto no fuera cierto, y P(Y = y0 ) = p0 > 0, entonces F (y ) tendr´ıa una discontinuidad (salto) de tama˜ no p0 en el punto y0
Distribuci´on continua Definici´on. Si F (y ) es la funci´on de distribuci´ on de una v.a. continua Y , entonces f (y ), dada por f (y ) =
dF (y ) = F 0 (y ) dy
siempre y cuando exista la derivada, se conoce como funci´on de densidad de probabilidad para la v.a. Y .
Distribuci´on continua Definici´on. Si F (y ) es la funci´on de distribuci´ on de una v.a. continua Y , entonces f (y ), dada por f (y ) =
dF (y ) = F 0 (y ) dy
siempre y cuando exista la derivada, se conoce como funci´on de densidad de probabilidad para la v.a. Y . De las definiciones anteriores se deduce que F (y ) puede expresarse como Z y F (y ) = f (t)dt −∞
donde f (·) es la funci´on de densidad de probabilidad, y t es la variable de integraci´on
funci´on de densidad Teorema. (Propiedades de una funci´ on de densidad) Si f (y ) es una funci´on de densidad para una variable aleatoria continua, entonces 1 2
f (y ) ≥ 0 para cualquier valor de y . R∞ −∞ f (y )dy = 1
Ejemplo. Suponga que 0, y < 0 y , 0 ≤ y ≤ 1, F (y ) = 1, y > 1. Encuentre la funci´on de densidad de probabilidad para Y y graf´ıquela. Sol. f (y ) =
dF (y ) dy
=
0, 1, 0,
y 1.
Funci´on de densidad
Teorema. Si la v.a. Y tiene funci´ on de densidad f (y ) y a < b, entonces Z P(a ≤ Y ≤ b) =
b
f (y )dy a
Ejemplo. Dada f (y ) = cy 2 , 0 ≤ y ≤ 2 y f (y ) = 0 en cualquier otra parte, a) encuentre el valor de c para el cual f (y ) es una funci´on de densidad v´alida, b) Encuentre P(1 ≤ Y ≤ 2).
Funci´on de densidad
Teorema. Si la v.a. Y tiene funci´ on de densidad f (y ) y a < b, entonces Z P(a ≤ Y ≤ b) =
b
f (y )dy a
Ejemplo. Dada f (y ) = cy 2 , 0 ≤ y ≤ 2 y f (y ) = 0 en cualquier otra parte, a) encuentre el valor de c para el cual f (y ) es una funci´on de densidad v´alida, b) Encuentre P(1 ≤ Y ≤ 2). Sol. a) c = 3/8; b) P(1 ≤ Y ≤ 2) = 7/8
Cuantiles,cuartiles y porcentiles Definici´on. Un cuantil de orden p, 0 < p < 1, de una v.a. Y es cualquier n´ umero, denotado φp , que satisfaga simult´aneamente las condiciones a) P[Y ≤ φp ] ≥ p b) P[Y ≥ φp ] ≥ 1 − p
Cuantiles,cuartiles y porcentiles Definici´on. Un cuantil de orden p, 0 < p < 1, de una v.a. Y es cualquier n´ umero, denotado φp , que satisfaga simult´aneamente las condiciones a) P[Y ≤ φp ] ≥ p b) P[Y ≥ φp ] ≥ 1 − p Observaci´on. Si Y es continua a) significa que FY (φp ) ≥ p y b) que FY (φp ) ≤ p, por lo que FY (φp ) = p; que tiene soluci´on u ´nica si FY (·) es creciente en el soporte de Y (i.e. donde Y 6= 0). φp no es necesariamente u ´nico. Cuando φp no es u ´nico existe un intervalo en el que cada punto satisface a) y b). En este caso se suguiere utilizar el menor valor del intervalo o el punto medio.
Cuantiles, cuartiles y porcentiles Observaci´on. Los cuantiles de mayor uso en la practica son φ0,5 , la mediana φ0,25 , el cuartil inferior φ0,75 , el cuartil superior
A la diferencia φ0,75 − φ0,25 se le conoce como el recorrrido intercuart´ılico y se le utiliza como una medida de dispersi´on. Notemos que 50 % de la probabilidad total est´a comprendida entre φ0,25 y φ0,75 φp es llamado quintil cunado p es de la forma j/5, j = 1, 4 φp es llamado dec´ıl cuando p es de la forma k/10 con k = 1, 9. Tarea:Del Wackerly, 7 ed., pag. 166, Ejercicios:4.1,4.3,4.8,4.10,4.11,4.12,4.15
Esperanza de una v.a. continua Definici´on. El valor esperado de una v.a. continua Y es Z ∞ E (Y ) = yf (y )dy −∞
siempre que
R∞
−∞ |y |f (y )dy
< ∞ (i.e. la integral exista)
Esperanza de una v.a. continua Definici´on. El valor esperado de una v.a. continua Y es Z ∞ E (Y ) = yf (y )dy −∞
siempre que
R∞
−∞ |y |f (y )dy
< ∞ (i.e. la integral exista)
El valor esperado de una funci´ on de una v.a. Teorema. Sea g (Y ) una funci´on de Y ; entonces Z ∞ E [g (Y )] = g (y )f (y )dy , −∞
siempre que la integral exista.
Teorema. (Propiedades de la Esperanza) Sea c una constante y sean g (Y ), g1 (Y ), g2 (Y ), . . . , gk (Y ) funciones de una v.a. continua Y . Entonces se cumple: 1
E (c) = c.
2
E [cg (Y )] = cE [g (Y )].
3
E [g1 (Y ) + . . . + gk (Y )] = E [g1 (Y )] + . . . + E [gk (Y )].
Teorema. (Propiedades de la Esperanza) Sea c una constante y sean g (Y ), g1 (Y ), g2 (Y ), . . . , gk (Y ) funciones de una v.a. continua Y . Entonces se cumple: 1
E (c) = c.
2
E [cg (Y )] = cE [g (Y )].
3
E [g1 (Y ) + . . . + gk (Y )] = E [g1 (Y )] + . . . + E [gk (Y )].
Igual que en el caso discreto: V (Y ) = E (Y − µ)2 = E (Y 2 ) − µ2
Ejemplo. Sea f (y ) = (3/8)y 2 para 0 ≤ y ≤ 2, f (y ) = 0 en cualquier otro caso. Si la v.a.Y tiene esta funci´ on de densidad, encuentre µ = E (Y ) y σ = V (Y ).
Ejemplo. Sea f (y ) = (3/8)y 2 para 0 ≤ y ≤ 2, f (y ) = 0 en cualquier otro caso. Si la v.a.Y tiene esta funci´ on de densidad, encuentre µ = E (Y ) y σ = V (Y ). E (Y ) = 1,5, E (Y 2 ) = 2,4, V (Y ) = 0,15
Ejemplo. Sea f (y ) = (3/8)y 2 para 0 ≤ y ≤ 2, f (y ) = 0 en cualquier otro caso. Si la v.a.Y tiene esta funci´ on de densidad, encuentre µ = E (Y ) y σ = V (Y ). E (Y ) = 1,5, E (Y 2 ) = 2,4, V (Y ) = 0,15 Tarea:Wackerly 7ed. pag. 172: 4.21,4.25,4.26,4.27,4.34,4.35.
Distribuci´on de probabilidad uniforme Definici´on. Si θ1 < θ2 , se dice que una v.a. Y tiene distribuci´ on de probabilidad uniforme en el intervalo (θ1 , θ2 ) si y s´olo si la funci´on de densidad de Y es 1 θ2 −θ1 , θ1 ≤ y ≤ θ2 , f (y ) = 0, o.c. θ1 y θ2 se denominan par´ametros de la funci´ on de densidad.
Distribuci´on de probabilidad uniforme Definici´on. Si θ1 < θ2 , se dice que una v.a. Y tiene distribuci´ on de probabilidad uniforme en el intervalo (θ1 , θ2 ) si y s´olo si la funci´on de densidad de Y es 1 θ2 −θ1 , θ1 ≤ y ≤ θ2 , f (y ) = 0, o.c. θ1 y θ2 se denominan par´ametros de la funci´ on de densidad. Teorema. Si θ1 < θ2 y Y es una v.a. uniformemente distribuida en el intervalo (θ1 , θ2 ), entonces µ = E (Y ) =
θ1 + θ2 2
y
σ 2 = V (Y ) =
(θ2 − θ1 )2 12
suponga que el n´ umero de eventos, que se presentan en el intervalo (0, t) tienen una distribuci´ on de Poisson. Si se sabe que exactamente uno de estos eventos ha ocurrido en el intervalo (0, t), entonces el tiempo real del suceso est´a distribuido de manera uniforme en este intervalo.
suponga que el n´ umero de eventos, que se presentan en el intervalo (0, t) tienen una distribuci´ on de Poisson. Si se sabe que exactamente uno de estos eventos ha ocurrido en el intervalo (0, t), entonces el tiempo real del suceso est´a distribuido de manera uniforme en este intervalo. Ejemplo. La llegada de clientes a una caja en un establecimiento sigue una distribuci´on de Poisson.Se sabe que durante un periodo determinado de 30 minutos, un cliente llega a la caja. Encuentre la probabilidad de que el cliente llegue durante los u ´ltimos 5 minutos del periodo de 30 minutos.
suponga que el n´ umero de eventos, que se presentan en el intervalo (0, t) tienen una distribuci´ on de Poisson. Si se sabe que exactamente uno de estos eventos ha ocurrido en el intervalo (0, t), entonces el tiempo real del suceso est´a distribuido de manera uniforme en este intervalo. Ejemplo. La llegada de clientes a una caja en un establecimiento sigue una distribuci´on de Poisson.Se sabe que durante un periodo determinado de 30 minutos, un cliente llega a la caja. Encuentre la probabilidad de que el cliente llegue durante los u ´ltimos 5 minutos del periodo de 30 minutos. Sol. P(25 ≤ Y ≤ 30) = 1/6
Distribuci´on de probabilidad Normal
Definici´on. Una v.a. Y tiene distribuci´ on de probabilidad normal ssi, para σ > 0 y −∞ < µ < ∞, la funci´ on de densidad de Y es f (y ) = √
(y −µ)2 1 e − 2σ2 2πσ
Notaci´on Y ∼ N(µ, σ)
−∞ Z0 ) = 0,5
2
P(Z < Z0 ) = 0,8643
3
P(−Z0 < Z < Z0 ) = 0,9
4
P(−Z0 < Z < Z0 ) = 0,99
Ejemplo. Los promedios de calificaciones de una poblaci´ on de estudiantes tiene aproximadamente una distribuci´ on normal con media 2,4 y desviaci´on est´andar de 0,8. (a) ¿Qu´e fracci´on de alumnos obtendr´a un promedio superior a 3,0? (b) Si los estudiantes que obtienen un promedio inferior a 1,9 son expulsados de la universidad, ¿qu´e porcentaje de ellos ser´a expulsado? (c) Supongamos que se eligen tres estudiantes al azar de la poblaci´on. ¿Cu´al es la probabilidad que todos ellos tengan un promedio menor a 3,0?
Ejemplo. Los promedios de calificaciones de una poblaci´ on de estudiantes tiene aproximadamente una distribuci´ on normal con media 2,4 y desviaci´on est´andar de 0,8. (a) ¿Qu´e fracci´on de alumnos obtendr´a un promedio superior a 3,0? (b) Si los estudiantes que obtienen un promedio inferior a 1,9 son expulsados de la universidad, ¿qu´e porcentaje de ellos ser´a expulsado? (c) Supongamos que se eligen tres estudiantes al azar de la poblaci´on. ¿Cu´al es la probabilidad que todos ellos tengan un promedio menor a 3,0? a) 1 − P(Z ≤ 0,75), b) P(Z < −0,625) = 0,2655 c) Elevar al cubo (a)
Distribuci´on de probabilidad Gamma
Definici´on. Una v.a. Y tiene distribuci´ on gamma con par´ametros α > 0 y β > 0 ssi la funci´on de distribuci´ on de Y es ( α−1 −y /β y e β α Γ(α) , 0 ≤ y < ∞ f (y ) = 0, o.c donde Γ(α) =
R∞ 0
y α−1 e −y dy = funci´ on gamma
Distribuci´on de probabilidad Gamma
Definici´on. Una v.a. Y tiene distribuci´ on gamma con par´ametros α > 0 y β > 0 ssi la funci´on de distribuci´ on de Y es ( α−1 −y /β y e β α Γ(α) , 0 ≤ y < ∞ f (y ) = 0, o.c donde Γ(α) =
R∞ 0
y α−1 e −y dy = funci´ on gamma
Integrando obtenemos: Γ(1) = 1 Γ(α) = (α − 1)Γ(α − 1), Γ(n) = (n − 1)! si n ∈ Z.
Gr´aficas de una dist. Gamma
Figura: Graficas Distribuci´ on gamma con K = α, θ = β, sesgada (as´ımetricas) a la derecha, i.e. la mayor parte del ´area bajo la curva est´a cerca del origen.
Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces E (Y ) = αβ,
V (Y ) = αβ 2
Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces V (Y ) = αβ 2
E (Y ) = αβ, Demostraci´ on Primero: Como R ∞ α−1 −y /β e dy = β α Γ(α). 0 y
R∞ 0
y α−1 e −y /β β α Γ(α) dy
= 1, entonces
Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces V (Y ) = αβ 2
E (Y ) = αβ, Demostraci´ on Primero: Como R ∞ α−1 −y /β e dy = β α Γ(α). 0 y
=
∞
0
y α−1 e −y /β β α Γ(α) dy
= 1, entonces
Z ∞ 1 y α e −y /β dy α Γ(α) α Γ(α) β β 0 0 1 βαΓ(α) β α+1 Γ(α + 1) = = αβ β α Γ(α) Γ(α)
Z E (Y ) =
R∞
y
y α−1 e −y /β
dy =
Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces V (Y ) = αβ 2
E (Y ) = αβ, Demostraci´ on Primero: Como R ∞ α−1 −y /β e dy = β α Γ(α). 0 y
=
∞
0
y α−1 e −y /β β α Γ(α) dy
= 1, entonces
Z ∞ 1 y α e −y /β dy α Γ(α) α Γ(α) β β 0 0 1 βαΓ(α) β α+1 Γ(α + 1) = = αβ β α Γ(α) Γ(α)
Z E (Y ) =
R∞
y
y α−1 e −y /β
La varianza les queda de tarea.
dy =
Aplicaciones de la dist. Gamma
Variables aleatorias asociadas con tiempos entre eventos. Tiempos entre fallas de funcionamiento de motores Tiempos que pasan los clientes formados para llegar a una caja Tiempo que toma revisar un motor, etc.
Dos casos particulares de la dist. Gamma Definici´on. Sea ν ∈ N. Una v.a. Y tiene distribuci´ on ji-cuadrada, χ2 , con ν grados de libertad si y s´ olo si Y es una v.a. con distribuci´on gamma y par´ametros α = ν/2 y β = 2, es decir ( ν/2−1 −y /β y e , 0≤y a) = P(Y > b)
La propiedad de falta de memoria
Ejemplo. Suponga que Y ∼ exp(β). Demuestre que, si a > 0 y b > 0, P(Y > a + b|Y > a) = P(Y > b) Soluci´ on P(Y > a + b|Y > a) = =
R ∞ 1 −y /β P(Y > a + b) a+b β e = R ∞ 1 −y /β P(Y > a) dy a βe −e −y /β |∞ e −(a+b)/β a+b = −e −y /β |∞ e −a/β a
= e −b/β = P(Y > b)
Ejemplo. La magnitud de los terremotos en una regi´ on en EU se puede representar mediante una distribuci´ on exponencial con media 2,4, de acuerdo a la escala de Ricter. Calcule la probabilidad de que un terremoto que azota esta la regi´ on: a) rebase los 3,0 grados, b) est´e entre 2,0 y 3,0
Ejemplo. La magnitud de los terremotos en una regi´ on en EU se puede representar mediante una distribuci´ on exponencial con media 2,4, de acuerdo a la escala de Ricter. Calcule la probabilidad de que un terremoto que azota esta la regi´ on: a) rebase los 3,0 grados, b) est´e entre 2,0 y 3,0 Soluci´ on R3 a) P(Y > 3,0) = 0
1 −y /2,4 dy 2,4 e
−3/2,4 = 0,285 = −e −y /2,4 |∞ 0 =e
Ejemplo. La magnitud de los terremotos en una regi´ on en EU se puede representar mediante una distribuci´ on exponencial con media 2,4, de acuerdo a la escala de Ricter. Calcule la probabilidad de que un terremoto que azota esta la regi´ on: a) rebase los 3,0 grados, b) est´e entre 2,0 y 3,0 Soluci´ on R3 a) P(Y > 3,0) = 0 b) P(2,0 < Y
0? (c) Demuestre que, si a = 1, el inciso (a) arroja E (Y ) = αβ√ (d) Con el resultado en (a), deduzca una expresi´on para E ( Y ). ¿Qu´e suposici´ on debe hacerse respecto a α. (e) Con el resultado √ en (a), deduzca una expresi´on para E (1/Y ), E (1/ Y ), y E (1/Y 2 ) y supuestos para α.
Distribuci´on de probabilidad beta La fdp beta es una funci´ on de densidad de dos par´ametros, definida en el intervalo 0 ≤ y ≤ 1. Regularmente se utiliza como modelo para representar proporciones, como el porcentaje de impurezas presentes en un producto qu´ımico o la cantidad de tiempo que una maquina est´a en reparaci´ on.
Distribuci´on de probabilidad beta La fdp beta es una funci´ on de densidad de dos par´ametros, definida en el intervalo 0 ≤ y ≤ 1. Regularmente se utiliza como modelo para representar proporciones, como el porcentaje de impurezas presentes en un producto qu´ımico o la cantidad de tiempo que una maquina est´a en reparaci´ on. Definici´on. Una v.a. Y tiene una distribuci´ on de probabilidad beta con par´ametros α y β ssi la funci´ on de densidad de Y est´a dada por ( α−1 y (1−y )β−1 , 0≤y ≤1 B(α,β) f (y ) = 0, o.c. donde Z B(α, β) = 0
1
y α−1 (1 − y )β−1 dy =
Γ(α)Γ(β) Γ(α + β)
Gr´aficas de una distribuci´on beta
Figura: Graficas Distribuci´ on beta
Observaci´ on: La definici´ on de y en el intervalo [0, 1] no restringe el uso de la distribuci´on beta. Si c ≤ y ≤ d, entonces y ∗ = (y − c)/(d − c) define una nueva variable tal que 0 ≤ y ∗ ≤ 1. As´ı, la funci´ on de densidad beta puede aplicarse a una v.a. definida en el intervalo c ≤ y ≤ d por medio de una traslaci´on y un cambio de escala.
Observaci´ on: La definici´ on de y en el intervalo [0, 1] no restringe el uso de la distribuci´on beta. Si c ≤ y ≤ d, entonces y ∗ = (y − c)/(d − c) define una nueva variable tal que 0 ≤ y ∗ ≤ 1. As´ı, la funci´ on de densidad beta puede aplicarse a una v.a. definida en el intervalo c ≤ y ≤ d por medio de una traslaci´on y un cambio de escala. La funci´on de distribuci´ on acumulada para la v.a. beta, recibe el nombre de funci´ on beta incompleta y se denota mediante Z y α−1 t (1 − t)β−1 dt = Iy (α, β). F (y ) = B(α, β) 0
Observaci´ on: La definici´ on de y en el intervalo [0, 1] no restringe el uso de la distribuci´on beta. Si c ≤ y ≤ d, entonces y ∗ = (y − c)/(d − c) define una nueva variable tal que 0 ≤ y ∗ ≤ 1. As´ı, la funci´ on de densidad beta puede aplicarse a una v.a. definida en el intervalo c ≤ y ≤ d por medio de una traslaci´on y un cambio de escala. La funci´on de distribuci´ on acumulada para la v.a. beta, recibe el nombre de funci´ on beta incompleta y se denota mediante Z y α−1 t (1 − t)β−1 dt = Iy (α, β). F (y ) = B(α, β) 0 Cuando α y β son enteros positivos, Iy (α, β) se relaciona con la funci´on de probabilidad binomial. La integraci´ on por partes permite demostrar que para 0 ≤ y ≤ 1, y con α y β enteros, Z y α−1 n X n i t (1 − t)β−1 dt = F (y ) = y (1 − y )n−i B(α, β) i 0 i=α
donde n = α + β − 1
Teorema. Si Y es una v.a. con distribuci´ on beta con par´ametros α > 0 y β > 0, entonces E (Y ) =
α α+β
y
V (Y ) =
αβ (α +
β)2 (α
+ β + 1)
.
Teorema. Si Y es una v.a. con distribuci´ on beta con par´ametros α > 0 y β > 0, entonces E (Y ) =
α α+β
y
V (Y ) =
αβ (α +
β)2 (α
+ β + 1)
Demostraci´ on: Z
∞
E (Y ) =
yf (y )dy = −∞
= = =
Z
1
y o
y α−1 (1 − y )β−1 B(α, β)
dy
Z 1 1 B(α + 1, β) y α (1 − y )β−1 dy = B(α, β) o B(α, β) Γ(α + β) Γ(α + 1)Γ(β) × Γ(α)Γ(β) Γ(α + β + 1) Γ(α + β) αΓ(α)Γ(β) α × = Γ(α)Γ(β) (α + β)Γ(α + β) (α + β)
.
Definici´on. Sea p ∈ (0, 1). Se le llama cuantil de orden p de una v.a. X a cualquier n´ umero xp que cumpla P(X ≤ xp ) ≥ p,
P(X ≥ xp ) ≥ 1 − p.
y
A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambi´en cuartiles. En particular al cuantil de orden 1/2 se le llama mediana. Es decir, la mediana es el n´ umero m que cumple P(X ≤ m) ≥ 1/2,
y
P(X ≥ m) ≥ 1/2.
Definici´on. Sea p ∈ (0, 1). Se le llama cuantil de orden p de una v.a. X a cualquier n´ umero xp que cumpla P(X ≤ xp ) ≥ p,
P(X ≥ xp ) ≥ 1 − p.
y
A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambi´en cuartiles. En particular al cuantil de orden 1/2 se le llama mediana. Es decir, la mediana es el n´ umero m que cumple P(X ≤ m) ≥ 1/2,
y
P(X ≥ m) ≥ 1/2.
Definici´on. La moda de una v.a. es aquel punto donde la funci´on de densidad tiene un m´aximo local
Ejemplo. 10.Demuestre que si α > 1, la densidad gamma(α, λ) tiene un maximo en (α − 1)/λ (aqu´ı λ = 1/β).
Ejemplo. 10.Demuestre que si α > 1, la densidad gamma(α, λ) tiene un maximo en (α − 1)/λ (aqu´ı λ = 1/β). Ejemplo. 48.El Centro de C´omputo de una Universidad muy reconocida tiene 300 pc’s para el uso diario de los estudiantes. La probabilidad de que alguna pc requiera servicio un determinado d´ıa es 0,015. ¿Cu´al es la probabilidad de que en un d´ıa a)a lo m´as dos terminales requieran servicio? b)por lo menos cinco terminales requieran servicio? c)tres requieran servicio? Para cada uno de los incisos anteriores obtenga la probalidad en forma exacta y tambien en forma aproximada
La Binomial Negativa
La distribuci´on binomial negativa surge de un contexto semejante al que conduce a la distribuci´ on geom´etrica. 1 2
Se tienen ensayos id´enticos e independientes, ´ Cada ensayo tiene uno de dos posibles resultados: Exito o Fracaso,
3
P(E ) = p y P(F ) = 1 − p := q en cada ensayo,
4
La variable aleatoria de inter´es Y , es el n´ umero del ensayo en que ocurre el r -´esimo ´exito.
Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}
y
Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}
P(Y = y ) = P(A ∩ B) = P(A) · P(B) y − 1 r −1 y −r = p q ·p r −1 y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1
y
Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}
P(Y = y ) = P(A ∩ B) = P(A) · P(B) y − 1 r −1 y −r = p q ·p r −1 y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1 Nota: P(A) = 0 si (y − 1) < (r − 1) o si y < r .
y
Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1
Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1
Teorema. Si Y es una v.a. con distribuci´ on binomial negativa. E (Y ) =
r p
y
V (Y ) =
r (1 − p) p2
Ejemplo. Un gran almac´en de bombas usadas resguarda 20 % de m´aquinas descompuestas. Se env´ıa al deposito a una t´ecnica en mantenimiento con tres juegos de refacciones. Ella elige aleatoriamente las bombas, las prueba de una en una, y va separando las que funcionan. Cuando encuentra alguna que no funciona, las repara con uno de sus juegos de refacciones. Suponga que tarda 10 minutos en probar que funciona y 30 minutos en probar y reparar una bomba averiada. Encuentre la media y la varianza del tiempo que le toma a la t´ecnica utilizar sus tres juegos de refacciones.
Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60.
Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60. Como para reparar cada bomba se requieren otros 20 min. , el tiempo total necesario para emplear los tres juegos de refacciones es T = 10Y + 3(20) y E (T ) = 210 y V (Y ) = 6000.
Distribuci´on de Cauchy
Definici´on. Si la v.a. Y tiene funci´ on de densidad f (y ) =
1 , 2 πβ[1 + ( y −α β ) ]
α ∈ R, β ∈ R+ , y ∈ R
decimos que Y tiene la distribuci´ on de Cauchy y escribimos Y ∼ Cauchy (α, β). A α se le llama el par´ametro de localizaci´on y a β el par´ametro de escala.
Distribuci´on de Cauchy
Definici´on. Si la v.a. Y tiene funci´ on de densidad f (y ) =
1 , 2 πβ[1 + ( y −α β ) ]
α ∈ R, β ∈ R+ , y ∈ R
decimos que Y tiene la distribuci´ on de Cauchy y escribimos Y ∼ Cauchy (α, β). A α se le llama el par´ametro de localizaci´on y a β el par´ametro de escala. Cuando α = 0 yβ = 1 obtenemos la Cauchy estandarizada que tiene fdp 1 f (y ) = π(1 + y 2 )
Distribuci´on Weibull Definici´on. Si la v.a. Y tiene funci´ on de distribuci´ on acumulada dada por i h )γ −( y −α β y >α F (y ) = 1 − e decimos que Y se distribuye como Weibull de tres par´ametros α, β y γ, Escribimos Y ∼ Weibull(α, β, γ), donde α ∈ R y β, γ ∈ R+ , α es el par´ametro de localizaci´ on, β es el par´ametro de escala y γ el par´ametro de la forma.
Distribuci´on Weibull Definici´on. Si la v.a. Y tiene funci´ on de distribuci´ on acumulada dada por i h )γ −( y −α β y >α F (y ) = 1 − e decimos que Y se distribuye como Weibull de tres par´ametros α, β y γ, Escribimos Y ∼ Weibull(α, β, γ), donde α ∈ R y β, γ ∈ R+ , α es el par´ametro de localizaci´ on, β es el par´ametro de escala y γ el par´ametro de la forma. Al derivar F con respecto a y obtenemos la funci´ on de densidad f (y ) =
γ y − α γ−1 −( y −α )γ β ( ) e , β β
y > α.
En diversas aplicaciones se acostumbra hacer α = 0 y de esta manera el n´ umero de par´ametros se reduce a dos.
Gr´aficas de una distribuci´on Weibull
Figura: Graficas Distribuci´ on Weibull, α = 0, β = λ, k = γ
La funci´on de riesgo La funci´on de riesgo es una manera distinta de modelar la Fda y la fdp. la t´ecnica tiene su origen en el C´alculo Actuarial en donde la v.a. de inter´es es el instante de muerte de las personas. De esta manera los actuarios quisieron encontrar la distribuci´on de probabilidades de la longitud de vida de las personas. El proposito final era poder calcular las primas de seguros de vida.
La funci´on de riesgo La funci´on de riesgo es una manera distinta de modelar la Fda y la fdp. la t´ecnica tiene su origen en el C´alculo Actuarial en donde la v.a. de inter´es es el instante de muerte de las personas. De esta manera los actuarios quisieron encontrar la distribuci´on de probabilidades de la longitud de vida de las personas. El proposito final era poder calcular las primas de seguros de vida. Definici´on. Sea T una v.a. abs. cont. con valores en (0, ∞). Definimos la funci´on de riesgo de T como hT (t) = −
d ln[1 − FT (t)], dt
donde FT (·) es la Fda de T .
para
t>0
(7)
T mide la longitud de vida, medida en a˜ nos, de una persona (o art´ıculo electr´onico, mec´anico,...) Sea t0 > 0, entonces P[t < T ≤ t + t0 |T > t] =
Ft (t + t0 ) − FT (t) 1 − FT (t)
(8)
es la probabilidad de que una persona que ya alcanz´o la edad t muera antes de o al cumplir t + t0 . al dividir (2) entre t0 obtenemos la anterior probabilidad pero por unidad de tiempo. Esto es obtenemos la tasa de mortalidad en el intervalo (t, t + t0 ]. Por lo tanto, 1 P[t < T ≤ t + t0 |T > t] = t0 ↓0 t0 l´ım
=
1 FT (t + t0 ) − FT l´ım 1 − FT (t) t0 ↓0 t0 1 fT (t). 1 − FT (t)
Donde fT (·) es la version continua de la fdp de T .
Ahora bien, fT (t) d = − ln[1 − FT (t)] = hT (t). 1 − FT (t) dt En consecuencia, hT (t) es la tasa instant´anea de mortalidad. La idea de modelar hT (t) es que la experiencia puede sugerir una f´ ormula para hT (t) y a partir de (1) deducir la Fda y una fdp para T . El siguiente teorema establece c´ omo obtener la Fda y una fdp para T a partir de la funci´ on de riesgo. Teorema. Sea T una v.a. abs. cont. y sea hT (t) la funci´ on de riesgo de T . Entonces, n Z t o FT (t) = 1 − exp − hT (x)dx (9) 0
y la versi´on continua de la fdp es fT (t) = hT (t) · exp
n
Z −
t
hT (x)dx
o
(10)
Ejemplo. Si hT (t) = βI(0,∞) (t), con β ∈ R+ , entonces n Z t o FT (t) = 1 − exp − βdx = 1 − exp{−βt}. 0
Por lo que concluimos que T ∼ Gamma(1, β), esto es T tiene distribuci´on exponencial de par´ametro β.
Ejemplo. Si hacemos hT (t) = αt β I(0,∞) (t), con α, β > 0 tendremos Z FT
= 1 − exp{−
t
αx β dx}
0
= 1 − exp{−
α β+1 t } β+1
y concluimos que que T ∼ Weibull(0, δ, β + 1) donde 1/(β+1) δ = β+1 . La distribuci´ on Weibull puede resultar de α utilidad para modelar el tiempo de vida de m´aquinas, que tienen un desgaste que puede ser expresado como proporcional a t β . Si β > 1, el desgaste es acelerado y si 0 < β ≤ 1, es desgate mas lento.