Itam Notas de Probabilidad

Probabilidad Miguel Angel M´endez Antonio ITAM 13 de agosto de 2013 ´Indice 1 Fundamentos Espacios de probabilidad

Views 51 Downloads 1 File size 1MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Probabilidad Miguel Angel M´endez Antonio ITAM

13 de agosto de 2013

´Indice

1 Fundamentos

Espacios de probabilidad 2 T´ ecnicas de conteo 3 Probabilidad condicional e

independencia de eventos Probabilidad condicional

Independencia entre eventos 4 Probabilidad total y regla de Bayes Ejercicios1 5 Variables Aleatorias 6 Funci´ on de distribuci´on 7 Distribuciones continuas

Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar

Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar Un espacio de probabilidad, asociado a un fenomeno aleatorio, es una terna (Ω, F, P) donde Ω es el espacio muestral, F es una sigma ´algebra( σ-´algebra) de subconjuntos de Ω y P es una medida de probabilidad (m.p.).

Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar Un espacio de probabilidad, asociado a un fenomeno aleatorio, es una terna (Ω, F, P) donde Ω es el espacio muestral, F es una sigma ´algebra( σ-´algebra) de subconjuntos de Ω y P es una medida de probabilidad (m.p.). Observaci´ on A cada fen´ omeno aleatorio  asociamos un espacio de probabilidad (Ω, F, P). Es posible asociar m´as de un espacio de probabilidad a un fen´omeno aleatorio

Concepto de probabilidad Definici´on. Decimos que un fen´ omeno es aleatorio cuando es impredecible, i.e., es producido por el azar Un espacio de probabilidad, asociado a un fenomeno aleatorio, es una terna (Ω, F, P) donde Ω es el espacio muestral, F es una sigma ´algebra( σ-´algebra) de subconjuntos de Ω y P es una medida de probabilidad (m.p.). Observaci´ on A cada fen´ omeno aleatorio  asociamos un espacio de probabilidad (Ω, F, P). Es posible asociar m´as de un espacio de probabilidad a un fen´omeno aleatorio A continuaci´on definimos los componentes de la terna y sus propiedades que deben satisfacer

Espacio muestral Ω Definici´on. Espacio muestral Ω: Es un conjunto que contiene los resultados posibles de inter´es de un fen´ omeno aleatorio.

Espacio muestral Ω Definici´on. Espacio muestral Ω: Es un conjunto que contiene los resultados posibles de inter´es de un fen´ omeno aleatorio. Ejemplo. Sea  lanzar un dado honesto Ω = {1, 2, 3, 4, 5, 6}

Espacio muestral Ω Definici´on. Espacio muestral Ω: Es un conjunto que contiene los resultados posibles de inter´es de un fen´ omeno aleatorio. Ejemplo. Sea  lanzar un dado honesto Ω = {1, 2, 3, 4, 5, 6} Ejemplo. Sea  lanzar dos veces un dado Ω = {(i, j); i, j ∈ N, i, j ≤ 6}

Espacio muestral Ω Ejemplo. : Examinar una caja con 50 fusibles de la producci´on de una f´abrica y contar el n´ umero de defectuosos Ω = {0, 1, . . . , 50}

Espacio muestral Ω Ejemplo. : Examinar una caja con 50 fusibles de la producci´on de una f´abrica y contar el n´ umero de defectuosos Ω = {0, 1, . . . , 50} Ejemplo. : lanzamos una moneda Ω={´ aguila , sol}

Espacio muestral Ω Ejemplo. : Examinar una caja con 50 fusibles de la producci´on de una f´abrica y contar el n´ umero de defectuosos Ω = {0, 1, . . . , 50} Ejemplo. : lanzamos una moneda Ω={´ aguila , sol} Observaci´ on: Los elementos de un espacio muestral pueden ser n´ umeros, vectores, palabras, etc. y los llamaremos en forma gen´erica resultados elementales.

Espacio muestral Ω Diremos que un espacio muestral es discreto cuando tiene un n´ umero finito o numerable de resultados elementales. Un espacio muestral es no discreto cuando tiene un n´ umero infinito no numerable de resultados elementales.

Espacio muestral Ω Diremos que un espacio muestral es discreto cuando tiene un n´ umero finito o numerable de resultados elementales. Un espacio muestral es no discreto cuando tiene un n´ umero infinito no numerable de resultados elementales. σ-´algebra F: En principio, uno desear´ıa poderle asignar una probabilidad positiva a cada resultado de Ω. Sin embargo, como veremos mas adelante, esto no es posible en general. La limitaci´on se produce con los espacios muestrales no discretos y es por ellos que se introdujo la σ-´algebra. El razonamiento fue: Si no podemos asignarle una probabilidad positiva a cada resultado elemental, ¿ser´a posible definir una colecci´on de subconjuntos de Ω a los que si podamos asignarle probabilidades positivas y resulte u ´til en la practica?. pero por otra parte, la colecci´ on de subconjuntos buscada no deber´ıa imponer restricciones a los espacios muestrales discretos. la respuesta es s´ı y esta fue la σ-´algebra siguiente.

σ-´algebra

Definici´on. Sea Ω un espacio de probabilidad. Sea F una colecci´on de subconjuntos de Ω. Decimos que F es una σ-´algebra si satisface las siguientes propiedades: 1

Ω∈F

2

Si A ∈ F entonces Ac ∈ F

3

Si Ai ∈ F para i ∈ N entonces,

S∞

i=1 Ai

∈ F.

σ-´algebra

Definici´on. Sea Ω un espacio de probabilidad. Sea F una colecci´on de subconjuntos de Ω. Decimos que F es una σ-´algebra si satisface las siguientes propiedades: 1

Ω∈F

2

Si A ∈ F entonces Ac ∈ F

3

Si Ai ∈ F para i ∈ N entonces,

S∞

i=1 Ai

∈ F.

Los elementos de F son llamados eventos y s´ olo a ellos les podremos calcular una probabilidad.

σ-´algebra

Definici´on. Sea Ω un espacio de probabilidad. Sea F una colecci´on de subconjuntos de Ω. Decimos que F es una σ-´algebra si satisface las siguientes propiedades: 1

Ω∈F

2

Si A ∈ F entonces Ac ∈ F

3

Si Ai ∈ F para i ∈ N entonces,

S∞

i=1 Ai

∈ F.

Los elementos de F son llamados eventos y s´ olo a ellos les podremos calcular una probabilidad. Diremos que un evento C ocurre cuando el resultado del experimento bajo estudio ε es el resulado elemental ω y ω pertenece a C .

Ejemplos de σ-´algebra

Ejemplo. F = {∅, Ω}.

Ejemplos de σ-´algebra

Ejemplo. F = {∅, Ω}. Ejemplo. F = {∅, A, Ac , Ω}

Ejemplos de σ-´algebra

Ejemplo. F = {∅, Ω}. Ejemplo. F = {∅, A, Ac , Ω} Ejemplo. F = 2Ω

Ejemplos de σ-´algebra

Ejemplo. F = {∅, Ω}. Ejemplo. F = {∅, A, Ac , Ω} Ejemplo. F = 2Ω Ejemplo. Sean A y B subconjuntos de Ω tal que A ⊆ B. F = {∅, A, Ac , B, B c , B − A, (B − A)c , Ω}.

Ejemplo. La intersecci´on finita, infinita numerable o bien arbitraria de σ-´algebras es nuevamente una σ-´algebra. Si {Fi , i ∈ I } es una familia de σ-´algebras de Ω, entonces la intersecci´on ∩Fi tambi´en es una σ-´algebra.

Ejemplo. La intersecci´on finita, infinita numerable o bien arbitraria de σ-´algebras es nuevamente una σ-´algebra. Si {Fi , i ∈ I } es una familia de σ-´algebras de Ω, entonces la intersecci´on ∩Fi tambi´en es una σ-´algebra. Ejemplo. Sea A una familia arbitraria de subconjuntos de Ω, y sea σ{A} la intersecci´on de todas las σ-´algebras de Ω que contienen A. Entonces, por el ejemplo anterior, σ{A} es una σ-´algebra y de hecho, es la m´ınima de σ-´algebra que contiene a A; es decir, si F es cualquier σ-´algebra de Ω que contiene a A, entonces σ{A} ⊂ F. A σ{A} se le llama la σ-´algebra generada por A.

Ejemplo. La intersecci´on finita, infinita numerable o bien arbitraria de σ-´algebras es nuevamente una σ-´algebra. Si {Fi , i ∈ I } es una familia de σ-´algebras de Ω, entonces la intersecci´on ∩Fi tambi´en es una σ-´algebra. Ejemplo. Sea A una familia arbitraria de subconjuntos de Ω, y sea σ{A} la intersecci´on de todas las σ-´algebras de Ω que contienen A. Entonces, por el ejemplo anterior, σ{A} es una σ-´algebra y de hecho, es la m´ınima de σ-´algebra que contiene a A; es decir, si F es cualquier σ-´algebra de Ω que contiene a A, entonces σ{A} ⊂ F. A σ{A} se le llama la σ-´algebra generada por A.Por ejemplo, sup´ongase que A consiste de un u ´nico conjunto B ⊂ Ω, es decir, A = {B}. Entonces σ{A} = {B, B c , Ω, ∅}.

Conjuntos de Borel

Definici´on. Considere la colecci´on de todos los intervalos abiertos (a, b) de R, en donde a ≤ b. A la m´ınima σ-´algebra generada por esta colecci´on se le llama σ-´algebra de Borel de R, y se le nota por B(R) B(R) = σ{(a, b) ⊆ R : a ≤ b}. A los elementos de B(R) se le llama conjuntos de Borel, Borelianos o conjuntos de Borel medibles.

Conjuntos de Borel

Definici´on. Considere la colecci´on de todos los intervalos abiertos (a, b) de R, en donde a ≤ b. A la m´ınima σ-´algebra generada por esta colecci´on se le llama σ-´algebra de Borel de R, y se le nota por B(R) B(R) = σ{(a, b) ⊆ R : a ≤ b}. A los elementos de B(R) se le llama conjuntos de Borel, Borelianos o conjuntos de Borel medibles. Al par (Ω, F) se le llama espacio medible y si Ω = R y F = B(R) tenemos el espacio Borel medible (R, B(R)).

Medidas de Probabilidad [Kolmogorov 1933]

Definici´on. Sea (Ω, F) un espacio medible. Una medida de probabilidad es una funci´on P : F → [0, 1] que satisface 1

P(Ω) = 1

2

P(A) ≥ 0, para cualquier A ∈ F

3

Si A1 , A2 , . . . ∈ F son ajenos, esto es, Ai ∩ Aj = ∅, i 6= j, entonces P(

∞ [

n=1

An ) =

∞ X

P(An )

σ − aditividad

n=1

La terna (Ω, F, P) se llama espacio de probabilidad

Probabilidad Cl´asica

Sea ε un experimento aleatorio con espacio muestral finito Ω. Sea F = 2Ω y para todo A de Ω defina P(A) =

#A #Ω

donde # significa cardinalidad, n´ umero de elementos. Entonces P es una probabilidad, y es llamada probabilidad cl´asica. Se ha acostumbrado a decir P(A) es casos favorables entre casos totales.

Probabilidad Geom´etrica

Sea Ω ⊂ R2 una regi´on tal que su ´area es positiva y finita. Sea F una σ-´algebra de subconjuntos de Ω para los cuales el concepto de ´area est´e bien definido. Para cada A en F defina ´ ´ P(A) = Area (A)/Area (Ω). La funci´on de probabilidad P es una medida de probabilidad y es llamada probabilidad geom´etrica. Este caso se puede extender a Rn .

Otro tipo de probabilidad: discreto

Considere un experimento aleatorio con espacio muestral Ω = N y F = 2N . Para cualquier subconjunto A de N defina P(A) =

X 1 2n

n∈A

Es decir, el n´ umero natural n tiene asociada la probabilidad 1/2n . P es efectivamente una medida de probabilidad concentrada en N.

Otro tipo de probabilidad: continuo

Considere (R, B(R)). R Sea f : R → [0, ∞) una funci´on no negativa y continua, tal que R f (x)dx = 1. La funci´ on definida para todo A ∈ B(R) por la integral Z P(A) = f (x)dx A

es una medida de probabilidad.

Propiedades elementales Proposici´on. Sea (Ω, F, P) un espacio de probabilidad. Entonces: 1

P(∅) = 0

2

Si A1 , . . . , An ∈ F son ajenos por parejas, entonces P(

n [

Ak ) =

k=1

n X

P(Ak )

k=1

3

P(Ac ) = 1 − P(A)

4

Si A ⊆ B, entonces P(B − A) = P(B) − P(A)

5

Si A ⊆ B, entonces P(A) ≤ P(B)

6

0 ≤ P(A) ≤ 1

7

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

8

P(A ∪ B) ≤ P(A) + P(B).

T´ecnicas de conteo

Cuando un espacio muestral Ω es muy grande y enumerar manualmente cada punto se torna tedioso o imposible, contar el n´ umero de puntos en Ω y en un evento de inter´es puede ser el u ´nico camino eficaz para calcular la probabilidad de un evento. De hecho, si Ω contiene N puntos con la misma probabilidad y un evento A contiene exactamente n puntos, la probabilidad cl´asica nos dice que P(A) = n/N.

T´ecnicas de conteo

Cuando un espacio muestral Ω es muy grande y enumerar manualmente cada punto se torna tedioso o imposible, contar el n´ umero de puntos en Ω y en un evento de inter´es puede ser el u ´nico camino eficaz para calcular la probabilidad de un evento. De hecho, si Ω contiene N puntos con la misma probabilidad y un evento A contiene exactamente n puntos, la probabilidad cl´asica nos dice que P(A) = n/N. Definici´on. (Regla de la multiplicaci´ on) Si una operaci´on se puede llevar a cabo de m formas, y si para cada una de ´estas se puede realizar una segunda operaci´on en n formas, entonces las dos operaciones se pueden ejecutar juntas en mn formas.

Ejemplo. Un experimento consiste en lanzar un par de dados y observar los n´ umeros de la cara superior. Encuentre el n´ umero de puntos muestrales en Ω, el espacio muestral del experimento.

Ejemplo. Un experimento consiste en lanzar un par de dados y observar los n´ umeros de la cara superior. Encuentre el n´ umero de puntos muestrales en Ω, el espacio muestral del experimento. Soluci´ on El primer dado puede caer de m = 6 maneras diferentes, El segundo dado puede caer de n = 6 maneras diferentes. As´ı el total de puntos muestrales de Ω es mn = (6)(6) = 36

Regla de multiplicaci´on generalizada Definici´on. Si una operaci´on se puede ejecutar de n1 formas, y si para cada una de ´estas se puede llevar a cabo una segunda operaci´on en n2 formas, y para cada una de las primeras dos se puede realizar una tercera en n3 formas, y as´ı sucesivamente, entonces la serie de k operaciones se puede realizar en n1 n2 · · · nk formas.

Regla de multiplicaci´on generalizada Definici´on. Si una operaci´on se puede ejecutar de n1 formas, y si para cada una de ´estas se puede llevar a cabo una segunda operaci´on en n2 formas, y para cada una de las primeras dos se puede realizar una tercera en n3 formas, y as´ı sucesivamente, entonces la serie de k operaciones se puede realizar en n1 n2 · · · nk formas. Ejemplo. ¿Cu´antos comidas que consisten en una sopa, emparedado, postre y una bebida son posibles si podemos seleccionar de 4 sopas, 3 tipos de emparedados, 5 postres y 4 bebidas?

Regla de multiplicaci´on generalizada Definici´on. Si una operaci´on se puede ejecutar de n1 formas, y si para cada una de ´estas se puede llevar a cabo una segunda operaci´on en n2 formas, y para cada una de las primeras dos se puede realizar una tercera en n3 formas, y as´ı sucesivamente, entonces la serie de k operaciones se puede realizar en n1 n2 · · · nk formas. Ejemplo. ¿Cu´antos comidas que consisten en una sopa, emparedado, postre y una bebida son posibles si podemos seleccionar de 4 sopas, 3 tipos de emparedados, 5 postres y 4 bebidas? Soluci´ on Como n1 = 4, n2 = 3, n3 = 5 y n4 = 4, hay n1 · n2 · n3 · n4 = (4)(3)(5)(4) = 240 diferentes maneras de elegir una comida.

Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?.

Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?. Soluci´ on Por la regla de la multiplicaci´ on generalizada 26 · 26 · 26 · 10 · 10 · 10 · 10 = 175, 760, 000

Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?. Soluci´ on Por la regla de la multiplicaci´ on generalizada 26 · 26 · 26 · 10 · 10 · 10 · 10 = 175, 760, 000

Ejemplo. Del anterior ejemplo, ¿cu´antas placas son posibles si la repetici´on entre n´ umeros o letras esta prohibida.?

Ejemplo. ¿Cu´antas placas diferentes se pueden formar si los tres primeros lugares ser´an ocupados por las letras (26) y los restantes cuatro por n´ umeros?. Soluci´ on Por la regla de la multiplicaci´ on generalizada 26 · 26 · 26 · 10 · 10 · 10 · 10 = 175, 760, 000

Ejemplo. Del anterior ejemplo, ¿cu´antas placas son posibles si la repetici´on entre n´ umeros o letras esta prohibida.? Soluci´ on En este caso 26 · 25 · 24 · 10 · 9 · 8 · 7 = 78, 624, 000

Ejemplo. ¿Cu´antas funciones definidas sobre n puntos son posibles si cada valor de la funci´on es 0 ´ o 1?

Ejemplo. ¿Cu´antas funciones definidas sobre n puntos son posibles si cada valor de la funci´on es 0 ´ o 1? Soluci´ on Sean los puntos 1, 2, . . . , n. Dado que f (i) deber´a ser 0 o 1 para cada i = 1, 2, . . . , n, se sigue que existen 2n posibles funciones.

PERMUTACIONES ¿Cu´antos arreglos ordenados diferentes son posibles de las letras a, b y c?

PERMUTACIONES ¿Cu´antos arreglos ordenados diferentes son posibles de las letras a, b y c? Por enumeraci´on directa podemos ver que son 6, a saber abc, acb, bac, bca, cab y cba cada arreglo es conocido como una permutaci´ on. As´ı existen 6 posibles permutaciones de 3 objetos.

PERMUTACIONES ¿Cu´antos arreglos ordenados diferentes son posibles de las letras a, b y c? Por enumeraci´on directa podemos ver que son 6, a saber abc, acb, bac, bca, cab y cba cada arreglo es conocido como una permutaci´ on. As´ı existen 6 posibles permutaciones de 3 objetos. Este resultado puede ser obtenido de la regla de multiplicaci´on: El primer objeto de la permutaci´ on puede ser cualquiera de los 3, el segundo objeto en la permutaci´ on puede seleccionarse de los cualquiera dos restantes, y el tercero objeto en la permutaci´on es entonces el restante 1. As´ı son 3 · 2 · 1 = 6 posibles permutaciones

Permutaciones

Definici´on. Un arreglo ordenado de r objetos diferentes recibe el nombre de permutaci´on. La cantidad de maneras de ordenar n objetos diferentes tomando r a la vez se representa mediante el s´ımbolo Prn .

Permutaciones

Definici´on. Un arreglo ordenado de r objetos diferentes recibe el nombre de permutaci´on. La cantidad de maneras de ordenar n objetos diferentes tomando r a la vez se representa mediante el s´ımbolo Prn . Teorema. Prn = n(n − 1)(n − 2) · · · (n − r + 1) =

n! (n − r )!

donde n! = n(n − 1)(n − 2) · · · 3 · 2 · 1 y 0! := 1! := 1

Permutaciones

Ejemplo. De una urna que contiene los nombres de 30 empleados de una peque˜ na empresa se van a elegir aleatoriamente, sin reemplazo, los nombres de 3. El individuo cuyo nombre sale primero recibe 100 dolares, el siguiente en salir recibe 50 y el tercero recibe 25. ¿Cu´antos puntos muestrales se asocian con este experimento?.

Permutaciones

Ejemplo. De una urna que contiene los nombres de 30 empleados de una peque˜ na empresa se van a elegir aleatoriamente, sin reemplazo, los nombres de 3. El individuo cuyo nombre sale primero recibe 100 dolares, el siguiente en salir recibe 50 y el tercero recibe 25. ¿Cu´antos puntos muestrales se asocian con este experimento?. Soluci´ on Como los montos de las recompensas son diferentes, el n´ umero de puntos muestrales es el n´ umero de arreglos de r = 3 de los n = 30 nombres posibles. As´ı P330 =

30! = (30)(29)(28) = 24, 360 3!

Permutaciones El siguiente resultado calcula el n´ umero de subconjuntos de tama˜ nos diversos que pueden formarse partiendo de un conjunto de n objetos en k grupos que no se superponen. Teorema. La cantidad de formas de dividir n objetos distintos en k grupos que contengan n1 , n2 , . . . , nk objetos, en forma P respectiva, donde cada objeto figura en un grupo exactamente y ki=1 ni = n, es   n n! N= = n1 n2 . . . nk n1 !n2 ! · · · nk !

Permutaciones El siguiente resultado calcula el n´ umero de subconjuntos de tama˜ nos diversos que pueden formarse partiendo de un conjunto de n objetos en k grupos que no se superponen. Teorema. La cantidad de formas de dividir n objetos distintos en k grupos que contengan n1 , n2 , . . . , nk objetos, en forma P respectiva, donde cada objeto figura en un grupo exactamente y ki=1 ni = n, es   n n! N= = n1 n2 . . . nk n1 !n2 ! · · · nk ! El teorema anterior tambi´en lo podemos usar para encontrar las diferentes permutaciones de n objetos, de los cuales los n1 son iguales,los n2 son iguales,..., los nk son iguales.

Permutaciones

Ejemplo. Un torneo de ajedrez tiene 10 competidores, de los cuales 4 son de Rusia, 3 de los Estados Unidos, 2 de Alemania, y 1 de Brasil. Si el resultado del torneo lista justo las nacionalidades de los jugadores en el orden en los cuales ellos aparecen, ¿cu´antos resultados son posibles?.

Permutaciones

Ejemplo. Un torneo de ajedrez tiene 10 competidores, de los cuales 4 son de Rusia, 3 de los Estados Unidos, 2 de Alemania, y 1 de Brasil. Si el resultado del torneo lista justo las nacionalidades de los jugadores en el orden en los cuales ellos aparecen, ¿cu´antos resultados son posibles?. Soluci´ on Existen

10! = 12, 600 posibles resultados 4!3!2!1!

Permutaciones

Ejemplo. ¿De cu´antas maneras se pueden asignar siete cient´ıficos a una habitaci´on de hotel triple y a dos dobles?

Permutaciones

Ejemplo. ¿De cu´antas maneras se pueden asignar siete cient´ıficos a una habitaci´on de hotel triple y a dos dobles? Soluci´ on



7 3, 2, 2

 =

7! = 210 3!2!2!

Combinaciones

En muchos casos los puntos muestrales se identifican mediante una selecci´on de s´ımbolos en las que el orden es irrelevante. Por ejemplo, las permutaciones de las letras a, b y c son 6: abc, acb, bac, bca, cab y cba pero si el orden es irrelevante s´ olo nos interesa una de ellas, que ser´a la combinaci´on.

Combinaciones

En muchos casos los puntos muestrales se identifican mediante una selecci´on de s´ımbolos en las que el orden es irrelevante. Por ejemplo, las permutaciones de las letras a, b y c son 6: abc, acb, bac, bca, cab y cba pero si el orden es irrelevante s´ olo nos interesa una de ellas, que ser´a la combinaci´on. Definici´on. El n´ umero de combinaciones de n objetos tomados r a la vez es el n´ umero de subconjuntos de tama˜ no r , que se pueden formar con  los n objetos. El n´ umero se denota por Crn o nr .

Combinaciones Teorema. El n´ umero de subconjuntos no ordenados, de tama˜ no r elegidos (sin reemplazo) de entre los n objetos disponibles es   n n! = Crn = r ≤n r r !(n − r )! Por convenci´on, 0! = 1! = 1. As´ı si r < 0 o r > n.

n 0



=

n n



= 1. Tambi´en

n r



=0

Combinaciones Teorema. El n´ umero de subconjuntos no ordenados, de tama˜ no r elegidos (sin reemplazo) de entre los n objetos disponibles es   n n! = Crn = r ≤n r r !(n − r )! Por convenci´on, 0! = 1! = 1. As´ı si r < 0 o r > n.

n 0



=

n n



= 1. Tambi´en

Ejemplo. Un comite de 3 ser´a formado de un grupo de 20 personas. ¿Cu´antas comites diferentes son posibles?.

n r



=0

Combinaciones Teorema. El n´ umero de subconjuntos no ordenados, de tama˜ no r elegidos (sin reemplazo) de entre los n objetos disponibles es   n n! = Crn = r ≤n r r !(n − r )! Por convenci´on, 0! = 1! = 1. As´ı si r < 0 o r > n.

n 0



=

n n



= 1. Tambi´en

n r



=0

Ejemplo. Un comite de 3 ser´a formado de un grupo de 20 personas. ¿Cu´antas comites diferentes son posibles?. Soluci´ on   20

=

20!

=

20 · 19 · 18

= 1, 140 posibles comites

Ejemplo. ¿Cu´antas comites consistentes de dos mujeres y tres hombres se pueden formar si en total existen 5 mujeres y 7 hombres?.

Ejemplo. ¿Cu´antas comites consistentes de dos mujeres y tres hombres se pueden formar si en total existen 5 mujeres y 7 hombres?. Soluci´ on   Existen 52 posibles grupos de 2 mujeres y 73 posibles grupos de 3   hombres, por la regla de la multiplicaci´ on existen 52 73 = 350 posibles comites formados por 2 mujeres y 3 hombres.

El binomio de Newton  Los valores nr en ocasiones son referidos como coeficientes binomiales debido a su presencia en el teorema binomial. Teorema. (Teorema binomial) n   X n k n−k (x + y ) = x y k n

k=0

El binomio de Newton  Los valores nr en ocasiones son referidos como coeficientes binomiales debido a su presencia en el teorema binomial. Teorema. (Teorema binomial) n   X n k n−k (x + y ) = x y k n

k=0

Ejemplo. Desarrollar (x + y )3

El binomio de Newton  Los valores nr en ocasiones son referidos como coeficientes binomiales debido a su presencia en el teorema binomial. Teorema. (Teorema binomial) n   X n k n−k (x + y ) = x y k n

k=0

Ejemplo. Desarrollar (x + y )3 3

(x + y )

3   X 3 k 3−k = x y k k=0         3 0 3 3 1 2 3 2 3 3 0 = x y + x y + x y+ x y 0 1 2 3

= y 3 + 3xy 2 + 3x 2 y + x 3

Teorema binomial

Ejemplo. ¿Cu´antos subconjuntos existen de un conjunto consistente de n elementos?

Teorema binomial

Ejemplo. ¿Cu´antos subconjuntos existen de un conjunto consistente de n elementos? Soluci´ on   n = n´ umero de subconjuntos de tama˜ no k k Entonces n   X n k=0

.

k

=

n   X n k=0

k

1k 1n−k = (1 + 1)n = 2n

Probabildad condicional

La probabilidad de un evento depender´a en ocasiones de nuestro conocimiento de que han ocurrido otros eventos.

Probabildad condicional

La probabilidad de un evento depender´a en ocasiones de nuestro conocimiento de que han ocurrido otros eventos. Definici´on. La probabilidad condicional del evento A dado que el evento B ya ocurri´o, denotada P(A|B), est´a definida por P(A|B) = siempre y cuando P(B) > 0.

P(A ∩ B) P(B)

Probabilidad condicional Observaci´on. En el momento que B ya ocurrio la σ-´algebra original F es modificada a B ∩ F = {B ∩ E |E ∈ F}. El espacio muestral es ahora Ω ∩ B = B y la medida de probabilidad es P(·|B), esto es, el nuevo espacio de probabilidad es (B, B ∩ F, P(·|B)). Formalmente, debemos mostrar que B ∩ F es una σ-´algebra y que P(·|B) es una medida de probabilidad. Dejamos de tarea demostrar que B ∩ F es una σ-´algebra y

Probabilidad condicional Observaci´on. En el momento que B ya ocurrio la σ-´algebra original F es modificada a B ∩ F = {B ∩ E |E ∈ F}. El espacio muestral es ahora Ω ∩ B = B y la medida de probabilidad es P(·|B), esto es, el nuevo espacio de probabilidad es (B, B ∩ F, P(·|B)). Formalmente, debemos mostrar que B ∩ F es una σ-´algebra y que P(·|B) es una medida de probabilidad. Dejamos de tarea demostrar que B ∩ F es una σ-´algebra y Teorema. P(·|B) es una medida de probabilidad definida en B ∩ F.

Probabilidad condicional Observaci´on. En el momento que B ya ocurrio la σ-´algebra original F es modificada a B ∩ F = {B ∩ E |E ∈ F}. El espacio muestral es ahora Ω ∩ B = B y la medida de probabilidad es P(·|B), esto es, el nuevo espacio de probabilidad es (B, B ∩ F, P(·|B)). Formalmente, debemos mostrar que B ∩ F es una σ-´algebra y que P(·|B) es una medida de probabilidad. Dejamos de tarea demostrar que B ∩ F es una σ-´algebra y Teorema. P(·|B) es una medida de probabilidad definida en B ∩ F. Demostraci´ on: Debemos verificar que se satisfacen los tres axiomas de medida de probabilidad.

Probabilidad condicional Observaci´on. Como P(·|B) es una medida de probabilidad podemos utilizar los resultados obtenidos 1

P(Ac |B) = 1 − P(A|B)

2

P(E ∪ F |B) = P(E |B) + P(F |B) − P(E ∩ F |B)

3

P(C |B) ≤ P(D|B) si C ∩ B ⊂ D ∩ B.

Probabilidad condicional Observaci´on. Como P(·|B) es una medida de probabilidad podemos utilizar los resultados obtenidos 1

P(Ac |B) = 1 − P(A|B)

2

P(E ∪ F |B) = P(E |B) + P(F |B) − P(E ∩ F |B)

3

P(C |B) ≤ P(D|B) si C ∩ B ⊂ D ∩ B.

Ejemplo. Suponga que un dado equilibrado se lanza una vez. Encuentre la probabilidad de que salga un 1, si ya se obtuvo un n´ umero impar.

Probabilidad condicional Observaci´on. Como P(·|B) es una medida de probabilidad podemos utilizar los resultados obtenidos 1

P(Ac |B) = 1 − P(A|B)

2

P(E ∪ F |B) = P(E |B) + P(F |B) − P(E ∩ F |B)

3

P(C |B) ≤ P(D|B) si C ∩ B ⊂ D ∩ B.

Ejemplo. Suponga que un dado equilibrado se lanza una vez. Encuentre la probabilidad de que salga un 1, si ya se obtuvo un n´ umero impar. Soluci´ on: sean los siguientes eventos: A: se observa un 1 y B: se observa un n´ umero impar. P(A|B) =

P(A ∩ B) P({1}) 1/6 = = = 1/3 P(B) P({1, 3, 5}) 3/6

Independencia entre eventos Definici´on. Sea (Ω, F, P) un espacio de probabilidad. Sean A1 , A2 , . . . , An con n ≥ 2, eventos. Decimos que A1 , A2 , . . . , An son mutuamente independientes si y s´olo si para todo subconjunto de tama˜ no k, 2 ≤ k ≤ n, {i1 , i2 , . . . , ik } de {1, 2, . . . , n} se cumple la igualdad P(

k \

j=1

Aij ) = Πkj=1 P(Aij ).

Independencia entre eventos Definici´on. Sea (Ω, F, P) un espacio de probabilidad. Sean A1 , A2 , . . . , An con n ≥ 2, eventos. Decimos que A1 , A2 , . . . , An son mutuamente independientes si y s´olo si para todo subconjunto de tama˜ no k, 2 ≤ k ≤ n, {i1 , i2 , . . . , ik } de {1, 2, . . . , n} se cumple la igualdad P(

k \

Aij ) = Πkj=1 P(Aij ).

j=1

Para el caso n = 2, la definici´ on establece que los eventos A1 y A2 son independientes ssi P(A1 ∩ A2 ) = P(A1 )P(A2 ).

Independencia entre eventos Cuando n = 3, la definici´ on de independencia nos dice que A1 , A2 , A3 son mutuamente independientes ssi P(A1 ∩ A2 ) = P(A1 )P(A2 ) P(A1 ∩ A3 ) = P(A1 )P(A3 ) P(A2 ∩ A3 ) = P(A2 )P(A3 ) P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ) No es suficiente que sean independientes a pares.

Independencia entre eventos Cuando n = 3, la definici´ on de independencia nos dice que A1 , A2 , A3 son mutuamente independientes ssi P(A1 ∩ A2 ) = P(A1 )P(A2 ) P(A1 ∩ A3 ) = P(A1 )P(A3 ) P(A2 ∩ A3 ) = P(A2 )P(A3 ) P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ) No es suficiente que sean independientes a pares. Ejemplo. Sea  el experimento que consiste en lanzar dos veces una moneda honesta, entonces Ω = {AA, AS, SA, SS} = {ω1 , ω2 , ω3 , ω4 } Definamos los eventos: A = {ω1 , ω2 }, B = {ω1 , ω3 }, C = {ω1 , ω3 } ¿Son los eventos A, B y C independientes?.

Independencia entre eventos

Soluci´ on: Con la moneda honesta podemos proponer P({ωi }) = 1/4, i = 1, . . . , 4. Entonces P(A) = P(B) = P(C ) = 1/2 P(A ∩ B) = P({ω1 }) = 1/4 = P(A)P(B) P(A ∩ C ) = P({ω1 }) = 1/4 = P(A)P(C ) P(B ∩ C ) = P({ω1 }) = 1/4 = P(B)P(C ) pero P(A ∩ B ∩ C ) = P({ω1 }) = 1/4 = P(A)P(B)P(C ) = 1/8 Concluimos que los eventos no son mutuamente independientes.

Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e?

Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e?   Soluci´ on: 2n − n0 − n1 = 2n − 1 − n

Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e?   Soluci´ on: 2n − n0 − n1 = 2n − 1 − n Observaci´on. De manera informal se acostumbra decir que n eventos son independientes cuando la ocurrencia de uno de ellos no altera la ocurrencia o no ocurrencia de los dem´as.

Independencia entre eventos Observaci´on. Para verificar la independencia mutua de n eventos tenemos que comprobar la independencia a pares, tercias, etc.; en total, 2n − n − 1, ¿porqu´e?   Soluci´ on: 2n − n0 − n1 = 2n − 1 − n Observaci´on. De manera informal se acostumbra decir que n eventos son independientes cuando la ocurrencia de uno de ellos no altera la ocurrencia o no ocurrencia de los dem´as. Observaci´on. A ∩ B = ∅ no significa que A y B son independientes. De hecho si P(A) > 0 y P(B) > 0 y A ∩ B = ∅, entonces P(A ∩ B) = P(∅) = 0 6= P(A)P(B) > 0.

Independencia entre eventos Consecuencias de la independencia entre eventos Proposici´on. Sean A y B dos eventos independientes, entonces 1

A y B c son independientes (y por simetr´ıa AC y B son tambi´en independientes )

2

Ac y B c son independientes.

Independencia entre eventos Consecuencias de la independencia entre eventos Proposici´on. Sean A y B dos eventos independientes, entonces 1

A y B c son independientes (y por simetr´ıa AC y B son tambi´en independientes )

2

Ac y B c son independientes.

Demostraci´ on: (1)

A − B = A ∩ Bc

A = (A ∩ B c ) ∪ (A ∩ B) uni´ on disjunta P(A) = P(A ∩ B c ) + P(A)P(B) por independencia Entonces P(A ∩ B c ) = P(A) − P(A)P(B) = P(A)[1 − P(B)] = P(A)P(B c ) (2) Tarea.

Independencia entre eventos

Observaci´on. La proposici´on anterior es generalizable a m´as de dos eventos. Por ejemplo, para 3 eventos A, B y C mutuamente independientes tendremos que los siguientes eventos son mutuamente independientes Ac , B, C ; A, B c , C ; A, B, C c ; Ac , B c , C ; Ac , B, C c ; A, B c , C c y Ac B c C c Tarea.

Independencia entre eventos

Observaci´on. La proposici´on anterior es generalizable a m´as de dos eventos. Por ejemplo, para 3 eventos A, B y C mutuamente independientes tendremos que los siguientes eventos son mutuamente independientes Ac , B, C ; A, B c , C ; A, B, C c ; Ac , B c , C ; Ac , B, C c ; A, B c , C c y Ac B c C c Tarea. Lema. Sean A y B dos eventos en un espacio (Ω, F, P). Si P(B) > 0 entonces A y B son independientes si y s´ olo si P(A|B) = P(A)

Demostraci´ on:⇒) Suponga que A y B son independientes (P(A ∩ B) = P(A)P(B)) y P(A|B) =

P(A)P(B) P(A ∩ B) = = P(A) P(B) P(B)

Demostraci´ on:⇒) Suponga que A y B son independientes (P(A ∩ B) = P(A)P(B)) y P(A|B) =

P(A)P(B) P(A ∩ B) = = P(A) P(B) P(B)

⇐) Suponga que P(A|B) = P(A) P(A ∩ B) = P(A|B)P(B) = P(A)P(B)

Demostraci´ on:⇒) Suponga que A y B son independientes (P(A ∩ B) = P(A)P(B)) y P(A|B) =

P(A)P(B) P(A ∩ B) = = P(A) P(B) P(B)

⇐) Suponga que P(A|B) = P(A) P(A ∩ B) = P(A|B)P(B) = P(A)P(B) El lema pudo ser establecido con P(B|A) = P(B) y el supuesto P(A) > 0.

La f´ormula de probabilidad total y la regla de Bayes Sea (Ω, F, P) un espacio de probabilidad Definici´on. Sea k ∈ Z+ y los eventos B1 , B2 , . . . , Bk que satisfacen 1

Ω = B1 ∪ B2 ∪ . . . ∪ Bk

2

Bi ∩ Bj = ∅ si i 6= j.

Entonces {B1 , B2 , . . . , Bk } es una partici´ on de Ω.

La f´ormula de probabilidad total y la regla de Bayes Sea (Ω, F, P) un espacio de probabilidad Definici´on. Sea k ∈ Z+ y los eventos B1 , B2 , . . . , Bk que satisfacen 1

Ω = B1 ∪ B2 ∪ . . . ∪ Bk

2

Bi ∩ Bj = ∅ si i 6= j.

Entonces {B1 , B2 , . . . , Bk } es una partici´ on de Ω. Teorema. (Ley de probabilidad total) Si {B1 , B2 , . . . , Bk } es una partici´ on de Ω tal que P(Bi ) > 0, para i = 1, 2, . . . , k, entonces para todo A ∈ F P(A) =

k X i=1

P(A|Bi )P(Bi )

Demostraci´ on: A = A ∩ Ω = A ∩ (B1 ∪ B2 ∪ . . . ∪ Bk ) = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bk ) Adem´as (A ∩ Bi ) ∩ (A ∩ Bj ) = A ∩ (Bi ∩ Bj ) = A ∩ ∅ = ∅ y as´ı

Demostraci´ on: A = A ∩ Ω = A ∩ (B1 ∪ B2 ∪ . . . ∪ Bk ) = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bk ) Adem´as (A ∩ Bi ) ∩ (A ∩ Bj ) = A ∩ (Bi ∩ Bj ) = A ∩ ∅ = ∅ y as´ı P(A) = P(A ∩ B1 ) + P(A ∩ B2 ) + . . . + P(A ∩ BK ) = P(A|B1 )P(B1 ) + P(A|B2 )P(B2 ) + . . . + P(A|Bk )P(Bk ) =

k X i=1

P(A|Bi )P(Bi )

Regla de Bayes

Teorema. ( Regla de Bayes) Sea {B1 , . . . , Bk } una partici´ on de Ω tal que P(Bi ) > 0, para i = 1, 2, . . . , k. Entonces P(A|Bj )P(Bj ) P(Bj |A) = Pk i=1 P(A|Bi )P(Bi )

Regla de Bayes

Teorema. ( Regla de Bayes) Sea {B1 , . . . , Bk } una partici´ on de Ω tal que P(Bi ) > 0, para i = 1, 2, . . . , k. Entonces P(A|Bj )P(Bj ) P(Bj |A) = Pk i=1 P(A|Bi )P(Bi ) Demostraci´ on: P(Bj |A) =

P(Bj ∩ A) P(A|Bj )P(Bj ) = Pk P(A) i=1 P(A|Bi )P(Bi )

Ejemplo. Si dos eventos, A y B, tienen las siguientes probabilidades: P(A) = 0,5, P(B) = 0,3 y P(A ∩ B) = 0,1, encuentre las siguientes probabilidades: 1

P(A|B) y P(B|A)

2

P(A|A ∪ B)

3

P(A|A ∩ B)

4

P(A ∩ B|A ∪ B)

Ejemplo. Dos eventos A y B son tales que P(A) = 0,2, P(B) = 0,3 y P(A ∪ B) = 0,4. Encuentre las siguientes probabilidades 1

P(Ac ∩ B)

2

P(Ac ∪ B)

3

P(Ac ∩ B c )

Variables aleatorias Con frecuencia cuando se lleva a cabo un experimento, estamos interesados principalmente en alguna funci´ on de los resultados que en los resultados mismos. Por ejemplo, cuando lanzamos un par de dados, podemos estar interesados por la suma de los dados y no estar preocupados por los valores reales independientes de cada vector. Es decir, podemos estar interesados en saber que la suma es 7 y no puede interesarnos acerca si el resultado real fue (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1).

Variables aleatorias Con frecuencia cuando se lleva a cabo un experimento, estamos interesados principalmente en alguna funci´ on de los resultados que en los resultados mismos. Por ejemplo, cuando lanzamos un par de dados, podemos estar interesados por la suma de los dados y no estar preocupados por los valores reales independientes de cada vector. Es decir, podemos estar interesados en saber que la suma es 7 y no puede interesarnos acerca si el resultado real fue (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1). Definici´on. Una variable aleatoria (v.a.) es una funci´ on X : Ω → R tal que para cualquier conjunto Boreliano B, se cumple que el conjunto X −1 (B) ∈ F. Donde X −1 (B) = {ω ∈ Ω : X (ω) ∈ B}

Variable aleatoria Ejemplo. Sea : Lanzamos una moneda tres veces y observamos Ω = {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} Sea X la v.a.: El n´ umero de ´aguilas obtenidas. X (AAA) → 3 X (AAS) → 2 X (ASA) → 2 X (SAA) → 2 X (ASS) → 1 .. .. . . X (SSS) → 0 X : Ω → {0, 1, 2, 3} ⊂ R.

Variable aleatoria Observaci´on. No toda funci´on X : Ω → R es una v.a. sino s´ olo aquellas que satisfacen X −1 (B) ∈ F para todo B ∈ B(R) y se dice entonces que X es medible. Si X es continua entonces X es v.a. y tambi´en si Ω es discreto y F = 2Ω entonces tambi´en X es v.a.. El concepto es un poco t´ecnico y a continuaci´ on damos algunos resultados sin demostraci´on.

Variable aleatoria Observaci´on. No toda funci´on X : Ω → R es una v.a. sino s´ olo aquellas que satisfacen X −1 (B) ∈ F para todo B ∈ B(R) y se dice entonces que X es medible. Si X es continua entonces X es v.a. y tambi´en si Ω es discreto y F = 2Ω entonces tambi´en X es v.a.. El concepto es un poco t´ecnico y a continuaci´ on damos algunos resultados sin demostraci´on. Proposici´on. La funci´on constante X (ω) = c para todo ω ∈ Ω es una v.a.

Variable aleatoria Observaci´on. No toda funci´on X : Ω → R es una v.a. sino s´ olo aquellas que satisfacen X −1 (B) ∈ F para todo B ∈ B(R) y se dice entonces que X es medible. Si X es continua entonces X es v.a. y tambi´en si Ω es discreto y F = 2Ω entonces tambi´en X es v.a.. El concepto es un poco t´ecnico y a continuaci´ on damos algunos resultados sin demostraci´on. Proposici´on. La funci´on constante X (ω) = c para todo ω ∈ Ω es una v.a. Proposici´on. Si X y Y son variables aleatorias y c es una constante entonces cX , X + Y , XY , X /Y con Y 6= 0 y |X | son tambi´en variables aleatorias.

Variable aleatoria

Observaci´on. Recordemos que P es una medida de probabilidad definida sobre el espacio medible (Ω, F). Si X es una v.a. entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B(R)) del siguiente modo: Si B ∈ B(R) definimos PX (B) = P(X −1 (B)), lo cual es posible pues X −1 (B) ∈ F. La funci´ on PX : B(R) → [0, 1] resulta ser una medida de probabilidad, y se le llama medida de probabilidad inducida por la v.a. X . Se le conoce tambi´en con el nombre de distribuci´on o ley de probabilidad de X . De este modo se construye el espacio de probabilidad (R, B(R), Px ).

Variable aleatoria

Ejemplo. Sea : Lanzamos una moneda tres veces y observamos Ω = {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} Sea X la v.a.: El n´ umero de ´aguilas obtenidas. p(0) = PX (X = 0) = P(X −1 (0)) = P({SSS}) = 1/8 p(1) = PX (X = 1) = P(X −1 (1)) = P({ASS, SAS, SSA}) = 3/8 p(2) = PX (X = 2) = P(X −1 (2)) = P({AAS, ASA, SAA}) = 3/8 p(3) = PX (X = 3) = P(X −1 (3)) = P({AAA}) = 1/8

v.a.s discretas y sus distribuciones de probabilidad Definici´on. Una v.a. X es discreta si puede tomar s´ olo una cantidad de valores finito o infinito numerable.

v.a.s discretas y sus distribuciones de probabilidad Definici´on. Una v.a. X es discreta si puede tomar s´ olo una cantidad de valores finito o infinito numerable. Ejemplo. La probabilidad que X tome el valor x, P(X = x), se define como la suma de las probabilidades de los puntos muestrales de Ω que tienen asignado el valor x. Se representa a P(X = x) como p(x). p(x) es una funci´on, llamada funci´ on de probabilidad de X o funci´on de masa de probabilidad.

v.a.s discretas y sus distribuciones de probabilidad Definici´on. Una v.a. X es discreta si puede tomar s´ olo una cantidad de valores finito o infinito numerable. Ejemplo. La probabilidad que X tome el valor x, P(X = x), se define como la suma de las probabilidades de los puntos muestrales de Ω que tienen asignado el valor x. Se representa a P(X = x) como p(x). p(x) es una funci´on, llamada funci´ on de probabilidad de X o funci´on de masa de probabilidad. Observaci´on. La distribuci´on de probabilidad para una v.a. X puede representarse mediante una f´ ormula, una tabla o una gr´afica, que proporciona p(x) = P(X = x) para toda x.

Distribuci´on de probabilidad Ejemplo. Sea : Lanzamos una moneda tres veces y observamos Ω = {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} X : El n´ umero de ´ aguilas observadas

Tabla: Distribucion de probabilidad

x 0 1 2 3

p(x) 1/8 3/8 3/8 1/8 1

Ejemplo. El supervisor de una planta de manufactura tiene a tres hombres y tres mujeres a su cargo. Debe elegir dos trabajadores para una tarea especial. Como no desea actuar con prejuicio en la selecci´on del personal, decide elegir dos trabajadores al azar. Si Y es el n´ umero de mujeres en el grupo elegido, encuentre la distribuci´on de probabilidad para Y . Soluci´ on Y puede tomar los valores 0, 1 y 2.   3 3 p(0) = P(Y = 0) =

0

2 = 1/5

6 2

 3

p(1) = P(Y = 1) =

3 1

1 = 3/5

6 2 3 2

 3

p(2) = P(Y = 2) =

0 = 1/5

6 2

Tabla: Distribuci´ on de Probabilidad

y 0 1 2

p(y) 1/5 3/5 1/5

Por medio de una f´ormula: p(y ) =

3 y



3 2−y  6 2

 ,

y = 0, 1, 2

Distribuci´on de probabilidad Teorema. Cualquier distribuci´on de probabilidades debe satisfacer lo siguiente: 1 2

0 ≤ p(y ) ≤ 1 P y p(y ) = 1.

∀y ∀y

Definici´on. Si X es una v.a., entonces la funci´ on F (x) definida por X F (x) = P[X ≤ x] = ( p(x)) para el caso discreto y ≤x

es llamada la funci´on de distribuci´ on (acumulada) de X .

Definici´on. Si X es una v.a. discreta con funci´ on de probabilidad p(x). Entonces, el valor esperado de X , E (X ), se define como X E (X ) = xp(x) x

siempre que

P

x

|x|p(x) < ∞

Definici´on. Si X es una v.a. discreta con funci´ on de probabilidad p(x). Entonces, el valor esperado de X , E (X ), se define como X E (X ) = xp(x) x

siempre que

P

x

|x|p(x) < ∞

Definici´on. La varianza de una v.a. X se define como el valor esperado de (X − E [X ])2 . Es decir: V (X ) = E [(X − E [X ])2 ]. La varianza es una medida de la diferencia p de los valores de X respecto a su esperanza. La cantidad V (X ) es llamada la desviaci´on est´andar de X .

Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}

∀x ∈ R

Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}

Proposici´on. La FX de una v.a. satisface (a) Si x < y entonces F (x) ≤ F (y )

∀x ∈ R

Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}

∀x ∈ R

Proposici´on. La FX de una v.a. satisface (a) Si x < y entonces F (x) ≤ F (y ) (b) FX (+∞) := l´ımx→−∞ (x) = 1 y FX (∞) := l´ımx→∞ (x) = 0

Funci´on de distribuci´on Definici´on. Sea X una v.a.. La funci´ on de distribuci´ on de X (fd) es la funci´on FX : R → [0, 1] dada por FX (x) := P{X ≤ x}

∀x ∈ R

Proposici´on. La FX de una v.a. satisface (a) Si x < y entonces F (x) ≤ F (y ) (b) FX (+∞) := l´ımx→−∞ (x) = 1 y FX (∞) := l´ımx→∞ (x) = 0 (c) FX es continua por la derecha, i.e. si FX (x+) := l´ımy →x + FX (y ), entonces, FX (x+) = FX (x)

Definici´on. Cualquier funci´on F : R → [0, 1] que satisface (a) − (c) de arriba se dice que es una funci´ on de distribuci´ on de probabilidad (fdp)

Tipos de v.a.s Definici´on. Se dice que una v.a. X es discreta si el n´ umero de valores de X es finito o infinito numerable. Si X es discreta su F (x) es una funci´ on constante por pedazos (escalonada) y viceversa.

Tipos de v.a.s Definici´on. Se dice que una v.a. X es discreta si el n´ umero de valores de X es finito o infinito numerable. Si X es discreta su F (x) es una funci´ on constante por pedazos (escalonada) y viceversa. Definici´on. La v.a. X se llama continua si su F (x) es una funci´on continua.

Tipos de v.a.s Definici´on. Se dice que una v.a. X es discreta si el n´ umero de valores de X es finito o infinito numerable. Si X es discreta su F (x) es una funci´ on constante por pedazos (escalonada) y viceversa. Definici´on. La v.a. X se llama continua si su F (x) es una funci´on continua. Definici´on. Se dice que una v.a. X es absolutamente continua si existe una funci´on de Borel f : R → R, no-negativa, y tal que Z x FX (x) = f (y )dy ∀x ∈ R −∞

En este caso se dice que f es la densidad de probabilidad de X .

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y )

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x)

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−)

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y )

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −)

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −) (e) P{y < X < x} = FX (x−) − FX (y )

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −) (e) P{y < X < x} = FX (x−) − FX (y ) (f) P{y ≤ X < x} = FX (x−) − FX (y −)

Proposici´on. Sea FX la f.d. de una v.a. X y sea FX (x−) := l´ımy →x − FX (y ) (a) P{X > x} = 1 − FX (x) (b) P{X < x} = FX (x−) (c) P{y < X ≤ x} = FX (x) − FX (y ) (d) P{y ≤ X ≤ x} = FX (x) − FX (y −) (e) P{y < X < x} = FX (x−) − FX (y ) (f) P{y ≤ X < x} = FX (x−) − FX (y −) (g) P{X = x} = FX (x) − FX (x−); por lo tanto, FX es continua en x ssi P{X = 0} = 0.

Nota:

Si FX es continua en x, entonces FX (x−) = FX (x+) = FX , As´ı si FX es continua en x, (b) P{X < x} = FX (x) Si FX es continua en x e y , entonces (d) − (f ) son iguales a (c)

Ejercicios

Ejemplo. Una caja tiene 12 pelotas numeradas de 1 a 12. Dos pelotas son seleccionadas aleatoriamente de la caja. Sea X el n´ umero m´as grande de las dos pelotas. Encuentre la densidad de X si las bolas son seleccionadas: a)con reemplazo. Grafique esta densidad. b)sin reemplazo. Grafique esta densidad.

Ejercicios

Ejemplo. Una caja tiene 12 pelotas numeradas de 1 a 12. Dos pelotas son seleccionadas aleatoriamente de la caja. Sea X el n´ umero m´as grande de las dos pelotas. Encuentre la densidad de X si las bolas son seleccionadas: a)con reemplazo. Grafique esta densidad. b)sin reemplazo. Grafique esta densidad. Ejemplo. Sea X una variable aleatoria tal que P(|X − 1| = 2) = 0. Exprese P(|X − 1| ≥ 2) en t´erminos de la funci´ on de distribuci´on acumulada FX (x).

Ejercicios

Ejemplo. Sea X una variable aleatoria cuya funci´ on de distribuci´on acumulada est´a dada por:  0, x ≤0    x/3, 0 ≤ x < 1 F (x) = x/2, 1 ≤ x < 2    1, x ≥2 Encuentre f (x) y grafique esta funci´ on.

Ejemplo. Sea X una variable aleatoria continua cuya funci´ on de densidad est´a dada por 1 f (x) = e −|x| 2 (a) Encuentre P(1 ≤ |x| ≤ 2) (b) Encuentre FX (x)

−∞ 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P).

Casos especiales (a) Si h(x) = x k para alg´ un k > 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P). Para k = 1, el momento de orden 1 de X coincide con la esperanza de X .

Casos especiales (a) Si h(x) = x k para alg´ un k > 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P). Para k = 1, el momento de orden 1 de X coincide con la esperanza de X . (b) Sea mX := EX y sea h(x) := (x − mX )k . Entonces, suponiendo que (5) se cumple, Eh(X ) := E (X − mX )k se llama momento central de orden k de la v.a. X.

Casos especiales (a) Si h(x) = x k para alg´ un k > 0, a la esperanza k Eh(X ) = E (X ) se le llama momento de orden k de X .Adem´as, en lugar de decir que X k est´a en L1 diremos que X est´a en Lk ≡ LK (Ω, F, P). Para k = 1, el momento de orden 1 de X coincide con la esperanza de X . (b) Sea mX := EX y sea h(x) := (x − mX )k . Entonces, suponiendo que (5) se cumple, Eh(X ) := E (X − mX )k se llama momento central de orden k de la v.a. X.En particular, para k = 2 se llama la varianza de X y se denota por Var (X ) ´o σX2 , es decir Var (X ) ≡ σX2 = E (X − mX )2 .

(6)

La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable.

La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable. Definici´on. (Varianza) La varianza de una v.a. X , denotada por Var (X ), se define como Var (X ) := E [X − EX ]2 = E (X − µ)2 donde µ = EX

La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable. Definici´on. (Varianza) La varianza de una v.a. X , denotada por Var (X ), se define como Var (X ) := E [X − EX ]2 = E (X − µ)2 donde µ = EX En el caso discreto Var (X ) =

X x

(x − µ)2 f (x)

La varianza La varianza de una v.a. es una medida del grado de dispersi´on de los diferentes valores tomados por la variable. Definici´on. (Varianza) La varianza de una v.a. X , denotada por Var (X ), se define como Var (X ) := E [X − EX ]2 = E (X − µ)2 donde µ = EX En el caso discreto X

Var (X ) =

(x − µ)2 f (x)

x

En el caso continuo Z



Var (X ) = −∞

(x − µ)2 f (x)dx

Notaci´on

La varianza se denota regularmente por el s´ımbolo σ 2 . A la ra´ız cuadrada positiva de Var (X ) se le llama desviaci´ on est´ andar, y se le denota por σ

Notaci´on

La varianza se denota regularmente por el s´ımbolo σ 2 . A la ra´ız cuadrada positiva de Var (X ) se le llama desviaci´ on est´ andar, y se le denota por σ Teorema. Si X es una v.a., entonces Var (X ) = σ 2 = E (X − µ)2 = E (X 2 ) − µ2

Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones:

Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones: 1

El intervalo de tiempo (o la regi´ on) se pueden dividir en subintervalos (subregiones) muy peque˜ nos, de manera que la probabilidad de que ocurra m´as de un resultado en tal intervalo corto o regi´ on peque˜ na es insignificante

Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones: 1

El intervalo de tiempo (o la regi´ on) se pueden dividir en subintervalos (subregiones) muy peque˜ nos, de manera que la probabilidad de que ocurra m´as de un resultado en tal intervalo corto o regi´ on peque˜ na es insignificante

2

El n´ umero de resultados que ocurren en un intervalo o regi´on es independiente del n´ umero que ocurre en cualquier otro intervalo o regi´on.

Distribucion Poisson Para encontrar la distribuci´ on de probabilidad del n´ umero de sucesos en un intervalo de tiempo o en alguna regi´on, usando Poisson, necesitamos que se cumplan las siguientes condiciones: 1

El intervalo de tiempo (o la regi´ on) se pueden dividir en subintervalos (subregiones) muy peque˜ nos, de manera que la probabilidad de que ocurra m´as de un resultado en tal intervalo corto o regi´ on peque˜ na es insignificante

2

El n´ umero de resultados que ocurren en un intervalo o regi´on es independiente del n´ umero que ocurre en cualquier otro intervalo o regi´on.

3

La probabilidad de que ocurra un solo resultado durante un intervalo muy corto o una regi´ on muy peque˜ na es proporcional a la longitud del intervalo o regi´ on.

Distribuci´on Poisson

Observaci´on. Si λ es el valor promedio de Y , entonces dividimos un intervalo (o regi´on) en n subintervalos de modo que en cada uno de ellos s´olo pueda suceder a lo mas un resultado, entonces cada subintervalo tendra una probabilidad de p = λ/n y asi la distribuci´on de probabilidad del n´ umero de sucesos en el intervalo de tiempo sigue una distribuci´ on binomial, pero en donde n (el n´ umero de subintervalos o subregiones) es muy grande, de donde   n y λy e −λ p(y ) = l´ım p (1 − p)n−y = n→∞ y y! donde p es la probabilidad de que el evento suceda y λ = np

Distribuci´on Poisson Definici´on. La variable aleatoria Y se dice que tiene una distribuci´on de probabilidad Poisson si y s´ olo si p(y ) =

λy e −λ y!

y = 0, 1, 2, . . . ,

λ>0

Distribuci´on Poisson Definici´on. La variable aleatoria Y se dice que tiene una distribuci´on de probabilidad Poisson si y s´ olo si p(y ) =

λy e −λ y!

y = 0, 1, 2, . . . ,

Ejemplo. Sea Y ∼ Poisson(2). Encuentre 1

P(Y = 4)

2

P(Y ≥ 4)

3

P(Y < 4)

4

P(Y ≥ 4|Y ≥ 2)

λ>0

Distribuci´on Poisson Definici´on. La variable aleatoria Y se dice que tiene una distribuci´on de probabilidad Poisson si y s´ olo si p(y ) =

λy e −λ y!

y = 0, 1, 2, . . . ,

Ejemplo. Sea Y ∼ Poisson(2). Encuentre 1

P(Y = 4)

2

P(Y ≥ 4)

3

P(Y < 4)

4

P(Y ≥ 4|Y ≥ 2)

Sol. 1)0,090, 2)0,143, 3)0,857, 4)0,241

λ>0

Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1

no lleguen mas de tres clientes

2

por lo menos lleguen dos compradores

3

lleguen exactamente cinco clientes.

Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1

no lleguen mas de tres clientes

2

por lo menos lleguen dos compradores

3

lleguen exactamente cinco clientes.

Sol. 1)0,082, 2)0,930, 3)0,128

Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1

no lleguen mas de tres clientes

2

por lo menos lleguen dos compradores

3

lleguen exactamente cinco clientes.

Sol. 1)0,082, 2)0,930, 3)0,128

Ejemplo. Suponga que Y posee una distribuci´ on binomial con n = 20 y p = 0,1. Determine P(Y ≤ 3). Aproxime esta probabilidad mediante una Poisson.

Distribuci´on Poisson Ejemplo. Los clientes llegan al mostrador de una tienda departamental de acuerdo con la distribuci´ on de Poisson con una frecuencia promedio de siete por hora. En una hora determinada, calcule las probabilidades de que: 1

no lleguen mas de tres clientes

2

por lo menos lleguen dos compradores

3

lleguen exactamente cinco clientes.

Sol. 1)0,082, 2)0,930, 3)0,128

Ejemplo. Suponga que Y posee una distribuci´ on binomial con n = 20 y p = 0,1. Determine P(Y ≤ 3). Aproxime esta probabilidad mediante una Poisson. Sol. Bin. 0,867; Poisson 0,857 Dif. 0,01

Distribuci´on Poisson

Teorema. Si Y es una v.a. Poisson con par´ametro λ, entonces µ = E (Y ) = λ

y

σ 2 = Var (Y ) = λ

Tarea:Distribuci´on Poisson 1

Si X se distribuye Poisson, obtenga las siguientes probabilidades: a)P(X ≤ 4); b)P(X ≥ 6); c)P(2 < X ≤ 6); d)P(X ≤ 6|X ≥ 3). Con 1)λ = 0,6 y con 2)λ = 15.

2

La cantidad de veces que se equivoca una mecan´ ografa tiene una distribuci´ on de Poisson con un promedio de cuatro errores por cuartilla; si excede este n´ umero, debe volver a mecanografiar la pagina completa. ¿Qu´ e probabilidad hay de que no necesite repetirla?.

3

El n´ umero de defectos Y por pie en la producci´ on de cierto tipo de cuerda tiene una distribuci´ on de Poisson con media λ = 2. La utilidad por pie que se obtienen al venderla est´ a representada por X , donde X = 50 − 2Y − Y 2 . Calcule la utilidad esperada por pie.

4

Suponga que el n´ umero de pasajeros que documenta su equipaje en cierta l´ınea a´ erea se puede modelar como una variable aleatoria Poisson y que en promedio 12 pasajeros por hora documenta su equipaje en esta l´ınea. 1) Obtenga la probabilidad de que entre las 8 a.m. y las 9 a.m. m´ as de 6 pasajeros documenten su equipaje en esta l´ınea, si ya han documentado su equipaje al menos 4. 2) Si el costo por hora de documentar equipaje por la l´ınea a´ erea esta dado por C = 800 − X 2 Obtenga el costo esperado y la varianza del costo. ´ MULTIPLE ´ 3) PREGUNTA DE OPCION ¿Cu´ al es la probabilidad de que entre las 10 a.m. y las 10 : 30 a.m. m´ as de 3 pasajeros documente su equipaje en esta l´ınea? a)0,849

5

b)0,735

c)0,151

d)Ninguna de las anteriores

Suponga que el n´ umero de accidentes fatales de automovil, en cierta zona de la ciudad, obedece una distribuci´ on de Poisson con un promedio de un accidente por d´ıa. ¿Cu´ al es la probabilidad de que haya m´ as de 10 accidentes en una semana?. Sol. 2)0,6288, 3)40, 5)0,0985

Tarea Poisson adicional 1

Use la aproximaci´ on Poisson para calcular: a) La probabilidad de que a lo m´ as 2 de 50 tengan licencia vencida, si usualmente 5 % de las personas tienen vencida su licencia. b) La probabilidad de que una caja de 100 fusibles tengan a lo mas 2 fusibles defectuosos si se sabe que el 3 % de los fusibles fabricados sean defectuosos.

2

Si X es una v.a. con distribuci´ on Poisson para la cual P(X = 0) = P(X = 1), ¿cu´ al es el valor de λ?.

3

Un vendedor ha encontrado que el n´ umero de art´ıculos de la marca ABC que puede vender en un d´ıa es una v.a. Poisson(4). a) Construya una gr´ afica de la fdp correspondiente, b) ¿Cu´ antos art´ıculos de la marca ABC debe tener el vendedor para estar 95 % seguro de que tiene los suficientes art´ıculos para que le duren 5 d´ıas?.

4

Una compa˜ n´ıa de seguros encontr´ o que el 0,005 % de las personas en un pa´ıs, mueren por cierto tipo de accidente cada a˜ no. ¿Cu´ al es la probabilidad de que la compa˜ n´ıa tenga que pagar a m´ as de tres de un total de 10000 asegurados debido a este accidente en un a˜ no?. Calcule la probabilidad exacta y tambi´ en en forma aproximada.

5

La deficiencia de c´ elulas rojas en la sangre se puede determinar examinando una muestra de sangre en el microscopio. Suponga que en las personas normales una muestra de volumen espec´ıfico de sangre contiene en promedio 20 c´ elulas rojas. ¿Cu´ al es la probabilidad de que para una persona normal, una muestra de sangre pueda contener menos de 15 c´ elulas rojas?

Sol. 1)a) : X ∼ Poisson(2,5); P(X ≤ 2) = 0,543813; b) : X ∼ Poisson(3); P(X ≤ 2) = 0,4231 2) : λ = 1 3) : X ∼ Poisson(20), P(X ≤ x) = 0,95. 4) : X ∼ Bin(10000, 0,00005); P(X > 3) = 0,00175083; aprox.X ∼ Poisson(1/2); P(X > 3) = 0,00175162 5) : X ∼ Poisson(20); P(X < 15) = 0,104864

Tarea: de todo un poco

1

Se form´ o un jurado de seis personas de un grupo de 20 posibles miembros, de los cuales 8 eran mujeres y 12 eran hombres. El jurado se seleccion´ o aleatoriamente, pero solo conten´ıa a una mujer. ¿Tiene usted alg´ un motivo para dudar de la aleatoriedad en la selecci´ on?.

2

El Centro de C´ omputo de una Universidad muy reconocida tiene 300 pc’s para el uso diario de los estudiantes. La probabilidad de que alguna pc requiera servicio un determinado d´ıa es 0,015. ¿Cu´ al es la probabilidad de que en un d´ıa a) a lo m´ as dos terminales requieran servicio? b) por lo menos cinco terminales requieran servicio? c) tres requieran servicio? Para cada uno de los incisos anteriores obtenga la probalidad en forma exacta y tambien en forma aproximada

Sol.1) : P(Unamujer ) =

   8 12 1  5 20 6

= 0,1634

Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1

Ensayos id´enticos e independientes

Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1

Ensayos id´enticos e independientes

2

Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).

Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1

Ensayos id´enticos e independientes

2

Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).

3

P(E ) = p; P(F ) = 1 − p = q

Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1

Ensayos id´enticos e independientes

2

Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).

3

P(E ) = p; P(F ) = 1 − p = q

4

La v.a. geom´etrica es el n´ umero del ensayo en que ocurre el primer ´exito. Y : 1, 2, 3, . . .

Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1

Ensayos id´enticos e independientes

2

Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).

3

P(E ) = p; P(F ) = 1 − p = q

4

La v.a. geom´etrica es el n´ umero del ensayo en que ocurre el primer ´exito. Y : 1, 2, 3, . . .

p(y ) = P(Y = y ) = P(FF . . . FE ) = q · q . . . qp = q y −1 p

Distribuci´on Geom´etrica Definici´on. Un experimento es geom´etrico si tiene 1

Ensayos id´enticos e independientes

2

Cada ensayo tiene uno de dos posibles resultados:´exito (E) o frcaso (F).

3

P(E ) = p; P(F ) = 1 − p = q

4

La v.a. geom´etrica es el n´ umero del ensayo en que ocurre el primer ´exito. Y : 1, 2, 3, . . .

p(y ) = P(Y = y ) = P(FF . . . FE ) = q · q . . . qp = q y −1 p Definici´on. Una v.a. Y tiene una distribuci´ on de probabilidad geom´etrica ssi p(y ) = q y −1 p,

y = 1, 2, 3, . . . , 0 ≤ p ≤ 1

En algunos textos utilizan p(y ) = pq y , y = 0, 1, 2, . . .

distribuci´on Geom´etrica p(y ) es una distribuci´on de probabilidad. En efecto: 1

p(y ) ≥ 0

2

X

p(y ) =

y

∞ X y =1

q y −1 p = p

∞ X y =1

q y −1 = p

∞ X y =0

qy = p

1 =1 1−q

Ejemplo. Suponga que la probabilidad de que falle un motor durante cualquier periodo de una hora es p = 0,02. Encuentre la probabilidad de que un motor funcione bien durante dos horas (i.e. falle a partir de la tercer hora) Sol. P(Y ≥ 3) = 0,9604

Distribuci´on Geom´etrica

Teorema. Si Y es una v.a. con distribuci´ on geom´etrica, E (Y ) =

1 p

y

V (Y ) =

1−p p2

Distribuci´on Geom´etrica

Teorema. Si Y es una v.a. con distribuci´ on geom´etrica, E (Y ) =

1 p

y

V (Y ) =

1−p p2

Ejemplo. Si la probabilidad de que un motor falle en el intervalo de una hora es de p = 0,02, y si Y denota el n´ umero de intervalos que transcurren hasta la primera falla, encuentre la media, la varianza y desviaci´on est´andar de Y .

Distribuci´on Geom´etrica

Teorema. Si Y es una v.a. con distribuci´ on geom´etrica, E (Y ) =

1 p

y

V (Y ) =

1−p p2

Ejemplo. Si la probabilidad de que un motor falle en el intervalo de una hora es de p = 0,02, y si Y denota el n´ umero de intervalos que transcurren hasta la primera falla, encuentre la media, la varianza y desviaci´on est´andar de Y . E (Y ) = 50, V (Y ) = 2450, σ = 49,497

Tarea: Distribuci´on geom´etrica

1

Suponga que x ∼ Geo(p). Encuentre la probabilidad de cada uno de los siguientes eventos. a) {X > 3}; b){4 < X ≤ 7} ∪ {X > 9}; c){3 ≤ X ≤ 5} ∪ {4 ≤ X ≤ 10};d) {X > 7} si se sabe que {X > 4}. 1. si p = 0,8 y 2. si P = 0,3 Sol. 1a)0,0016, 1b)0,0003971, 1c)0,00953, 1d)0,008; 2a)0,2401, 2b)0,13866, 2c)0,44567, 2d)0,343

2

Sea Y una v.a. geom´ etrica con una probabilidad de ´ exito p. a) Demuestre que para un entero positivo a, P(Y > a) = q a . b) Demuestre que para los enteros positivos a y b, P(Y > a + b|Y > a) = q b = P(Y > b). A este resultado se le conoce como perdida de memoria de la distribuci´ on geom´ etrica

La Binomial Negativa

La distribuci´on binomial negativa surge de un contexto semejante al que conduce a la distribuci´ on geom´etrica. 1 2

Se tienen ensayos id´enticos e independientes, ´ Cada ensayo tiene uno de dos posibles resultados: Exito o Fracaso,

3

P(E ) = p y P(F ) = 1 − p := q en cada ensayo,

4

La variable aleatoria de inter´es Y , es el n´ umero del ensayo en que ocurre el r -´esimo ´exito.

Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}

y

Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}

P(Y = y ) = P(A ∩ B) = P(A) · P(B)   y − 1 r −1 y −r = p q ·p r −1   y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1

y

Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}

P(Y = y ) = P(A ∩ B) = P(A) · P(B)   y − 1 r −1 y −r = p q ·p r −1   y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1 Nota: P(A) = 0 si (y − 1) < (r − 1) o si y < r .

y

Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si   y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1

Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si   y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1

Ejemplo. Un estudio geol´ogico indica que una perforaci´ on de prueba para localizar petr´oleo en una determinada regi´ on encuentra ´este con una probabilidad de 0,2. Encuentre la probabilidad que lo encuentre por tercera vez al perforar el quinto pozo.

Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si   y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1

Ejemplo. Un estudio geol´ogico indica que una perforaci´ on de prueba para localizar petr´oleo en una determinada regi´ on encuentra ´este con una probabilidad de 0,2. Encuentre la probabilidad que lo encuentre por tercera vez al perforar el quinto pozo. Sol. P(Y = 5) =

  4 (0,2)3 (0,8)2 = 0,0307 2

Teorema. Si Y es una v.a. con distribuci´ on binomial negativa. E (Y ) =

r p

y

V (Y ) =

r (1 − p) p2

Ejemplo. Un gran almac´en de bombas usadas resguarda 20 % de m´aquinas descompuestas. Se env´ıa al deposito a una t´ecnica en mantenimiento con tres juegos de refacciones. Ella elige aleatoriamente las bombas, las prueba de una en una, y va separando las que funcionan. Cuando encuentra alguna que no funciona, las repara con uno de sus juegos de refacciones. Suponga que tarda 10 minutos en probar que funciona y 30 minutos en probar y reparar una bomba averiada. Encuentre la media y la varianza del tiempo que le toma a la t´ecnica utilizar sus tres juegos de refacciones.

Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60.

Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60. Como para reparar cada bomba se requieren otros 20 min. , el tiempo total necesario para emplear los tres juegos de refacciones es T = 10Y + 3(20) y E (T ) = 210 y V (Y ) = 6000.

Tarea: Binomial Negativa

1

Suponga que el 10 % de los motores armados en una l´ınea de montaje est´ an defectuosos. Si se selecciona en forma aleatoria uno por uno y se prueba, ¿qu´ e probabilidad hay de localizar el primer motor que no contiene defecto en el segundo ensayo?.

2

Rem´ıtase al ejercicio 1. Encuentre la probabilidad de localizar el tercer motor sin defecto: a) en el quinto ensayo; c) en el quinto ensayo o antes.

3

Rem´ıtase al ejecicio 1. Encuentre la media y la varianza del n´ umero del ensayo en el que se localiza: a) el primer motor sin defecto; b) el tercer motor que no tiene defecto.     Sol. 1. p(2) = 10 (0,9)(0,1) = 0,09; 2a)P(5) = 42 (0,9)3 (0,1)2 = 0,04374; 2b)p(3) + p(4) + p(5) = 0,99144 3a)E (Y ) = 1,11, V (Y ) = 0,1234; 3b)E (Y ) = 3,33, V (Y ) = 0,37

Momentos y funciones generadoras de momentos

Definici´on. El k-´esimo momento de una v.a. Y respecto al origen se define como E (Y k ) y se denota mediante µ0k .

Momentos y funciones generadoras de momentos

Definici´on. El k-´esimo momento de una v.a. Y respecto al origen se define como E (Y k ) y se denota mediante µ0k . Observaci´on. En particular E (Y ) = µ01 = µ y E (Y 2 ) = µ02 .

Momentos y funciones generadoras de momentos

Definici´on. El k-´esimo momento de una v.a. Y respecto al origen se define como E (Y k ) y se denota mediante µ0k . Observaci´on. En particular E (Y ) = µ01 = µ y E (Y 2 ) = µ02 . Definici´on. El k-´esimo momento de una v.a. Y respecto a la media, o el k-´esimo momento central de Y , se define como E [(Y − µ)k ] y se denota µk .

fgm Definici´on. La funci´on generadora de momentos m(t) para una v.a. Y se define como m(t) = E (e tY ). Decimos que existe una funci´on generadora de momentos para Y si hay una constante positiva b tal que m(t) es finita para |t| ≤ b.

fgm Definici´on. La funci´on generadora de momentos m(t) para una v.a. Y se define como m(t) = E (e tY ). Decimos que existe una funci´on generadora de momentos para Y si hay una constante positiva b tal que m(t) es finita para |t| ≤ b. ¿Por qu´e E (e tY ) se llama funci´ on generadora de momentos (fgm)?

E (e ty ) =

X

=

X

e ty p(y ) =

y

X

[1 + ty +

y

yp(y ) + t

y

= 1 + tµ01 +

X

yp(y ) +

y

t2 2!

µ02 + . . .

(ty )2 + . . .]p(y ) 2!

t2 X 2 y p(y ) . . . 2! y

fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0

fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0 Ejemplo. Encuentre la funci´on generadora de momentos para una v.a. con distribuci´on Poisson y media λ

fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0 Ejemplo. Encuentre la funci´on generadora de momentos para una v.a. con distribuci´on Poisson y media λ t m(t) = e λ(e −1)

fgm Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t) i = m(k) (0) = µ0k . dt t=0 Ejemplo. Encuentre la funci´on generadora de momentos para una v.a. con distribuci´on Poisson y media λ t m(t) = e λ(e −1)

Ejemplo. Emplee la funci´on generadora de momentos para encontrar la media y la varianza de la v.a. Poisson.

fgm

Observaci´on. La principal aplicaci´on de una fgm consiste en demostrar que una v.a. posee una distribuci´ on de probabilidad particular p(y ). Si m(t) existe para una distribuci´ on de probabilidad p(y ), entonces es u ´nica. Asimismo, si las funciones generadoras de momentos de dos v.a.s Y y Z son iguales (para |t| ≤ b, b > 0), entonces Y y Z deben tener la misma distribuci´ on de probabilidades. Ejemplo. Supongamos que Y es una v.a. con fgm mY (t) = e 3,2(e es la distribuci´on de Y ?.

t−1 )

. ¿Cu´al

fgm

Observaci´on. La principal aplicaci´on de una fgm consiste en demostrar que una v.a. posee una distribuci´ on de probabilidad particular p(y ). Si m(t) existe para una distribuci´ on de probabilidad p(y ), entonces es u ´nica. Asimismo, si las funciones generadoras de momentos de dos v.a.s Y y Z son iguales (para |t| ≤ b, b > 0), entonces Y y Z deben tener la misma distribuci´ on de probabilidades. Ejemplo. Supongamos que Y es una v.a. con fgm mY (t) = e 3,2(e es la distribuci´on de Y ?. Sol. Y ∼ Poisson(3,2)

t−1 )

. ¿Cu´al

Tarea: fgm 1

Si Y tiene una distribuci´ on binomial con n ensayos y una probabilidad de ´ exito p, demuestre que la funci´ on generadora de momentos para Y es m(t) = (pe t + q)n , q =1−p

2

Utilice la fgm del ejercicio 1 para encontrar E (Y ), E (Y 2 ) y V (Y ).

3

Si Y posee una distribuci´ on geom´ etrica con probabilidad de ´ exito p, demuestre que la funci´ on generadora de momentos para Y es m(t) =

pe t 1−qe t

q =1−p

4

Utilice la fgm del ejercicio 3 para encontrar E (Y ), E (Y 2 ) y V (Y ).

5

Aplique la unicidad de las funciones generadoras de momentos para obtener la distribuci´ on de una variable aleatoria con funci´ on generadora de momentos m(t) = (0,6e t + 0,4)3

6

Aplique la unicidad de las funciones generadoras de momentos para obtener la distribuci´ on de una variable aleatoria con funci´ on generadora de momentos m(t) =

7

0,3e t 1−0,7e t

Encuentre las dsitribuciones de las variables que poseen cada una de las siguientes funciones generadoras de momentos: a)m(t) = [(1/3)e t + (2/3)]5 ;

b)m(t) =

et 2−e t

;

t c)m(t) = e 2(e −1) .

8

Rem´ıtase al ejercicio 7. Deduzca por simple observaci´ on la media y la varianza de las v.a’s relacionadas con las fgm de los incisos a), b) y c).

9

Sea m(t) = (1/6)e t + (2/6)e 2t + (3/6)e 3t . Encuentre lo siguiente: a)E (Y ); b)V (Y ); c) la distribuci´ on de Y .

10

Si Y es una v.a. con fgm m(t), y si W est´ a determinada por W = aY + b, demuestre que la fgm de W es e tb m(at).

11

Utilice el resultado del ejercicio 10 para probar que si W = aY + b, entonces E (W ) = aE (Y ) + b y V (W ) = a2 V (Y ).

Teorema de Chebyshev El siguiente resultado se utiliza para determinar una cota o l´ımite inferior para la probabilidad de que una v.a. Y caiga en un intervalo µ ± kσ = (µ − kσ, µ + kσ) Teorema. (Teorema de Chebyshev) Si Y es una v.a. con media finita µ y varianza σ 2 , entonces, para cualquier constante positiva k > 0, P(|Y − µ| < kσ) ≥ 1 −

1 k2

o

P(|Y − µ| ≥ kσ) ≤

1 . k2

Teorema de Chebyshev El siguiente resultado se utiliza para determinar una cota o l´ımite inferior para la probabilidad de que una v.a. Y caiga en un intervalo µ ± kσ = (µ − kσ, µ + kσ) Teorema. (Teorema de Chebyshev) Si Y es una v.a. con media finita µ y varianza σ 2 , entonces, para cualquier constante positiva k > 0, P(|Y − µ| < kσ) ≥ 1 −

1 k2

o

P(|Y − µ| ≥ kσ) ≤

1 . k2

Observaci´on. Los resultados del teorema anterior son muy conservadores en el sentido de que la probabilidad real por lo com´ un rebasa la cota inferior en una cantidad considerable.

Teorema de Chebyshev

Ejemplo. La cantidad de clientes que llega cada d´ıa a un mostrador, Y , observada por un periodo prolongado tiene una media de 20 y una desviasci´on est´andar de 2. Se desconoce la distribuci´on de probabilidad. ¿Qu´e se puede decir de la probabilidad de que ma˜ nana, Y ´este entre 16 y 24?.

Teorema de Chebyshev

Ejemplo. La cantidad de clientes que llega cada d´ıa a un mostrador, Y , observada por un periodo prolongado tiene una media de 20 y una desviasci´on est´andar de 2. Se desconoce la distribuci´on de probabilidad. ¿Qu´e se puede decir de la probabilidad de que ma˜ nana, Y ´este entre 16 y 24?. sol. 15/16

Tarea:Chebyshev

1

Si Y es una v.a. con una media de 11 y una varianza de 9, mediante el teorema de Chebyshev encuentre: a) un l´ımite inferior para P(6 < Y < 16); b) el valor de C , tal que P(|Y − 11| > C ) ≤ 0,09

2

La casa de moneda de Estados Unidos produce monedas de diez centavos con un promedio de 0,5 pulgadas y una desviaci´ on est´ andar de 0,01. Con el Teorema de Chebyshev, encuentre una cota inferior para el n´ umero de monedas en un lote de 400, que se espera que tengan un di´ ametro entre 0,48 y 0,52 pulgadas.

Distribuciones continuas

Definici´on. Sea Y una v.a. con funci´ on de distribuci´ on F (y ). Se dice que Y es continua si la funci´on de distribuci´ on F (y ) es continua para −∞ < y < ∞.

Distribuciones continuas

Definici´on. Sea Y una v.a. con funci´ on de distribuci´ on F (y ). Se dice que Y es continua si la funci´on de distribuci´ on F (y ) es continua para −∞ < y < ∞. Observaci´on. En el caso de una v.a. continua Y , debemos tener, para cualquier numero real y , P(Y = y ) = 0. Si esto no fuera cierto, y P(Y = y0 ) = p0 > 0, entonces F (y ) tendr´ıa una discontinuidad (salto) de tama˜ no p0 en el punto y0

Distribuci´on continua Definici´on. Si F (y ) es la funci´on de distribuci´ on de una v.a. continua Y , entonces f (y ), dada por f (y ) =

dF (y ) = F 0 (y ) dy

siempre y cuando exista la derivada, se conoce como funci´on de densidad de probabilidad para la v.a. Y .

Distribuci´on continua Definici´on. Si F (y ) es la funci´on de distribuci´ on de una v.a. continua Y , entonces f (y ), dada por f (y ) =

dF (y ) = F 0 (y ) dy

siempre y cuando exista la derivada, se conoce como funci´on de densidad de probabilidad para la v.a. Y . De las definiciones anteriores se deduce que F (y ) puede expresarse como Z y F (y ) = f (t)dt −∞

donde f (·) es la funci´on de densidad de probabilidad, y t es la variable de integraci´on

funci´on de densidad Teorema. (Propiedades de una funci´ on de densidad) Si f (y ) es una funci´on de densidad para una variable aleatoria continua, entonces 1 2

f (y ) ≥ 0 para cualquier valor de y . R∞ −∞ f (y )dy = 1

Ejemplo. Suponga que   0, y < 0 y , 0 ≤ y ≤ 1, F (y ) =  1, y > 1. Encuentre la funci´on de densidad de probabilidad para Y y graf´ıquela. Sol. f (y ) =

dF (y ) dy

=

  0, 1,  0,

y 1.

Funci´on de densidad

Teorema. Si la v.a. Y tiene funci´ on de densidad f (y ) y a < b, entonces Z P(a ≤ Y ≤ b) =

b

f (y )dy a

Ejemplo. Dada f (y ) = cy 2 , 0 ≤ y ≤ 2 y f (y ) = 0 en cualquier otra parte, a) encuentre el valor de c para el cual f (y ) es una funci´on de densidad v´alida, b) Encuentre P(1 ≤ Y ≤ 2).

Funci´on de densidad

Teorema. Si la v.a. Y tiene funci´ on de densidad f (y ) y a < b, entonces Z P(a ≤ Y ≤ b) =

b

f (y )dy a

Ejemplo. Dada f (y ) = cy 2 , 0 ≤ y ≤ 2 y f (y ) = 0 en cualquier otra parte, a) encuentre el valor de c para el cual f (y ) es una funci´on de densidad v´alida, b) Encuentre P(1 ≤ Y ≤ 2). Sol. a) c = 3/8; b) P(1 ≤ Y ≤ 2) = 7/8

Cuantiles,cuartiles y porcentiles Definici´on. Un cuantil de orden p, 0 < p < 1, de una v.a. Y es cualquier n´ umero, denotado φp , que satisfaga simult´aneamente las condiciones a) P[Y ≤ φp ] ≥ p b) P[Y ≥ φp ] ≥ 1 − p

Cuantiles,cuartiles y porcentiles Definici´on. Un cuantil de orden p, 0 < p < 1, de una v.a. Y es cualquier n´ umero, denotado φp , que satisfaga simult´aneamente las condiciones a) P[Y ≤ φp ] ≥ p b) P[Y ≥ φp ] ≥ 1 − p Observaci´on. Si Y es continua a) significa que FY (φp ) ≥ p y b) que FY (φp ) ≤ p, por lo que FY (φp ) = p; que tiene soluci´on u ´nica si FY (·) es creciente en el soporte de Y (i.e. donde Y 6= 0). φp no es necesariamente u ´nico. Cuando φp no es u ´nico existe un intervalo en el que cada punto satisface a) y b). En este caso se suguiere utilizar el menor valor del intervalo o el punto medio.

Cuantiles, cuartiles y porcentiles Observaci´on. Los cuantiles de mayor uso en la practica son φ0,5 , la mediana φ0,25 , el cuartil inferior φ0,75 , el cuartil superior

A la diferencia φ0,75 − φ0,25 se le conoce como el recorrrido intercuart´ılico y se le utiliza como una medida de dispersi´on. Notemos que 50 % de la probabilidad total est´a comprendida entre φ0,25 y φ0,75 φp es llamado quintil cunado p es de la forma j/5, j = 1, 4 φp es llamado dec´ıl cuando p es de la forma k/10 con k = 1, 9. Tarea:Del Wackerly, 7 ed., pag. 166, Ejercicios:4.1,4.3,4.8,4.10,4.11,4.12,4.15

Esperanza de una v.a. continua Definici´on. El valor esperado de una v.a. continua Y es Z ∞ E (Y ) = yf (y )dy −∞

siempre que

R∞

−∞ |y |f (y )dy

< ∞ (i.e. la integral exista)

Esperanza de una v.a. continua Definici´on. El valor esperado de una v.a. continua Y es Z ∞ E (Y ) = yf (y )dy −∞

siempre que

R∞

−∞ |y |f (y )dy

< ∞ (i.e. la integral exista)

El valor esperado de una funci´ on de una v.a. Teorema. Sea g (Y ) una funci´on de Y ; entonces Z ∞ E [g (Y )] = g (y )f (y )dy , −∞

siempre que la integral exista.

Teorema. (Propiedades de la Esperanza) Sea c una constante y sean g (Y ), g1 (Y ), g2 (Y ), . . . , gk (Y ) funciones de una v.a. continua Y . Entonces se cumple: 1

E (c) = c.

2

E [cg (Y )] = cE [g (Y )].

3

E [g1 (Y ) + . . . + gk (Y )] = E [g1 (Y )] + . . . + E [gk (Y )].

Teorema. (Propiedades de la Esperanza) Sea c una constante y sean g (Y ), g1 (Y ), g2 (Y ), . . . , gk (Y ) funciones de una v.a. continua Y . Entonces se cumple: 1

E (c) = c.

2

E [cg (Y )] = cE [g (Y )].

3

E [g1 (Y ) + . . . + gk (Y )] = E [g1 (Y )] + . . . + E [gk (Y )].

Igual que en el caso discreto: V (Y ) = E (Y − µ)2 = E (Y 2 ) − µ2

Ejemplo. Sea f (y ) = (3/8)y 2 para 0 ≤ y ≤ 2, f (y ) = 0 en cualquier otro caso. Si la v.a.Y tiene esta funci´ on de densidad, encuentre µ = E (Y ) y σ = V (Y ).

Ejemplo. Sea f (y ) = (3/8)y 2 para 0 ≤ y ≤ 2, f (y ) = 0 en cualquier otro caso. Si la v.a.Y tiene esta funci´ on de densidad, encuentre µ = E (Y ) y σ = V (Y ). E (Y ) = 1,5, E (Y 2 ) = 2,4, V (Y ) = 0,15

Ejemplo. Sea f (y ) = (3/8)y 2 para 0 ≤ y ≤ 2, f (y ) = 0 en cualquier otro caso. Si la v.a.Y tiene esta funci´ on de densidad, encuentre µ = E (Y ) y σ = V (Y ). E (Y ) = 1,5, E (Y 2 ) = 2,4, V (Y ) = 0,15 Tarea:Wackerly 7ed. pag. 172: 4.21,4.25,4.26,4.27,4.34,4.35.

Distribuci´on de probabilidad uniforme Definici´on. Si θ1 < θ2 , se dice que una v.a. Y tiene distribuci´ on de probabilidad uniforme en el intervalo (θ1 , θ2 ) si y s´olo si la funci´on de densidad de Y es  1 θ2 −θ1 , θ1 ≤ y ≤ θ2 , f (y ) = 0, o.c. θ1 y θ2 se denominan par´ametros de la funci´ on de densidad.

Distribuci´on de probabilidad uniforme Definici´on. Si θ1 < θ2 , se dice que una v.a. Y tiene distribuci´ on de probabilidad uniforme en el intervalo (θ1 , θ2 ) si y s´olo si la funci´on de densidad de Y es  1 θ2 −θ1 , θ1 ≤ y ≤ θ2 , f (y ) = 0, o.c. θ1 y θ2 se denominan par´ametros de la funci´ on de densidad. Teorema. Si θ1 < θ2 y Y es una v.a. uniformemente distribuida en el intervalo (θ1 , θ2 ), entonces µ = E (Y ) =

θ1 + θ2 2

y

σ 2 = V (Y ) =

(θ2 − θ1 )2 12

suponga que el n´ umero de eventos, que se presentan en el intervalo (0, t) tienen una distribuci´ on de Poisson. Si se sabe que exactamente uno de estos eventos ha ocurrido en el intervalo (0, t), entonces el tiempo real del suceso est´a distribuido de manera uniforme en este intervalo.

suponga que el n´ umero de eventos, que se presentan en el intervalo (0, t) tienen una distribuci´ on de Poisson. Si se sabe que exactamente uno de estos eventos ha ocurrido en el intervalo (0, t), entonces el tiempo real del suceso est´a distribuido de manera uniforme en este intervalo. Ejemplo. La llegada de clientes a una caja en un establecimiento sigue una distribuci´on de Poisson.Se sabe que durante un periodo determinado de 30 minutos, un cliente llega a la caja. Encuentre la probabilidad de que el cliente llegue durante los u ´ltimos 5 minutos del periodo de 30 minutos.

suponga que el n´ umero de eventos, que se presentan en el intervalo (0, t) tienen una distribuci´ on de Poisson. Si se sabe que exactamente uno de estos eventos ha ocurrido en el intervalo (0, t), entonces el tiempo real del suceso est´a distribuido de manera uniforme en este intervalo. Ejemplo. La llegada de clientes a una caja en un establecimiento sigue una distribuci´on de Poisson.Se sabe que durante un periodo determinado de 30 minutos, un cliente llega a la caja. Encuentre la probabilidad de que el cliente llegue durante los u ´ltimos 5 minutos del periodo de 30 minutos. Sol. P(25 ≤ Y ≤ 30) = 1/6

Distribuci´on de probabilidad Normal

Definici´on. Una v.a. Y tiene distribuci´ on de probabilidad normal ssi, para σ > 0 y −∞ < µ < ∞, la funci´ on de densidad de Y es f (y ) = √

(y −µ)2 1 e − 2σ2 2πσ

Notaci´on Y ∼ N(µ, σ)

−∞ Z0 ) = 0,5

2

P(Z < Z0 ) = 0,8643

3

P(−Z0 < Z < Z0 ) = 0,9

4

P(−Z0 < Z < Z0 ) = 0,99

Ejemplo. Los promedios de calificaciones de una poblaci´ on de estudiantes tiene aproximadamente una distribuci´ on normal con media 2,4 y desviaci´on est´andar de 0,8. (a) ¿Qu´e fracci´on de alumnos obtendr´a un promedio superior a 3,0? (b) Si los estudiantes que obtienen un promedio inferior a 1,9 son expulsados de la universidad, ¿qu´e porcentaje de ellos ser´a expulsado? (c) Supongamos que se eligen tres estudiantes al azar de la poblaci´on. ¿Cu´al es la probabilidad que todos ellos tengan un promedio menor a 3,0?

Ejemplo. Los promedios de calificaciones de una poblaci´ on de estudiantes tiene aproximadamente una distribuci´ on normal con media 2,4 y desviaci´on est´andar de 0,8. (a) ¿Qu´e fracci´on de alumnos obtendr´a un promedio superior a 3,0? (b) Si los estudiantes que obtienen un promedio inferior a 1,9 son expulsados de la universidad, ¿qu´e porcentaje de ellos ser´a expulsado? (c) Supongamos que se eligen tres estudiantes al azar de la poblaci´on. ¿Cu´al es la probabilidad que todos ellos tengan un promedio menor a 3,0? a) 1 − P(Z ≤ 0,75), b) P(Z < −0,625) = 0,2655 c) Elevar al cubo (a)

Distribuci´on de probabilidad Gamma

Definici´on. Una v.a. Y tiene distribuci´ on gamma con par´ametros α > 0 y β > 0 ssi la funci´on de distribuci´ on de Y es ( α−1 −y /β y e β α Γ(α) , 0 ≤ y < ∞ f (y ) = 0, o.c donde Γ(α) =

R∞ 0

y α−1 e −y dy = funci´ on gamma

Distribuci´on de probabilidad Gamma

Definici´on. Una v.a. Y tiene distribuci´ on gamma con par´ametros α > 0 y β > 0 ssi la funci´on de distribuci´ on de Y es ( α−1 −y /β y e β α Γ(α) , 0 ≤ y < ∞ f (y ) = 0, o.c donde Γ(α) =

R∞ 0

y α−1 e −y dy = funci´ on gamma

Integrando obtenemos: Γ(1) = 1 Γ(α) = (α − 1)Γ(α − 1), Γ(n) = (n − 1)! si n ∈ Z.

Gr´aficas de una dist. Gamma

Figura: Graficas Distribuci´ on gamma con K = α, θ = β, sesgada (as´ımetricas) a la derecha, i.e. la mayor parte del ´area bajo la curva est´a cerca del origen.

Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces E (Y ) = αβ,

V (Y ) = αβ 2

Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces V (Y ) = αβ 2

E (Y ) = αβ, Demostraci´ on Primero: Como R ∞ α−1 −y /β e dy = β α Γ(α). 0 y

R∞ 0

y α−1 e −y /β β α Γ(α) dy

= 1, entonces

Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces V (Y ) = αβ 2

E (Y ) = αβ, Demostraci´ on Primero: Como R ∞ α−1 −y /β e dy = β α Γ(α). 0 y

=



0

y α−1 e −y /β β α Γ(α) dy

= 1, entonces

Z ∞ 1 y α e −y /β dy α Γ(α) α Γ(α) β β 0 0 1 βαΓ(α) β α+1 Γ(α + 1) = = αβ β α Γ(α) Γ(α)

Z E (Y ) =

R∞

y

 y α−1 e −y /β 

dy =

Teorema. Si Y tiene una distribuci´ on gamma con par´ametros α y β, entonces V (Y ) = αβ 2

E (Y ) = αβ, Demostraci´ on Primero: Como R ∞ α−1 −y /β e dy = β α Γ(α). 0 y

=



0

y α−1 e −y /β β α Γ(α) dy

= 1, entonces

Z ∞ 1 y α e −y /β dy α Γ(α) α Γ(α) β β 0 0 1 βαΓ(α) β α+1 Γ(α + 1) = = αβ β α Γ(α) Γ(α)

Z E (Y ) =

R∞

y

 y α−1 e −y /β 

La varianza les queda de tarea.

dy =

Aplicaciones de la dist. Gamma

Variables aleatorias asociadas con tiempos entre eventos. Tiempos entre fallas de funcionamiento de motores Tiempos que pasan los clientes formados para llegar a una caja Tiempo que toma revisar un motor, etc.

Dos casos particulares de la dist. Gamma Definici´on. Sea ν ∈ N. Una v.a. Y tiene distribuci´ on ji-cuadrada, χ2 , con ν grados de libertad si y s´ olo si Y es una v.a. con distribuci´on gamma y par´ametros α = ν/2 y β = 2, es decir ( ν/2−1 −y /β y e , 0≤y a) = P(Y > b)

La propiedad de falta de memoria

Ejemplo. Suponga que Y ∼ exp(β). Demuestre que, si a > 0 y b > 0, P(Y > a + b|Y > a) = P(Y > b) Soluci´ on P(Y > a + b|Y > a) = =

R ∞ 1 −y /β P(Y > a + b) a+b β e = R ∞ 1 −y /β P(Y > a) dy a βe −e −y /β |∞ e −(a+b)/β a+b = −e −y /β |∞ e −a/β a

= e −b/β = P(Y > b)

Ejemplo. La magnitud de los terremotos en una regi´ on en EU se puede representar mediante una distribuci´ on exponencial con media 2,4, de acuerdo a la escala de Ricter. Calcule la probabilidad de que un terremoto que azota esta la regi´ on: a) rebase los 3,0 grados, b) est´e entre 2,0 y 3,0

Ejemplo. La magnitud de los terremotos en una regi´ on en EU se puede representar mediante una distribuci´ on exponencial con media 2,4, de acuerdo a la escala de Ricter. Calcule la probabilidad de que un terremoto que azota esta la regi´ on: a) rebase los 3,0 grados, b) est´e entre 2,0 y 3,0 Soluci´ on R3 a) P(Y > 3,0) = 0

1 −y /2,4 dy 2,4 e

−3/2,4 = 0,285 = −e −y /2,4 |∞ 0 =e

Ejemplo. La magnitud de los terremotos en una regi´ on en EU se puede representar mediante una distribuci´ on exponencial con media 2,4, de acuerdo a la escala de Ricter. Calcule la probabilidad de que un terremoto que azota esta la regi´ on: a) rebase los 3,0 grados, b) est´e entre 2,0 y 3,0 Soluci´ on R3 a) P(Y > 3,0) = 0 b) P(2,0 < Y
0? (c) Demuestre que, si a = 1, el inciso (a) arroja E (Y ) = αβ√ (d) Con el resultado en (a), deduzca una expresi´on para E ( Y ). ¿Qu´e suposici´ on debe hacerse respecto a α. (e) Con el resultado √ en (a), deduzca una expresi´on para E (1/Y ), E (1/ Y ), y E (1/Y 2 ) y supuestos para α.

Distribuci´on de probabilidad beta La fdp beta es una funci´ on de densidad de dos par´ametros, definida en el intervalo 0 ≤ y ≤ 1. Regularmente se utiliza como modelo para representar proporciones, como el porcentaje de impurezas presentes en un producto qu´ımico o la cantidad de tiempo que una maquina est´a en reparaci´ on.

Distribuci´on de probabilidad beta La fdp beta es una funci´ on de densidad de dos par´ametros, definida en el intervalo 0 ≤ y ≤ 1. Regularmente se utiliza como modelo para representar proporciones, como el porcentaje de impurezas presentes en un producto qu´ımico o la cantidad de tiempo que una maquina est´a en reparaci´ on. Definici´on. Una v.a. Y tiene una distribuci´ on de probabilidad beta con par´ametros α y β ssi la funci´ on de densidad de Y est´a dada por ( α−1 y (1−y )β−1 , 0≤y ≤1 B(α,β) f (y ) = 0, o.c. donde Z B(α, β) = 0

1

y α−1 (1 − y )β−1 dy =

Γ(α)Γ(β) Γ(α + β)

Gr´aficas de una distribuci´on beta

Figura: Graficas Distribuci´ on beta

Observaci´ on: La definici´ on de y en el intervalo [0, 1] no restringe el uso de la distribuci´on beta. Si c ≤ y ≤ d, entonces y ∗ = (y − c)/(d − c) define una nueva variable tal que 0 ≤ y ∗ ≤ 1. As´ı, la funci´ on de densidad beta puede aplicarse a una v.a. definida en el intervalo c ≤ y ≤ d por medio de una traslaci´on y un cambio de escala.

Observaci´ on: La definici´ on de y en el intervalo [0, 1] no restringe el uso de la distribuci´on beta. Si c ≤ y ≤ d, entonces y ∗ = (y − c)/(d − c) define una nueva variable tal que 0 ≤ y ∗ ≤ 1. As´ı, la funci´ on de densidad beta puede aplicarse a una v.a. definida en el intervalo c ≤ y ≤ d por medio de una traslaci´on y un cambio de escala. La funci´on de distribuci´ on acumulada para la v.a. beta, recibe el nombre de funci´ on beta incompleta y se denota mediante Z y α−1 t (1 − t)β−1 dt = Iy (α, β). F (y ) = B(α, β) 0

Observaci´ on: La definici´ on de y en el intervalo [0, 1] no restringe el uso de la distribuci´on beta. Si c ≤ y ≤ d, entonces y ∗ = (y − c)/(d − c) define una nueva variable tal que 0 ≤ y ∗ ≤ 1. As´ı, la funci´ on de densidad beta puede aplicarse a una v.a. definida en el intervalo c ≤ y ≤ d por medio de una traslaci´on y un cambio de escala. La funci´on de distribuci´ on acumulada para la v.a. beta, recibe el nombre de funci´ on beta incompleta y se denota mediante Z y α−1 t (1 − t)β−1 dt = Iy (α, β). F (y ) = B(α, β) 0 Cuando α y β son enteros positivos, Iy (α, β) se relaciona con la funci´on de probabilidad binomial. La integraci´ on por partes permite demostrar que para 0 ≤ y ≤ 1, y con α y β enteros, Z y α−1 n   X n i t (1 − t)β−1 dt = F (y ) = y (1 − y )n−i B(α, β) i 0 i=α

donde n = α + β − 1

Teorema. Si Y es una v.a. con distribuci´ on beta con par´ametros α > 0 y β > 0, entonces E (Y ) =

α α+β

y

V (Y ) =

αβ (α +

β)2 (α

+ β + 1)

.

Teorema. Si Y es una v.a. con distribuci´ on beta con par´ametros α > 0 y β > 0, entonces E (Y ) =

α α+β

y

V (Y ) =

αβ (α +

β)2 (α

+ β + 1)

Demostraci´ on: Z



E (Y ) =

yf (y )dy = −∞

= = =

Z

1

y o

 y α−1 (1 − y )β−1  B(α, β)

dy

Z 1 1 B(α + 1, β) y α (1 − y )β−1 dy = B(α, β) o B(α, β) Γ(α + β) Γ(α + 1)Γ(β) × Γ(α)Γ(β) Γ(α + β + 1) Γ(α + β) αΓ(α)Γ(β) α × = Γ(α)Γ(β) (α + β)Γ(α + β) (α + β)

.

Definici´on. Sea p ∈ (0, 1). Se le llama cuantil de orden p de una v.a. X a cualquier n´ umero xp que cumpla P(X ≤ xp ) ≥ p,

P(X ≥ xp ) ≥ 1 − p.

y

A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambi´en cuartiles. En particular al cuantil de orden 1/2 se le llama mediana. Es decir, la mediana es el n´ umero m que cumple P(X ≤ m) ≥ 1/2,

y

P(X ≥ m) ≥ 1/2.

Definici´on. Sea p ∈ (0, 1). Se le llama cuantil de orden p de una v.a. X a cualquier n´ umero xp que cumpla P(X ≤ xp ) ≥ p,

P(X ≥ xp ) ≥ 1 − p.

y

A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambi´en cuartiles. En particular al cuantil de orden 1/2 se le llama mediana. Es decir, la mediana es el n´ umero m que cumple P(X ≤ m) ≥ 1/2,

y

P(X ≥ m) ≥ 1/2.

Definici´on. La moda de una v.a. es aquel punto donde la funci´on de densidad tiene un m´aximo local

Ejemplo. 10.Demuestre que si α > 1, la densidad gamma(α, λ) tiene un maximo en (α − 1)/λ (aqu´ı λ = 1/β).

Ejemplo. 10.Demuestre que si α > 1, la densidad gamma(α, λ) tiene un maximo en (α − 1)/λ (aqu´ı λ = 1/β). Ejemplo. 48.El Centro de C´omputo de una Universidad muy reconocida tiene 300 pc’s para el uso diario de los estudiantes. La probabilidad de que alguna pc requiera servicio un determinado d´ıa es 0,015. ¿Cu´al es la probabilidad de que en un d´ıa a)a lo m´as dos terminales requieran servicio? b)por lo menos cinco terminales requieran servicio? c)tres requieran servicio? Para cada uno de los incisos anteriores obtenga la probalidad en forma exacta y tambien en forma aproximada

La Binomial Negativa

La distribuci´on binomial negativa surge de un contexto semejante al que conduce a la distribuci´ on geom´etrica. 1 2

Se tienen ensayos id´enticos e independientes, ´ Cada ensayo tiene uno de dos posibles resultados: Exito o Fracaso,

3

P(E ) = p y P(F ) = 1 − p := q en cada ensayo,

4

La variable aleatoria de inter´es Y , es el n´ umero del ensayo en que ocurre el r -´esimo ´exito.

Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}

y

Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}

P(Y = y ) = P(A ∩ B) = P(A) · P(B)   y − 1 r −1 y −r = p q ·p r −1   y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1

y

Sean A = {los primeros (y − 1) ensayos contienen (r − 1) ´exitos} B = {el ensayo y da como resultado un ´exito}

P(Y = y ) = P(A ∩ B) = P(A) · P(B)   y − 1 r −1 y −r = p q ·p r −1   y − 1 r y −r = p q , y = r , r + 1, r + 2, . . . . r −1 Nota: P(A) = 0 si (y − 1) < (r − 1) o si y < r .

y

Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si   y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1

Definici´on. Se dice que una v.a. Y tiene una distribuci´ on de probabilidad binomial negativa si y s´ olo si   y − 1 r y −r p(y ) = p q , y = r , r + 1, r + 2, . . . , 0 ≤ p ≤ 1. r −1

Teorema. Si Y es una v.a. con distribuci´ on binomial negativa. E (Y ) =

r p

y

V (Y ) =

r (1 − p) p2

Ejemplo. Un gran almac´en de bombas usadas resguarda 20 % de m´aquinas descompuestas. Se env´ıa al deposito a una t´ecnica en mantenimiento con tres juegos de refacciones. Ella elige aleatoriamente las bombas, las prueba de una en una, y va separando las que funcionan. Cuando encuentra alguna que no funciona, las repara con uno de sus juegos de refacciones. Suponga que tarda 10 minutos en probar que funciona y 30 minutos en probar y reparar una bomba averiada. Encuentre la media y la varianza del tiempo que le toma a la t´ecnica utilizar sus tres juegos de refacciones.

Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60.

Soluci´ on: Si Y es el n´ umero de ensayo en que se detecta la tercera bomba descompuesta, entonces Y ∼ BN(0,2). Por lo tanto E (Y ) = 3/0,2 = 15 y V (Y ) = 3(0,8)/(0,2)2 = 60. Como para reparar cada bomba se requieren otros 20 min. , el tiempo total necesario para emplear los tres juegos de refacciones es T = 10Y + 3(20) y E (T ) = 210 y V (Y ) = 6000.

Distribuci´on de Cauchy

Definici´on. Si la v.a. Y tiene funci´ on de densidad f (y ) =

1 , 2 πβ[1 + ( y −α β ) ]

α ∈ R, β ∈ R+ , y ∈ R

decimos que Y tiene la distribuci´ on de Cauchy y escribimos Y ∼ Cauchy (α, β). A α se le llama el par´ametro de localizaci´on y a β el par´ametro de escala.

Distribuci´on de Cauchy

Definici´on. Si la v.a. Y tiene funci´ on de densidad f (y ) =

1 , 2 πβ[1 + ( y −α β ) ]

α ∈ R, β ∈ R+ , y ∈ R

decimos que Y tiene la distribuci´ on de Cauchy y escribimos Y ∼ Cauchy (α, β). A α se le llama el par´ametro de localizaci´on y a β el par´ametro de escala. Cuando α = 0 yβ = 1 obtenemos la Cauchy estandarizada que tiene fdp 1 f (y ) = π(1 + y 2 )

Distribuci´on Weibull Definici´on. Si la v.a. Y tiene funci´ on de distribuci´ on acumulada dada por i h )γ −( y −α β y >α F (y ) = 1 − e decimos que Y se distribuye como Weibull de tres par´ametros α, β y γ, Escribimos Y ∼ Weibull(α, β, γ), donde α ∈ R y β, γ ∈ R+ , α es el par´ametro de localizaci´ on, β es el par´ametro de escala y γ el par´ametro de la forma.

Distribuci´on Weibull Definici´on. Si la v.a. Y tiene funci´ on de distribuci´ on acumulada dada por i h )γ −( y −α β y >α F (y ) = 1 − e decimos que Y se distribuye como Weibull de tres par´ametros α, β y γ, Escribimos Y ∼ Weibull(α, β, γ), donde α ∈ R y β, γ ∈ R+ , α es el par´ametro de localizaci´ on, β es el par´ametro de escala y γ el par´ametro de la forma. Al derivar F con respecto a y obtenemos la funci´ on de densidad f (y ) =

γ y − α γ−1 −( y −α )γ β ( ) e , β β

y > α.

En diversas aplicaciones se acostumbra hacer α = 0 y de esta manera el n´ umero de par´ametros se reduce a dos.

Gr´aficas de una distribuci´on Weibull

Figura: Graficas Distribuci´ on Weibull, α = 0, β = λ, k = γ

La funci´on de riesgo La funci´on de riesgo es una manera distinta de modelar la Fda y la fdp. la t´ecnica tiene su origen en el C´alculo Actuarial en donde la v.a. de inter´es es el instante de muerte de las personas. De esta manera los actuarios quisieron encontrar la distribuci´on de probabilidades de la longitud de vida de las personas. El proposito final era poder calcular las primas de seguros de vida.

La funci´on de riesgo La funci´on de riesgo es una manera distinta de modelar la Fda y la fdp. la t´ecnica tiene su origen en el C´alculo Actuarial en donde la v.a. de inter´es es el instante de muerte de las personas. De esta manera los actuarios quisieron encontrar la distribuci´on de probabilidades de la longitud de vida de las personas. El proposito final era poder calcular las primas de seguros de vida. Definici´on. Sea T una v.a. abs. cont. con valores en (0, ∞). Definimos la funci´on de riesgo de T como hT (t) = −

d ln[1 − FT (t)], dt

donde FT (·) es la Fda de T .

para

t>0

(7)

T mide la longitud de vida, medida en a˜ nos, de una persona (o art´ıculo electr´onico, mec´anico,...) Sea t0 > 0, entonces P[t < T ≤ t + t0 |T > t] =

Ft (t + t0 ) − FT (t) 1 − FT (t)

(8)

es la probabilidad de que una persona que ya alcanz´o la edad t muera antes de o al cumplir t + t0 . al dividir (2) entre t0 obtenemos la anterior probabilidad pero por unidad de tiempo. Esto es obtenemos la tasa de mortalidad en el intervalo (t, t + t0 ]. Por lo tanto, 1 P[t < T ≤ t + t0 |T > t] = t0 ↓0 t0 l´ım

=

1 FT (t + t0 ) − FT l´ım 1 − FT (t) t0 ↓0 t0 1 fT (t). 1 − FT (t)

Donde fT (·) es la version continua de la fdp de T .

Ahora bien, fT (t) d = − ln[1 − FT (t)] = hT (t). 1 − FT (t) dt En consecuencia, hT (t) es la tasa instant´anea de mortalidad. La idea de modelar hT (t) es que la experiencia puede sugerir una f´ ormula para hT (t) y a partir de (1) deducir la Fda y una fdp para T . El siguiente teorema establece c´ omo obtener la Fda y una fdp para T a partir de la funci´ on de riesgo. Teorema. Sea T una v.a. abs. cont. y sea hT (t) la funci´ on de riesgo de T . Entonces, n Z t o FT (t) = 1 − exp − hT (x)dx (9) 0

y la versi´on continua de la fdp es fT (t) = hT (t) · exp

n

Z −

t

hT (x)dx

o

(10)

Ejemplo. Si hT (t) = βI(0,∞) (t), con β ∈ R+ , entonces n Z t o FT (t) = 1 − exp − βdx = 1 − exp{−βt}. 0

Por lo que concluimos que T ∼ Gamma(1, β), esto es T tiene distribuci´on exponencial de par´ametro β.

Ejemplo. Si hacemos hT (t) = αt β I(0,∞) (t), con α, β > 0 tendremos Z FT

= 1 − exp{−

t

αx β dx}

0

= 1 − exp{−

α β+1 t } β+1

y concluimos que que T ∼ Weibull(0, δ, β + 1) donde  1/(β+1) δ = β+1 . La distribuci´ on Weibull puede resultar de α utilidad para modelar el tiempo de vida de m´aquinas, que tienen un desgaste que puede ser expresado como proporcional a t β . Si β > 1, el desgaste es acelerado y si 0 < β ≤ 1, es desgate mas lento.