Variable Aleatoria

4. Variables aleatorias y distribución de probabilidad. Sergio Vázquez Razo. 4.1 Introducción. Se han considerado las di

Views 297 Downloads 196 File size 937KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

4. Variables aleatorias y distribución de probabilidad. Sergio Vázquez Razo. 4.1 Introducción. Se han considerado las distribuciones de frecuencias de conjuntos de datos, y los fundamentos de probabilidades. Ahora se combinaran estas ideas para elaborar distribuciones de probabilidad, las cuales se asemejan a las distribuciones de frecuencias, la diferencia básica entre estos dos tipos de distribuciones es el uso de la variable aleatoria o las medidas de ciertas magnitudes. Estas medidas se representan mediante variables aleatorias discretas o continuas. La variable aleatoria de una distribución de probabilidad corresponde a la variable de respuesta de una distribución de frecuencias. 4.2 Variables aleatorias. Al describir el espacio muestral de un experimento, no se específica que un resultado individual necesariamente tiene que ser un número. Por ejemplo, al clasificar un artículo manufacturado simplemente podríamos usar las categorías "defectuoso" y "no defectuoso". En otro caso, para observar la temperatura durante un período de 24 horas sencillamente podríamos mantener un registro de la curva trazada por el termógrafo. Sin embargo, en muchas situaciones experimentales vamos a interesarnos en medir algo y anotarlo como un número. Aún en los casos citados anteriormente podremos asignar un número a cada uno de los resultados (no numéricos) del experimento. Por ejemplo, puede asignar el valor 1 a artículos no defectuosos y el valor cero a los defectuosos. Pudimos anotar la temperatura máxima del día, o la mínima, o el promedio de las temperaturas máxima y mínima. Se ha definido un experimento como el proceso que culmina con la toma de una medición (o una observación). La mayoría de los experimentos producen una medición numérica que desde luego varía al considerar distintos puntos muéstrales y esta variación es aleatoria. La medición es llamada una variable aleatoria X, que el hecho de que tome un valor particular es en sí mismo un evento aleatorio. Así en muchas situaciones experimentales deseamos asignar un número real x a cada uno de los elementos s del espacio muestral S. Esto es, x = X(s) es el valor de una función X del espacio muestral a los números reales. Por ejemplo si se lleva a cabo un experimento aleatorio y ocurre el evento correspondiente a un número a, entonces se dice que, en esta prueba, la variable aleatoria X correspondiente a ese experimento ha tomado el valor a. También se dice que se ha observado el valor X = a. En lugar de “el evento correspondiente a un número a” se dice, más brevemente, “el evento X = a”, De acuerdo a esto damos la siguiente definición: Sea un experimento ε y S el espacio muestral asociado con el experimento. Una función X que asigna a cada uno de los elementos s ∈ S, un número real X(s), se llama variable aleatoria. Una variable aleatoria es una función de valores reales cuyo dominio es un espacio muestral. 1

Una variable aleatoria discreta es aquella que toma, a lo más, una cantidad numerable de valores distintos, el espacio muestral de un experimento probabilístico. Una variable aleatoria continua es aquella que puede tomar cualquier valor de entre todos los contenidos en un intervalo. Observaciones: (a) La terminología anterior es algo desafortunada, pero como es tan universalmente aceptada, nosotros no nos apartaremos de ella. Es claro que X es una función y todavía la llamamos variable aleatoria. (b) Resulta que no toda función que se conciba puede ser considerada como una variable aleatoria. Una exigencia (aunque no la más general) es que para todo número real x el suceso {X(s) = x} y para todo intervalo I, el suceso {X(s) ∈ I} tiene probabilidades bien definidas y consecuentes con los axiomas básicos. (c) En algunos casos el resultado s del espacio muestral es ya la característica numérica que queremos anotar. Sencillamente tomemos X(s) = s, la función de identidad. (d) En la mayoría de las discusiones de variables aleatorias que siguen, no necesitamos indicar la naturaleza funcional de X. Generalmente nos interesamos en los valores posibles de X, en vez de indagar de donde provienen esos valores. Por ejemplo, supongamos que lanzamos dos monedas y consideremos el espacio muestral asociado con este experimento. Eje. Sea el experimento aleatorio de lanzar tres monedas. Los resultados posibles son: S = {(a, a, a), (a, a, s), (a, s, a), (s, a, a), (a, s, s), (s, a, s), (s, s, a), (s, s, s)} Se puede definir, la variable aleatoria: X: Número de águilas al tirar las tres monedas. La variable aleatoria x asigna un número real a cada elemento de S: X(a, a, a) = 3, X(a, a, s) = X(a, s, a)=X(s, a, a) = 2, X(a, s, s) = X(s, a, s)=X(s, s, a) = 1, X(s, s, s) = 0 El conjunto de los posibles valores de X es {0, 1, 2, 3}.

S = espacio muestral de ε

RX = valores posibles de X (recorrido) 2

El espacio RX, el conjunto de todos los valores posibles de X, se llama algunas veces el recorrido. En ciertos sentidos podemos considerar a RX como otro espacio muestral. El espacio muestral (original) S corresponde a los resultados no numéricos (posiblemente) del experimento, mientras que RX es el espacio muestral asociado con la variable aleatoria X, que representa la característica que puede ser de interés. Si X(s) = s, tenemos S = RX. (e) Es muy importante comprender que una exigencia básica de una función (uni-variada): a cada s ∈ S le corresponde exactamente un valor X(s). Valores diferentes de s pueden dar el mismo valor de X. Por ejemplo en la ilustración anterior encontramos que X(a, s) = X(s, a) = 1. Concepción de una variable aleatoria X: Realizamos el experimento ε que tiene como resultado s ∈ S. Luego evaluamos en número X(s). (b) Efectuamos ε, y obtenemos el resultado s, e inmediatamente calculamos X(s). El número X(s) se considera entonces como el resultado obtenido en el experimento. (a)

Teniendo en cuenta que los valores de una variable aleatoria quedan determinados por el resultado de un experimento aleatorio, es posible asignar probabilidad a cada uno de ellos en el caso de las variables aleatorias discretas o bien definir una función para evaluar la probabilidad en intervalos en el caso de las continuas. Así como nos interesamos por los sucesos asociados con el espacio muestral S, también será necesario tratar suceso con respecto a la variable aleatoria X, esto es, subconjunto del recorrido RX. Muy a menudo ciertos sucesos asociados con S están "relacionados" con sucesos asociados con RX de la manera siguiente. Sea ε un experimento y S su espacio muestral. Sea X una variable aleatoria definida en S y sea RX su recorrido. Sea B un suceso respecto a RX, esto es, B ⊂ RX. Supongamos que A se define A = {s ∈ S | X(s) ∈ B}

3

Fig. 4.1 A consta de todos los resultados en S para los cuales X(s) ∈ B. En este caso decimos que A y B son sucesos equivalentes Para denotar las variables aleatorias se emplea mayúsculas, como X, y minúsculas como x, para representar valores particulares que puede tomar una variable aleatoria. Por ejemplo, supongamos que X denota cualquiera de los seis valores posibles que pueden observarse en la cara superior al lanzar un dado. El número que se observa, después de arrojar el dado, se representará mediante el símbolo x. Observe que X es una variable aleatoria, pero el valor específico observado, x, no es de naturaleza aleatoria. La expresión (X = x) puede leerse: el conjunto de todos los puntos de S asignados al valor x mediante la variable aleatoria. La probabilidad de que X adopte el valor x, P(X=x), se define como la suma de las probabilidades de los puntos muestrales de S asignados al valor x. La probabilidad correspondiente de un valor observado x en un experimento se denota por P(X = x) = P(x) o bien F(x) donde X denota el valor abstracto o general, mientras que x denota un valor específico o concreto. De manera semejante, la probabilidad del evento X toma cualquier valor en el intervalo a < X < b Se denota por P(a < X< b). La probabilidad del evento X ≤ c ( X T o m a c u a l q u i e r v a l o r q u e sea menor

o i g u a l a c)

se denota por P(X ≤c ) y la probabilidad del evento X > c(X toma cualquier valor mayor que c) Se denota por P(X>c). Los dos últimos eventos son mutuamente exclusivos. De donde P ( X ≤c ) +P ( X >c ) =P ( − ∞ 2) es el evento (X>3). Entonces ∞

P( X > 3) ∫3 (1 / 2) exp( −x / 2)dx e −3 / 2 P( X > 3 | X > 2 ) = = ∞ = −1 = e −1 / 2 = 0.606 P( X > 2) e (1 / 2) exp( −x / 2)dx



2

Eje. Sea X la duración (en horas) de cierto tipo de bombilla eléctrica. Supóngase que la variable aleatoria X es continua (Fig. 4.5). Sea la fdp dada por

Evalúe la constante a.

a / x 3 f ( x) =   0

150 0 < x 0

Sea y = |X|. Para obtener E(Y) debemos proceder como sigue: ∞

E (Y ) =∫ | x | f ( x ) dx = −∞

∞ 1 0 ( −x ) e x dx + ∫ ( x )e −x dx  = 1 [1 +1] =1 ∫ 2  0  −∞  2

Eje. En los concursos para obtención de contratos, es usual que los contratistas sometan los precios de sus proyectos si sus expectativas, tomando en cuenta el tipo de proyecto y al resto de los participantes, les indican que sus ganancias estarán por encima de cierta cantidad. Suponga que un contratista considera un proyecto en el cuál ganará 50,000 pesos si le es otorgado. El costo de la preparación del proyecto, si lo somete, es de 5,000 pesos y el propio contratista piensa que la probabilidad en esas circunstancias, de que gane el concurso es de 0.4. Finalmente, el contratista ha decidido someter propuesta para proyectos cuya ganancia esperada sea de por lo menos 12,000 pesos. ¿Debe someter propuesta en este proyecto? La ganancia x del contratista puede tomar cualquiera de los valores: x = -$5,000, si pierde; o si lo gana x = $45,000. Las probabilidades de estos valores son 0.6 y 0.4 respectivamente. La distribución de probabilidad de su ganancia x se muestra en la tabla siguiente; x P(x)

-$5,000.00 0.6

$45,000.00 0.4

La ganancia esperada es E(x) =

∑ x P(x) = (-$5,000)(0.6) + ($45,000)(0.4) = $15,000.00

Como E(x) = $15,000.00 excede a $12,000.00, el contratista debe someter su propuesta. Eje. Considere el problema de determinar la prima anual para un seguro de daños de automóvil de $100,000 pesos. La póliza cubre un tipo de eventos que por experiencia previa se sabe que ocurre a 3 por cada 5,000 automovilistas cada año. Sea x la ganancia anual de la compañía resultante de la venta de una póliza y sea C la cantidad (desconocida) que representa al valor de la prima anual. Se desea calcular C de modo que la ganancia esperada E(x) sea 0. En otras palabras se desea calcular C para no ganar ni perder. Al valor calculado, desde luego, la compañía agregará los gastos administrativos correspondientes y un margen de utilidad. 22

Se ha supuesto que la ganancia esperada E(x) depende de C, y utilizando este hecho sólo se requiere encontrar C de manera que esta ganancia esperada sea 0, o sea E(x) =

∑ x P(x) = 0

El primer paso para encontrar la solución es el de determinar los valores que la ganancia x puede tomar y después determinar P(x). Si el evento que cubre la póliza no ocurre en el año, la compañía gana x = C pesos. Si el evento ocurre, la ganancia será negativa, esto es será de hecho una pérdida; x = C - 100,000 pesos. Las probabilidades asociadas a estos dos valores de x son 4997/5000 y 3/5000 respectivamente. La distribución de probabilidad de la ganancia se muestra en la tabla. x, ganancia p(x)

C 4997/5000

-(100,000-C) 3/5000

Igualando el valor esperado de x a cero y resolviendo para C se tiene E(x) =

∑ x P(x) = C(4997/5000) + [-(100,000-C)](3/5000) = 0 C = $60.00

Lo anterior quiere decir que si la compañía cobra una prima anual de 60 pesos, entonces su ganancia promedio sobre un número grande de pólizas similares será cero. La prima final que la compañía debe cobrar será $60.00 más los gastos administrativos y la utilidad. La esperanza de una función aleatoria. Sea X una variable aleatoria discreta con función de probabilidad p(x) y sea g(X) una función del valor real de X, entonces la siguiente expresión da el valor esperado de g(X): E [ g ( X )] = ∑g ( x) p ( x) x

Dem. Si X toma un número finito de valores x1 , x 2 ,..., x n . Como es posible que la función g(x) no establezca una correspondencia biunívoca (uno a uno), supongamos que g(X) adopta los valores g1 , g 2 ,..., g n (donde m ≤ n ). Se infiere que g(X) es una variable aleatoria tal que para i = 1,2,..,m,

P[ g ( X ) = g i ] =

∑ p( x ) = p * ( g )

j t o ld axaj ts as ql eu se g ( x j ) = gi

i

Por consiguiente,

23

m

E [g ( X ) ]= gi p * (gi ) ∑ i= 1

 m  = g ∑ i  i= 1 to d a s  g(xj  m

= ∑ i= 1 to d a s g(x

la s x )= g j

j

ta le s

i

n

= g(x ∑

j

j= 1

j

ta le s

j

q u e

g p( y ∑

la s x )= g j

j

p( x ∑

j

  )  

)

q u e

) p( x

j

)

Para una función continua: E [ g ( X )] = ∫ g ( x) f ( x) dx ∞

−∞

Eje. Un vendedor minorista de un producto derivado del petróleo vende una cantidad aleatoria, X, cada día. Suponga que X, medida en miles de galones, tiene una función de densidad de probabilidad 3 2  x , f ( x) =  8  0,

0≤ x≤2 c.o. p

Las utilidades del minorista ascienden a 100 dólares por cada 1000 galones vendidos (10 centavos por galón) si X ≤ 1 , y a $40 más por cada 1000 galones (4 centavos más por galón) si X > 1. Calcule las ganancias esperadas por el minorista un día cualquiera. Si g(X) es la ganancia del minorista, entonces 0 ≤ X ≤1 1< X ≤2

100 X g( X ) =  140 X

Deseamos calcular la ganancia esperada; por lo tanto, el valor esperado es de E [ g ( X )] = ∫ g ( x) f ( x) dx ∞

−∞

1 2 3  3  = ∫ 100 x  x 2 dx + ∫ 140 x  x 2 dx 0 1 8  8 

=

300 x4 (8)( 4)

1

+ 0

420 x4 (8)( 4)

2

= 1

300 420 (1) + (15 ) = 206 .25 32 321

Así el vendedor puede esperar utilidades de $206.25 por la venta diaria de su producto. Propiedades del valor esperado. 1.

Si X = C en donde C es una constante, entonces E(X) = C o E [cg ( X )] = cE [ g ( X )] .

24

2. Supongamos que C es una constante y X es una variable aleatoria. Entonces E(CX) = C E(X). 3. Sean X y Y dos variables aleatorias cualquiera. Entonces E(X + Y) = E(X) + E(Y). 4. Sean X y Y variables aleatorias independientes. Entonces E(XY) = E(X) E(Y). Demostración: E ( kX ) =∑kx i f ( x i ) =k ∑x i f ( x i ) =k E ( X )

E ( X +k ) =∑( x i +k ) f ( x i ) =∑x i f ( x i ) +∑kf ( x i ) = E ( X ) +k E ( X +Y ) =∑x i f ( x i ) +∑y i f ( y i ) = E ( X ) + E (Y ) E ( XY ) =∑ i, j

∑x

i

y j f ( x i ) g ( y j ) =∑x i f ( x i ) ∑y j g ( y j ) = E ( X ) E (Y ) i

j

La mediana τ de una distribución continua F(x) es aquel valor que verifica: P{ X < τ } = P{ X > τ } =

1 2

La moda, se define como el valor x para el que f(x) o P(xi) toman el valor máximo. Eje- Dos urnas contienen, cada una, bolitas numeradas del 1 a 10. Se saca una bolita de cada urna y se suman los números obtenidos, ¿cuál es el valor medio de la suma? Si anotamos todas las combinaciones posibles, obtenemos la tabla siguiente:

Urna 1 1 1 1 1 1 1 1 1 1 1 2 2 2 …. 10 10

Urna 2 1 2 3 4 5 6 7 8 9 10 1 2 3 …. 9 10

Suma 2 3 4 5 6 7 8 9 10 11 3 4 5 …. 19 20 25

Suma, X 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Frec. 1 2 3 4 5 6 7 8 9 10 9 8 7 6 5 4 3 2 1

P(X) 1/100 2/100 3/100 4/100 5/100 6/100 7/100 8/100 9/100 10/100 9/100 8/100 7/100 6/100 5/100 4/100 3/100 2/100 1/100 ∑

XP(X) 2/100 6/100 12/100 20/100 30/100 42/100 56/100 72/100 90/100 110/100 108/100 104/100 98/100 90/100 80/100 68/100 54/100 38/100 20/100 1100/100=11

Si X e Y son las variables aleatorias que expresan el número sacado de cada urna, Es E(X) = E(Y) = (1/10)(1+2+…+10) = 11/2 y por tanto la solución es E[X+Y] = 11. Eje. Dos urnas contienen, cada una, 5 bolitas numeradas del 1 al 5. Si se saca una bolita de cada urna y se multiplican los números obtenidos, ¿cuál es el valor medio de este producto? Si anotamos todas las combinaciones posibles, obtenemos la tabla siguiente: Urna 1 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4

Urna 2 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1

Producto 1 2 3 4 5 2 4 6 8 10 3 6 9 12 15 4 26

4 4 4 4 5 5 5 5 5 x 1 2 3 4 5 6 8 9 10 12 15 16 20 25

2 3 4 5 1 2 3 4 5 frec 1 2 2 3 2 2 2 1 2 2 2 1 2 1 25

8 12 16 20 5 10 15 20 25 P(x) 1/25 2/25 2/25 3/25 2/25 2/25 2/25 1/25 2/25 2/25 2/25 1/25 2/25 1/25 ∑

xP(x) 1/25 4/25 6/25 12/25 10/25 12/25 16/25 9/25 20/25 24/25 30/25 16/25 40/25 25/25 225/25=9

Como las variables aleatorias X e Y que representan los números sacados de cada urna, son independientes, y E(X) = E(Y) = (1/5)(1+2+…+5) = 3, resulta E(XY) = 9. Eje. Una urna contiene 5 bolitas numeradas del 1 a 5. Se sacan dos bolitas al azar y se multiplican los números obtenidos. ¿Cuál es el valor medio del producto? Ahora las variables X e Y son dependientes y por tanto se tiene que hacer el cálculo directo. Los casos posibles son (1, 2), (1, 3), …, (4, 5), y de cada uno de ellos la probabilidad es 1/10.

27

1 −2 −2 1 −3 −3 1 −4 −4 1 −5 −5 2 −1 −2 2 −3 −6 2 −4 −8 2 −5 −10 3 −1 −3 3 −2 −6 3 −4 −12 3 −5 −15 4 −1 −4 4 −2 −8 4 −3 −12 4 −5 −20 5 −1 −5

E ( XY ) = ∑XYP ( XY ) 1 −2 ⇒2 1 −3 ⇒3 1 −4 ⇒4 1 −5 ⇒5 2 −3 ⇒6 2 −4 ⇒8 2 −5 ⇒10 3 −4 ⇒12 3 −5 ⇒15 4 −5 ⇒20

∑85

5 −2 −10 5 −3 −15 5 −4 −20

Por tanto, E(XY) = 8.5. Lo que resulta diferente del problema anterior.

4.7 La varianza de una variable aleatoria. El valor esperado de una variable aleatoria es una medida de tendencia central de su distribución de probabilidad del mismo modos que x es también una medida de tendencia central del histograma de frecuencias relativas de una muestra. El término “valor esperado” tiene una interpretación intuitiva en el sentido de que se espera que los valores de x se observen cerca del “centro” de la distribución de probabilidad. Al igual que x proporciona una descripción sólo parcial del correspondiente histograma de frecuencias relativas de la muestra, el valor esperado µ sólo da una descripción parcial del comportamiento de la variable aleatoria. Para una descripción más adecuada se requiere una medida de dispersión de la distribución de probabilidad P(x). Para ilustrar este hecho, supongamos que como administrador de una clínica de salud, debe decidir el número de vacunas contra el tétano que hay que mantener constantemente almacenadas. Más aún suponga que el abastecimiento de vacunas debe ser suficiente para satisfacer tres días de demanda y que la distribución de probabilidad para esta demanda x, de tres días es

28

Fig. 4.7 Distribución de probabilidad de x Puede observarse en la figura 4.7 que la demanda esperada µ no proporciona información sobre el número máximo de vacunas que podrían ser requeridas durante el periodo. Se requiere, entonces un valor para x, por ejemplo xa, a la derecha de la gráfica de P(x) tal que la probabilidad de que la demanda exceda a xa sea suficientemente pequeña. El encontrar el valor xa de vacunas que deben mantenerse almacenadas sería relativamente sencillo si se conociese P(x), ya que podría ir evaluando P(x ≥ xa) para valores cada vez más grandes de xa hasta lograr que dicha probabilidad fuese suficientemente pequeña. Si P(x) no es conocida, una medida de su dispersión podría satisfacernos. Esta medida permitirá encontrar aproximadamente el valor xa. Sea x una variable aleatoria discreta con distribución de probabilidad P(x) y valor esperado E(x) = µ . La varianza de la distribución de probabilidad P(x) (o de la variable aleatoria x) es, V ( X ) = σ 2 = E ( xi − µ ) = ∑ ( xi − µ ) P ( xi ) 2

2

en donde la suma se extiende sobre todos los valores de la variable aleatoria x. o

V ( X ) = E [ X − E ( X )] g ( X ) = ( X − µ)

[

E ( X − µ)

Asimismo

2

2

2

] =V (X )

V ( X ) = E[ X − E ( X )]

2

[

= E X 2 + 2 XE ( X ) + ( E [ X ] )

2

]

= E ( X 2 ) − E ( X ) E ( X ) + ( E [ X ]) 2 = E ( X 2 ) − [ E ( X )]

2

La desviación estándar de una variable aleatoria es la raíz cuadrada de su varianza. Para una distribución continua: 29



σ 2 = ∫ ( x − µ) 2 f ( x )dx −∞

Eje. Encuentre la varianza de la población asociada al ejemplo del lanzamiento de dos monedas. El valor esperado de x en este ejemplo se encontró ser igual a 1. La varianza es igual al valor esperado de (x - µ )2 , esto es E (x - µ )2 =

∑ (x - µ )2 P(x)

= (0-1)2 P(0) + (1-1)2 P(1) + (2-1)2 P(2) = (1)(1/4) + (0)(1/2) + (1)(1/4) = ½ std. = √1/2 = 0.707 Eje. En un estudio sobre la movilidad de los ejecutivos en el área de compras, se encontró que la distribución que se describe a continuación con suficiente aproximación a la distribución de probabilidad de x, los números de compañías en las que un ejecutivo actualmente empleado ha prestado sus servicios como jefe de compras. x P(x)

1 0.52

2 0.22

3 0.19

4 0.04

5 0.03

Encuentre la media y la desviación estándar de x. La media es igual a E(x) = ∑ x P(x) = (1)(0.52) + (2)(0.22) + (3)(0.19) + (4)(0.04) + (5)(0.03) = 1.84 La varianza es igual al valor esperado de (x - µ )2, esto es σ2 = E(x - µ )2 = (1-1.84)2(0.52) + (2-1.84)2(0.22) + (3-1.84)2(0.19) + (4-1.84)2(0.04) + (5-1.84)2(0.03) = 1.1144 La desviación estándar de la distribución es σ = √ 1.1144 = 1.055 La media µ = 1.84 y la desviación estándar σ = 1.055 se pueden utilizar junto con el teorema de Tchebysheff para describir la distribución de probabilidad del número de compañías en las que un ejecutivo actualmente empleado ha prestado sus servicios en el área de compras. Eje. El gerente de una planta industrial planea adquirir una nueva máquina del tipo A o B. Si t denota el número de horas de funcionamiento diario, y el número de reparaciones diarias X1 que se tienen que hacer a una máquina del tipo A es una variable aleatoria con una media y una varianza iguales a 0.10t. La cantidad de reparaciones diarias X2 que requiere una máquina del tipo B constituye una variable aleatoria con una media y una varianza iguales a 0.12t. El costo diario de operación de la 30

máquina tipo A es de C A (t ) = 10 t + 30 X 12 , el de la tipo B es de C B (t ) = 8t + 30 X 22 . Suponga que las reparaciones toman un mínimo de tiempo, y que cada noche las máquinas se alternan de tal manera que funcionen como nuevas al comienzo del siguiente día ¿Cuál de ellas reduce al mínimo el costo diario esperado si un día laboral consta de a) 10 horas y b) 20 horas? El costo diario esperado para la máquina A es de:

[

]

E [ C A (t )] = E 10t + 30 X 12 = 10t + 30 E ( X 12 )

{

= 10t + 30 V ( X 1 ) + [ E ( X 1 )]

2

} = 10t + 30[0.1t + (0.1t ) ] 2

= 13t + 0.3t 2

De la misma manera:

[

]

E [ C B (t )] = E 8t + 30 X 22 = 8t + 30 E ( X 22 )

{

= 8t + 30 V ( X 2 ) + [ E ( X 2 )]

2

} = 8t + 30[0.12t + (0.12t ) ] 2

= 11.6t + 0.432t 2

Por lo tanto, para a) donde t = 10

E [ C A (10)] = 160

y

E [ C B (10)] = 159.2

y

E [ CB (20)] = 404.8

Para el inciso b) donde t = 20,

E [ C A (20)] = 380

En resumen, las máquinas tipo B son más económicas en periodos cortos debido a su reducido costo de operación por hora. Sin embargo, en periodos largos son más económicas las tipo A, ya que tienden a requerir reparaciones con menos frecuencia. Eje. Cien empleados de una empresa tienen salarios anuales cuyo promedio es 22, desviación estándar 3, y mediana 20. Con ayuda del teorema de Tchebyshev, válido para datos de muestras, determinar un intervalo que contenga por lo menos el 75% de los salarios. ¿Qué interpretación se puede dar a la media del salario? El teorema de Tchebyshev establece que por lo menos (1 – 1/k2) de las mediciones deben estar dentro de k desviaciones estándar de su promedio. Para k = 2, 1 – 1/k2 = 1 – ¼ = ¾ o 75%. Ahora bien, x = 22 y s = 3; y x ± 2s da como resultado 22 ± 6. Al menos, el 75% de los sueldos deben estar entre 16 y 28 inclusive. La mediana de 20 nos dice que el 50% de los sueldos debe ser menor que 20. Con estos datos se podría deducir que de los 100 originales hay muchos salarios, pero no más del 50%, en el intervalo de 16 a 20.

31

Eje. Un proveedor de petróleo tiene un tanque de 200 galones lleno al principio de cada semana. Sus demandas semanales tienen un comportamiento de frecuencia relativa que aumenta constantemente hasta llegar a 100 galones, y a continuación permanece igual entre 100 y 200 galones. Si X representa la demanda semanal en cientos de galones, suponer que las frecuencias relativas de la demanda se modelan en forma adecuada mediante:  0 x  f ( x) =  1 / 2   0

x 2

Calcular F(b) para esta variable aleatoria. Usar F(b) para calcular la probabilidad de que la demanda sea mayor de 150 galones en determinada semana.

F (b) =



b

−∞

0   b 2  ∫− ∞xdx = b / 2 f ( x)dx =  b  ∫1 (1 / 2) dx = 1 / 2 (b − 1)  1   1 / 2 + (b − 1) / 2 = b / 2 F (b) =  1

si x < 0 si 0 ≤ x ≤ 1 si1 ≤ x ≤ 2 si x > 2

12

La gráfica de esta función es una línea continua, aun cuando f(b) tenga dos discontinuidades. La probabilidad de que la demanda supere los 150 galones es P(X >1.5) = 1 – P(X≤ 1.5) = 1 – F(1.5) = 1 – 1.5/2 = 0.25 Eje. Sea X el porcentaje del tiempo que trabaja un torno en un taller de maquinaria, de una semana de trabajo de 40 horas, que es el tiempo que debería trabajar el torno. Supóngase que X tiene una función de densidad de probabilidad dada por

32

3x 2 f ( x) =  0

0 ≤ x ≤1 c.o. p

Calcular el promedio y la varianza de X. ∞

E ( x) = ∫

−∞

1

xf ( x) dx = ∫ x (3x 2 ) dx = 0.75 0

Así, en promedio, el torno se usa el 75% del tiempo. ∞

1

−∞

0

E ( x 2 ) = ∫ x 2 f ( x )dx = ∫ x 2 (3 x 2 ) dx =

2 = 0.60 5

Entonces V ( x) = E ( x 2 ) − µ2 = 0.60 − (0.75 ) 2 = 0.0375 Eje. La cantidad semanal Y invertida en sustancias químicas en una empresa tiene una media de $445 y una varianza de $236. ¿Dentro de qué intervalo se debe esperar que queden los costos semanales de productos químicos cuando menos el 75% de las veces? Para determinar un intervalo que garantice contener cuando menos el 75% de la masa de probabilidad para Y, se obtiene 1 – 1/k2 = 0.75;

k=2

Así, el intervalo µ - 2σ a µ + 2σ contendrá por lo menos el 75% de la probabilidad. Este intervalo está dado por 445 ± 2 236 = 445 ± 30.62. Eje. La oficina meteorológica clasifica el tipo de cielo que es visible en relación con los grados de nubosidad. Se usa una escala con 11 categorías: 0, 1, 2, ..., 10, en donde 0 representa un cielo perfectamente claro, 10 representa un cielo completamente cubierto, mientras que los otros valores representan diversas condiciones intermedias. Supongamos que tal clasificación se hace en una estación meteorológica determinada en un día y hora determinados. Sea X la variable aleatoria que toma uno de los 11 valores anteriores. Supongamos que la distribución de probabilidades de X es po = p10 = 0.05; p1 = p2 = p8 = p9 = 0.15 p3 = p4 = p5 = p6 = p7 = 0.06 Por tanto E(X) = 1(0.15) + 2(0.15) + 3(0.06) + 4(0.06) + 5(0.06) +6(0.06) + 7(0.06) + 8(0.15) + 9(0.15) + 10(0.05) = 5.0 E(X2) = 1(0.15) + 4(0.15) + 9(0.06) + 16(0.06) + 25(0.06) +36(0.06) + 49(0.06) + 64(0.15) + 81(0.15) + 100(0.05) = 35.6 V(X) = E(X2) – (E(X))2 = 35.6 – 25 = 10.6

33

Eje. Supongamos que X es una variable aleatoria continua con fdp 1 + x f ( x) =  1 − x

−1 ≤ x ≤ 0 0 ≤ x ≤1

Debido a la simetría de la fdp, E(X) = 0. Más aún, 0

1

−1

0

E ( X 2 ) =∫ x 2 (1 + x ) dx + ∫ x 2 (1 − x ) dx =1 / 6

por lo tanto V(X) = 1/6. Propiedades de la varianza de una variable aleatoria. 1. Si C es una constante, V(X + C) = V(X) 2. Si C es una constante, V(CX) = C2V(X) 3.

Sean X1, X2, ..., Xn n variables aleatorias independientes. Entonces V(X1 + X2 + ... + Xn) = V(X1) + V(X2) + .... + V(Xn)

4. Sea X una variable aleatoria con varianza finita. Luego para cualquier número real a, V(X) = E[(X – a)2] – [E(X) – a]2 Demostración:

34

V ( X +k ) =∑( xi +k ) 2 f ( xi ) −µX2 +k

=∑xi f ( xi ) +2k ∑xi f ( xi ) +k 2 ∑ f ( xi ) −( µX +k ) 2 2

=∑xi f ( xi ) +2kµX +k 2 −( µX2 +2kµX +k 2 ) 2

=∑xi f ( xi ) −µX2 =V ( X )

2 V ( kX ) =∑( kx i ) 2 f ( xi ) −µkX =k 2 ∑xi f ( xi ) −( kµX ) 2 2

=k 2 ∑xi f ( xi ) −k 2 µX2 =k 2 2

( ∑x

i

2

)

f ( xi ) −µX2 =k 2V ( X )

V ( X +Y ) =∑( xi + y j ) 2 h( xi , y j ) −µX2 +Y i, j

=∑xi 2 h( xi , y j ) +2∑xi y j h( xi , y j ) +∑ y j h( xi , y j ) −( µX + µY ) 2 2

i, j

= ∑xi

i, j

2

i

i, j

f ( xi ) +2∑xi f ( xi )∑ y j g ( y j ) + ∑ y j g ( y j ) −µX2 − 2 µX µY −µY2 2

i

j

j

=∑xi f ( xi ) −µ +∑ y j g ( y j ) −µ = V ( X ) +V (Y ) 2

i

2

2 X

2 Y

j

Para dos variables aleatorias X e Y no necesariamente independientes: σ 2 ( X + Y ) = σ 2 ( X ) + σ 2 (Y ) + 2 cov( X , Y )

Se llama covarianza de dos variables aleatorias X e Y a la expresión cov( X , Y ) = E{ ( X − µ X )(Y − µ Y )}

= ∑ ( xi − µ X )( y j − µ Y ) P ( xi , y j ) i, j

Otra forma de la covarianza, E{ ( X − µ X )(Y − µY )} = E{ XY − µ X Y − µY X + µ x µY } , es

que

se

obtiene

desarrollando

cov( X , Y ) = E ( XY ) − E ( X ) E (Y )

De aquí se deduce que, en el caso de variables aleatorias dependientes E ( XY ) = E ( X ) E (Y ) + cov( X , Y )

El término covarianza hace referencia a una variación conjunta de las variables que entran en juego. Que dos variables varíen de forma conjunta significa que las variaciones que experimenta cualquiera de ellas son parejas o solidarias con las variaciones que experimenta la otra. En particular, si X e Y son independientes, se verifica cov( X , Y ) = 0

4.8 Transformación de variables. 35

Suponer que se transforman las mediciones x1, x2, ..., xn, a otras mediciones y1, y2, ..., yn mediante yi = a xi + b Si x1, ..., xn tienen el promedio x y la variancia s2x entonces es fácil demostrar que y1, ..., yn tienen promedio y y variancia s2y dados por y =a x +b

y por s2y = a2 s2x Eje. Es importante para una estructura sencilla de un andamio de acero, estudiar el aumento de la longitud de los miembros que trabajan a tensión bajo carga. Para una carga de 2,000 Kg., diez miembros iguales que trabajan a tensión mostraron aumentos de longitud como sigue (mediciones en centímetros): 2.5

2.2

3.0

2.1

2.7

2.5

2.8

1.9

2.2

2.6

(a) Calcular la media y la desviación estándar de esas mediciones. (b) Suponer que las mediciones se hubieran tomados en metros, y no en centímetros. Determinar el promedio y la desviación estándar de las mediciones correspondientes en metros. El promedio es

x = 1/10 (2.5 + 2.2 + ... + 2.6) = 2.45 y la variancia es s

2 x−

2  1 n  1  n 2 1  n   2 = ∑ ( xi − x ) =  ∑ xi −  ∑ xi   n  i =1    n − 1  i =1  n − 1  i =1

=

y

1 1 2 61.09 − ( 24 .5)  = 0.1183  9 10 

sx = 0.34 Si yi representa la medición correspondiente en metros, entonces yi = 0.01xi Se infiere que 10

∑y i =1

i

10

10

i =1

i =1

= ∑0.01 xi = 0.01∑ xi

y = (0.01 ) x =0.01 ( 2.45 ) = 0.0245

36

y 2

10 1 10 1 10 2 2 21 s = ∑ ( 0.0 1xi − 0.0 1x ) = ∑ (0.0 1) ( xi − x ) = (0.0 1) ∑ ( xi − x )2 = (0.0 1)2 sx2 9 1= 1 9 i= 1 9 i= 1 2 y

sy = (0.01)sx = (0.01)(0.34) = 0.0034. 4.9 Momentos de una variable aleatoria. Los parámetros µ y σ son medidas numéricas descriptivas importantes que localizan el centro y describen la dispersión relacionada con los valores de una variable aleatoria X. Sin embargo, no proporcionan una representación única de la distribución X. Muchas distribuciones distintas poseen las mismas medias y desviaciones estándar. Ahora analizaremos un conjunto de medias numéricas descriptivas que (por lo menos en condiciones generales) determinan de forma única a p(x). Se llaman momentos a las esperanzas de algunos tipos importantes de funciones. El nombre viene debido a cierta analogía con los momentos en física, suponiendo que las cantidades de f(x) fuesen masas discretas de puntos que actúan de manera perpendicular al eje X se ha introducido en probabilidad y estadística el término momento. Sea X una variable aleatoria y sea Y = g(X) otra variable aleatoria función de X. Se calcula la esperanza o valor esperado de Y como E (Y ) = E [ g ( X )] = ∑g ( xi ) P ( xi )

E (Y ) = E [ g ( X )] = ∫



−∞

si X es discreta

f ( x ) f ( x ) dx

si X es continua

Tiene especial interés el caso en que g(x) = xk, para k = 1, 2, 3, ..... El r-ésimo momento inicial (también llamado r-ésimo momento aleatorio alrededor del origen) de la variable aleatoria X, representado por µr , es el valor esperado de Xr, es decir, µ r = E X r , r ∈ N. Evidentemente, el primer momento inicial de una variable aleatoria es su media o valor esperado, esto es: µ r = E ( X ) = µ .

( )

El r-ésimo momento central (o momento alrededor de la media) de una variable aleatoria X, representado por

µ r * , se define como sigue:

[

µr * = E ( X − µ ) En particular

σ 2 = µ 2 *.

r

]

Existe también el llamado r-ésimo momento absoluto, aunque es poco común, el cual es igual al résimo momento inicial de la variable aleatoria h(X) = |X|. Los momentos centrales pueden expresare en términos de los momentos iniciales (o del origen) mediante la siguiente relación 37

r  k 

µr* = ∑(−1) k  µk µr −k ,

k = 0,1,2,...

Si el primer momento central existe, debe ser necesariamente cero µ1* = 0 ; por otra parte, el segundo momento central de una variable aleatoria X se denomina varianza (si es que existe), y se denota por V ( X ) = σ 2 = E ( X − µ ) 2 . La raíz cuadrada no negativa de la varianza se llama desviación estándar.

[

]

Es muy fácil probar que, tanto para una variable aleatoria discreta como para una continua, se cumple la relación:

σ 2 = µ2* = µ2 − µ 2 esto es:

[

E ( X − µ)

2

]=σ

2

= E( X 2 ) − µ 2

Lo anterior se generaliza como sigue:

[ ] = E ( X ) − 3µE ( X ) + 2µ E [( X − µ ) ] = E ( X ) − 4µE ( X ) + 6µ E ( X ) − 3µ E ( X − µ)

3

3

2

3

4

4

3

2

2

4

y así sucesivamente. Una condición necesaria, pero no suficiente, para que la gráfica de una función de densidad de probabilidad sea simétrica con respecto a la perpendicular del eje X trazada en la media, es que el tercer momento central sea cero. En otras palabras, si la gráfica de f(x) es simétrica con respecto a la media, entonces µ3* = 0 , pero lo recíproco no siempre es verdad. Cuando la gráfica de f(x) no es simétrica con respecto a la media, entonces se llama sesgada. Si X es una variable aleatoria, entonces el sesgo (o asimetría) de X se denota por cualquiera de los símbolos siguiente: α 3 = γ , β3 Y se define en términos del tercer momento central:

1 µ 3* 3 α 3 = γ = 3 E( X − µ ) = 3 σ σ Si γ = 0, la gráfica de f(x) es perfectamente simétrica respecto de la media, si γ es positiva, la gráfica presenta una especie de cola alargada del lado derecho; mientras que si γ es negativa, entonces la gráfica presenta una cola notoria del lado izquierdo. El motivo para definir el sesgo mediante γ, en lugar de hacerlo directamente con µ3* estriba en que γ es independiente de las unidades de medición, mientras que el tercer momento central µ3* no lo es.

38

En particular, γ 1 se llama tipificación de la variable X, γ 3 es el sesgo, α4 = κ es el Kurtossis (o exceso)

α4 = κ =

1 µ 4* 4 ( ) E X − µ = σ4 σ4

La magnitud κ = α4 proporciona un indicador de qué tan “picuda” es la gráfica de la función de densidad f(x). Mientras mayor sea la cantidad, tanto más picuda o pronunciada será la cresta en la gráfica de f(x). Es pertinente señalar, sin embargo, que la Kurtossis de una distribución es poco usual, por considerarse que la interpretación que se tiene de ella es vaga y de valor dudoso. Eje. El diámetro (en centímetros) de unos balines metálicos para uso industrial, es una variable aleatoria continua x, cuya función de densidad esta dada por: 2cx − cx 2 − 0.99 c f ( x) =  0, 

a) b) c) d) e)

0.9 < x < 1.1 c.o. p.

Obtenga el valor de la constante c. La media. Halle la varianza y la desviación estándar. Mediana. La moda.

a) 1.1

∫c (2 x − x

2

− 0.99 ) dx = 1

0 .9

1 .1

c ∫(2 x − x 2 − 0.99 ) dx = 1 ∴c[ x 2 − 0.9

x3 − 0.99 x ]10..19 = 1 3

(1.1)3 (0.9)3 − 0.99 (12 .1) − (0.9) 2 + + 0.99 (0.9)] = 1 3 3 .0013333 c = 1 c = 750 c[(1.1) 2 −

b)

1.1

2 x 3 x 4 0.99 x 2  µ = c ∫ x ( 2 x − x − 0.99 ) dx = c ∫ (2 x − x − 0.99 x ) dx = 750  − −  4 2 0.9  3 0.9 0.9 1.1

1.1

2

2

3

2(1.1)3 (1.1) 4 0.99 (1.1) 2 2(0.9)3 (0.9) 4 0.99 (0.9) 2  = 750  − − − + +  =1 4 2 3 4 2  3  µ =1

c)

39

1.1

 2 x 4 x 5 0.99 x 3  2 σ = ∫ x f ( x ) dx − µ = c ∫ (2 x − x − 0.99 x ) dx − µ = c  − −  −µ 4 5 3  0.9 2

2

2

3

4

2

2

 2(1.1) 4 (1.1)5 0.99 (1.1)3 2(0.9) 4 (0.9)5 0.99 (0.9)3  = 750  − − − + +  −1 5 3 4 5 3  4  2 −3 σ =2

σ = 2−3 = 0.04472

d)

x

x x   t3 me = c ∫( 2 x − x 2 − 0.99 ) dx = c ∫( 2t − t − 0.99 ) dt = 750 t 2 − − 0.99 t )  3  0.9 0.9 0.9 igualamos = 1 / 2 ∴

x3 97 − 0.99 x + =0 3 300 soluciones : x1 = 0.8267 x2 −

x2 = 1 x3 = 1.173

Con estos resultados podemos observar que x 1 y x3 no pueden ser considerados dado que se encuentran fuera de los limites señalados y por lo tanto la solución es: me = 1 e) f ( x ) = c( 2 x − x 2 − 0.99 ) = 0 f ´( x) = c[ 2 − 2 x] = 0 2 −2 x = x =1 mo =1

Una gráfica de esta función y =1500 x − 750 x 2 − 742 .5 es: grafica de y=1500x-750x2-742.5 8 7 6

y

5 4 3 2 1 0 0.9

0.95

1

1.05

1.1

1.15

x

40

Teorema de Chébyshev. En el siglo XIX, el matemático ruso Pafnuty L. Chébyshev (1821-1894) obtuvo una importante desigualdad que asegura lo menos que puede valer la probabilidad de que una variable aleatoria cualquiera (discreta o continua) asuma un valor dentro de k desviaciones estándar alrededor de la media ( k > 1). Aunque la garantía mínima propuesta por Chébyshev no siempre es precisa al compararla con el valor verdadero, la ventaja de este teorema es su gran generalidad, pues es aplicable a cualquier variable aleatoria con cualquier distribución de probabilidad, ya sea discreta o continua, y generalmente es útil cuando la distribución de probabilidad es desconocida. El teorema de Tchebysheff. Dados un número k, y un conjunto de observaciones x 1, x2, ...., xn, al menos (1 - 1/k2) de las observaciones caen dentro de k desviaciones estándar de la media. La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones estándar de la media es al menos 1 – 1/k2. Es decir. P ( µ − kσ < X < µ + kσ ) ≥1 −

1 k2

1 k2

P ( X − µ ≤ kσ ) ≤

o

Dem. Por la definición de varianza de X podemos escribir σ2 = E [( X − µ) 2 ] +∞

=∫ ( x − µ) 2 f ( x) dx −∞

µ−kσ

=∫

−∞

µ−kσ

≥∫

−∞

µ+kσ

( x − µ) 2 f ( x ) dx + ∫

µ−kσ



( x − µ) 2 f ( x ) dx +∫

µ+kσ



( x − µ) 2 f ( x ) dx +∫

µ+kσ

( x − µ) 2 f ( x ) dx

( x − µ) 2 f ( x ) dx

debido a que la segunda de las tres integrales es no negativa. Ahora bien, como

cualquier

 ( − ( x − µ ) ≤ kσ ≤ ( x − µ )   x ≥ µ + kσ     − x + µ ≤ kσ − x ≤ kσ − µ x ≥ µ − kσ 

x ≥ µ + kσ o x ≤ µ − kσ ,

x −µ ≥ kσ

tenemos

para

que

( x − µ) 2 ≥ k 2σ 2 en ambas integrales. Se sigue que µ−kσ

σ2 ≥ ∫−∞



k 2σ2 f ( x ) dx + ∫

µ+kσ

k 2σ2 f ( x ) dx

y que µ −kσ



−∞



f ( x) dx + ∫

µ +kσ

f ( x )dx ≤

1 k2 41

De aquí P ( µ − kσ < X < µ + kσ ) = ∫

µ + kσ

µ − kσ

f ( x )dx ≥1 −

1 . k2

El teorema de Tchebysheff se refiere a cualquier conjunto de observaciones, por lo tanto se puede aplicar tanto a una muestra como a la población independientemente de que el histograma de probabilidades tenga o no forma de campana. Los resultados del teorema son muy conservativos en el sentido de que la probabilidad real de que X se localice en el intervalo µ ± kσ por lo común rebasa la 1 cota o límite inferior par la probabilidad, 1 − 2 , por una cantidad considerable. k Eje. La cantidad de clientes que llega cada día aun mostrador, X, observada por un periodo prolongado tiene una media de 20 y una desviación estándar de 2. Se desconoce la distribución de probabilidad ¿Qué se puede decir de la probabilidad de que, mañana, X esté entre 16 y 24? Deseamos calcular P (16 < X < 24 ) , del teorema de Chebyshev, sabemos que, para cualquier 1 k ≥ 0 , P ( µ − kσ < X < µ + kσ ) ≥1 − 2 , Como µ = 20 y σ = 2 , se infiere que µ − kσ = 16 y k µ + kσ = 24 si k = 2. Por lo tanto, P(16 < X < 24) = P[ ( µ − 2σ ) < X < ( µ + 2σ ) ] ≥ 1 −

1 3 = 22 4

En otras palabras, la cantidad total de clientes que llegará mañana estará entre 16 y 24 con una probabilidad al menos de ¾. Eje. La función de distribución acumulada exponencial es 0 F ( x) =  −x 1− e

si x < 0 si x ≥ 0

La función de distribución de probabilidades es f(x) = e-x, x ≥ 0. Así, para esta distribución ∞

µ1 = ∫0 xe −x dx = 1 ∞

µ2 = ∫ x 2e −x dx = 2 0



µ3 = ∫ x 3e −x dx = 6 0



µ4 = ∫ x 4e −x dx = 24 0

Por consiguiente

42

V ( X ) = µ2 − µ12 = 1

σ =1 µ4* = µ4 − 4µ3 µ1 + 6 µ2 µ12 − 3µ14 = 24 − ( 4)( 6)(1) + 6( 2)(1) − 3 = 9

α4 = 9.

Eje. Suponga que los editores de la revista Playboy desean aumentar sus suscriptores. Para ello, envían cartas (o mensajes por e-mail) a un número aleatorio de personas, invitándolas a suscribirse con ciertas ventajas. De las personas que reciben esa correspondencia, un gran número ni siquiera la leen y la tiran a la basura, pero otros la leen y responden. Supongamos que la proporción de personas que responden a la invitación (0 = 0%, 1 = 100%) es una variable aleatoria (continua) X, cuya función de densidad de probabilidad está dada por:

 2( x + 2)  , si 0 ≤ x ≤ 1 f ( x) =  5  c.o. p  0, a) Verifique que, en efecto, f(x) es una función de densidad de probabilidad. b) Encuentre la distribución acumulada de probabilidad F(x). c) Calcule la probabilidad de que entre 30 y 60% de personas que reciben la correspondencia, la respondan. d) Encuentre el porcentaje esperado (media) de personas que responderán a la invitación. e) Determine la varianza y la desviación estándar de la variable aleatoria X. f) Calcule el coeficiente de sesgo. ∞



−∞

1

 2( x + 2) 2 x2 2 1  dx =  +2 x    = 5  2 +2  =1 0 5 5 2   0 1

f ( x) dx = ∫

x

x

F ( x) = ∫

x

−∞

f (t )dt = ∫

0

  x 2 +4 x 2(t +2) 2 t 2 2 x2 dt =  + 2t  =  +2 x  , x ∈[0,1]    = 5 52 5 5 5 0 

F (0.6) −F (0.3) = 0.552 −.258 = 0.294 ∞

µ = E ( X ) = ∫−∞ xf ( x) dx = =

2 x3  +x 2 5 3 

2 5

1

∫ x( x +2)dx 0

∫(x 1

0

3

1

∫(x 0

2

+ 2 x ) dx

1



2 5

2 5

 2 1 8    = 5  3 +1 = 15 ≈ 53 .3%   0

+2 x

)

2

2

2 1 2 8  x ( x + 2) dx −  ∫ 0 5 15  64 37 − = ≈ 0.08222 225 450

σ 2 =V ( X ) = ∫−∞ x 2 f ( x ) dx − µ2 = =

=

La desviación estándar es, σ=

37 ≈ 0.286744 450 43

[

]

( x − µ) 3 f ( x)dx = 2 ∫0  x − −∞ ∞

µ3* = E ( X − µ ) 3 = ∫

1

5

11 ≈ −0.003259 ; 3375 µ* 968 22 luego γ = α3 = 33 = − =− σ 50653 37



3

8   ( x + 2) dx 15 

=−

2 ≈ −0.13824 37

De antemano sabíamos que el sesgo debe ser negativo, ya que se trata de una línea recta con pendiente positiva y, por tanto, la cola de la gráfica aparece pronunciada en el lado izquierdo. Eje. Un padre le da a su hijo una cantidad variable de dinero diario para sus gastos en la escuela. Suponga que el señor deja el asunto al azar; en cada uno de tres papeles pequeños escribe “20 pesos”, en cada uno de otros cinco papeles anota “10 pesos” y en cada uno de otros siete papeles escribe “5 pesos”. Dobla los 15 papeles y los mete en un frasco. Su hijo debe sacar al azar cuatro papeles del frasco cada mañana (sin reposición) y le dará la cantidad que sumen ese día para sus gastos en la escuela. Si T es la variable aleatoria que representan el total de dinero que el niño se lleva cada día a la escuela: a) b) c) d) e)

Halle la distribución de probabilidad de T en forma de una tabla. Calcule la media o valor esperado de T. Encuentre la varianza y la desviación estándar. Haga el dibujo de un histograma que represente la distribución de probabilidad de T. Averigüe qué tan útil puede ser la desigualdad de Chébyshev para estimar la probabilidad mínima de que el niño se llevará más de $20, pero menos de $55. (Sugerencia: tome el intervalo desde 25 hasta 52.333).

Es fácil convencerse de que existen 14 combinaciones de monedas (ver tabla adjunta),

1 2 3 4 5 6 7 8 9 10 11 12 13 14

$20 (3) 0 0 0 0 1 0 1 1 1 2 2 2 3 3

$10 (5) 0 1 2 3 0 4 1 2 3 0 1 2 0 1

$5 (7) 4 3 2 1 3 0 2 1 0 2 1 0 1 0

t($) 20 25 30 35 35 40 40 45 50 50 55 60 65 70

f(t) 1/39 5/39 2/13 2/39 1/13 1/273 3/13 2/13 2/91 3/65 1/13 2/91 1/195 1/273

pero sólo 11 sumas distintas de dinero que el niño puede llevarse ello se debe a que hay tres sumas de dinero ($35, $40, $50) que pueden obtenerse de dos maneras distintas. 44

Tenemos que calcular las probabilidades respectivas en esas 11 cantidades, usando la fórmula para ensayos sin reposición. Por ejemplo, la probabilidad de que se lleve 35 pesos está dada por:  3  5  7   3  5  7          2 1 5  0  3  1  1  0  3  + = + = 39 13 39 15  15      4 4

De esta manera encontramos, uno por uno, los valores de f(t) para cada uno de los 11 números posibles de la variable aleatoria T, que representa el total de dinero que se lleva el niño cada día. Por tanto, la distribución de probabilidad de la variable aleatoria T es la siguiente: ti pi

20 1/39

25 5/39

30 2/13

35 5/39

40 64/27 3

45 2/13

50 31/45 5

55 1/13

60 2/91

65 70 1/195 1/273

Podemos obtener la media o valor esperado de:  1   5  2  5   64  2  31  1 µ = 20  + 25  + 30  + 35  + 40  + 45  + 50   + 55   39   39   13   39   273   13   455   13  2  1   1  116 + 60   + 65 ≈ 38 .6667  + 70  = 3  91   195   273 

Esto significa que, en promedio, el niño se lleva a la escuela aproximadamente $38.70. La varianza es el segundo momento central de orden 2:  

σ 2 =  20 −

2

2

2

2

116  1  116  5  116  2  116  5 +  25 − +  30 − +  35 − +     3  39  3  39  3  13  3  39 2

2

2

2

116  64  116  2  116  31  116  1  +  45 − +  50 − +  55 − +  40 −     3  273  3  13  3  455  3  13  2

2

2

116  2  116  1 116  1 6248   +  65 − +  70 − = ≈ 99 .1746  60 −    3  91  3  195  3  273 63 

Por consiguiente, la desviación estándar es: σ=

6248 ≈ 9.958645 ≈ $10 . 63

Una desviación estándar de casi $10 es considerable. ¿Qué significa? Significa que existe bastante dispersión de los valores de T alrededor de la media, es decir, que las cantidades que el niño se lleva en realidad a la escuela son bastante heterogéneas. El histograma es.

45

Barchart for Col_2

frequency

0.24 0.2 0.16 0.12 0.08 0.04 0 20

25

30

35

40

45

50

55

60

65

70

El teorema de Chébyshev proporciona la garantía de que para cualquier k > 1 ocurre que 1 P( µ − kσ < X < µ + kσ ) ≥ 1 − 2 . Empero, para variables aleatorias discretas, la desigualdad de k Chébyshev sólo es aplicable en casos excepcionales, porque deberíamos tener mucha suerte para que ambos µ − kσ y µ + kσ estuviesen en el dominio de definición de X. En este caso, es fácil convencerse de que ningún valor de k > 0 produce el efecto deseado, porque si hubiese números naturales n, m tales que µ − kσ = n , y µ + kσ = m , necesariamente se llegaría a m−

116 116 232 = −n ⇒ m +n = , lo cual es imposible. Además, la condición k > 1 nos obliga a tomar 3 3 3

n < 28.67 y m > 48.67. Mediante el intervalo 25 < X < 52 1/3 como una aproximación del intervalo 20 < X < 55, entonces sí es posible emplear la desigualdad de Chébyshev. Tenemos así dos ecuaciones de primer grado: 116 6248 −k = 25; 3 63

116 6248 1 157 +k = 52 = 3 63 3 3

Resolviendo cada una de estas ecuaciones, obtenemos, como era de esperarse, el mismo valor: k=

41 2

1562 7

lo cual significa que, en efecto, el intervalo tiene su centro en la media. Por tanto, la estimación mínima, según el teorema de Chébyshev, es: 1−

1 6248 5519 =1− = ≈ 0.4690 2 k 11767 11767

Para obtener el valor exacto, se calcula primero la distribución acumulada de probabilidad F(x) mediante una tabla y se evalúa F(50) – F(25). Eje. En la teoría de fiabilidad de los dispositivos automáticos, la fiabilidad de un elemento o de un sistema se caracteriza por la llamada intensidad media de fallos λ(t), la cual representa una función de tiempo tal, que siendo multiplicada por dt, ofrece (con exactitud de infinitesimales de orden superior) la probabilidad condicional del fallo del elemento en el intervalo de tiempo (t, t + dt),

46

suponiendo que hasta el momento t el elemento funcionaba normalmente. Conociendo la función λ(t), se puede hallar la ley de distribución de la duración de servicio. Para hallar la ley de distribución de la duración de servicio del elemento T, examinemos dos acontecimientos: A (buen funcionamiento del elemento hasta el momento t) y B (fallo del elemento en el intervalo de tiempo (t, t + dt)). Es evidente que el acontecimiento B no puede suceder sino junto con el acontecimiento A, porque el elemento puede fallar en el intervalo de tiempo (t, t + dt) solamente en el caso de funcionar bien hasta el momento t. Por eso P(B) = P(A∩B), y basándonos en el principio de multiplicación de probabilidades, podemos escribir P ( B ) = P ( A) P ( B | A)

Designemos las funciones incógnitas de distribución y la densidad de probabilidad de la duración de servicio del elemento T por F(t) y f(t) respectivamente.La probabilidad del acontecimiento B es igual, con exactitud hasta infinitesimales de segundo orden, al elemento de probabilidad correspondiente: P ( B ) = P (t < T < t + dt ) = f (t ) dt = F (t ) dt

La probabilidad del acontecimiento A se expresa por medio de la función de distribución de la duración de servicio del elemento T. P ( A) = P (T ≥ t ) =1 − P (T < t ) =1 − F (t )

Por fin, la probabilidad condicional P(B|A) se expresa por la intensidad media de fallos del elemento λ(t): P ( B | A) = λ(t ) dt

Sustituyendo las expresiones obtenidas, obtendremos después de dividir ambos miembros por dt, la ecuación diferencial para la función de distribución F(t): F ′(t ) = [1 − F (t )]λ(t )

Dado que la duración de servicio del elemento no puede ser negativa, el acontecimiento T < 0 es imposible y, por lo tanto F(0) = 0. Integrando la ecuación anterior, con la condición inicial de que F(0) = 0, hallamos la función de distribución de la duración de servicio del elemento: t

− λ( t ) dt F (t ) =1 −e ∫0

De aquí, por derivación, hallamos la densidad de probabilidad de la duración de servicio del elemento: t

− λ( t ) dt f (t ) =λ(t )e ∫0

En el caso particular, de que la intensidad de fallos λ(t ) = λ sea constante, se tiene F (t ) = 1 − eλt

f (t ) = λe −λt 47

De este modo, siendo constante la intensidad de fallos λ, la duración de servicio de un elemento está subordinada a la ley exponencial de distribución, lo que explica el gran papel que dicha ley desempeña en la teoría de fiabilidad de los sistemas automáticos. Eje. Para los mismos datos del ejemplo anterior, hallar la probabilidad condicional de que el elemento falle en el intervalo de tiempo (t1, t2) suponiendo que funcione bien hasta el momento t1. Examinemos dos acontecimientos: A (el funcionamiento normal del elemento hasta el momento t1, y B (el fallo del elemento en el intervalo de tiempo (t1, t2)). De P ( B ) = P (t1 < T < t 2 ) = F (t2 ) − F (t1 ) P ( A) = P(T ≥ t1 ) = 1 − P(T < t1 ) = 1 − F (t1 )

Sustituyendo estas expresiones en P ( B ) = P ( A) P ( B | A) y tomando en cuenta que en el caso dado el acontecimiento B no puede producirse sino junto con el acontecimiento A, hallaremos la probabilidad buscada de que falle el elemento en el intervalo de tiempo (t 1, t2) a condición de que hasta el momento t1 haya funcionado bien: P ( B | A) =

P ( A ∩ B ) P ( B ) F (t2 ) − F (t1 ) = = P ( A) P ( A) 1 − F (t1 )

Sustituyendo aquí F(t), obteniendo P ( B | A) =1 −e

t2

∫t1



λ( t ) dt

En el caso particular, en que la intensidad de fallos λ es constante, se tiene

P ( B ) = e −λt1 − e −λt 2 y

P ( B | A) = 1 − e −λ (t 2 −t1 ) Eje. En el problema de detección de la señal en los ruidos, la amplitud de la señal útil U es de ordinario una magnitud aleatoria que puede tomar cualquier valor, tanto positivo como negativo. La amplitud de la señal U es igual a cero cuando la señal no está presente y se recibe sólo ruido. Si, la probabilidad de la presencia de la señal es igual a p, entonces, la probabilidad de la ausencia de la señal, es decir, la probabilidad del valor cero de su amplitud es igual a q = 1- p. De este modo, la amplitud de la señal U no es más que una magnitud aleatoria de tipo mixto con valores posibles que llenan continuamente todo el eje numérico y con un valor posible cero exclusivo que tiene la probabilidad q. En las figuras a y b se muestran los gráficos de la función de distribución F(u) y de la densidad de probabilidad f(u) de la amplitud de la señal útil en el problema de detección.

48

4.10 La función generadora de momentos. La función generadora de momentos m(t) para una variable aleatoria X se define como m(t ) = E (etX ) . Decimos que existe una función generadora de momentos para X si hay una constante positiva b tal que m(t) es finita para t ≤b .

e

tx

¿Por qué E (etX nos da

) se llama función generadora de momentos de X? : La expansión por series de etx = 1 + tx +

( tx ) 2 + ( tx ) 3 + .... 2!

3!

Entonces, si suponemos que µk es finita para k = 1,2,3,…, obtenemos: 2 3   ( ( tx ) tx ) E (e ) = ∑e p ( x ) = ∑1 + tx + + + .. p ( x ) 2! 3! x x   2 3 t t = ∑ p ( x) + ∑xp ( x ) + ∑x 2 p ( x ) + ∑x 3 p ( x ) + ... 2! x 3! x x x tx

tx

= 1 + tµ1 +

t2 t3 µ2 + µ3 + ... 2! 3!

Este razonamiento implica un intercambio de sumatorias que se justifica si existe m(t). Así, E (e tx ) es una función de todos los momentos µk respecto al origen para k = 1,2, 3,…. tk En particular, µk es el coeficiente de . k!

La función generadora de momentos tiene dos aplicaciones importantes. Primero, si pudiérarmos calcular E (e tx ) , podríamos determinar cualquiera de los momentos de X. Teorema. Si existe m(t), entonces, para cualquier entero positivo k, d k m(t ) dt k

= m ( k ) (0) = µk t =0

Dem. Como 49

( )

m(t ) = E etx = 1 + tµ1 +

t2 t3 µ2 + µ3 + ... 2! 3!

Se deduce que 2t 3t 2 µ2 + µ3 + ... 2! 3! 2t 3t 2 m ( 2 ) (t ) = µ2 + µ3 + µ4 + ... 2 4! .. m (1) (t ) = µ1 +

m ( k ) (t ) = µk +

2t 3t 2 µk +1 + µk +2 + ... 2! 3!

Si hacemos t = 0 m (1) (0) = µ1 m ( 2 ) (0) = µ2 . m ( k ) (0) = µk

Eje. Determine la función generadora de momentos m(t) para una variable aleatoria de Poisson con media λ. m(t ) = E ( etx ) = ∑etx p ( x ) = ∑etx ∞



=∑

(λe )

x =0

x

(λet ) e −λ = e −λ ∑ x! x! X =0

t x

x =0

λx e −λ λ!

De ∞



X =0



(λe )

t x

x!

= e λE

X

T

Multiplicando y dividiendo entre eλe , t

m(t ) = e −λ eλe

t



∑ x =0

(λe ) e t x

−λe t

x!

La cantidad dentro del signo de sumatoria es la función de probabilidad de una variable aleatoria de Poisson con media λet ., De ahí que:

∑ p( x) = 1,

y

t t m(t ) = e − λ eλe (1) = eλ ( e −1)

x

Eje. Emplea la función generadora de momentos del ejemplo anterior para determinar la media y la varianza de la variable aleatoria de Poisson. 50

De

(

)

t −1 d λ ( e t −1) e = e λ ( e )λet dt t t −1 t −1 t −1 d2 d m( 2) (t ) = 2 e λ ( e −1) = e λ ( e )λet = e λ ( e ) (λet ) 2 + e λ ( e )λet dt dt

m(1) (t ) =

(

µ = m (1) (0) = λ

)

µ2 = m ( 2 ) (0) = λ2 + λ

Pero ϖ 2 = E ( X 2 ) − µ 2 = µ 2 − µ 2 = λ2 + λ − λ2 = λ . La segunda y principal aplicación de una función generadora de momentos consiste en demostrar que una variable aleatoria posee una distribución de probabilidad particular p(x). Si m(t) existe para una distribución de probabilidad p(x), entonces es única. Asimismo, si las funciones generadoras de momentos de dos variables aleatorias X e Y son iguales (para toda t 0), entonces X e Y deben tener la misma distribución de probabilidades. De esto inferimos que si podemos reconocer la función generadora de momentos de una variable aleatoria X que corresponde a una distribución específica, entonces X debe poseer la misma distribución. En resumen, una función generadora de momentos es un artificio matemático que a veces –no siempre- proporciona una manera sencilla de determinar momentos relacionados con variables aleatorias. Lo más importante es que se puede utilizar para establecer la equivalencia de dos distribuciones de probabilidad. Eje. Supongamos que X es una variable aleatoria con la función generadora de momentos m(t ) = e3.2 ( e −1) ¿Cuál es la distribución de X? t

Una función generadora de una variable aleatoria de Poisson tiene la forma m(t 9 = e λ(e −1) . Así que la función generadora de momentos de X es exactamente igual a la de Poisson con λ = 3.2 . Puesto que las funciones generadoras de momentos son únicas, X debe tener una distribución de Poisson con media de 3.2. t

Eje. Si X tiene una función continua de distribución de probabilidades  1  si a ≤ x ≤ b, a < b f ( x) =  b − a  c.o  0 Entonces M (t ) =

1 b −a

b



a

e tx dx =

[

1 e tb − e ta t (b − a )

]

Es una función diferenciable de t, para toda t, -∞ 8 | T > 5) = =

P (T > 8 ∩ T > 5) P(T > 5) P (T > 8) e −0.5*8 = = e −0.5*3 = 0.22313 P (T > 5) e −0.5*5

El saber cuánto tiempo lleva sin pasar el autobús no aporta ninguna información acerca de lo que puede todavía tardar en pasar. Esta es una propiedad de la distribución exponencial; se dice por eso que no tiene memoria.

54

Eje. Sean X1, ..., X5 variables aleatorias generadas mediante el lanzamiento de cinco dados perfectos. Sea X = max{X1, ..., X5}. ¿Cuál es la función de distribución de X? ¿Coincide con la de cualquiera de las variables aleatorias X1, ..., X5 consideradas? La variable aleatoria X puede tomar valores enteros entre 1 y 6. La probabilidad de que X tome el valor x es la probabilidad de que todas las variables aleatorias X1, ..., X5 tomen valores entre 1 y x y no todas tomen valores entre 1 y (x – 1). Por tanto, P ( X =1)=P

(

5 i= 1

)

X i ≤1 −P

(

X i 1} F (2) − FX (1) 0.9 − 0.6 3 = X = = 1 − FX (1) 1 − 0.6 4

P{ X ∈ (0,2] | X > 1} =

Eje. Dada una muestra aleatoria simple X1, ..., Xn procedente de una distribución con media µ y varianza σ 2 , hállese la media y varianza de X = ( X 1 + ... + X n ) / n. Tomando valor medio de X tenemos:  X + ... + X n  E( X ) = E  1  n   = E[ X 1 ] / n + ... + E[ X n ] / n = µ / n +... + µ / n =µ

Análogamente, tomando varianzas:

56

 X + ... + X n  V [ X ] =V  1  n   2 = V [ X 1 ] / n +... +V [ X n ] / n 2 = σ 2 / n 2 +... +σ 2 / n 2 = σ2 / n

Eje. Una emisión de bonos a un año tiene un interés del 5%. Además, la cuarta parte de los bonos, seleccionada por sorteo, recibe una prima del 25% de su valor nominal. ¿Cuál es el rendimiento esperado de un bono? Si se hubiera de invertir una cantidad muy grande de dinero, ¿qué sería preferible: invertir en los bonos indicados, o en otros al mismo plazo con un rendimiento del 11%? (se supone que el riesgo, liquidez, y demás factores distintos de la rentabilidad son idénticos en ambos casos.) Si llamamos X e Y a los rendimientos totales respectivos de ambos tipos de bonos (expresados en %) tenemos que: E[ X ] =1(0.05 ) +

1 * 0.25 = 0.1125 4

E[Y ] = 0.11

El primer bono es preferible si se invierte mucho dinero, es decir, se compra multitud de bonos. Obsérvese que solo en este caso podremos comparar ambas opciones de inversión en términos de su rendimiento medio. Si solo se puede comprar un bono de la primera clase, no tendría sentido pensar en un rendimiento del 11.25%; obtendríamos el 5% o el 30%. Un inversor averso al riesgo preferirá el segundo tipo de bono (con el que sabe que obtendrá un 11% seguro). Un inversor proclive al riesgo preferirá el segundo tipo de bono (con el que puede obtener una ganancia tan alta como el 30%, aunque con gran probabilidad acabe percibiendo solo el 5%). Eje. Consideremos una variable aleatoria X cuya función de cuantía viene especificada mediante la siguiente tabla:  (m − c) con probabilid ad c 2 / 2  X = m con probabilid ad 1 − c 2  (m + c ) con probabilid ad c 2 / 2 

Compruébese que para una variable aleatoria como X la desigualdad de Chebysheff es una igualdad. La varianza de X se calcula. Por simetría, la media es m, y:  c2   c2  σ 2 = E[( X − m) 2 ] = c 2   + c 2   = c 4 2 2

La desigualdad de Chebysheff establece que:

57

P{| X − m |≥ kσ } ≤

1 k2

Substituyendo σ por c2 y k por 1/c obtenemos: 1   P | X − m |≥ c 2  ≤ c 2 c  

Pero esta relación se verifica con igualdad, pues de la especificación de la distribución de X se deduce que el lado izquierdo es precisamente c2. El ejemplo anterior es interesante porque pone de manifiesto que la desigualdad de Chebysheff no puede ser mejorada sin imponer condiciones adicionales a la variable aleatoria X. Eje. Compruébese que la distribución de Cauchy

[

f ( x) = π −1 1 + x 2

]

−1

,

−∞ < x < ∞

carece de momentos. Basta comprobar que: xk dx −∞ π 1 + x 2





µk = E[ X k ] = ∫ x k f ( x )dx = ∫ −∞

1

diverge si k ≥ 1. Esto es fácil de ver ; si x > 1, 1 + x2 < 2x2 y por tanto: xk 1 dx ≥ 2 ∫ π −∞ 1 + x π 1



xk ∫−∞ 2 x 2 dx ∞

la integral del lado derecho se ve sin dificultad que diverge siempre que k ≥ 1. Obsérvese que la carencia de media –y de todos los momentos de orden superior- se produce a pesar de la forma simétrica en torno al origen de la función de densidad, lo que sugerirá µ = 0. Eje. Calcúlese la media y varianza de una v.a. con distribución exponencial de parámetro λ:

λ > 0.

0 si x < 0  F ( x) =  −λx si 0 ≤ x < ∞ 1 − e

La función de densidad de X se obtiene derivando: f ( x) = λe −λx ,

(0 ≤ x < ∞)

El cálculo directo de media y varianza es: 58



1

0

λ

µ = ∫ xλe −λx = ∞

σ 2 = ∫ ( x − µ) 2 λe −λx dx = 0

1

λ2

Eje. Considérese la distribución exponencial. ¿Coincide la media con la mediana? La mediana τ de una distribución continua F(x) es aquel valor que verifica: P{ X < τ } = P{ X > τ } =

1 2

En el caso que nos ocupa, ha de suceder que: F (τ ) = 1 − e −λ τ = ⇒ e −λ τ =

1 2

1 2

1 ⇒ −λ τ = ln   2 ln 2 ⇒τ =

λ

Como quiera que µ =

1 y ln 2 = 0.6931, la mediana siempre será inferior a la media en el caso de una λ

distribución exponencial.

Eje. Muéstrese que la varianza es el mínimo momento de segundo orden (es decir, σ 2 = E[ X − µ] 2 ≤ E[ X − c] 2

para cualquier otro c ≠µ .) E [ X − c ] = E[ X − µ + µ − c ] 2

2

= E [ X − µ ] + E [ µ − c ] + 2 E [ ( X − µ)( c − µ)] 2

2

= σ 2 + ( µ − c) 2 + 0 = σ 2 + ( µ − c)2

ya que E [ ( X − µ)( c − µ)] = (c − µ) E [ X − µ] = 0

De lo anterior se deduce, habida cuenta de que ( c − µ ) 2 ≥ 0, que E [ X − c ] 2 ≥ c 2 .

59

Eje. Una variable aleatoria R toma el valor r con la probabilidad kαr, r = 0, 1, 2, ..., l. Encontrar k y P( R ≤ l −1) . l

Sea

P (r ) = kα r .

Ahora

bien

∑ P(r ) = k (1 − α

l +1

) /(1 − α ) = 1 .

De

donde

0

k = (1 −α) /(1 −α l +1 ) y l −1

P ( R ≤ l − 1) = ∑ P ( r ) = 0

1 −α l = 1 − P( R = l ) 1 − α l +1

Eje. Una variable aleatoria X, que toma valores en (0, a), tiene la función de distribución kx2, 0 a  = 1 − F  a  = 2   2  4

Eje. Una variable aleatoria X tiene la función de densidad de probabilidad f(x) = 2x, 0 0 . Eje. Se ha diseñado un aparato para medir la resistencia de los sujetos. En términos de las unidades calibradas en el aparato, la resistencia S de una raza dada de adultos varones puede tomarse como una variable aleatoria con la función de densidad de probabilidad λe −λs , s > 0, λ > 0. Para una tarea determinada, se requiere un hombre fuerte que tenga una resistencia de por lo menos s0 y cada uno de los hombres seleccionados al azar se someterá a una prueba hasta encontrar el hombre fuerte que se necesita. Determinar la probabilidad de que se pongan a prueba exactamente n hombres. La probabilidad de que un hombre puesto a prueba al azar sea el hombre fuerte requerido es ∞



s0

λe −λs ds = e −λs . Para que el n-ésimo hombre sea el primer hombre fuerte, todos los (n-1) hombres 0

anteriores deben haber sido “no fuertes”. Ya que la probabilidad de que un hombre puesto a prueba al azar no sea fuerte es 1 − e −λs0 , la probabilidad requerida es

(1 − e )

− λs0 n −1

e −λs0

Eje. El tiempo de falla de un sistema tiene la función de densidad de probabilidad f(t), t > 0. La falla sólo puede detectarse inspeccionando el sistema en los tiempos x1, x2, x3, ..., xi, ... Estos tiempos de inspección son tales que P[el sistema falle en (xi-1, xi)| el sistema haya funcionado en xi-1] = p, para i 0 1, 2, 3, ...; x0 = 0. Calcular el i-ésimo tiempo de inspección xi en términos de p. Demostrar que si la función de tasa falla es monótona creciente, entonces los intervalos entre los tiempos sucesivos de inspección forman una sucesión decreciente. La condición sobre los tiempos de inspección xi significa que

61

F ( xi +1 ) − F ( xi ) = p, 1 − F ( xi )

i = 1,2,3,...

de modo que F(xi+1) = p + qF(xi), donde q = 1- p. La substitución repetida da F ( xi +1 ) = p + pq + pq 2 + ... + pq i −1 + q i [ p + qF ( x0 )] = 1 − q i +1 ,

para x 0 = 0 da F ( x0 ) = 0

de donde se hallaría xi a partir de xi = F-1(1-qi). Sea di = xi – xi-1 de manera que di > 0. Ahora se desea demostrar que di >di+1, i = 1, 2, 3, .... Sea S(t) = 1 – F(t) y r(t) = f(t)/S(t) una función monótona creciente. Ahora se tiene xi +d i

xi



xi −d i

r (t ) dt < ∫

xi

r (t ) dt

Usando la substitución u = S(t) al integrar r(t), se obtiene S ( xi + d i ) S ( xi ) < S ( xi ) S ( xi − d i )

Si se resta una a ambos miembros de esta desigualdad se tiene como resultado F ( xi + d i ) − F ( xi ) F ( xi ) − F ( xi −1 ) F ( xi +1 ) − F ( x i ) > =p= 1 − F ( xi ) 1 − F ( xi −1 ) 1 − F ( xi )

De donde F(xi + di) > F(xi+1), de modo que xi + di > xi+1; es decir, di > di+1. Eje. La probabilidad condicional P(A|x) de un evento A, está disponible dado que una variable aleatoria X ha tomado el valor x. Encontrar P(A). Suponer que X es discreta y sus valores posibles son xi, i = 1, 2, 3, ... y P(X=xi) P(xi). Los eventos A∩xi son mutuamente exclusivos, de modo que P( A) = ∑ P ( A ∩ xi ) = ∑ P ( A | xi ) P ( xi ) i

i

Si X es continua con la función de densidad de probabilidad f(x), se tiene ∞

P ( A) = ∫ P ( A | x ) f ( x ) dx −∞

Eje. En un experimento, el número de pruebas, R, que se llevarán a cabo es una variable aleatoria con P(R = r) = θ(1- θ)r-1, r = 1, 2, 3, ... La probabilidad de que el experimento resulte λr e −λ socialmente útil, dado que se llevaron a cabo r prueba, es . Calcular dicha probabilidad. r!

62

Sea A el evento en que se logra el resultado socialmente útil, de manera que

P ( A | r ) = λr e −λ / r!



(

)

P ( A) = ∑ λr e −λ / r! θ (1 −θ ) r −1 1

[

]

= θe −λ e λ(1−θ ) −1 /(1 −θ )

(

=θ e

−λθ

−e

−λ

) /(1 −θ )

Eje. Hay que ajustar una máquina para que produzca un lote grande de piezas. Para un ajuste dado, cada una de las piezas producidas por la máquina tiene una probabilidad constante p de salir defectuosa; sin embargo, el proceso de ajuste es tal que esta probabilidad varía de ajuste a ajuste y puede tomarse como una variable aleatoria con la función de densidad de probabilidad (1-p)m(m+1), 0