Capítulo 5 Vari ables aleatorias INTRODUCCION Volvamos ahora sobre el concepto de función. Sean S y T conjuntos arbitrar
Views 110 Downloads 2 File size 2MB
Capítulo 5 Vari ables aleatorias INTRODUCCION Volvamos ahora sobre el concepto de función. Sean S y T conjuntos arbitrarios. Supóngase que a cada s E S se asigna un elemento único de T; la colección f de tales elementos se llama función (o aplicación) de S en T y se escribe I S ~ T. Escribimos 1(5) en lugar del elemento de T qu e f hace corresponder a s E S Y lo llamamos la imagen de s por f o valor de f en s. La imagen f(A) de un su bconjunto A de S y la imagen inversa f'-I(8) de un subconjunto 8 de Tsc definen por
I(A)
t
•
~
•, •• • •• •• •• •• •• •• la
~
1
=
{f(s):
S
E
A}
y
1- 1 (B)
=
{s: [(s) E B}
En otras palabras, f(A) está formado por las imágenes de los puntos de A, y ¡-1(8) está formado por aquellos puntos cuyas imágenes pertenecen a 8. En particular, el conjunto 1(S) de todas las imágenes se llama el conjunto imagen (o : imagen o recorrido) de! Supongamos ahora que S es el espacio muestral de algún experimento . Como anotamos previamente, los result ados del experimento, es decir ,. los puntos muestra les de S. no necesitan ser números. Sin embargo, frecuentemente deseamos asignar un número determinado a cada resultado; esto puede ser la suma de los puntos de un par de dados, el número de ases de una mano de "bridge" , o el tiempo (en horas) que gasta una lámpara en fundirse . Tal asignación se denomina variable aleatoria; más precisamente, Definición:
Una variable aleatoria X de un espacio muestra! S es una ,"unción de S en el conjunto R de los números reales tal que la imagen inversa de cada intervalo de R es un evento (o suceso) de S.
Hacemos énfasis en que si S es un espacio discreto en el cual cada subconjunto es un suceso, entonces cada función de valores reales de S es una variable aleatoria. Por otra parte, se puede comprobar que si S es no contable, entonces ciertas funciones de valores reales de S no son variables aleatorias. Si X y Y son variables aleatorias del mismo espacio muestral S. entonces X XY (donde k es un número real) son funciones de S definida s por
+ Y)(s) = (X + k)(s) ==
(X
X(s) X(s)
+ Y(s) + le
(lcX)(s)
+
y. X
+ k.
kX y
= kX(s)
(XY)(s) = X(s) Y(s)
para todo s E S. Se puede comprobar que estas variables también son aleatorias. (Esto es trivial en el caso de que cada subconjunto de S sea un suceso.)
Usamos la notación abreviada P(X = a) y Pea ~ X ~ b) para la prohabilidad de los succsos "X toma el valor a" y "X toma valores en el intervalo [a. b j." Esto es, P(X = a)
y
P(a
Significados análogos se dan a
~
X -== b)
P(X~
P({s E S: X(s) == a}) P({sES:
a), P(X
== a, Y 74
a~X(s)~b})
= b),
P(a
~
X
~
b, e
~
Y
~
d), etc.
VARIABLES ALEATORIAS
CAP. 5]
75
DISTRlBUCION y ESPERANZA DE UNA VARIABLE ALEATORIA FINITA Sea X una variable aleatoria de un espacio muestral S con el conjunto imagen finito; a saber, IXI. X2. • X n 1. Convertimos X(S) en un espacio de probabilidad definiendo la probabilidad de Xi como P(X = Xi) que escribimos f(Xi)' Esta funciónfde X(S), o sea, definida como f(xI) = P(X = Xi), se llama lafuncióII de distribución O probabilidad de X y se expresa generalmente en forma de tabla:
X(S) =
Xl
X2
.,
.
f(x l )
f(xz)
.,
.
Xn
f(x n )
La distribución f satisface las condiciones n
y
L
(ii)
¡(XI)
1=1
=1
Ahora si X es una variable aleatoria con la distribución anterior, entonces la media o esperanza (o: \'G/or esperado) de X. denotada por E(X) o flx, o simplemente E o fl, se define como
E(X) Esto es, E(X) es el promedio pOllderado de los valores posibles de X. cada valor ponderado por su probabilidad. Ejemplo 5.1: Se lanza un par de dados corri entes . Obtenemos el espacio finito equiprobablc S que consta de las 36 parejas ordenadas dc núm e ros entre l y 6:
s =
{(l, 1), (1,2), ... , (6, 6)}
Sea X qut: ha ce corres ponder a cad a punto (a. b) de S el máximo de sus números, o sea, X(a. b) = max(a . b). Entonces X es un a variable aleatoria cuyo conjunto imagen e~
=
X(S) Calculamos la distribución
f(l)
P(X= 1)
f(2)
P(X=2)
f(3)
P(X
f(4)
f
{l, 2, 3, 4, 5, 6}
de X :
P({(1,l)}) -
..!.. 36 ~ 36
= P(c(2, 1), (2,2), (1, 2)})
= 3) P(X = 4)
~ 36
P({(3, 1), (3,2), (3,3), (2,3), (1, 3)})
P( {(4, 1), (4,2), (4,3), (4,4), (3,4), (2,4), (1, 4)})
=
.2 36
Similarmente,
1(5)
=
P(X
= 5) = fe-
f(6)
y
P(X
= 6)
11 36
Esta inrormaci ó n s O. La variable aleato-
X* Comprobamos que E(X*) = O Y var(X*)
(problema
DISTRIBUCION CONJUNTA
Sean X y Y variables aleatorias de un espacio muestral S con los respectivos conjuntos imagen
= {y!, Y2, ... , Ym}
y
X(S)
Formamos el conjunto producto
en un espacio de probabilidad definiendo la probabilidad de la pareja ordenada . Y¡) como P(X XI, y = y J) que escribimos h(x l. Yi). Esta función h de X(S) X Y(S) , esto es, definida por h(x¡. Yi) P(X = XI. Y = YI), se llama distribución conjunta o función de probabilidad conjunta de X y Y Y se da en forma de tabla por lo general:
~
Yl
Y2
...
Ym
Suma
XI
h(x¡.1/I)
h(x¡. Y2)
...
h(x¡,Ym)
!(xl)
xz
h(X2,
h(X2,1/2)
h(X2'Y m)
!(X2)
.. .
.. .
.. .
x"
h(x n• YI)
h(x,l' Y2)
Suma
g(y¡)
V(yz)
..
... "
.
...
...
h(x n .1Im )
g(Ym)
.,
.
f{xn}
80
VARIABLES ALEATORIAS
Las funciones
[CAP. 5
g anteriores se definen por y
o sea, ¡) es la suma de los elementos de la fila y ) es la suma de los elementos de la columna son llamadas distribuciones marginales y son, de hecho, las distribuciones (individuales) de /t· y Y (problema 5. I La distribución conjunta /¡ satisface las condiciones
h(Xi, y¡)
(ii)
y
1
Ahora si X y Y son variables aleatorias con la distribución conjunta anterior (y las medias ¡;'x y jJ.y), entonces la covarianza de X y Y denotada por cov(X, Y), se define por
lvas
cov (X, Y)
o
(ver problema 5.18) por cov (X, Y)
E(XY) -
¡;'x¡;'y
La correlación de X y y, denotada por p (X, Y), se define por
p(X, Y) La correlación p no es dimensionada y tiene las siguientes
(i) p(X, Y) (ií) -1
~ p ~
= 1,
p(Y, X)
(iii) p(X, X)
1
(iv) p(aX + b, cY + d)
p(X, p(X, Y), si a, e =F O
Más adelante (ejemplo 5 mostrarnos parejas de variables aleatorias con duales) idénticas pueden tener covarianzas y diferentes. Así cov(X. medidas de la manera corno /Y y Y están 5.6: Se lanza un par de dados corrientes. Obtenemos el espacio parejas ordenadas de números entre 1 y 6:
S
(índivi, Y) son
finito S que está formado por 36
{(1, 1), (1,2), ... , (6,6)}
Sean X Y V las variables aleatorias de S en el 5.1, o sea, X designa el múximo número y Y la suma de los números de cada punto de S. La distribución conjunta de X y }' es la siguiente:
y X
2
3
4
5
6
7
8
9
10
11
12
Suma
O
O
O
O
O
O
O
O
O
36
O
O
O
O
O
O
O
O
36
O
O
O
O
O
O
~ 36
1
O
O
O
O
3iI
2
1
36
3iI
O
O
1
36
1
O
2
O
36
36
3
O
O
36
36
36
4
O
O
O
~ 38
3ii
6
O
O
O
O
2
1
2
2
!
2
2
36
2
¡¡¡¡ 2
36
¡¡¡¡ 2
36
2
2
6
36
3ii
Suma
3ii
"
J!.
36
2
36 2
36
1
3
7
1
11
3iI
36
1
36
81
VARIAIJU:S ALEA fORIAS
CAP. 5]
fa
elemento anterior }¡íJ, 5) viene del hecho de ljue (\ 2) Y número máximo es J y CUyJ suma e, 5; pOI tanto,
5)
== P(X = 3, Y
3) son los
nleos puntos de S cuyo
P( {(3,
5)
Los otros elementos "e obtienen de manera similar. Calculemos la covarianlJ y la correlación de .r y y Primero calcukmo.' E(.\ y):
2- 3-~
+
6 -12'
34,2 Por el
5,1,
¡;'X
= 4,47 Y
7 Y por el ejemplo 5,5, CJx
¡J.y
J4,2 -
1,4 y
2,4; de
Uy
al~llí
(4,47)(7) =
y
Ejemplo 5.7: Sean X y Y, Y X' Y }" variables alealOflJS con las dí,tflbuCl O,
P(IX - p.1 Prueba. Empezamos con la definición de varianza: ~
=
var (X)
~
t)
~
;
p.
y des-
VARIABLES ALEATORIAS
CAP, 51
87
Ix,
En las series anteriores suprimimos todos los términos para los cuales ta el valor de las puesto que todos sus son no
¡tI
O
lim P(ISn - ¡.tI ~ f) n-oo
O o equivalentemente
P(ISn
¡;.I < f)
1
n"'''
Prueba, Nótese primero que E(Sn)
Puesto que XI,.
¡t
n
del teorema 5.7 se deduce que
, X n son
var (Xl
n
+ ... + X>l)
var (Xl)
+ ... + var (X
It )
Por consiguiente por el teorema 5,5(ií), var
== var
1
var (Xl
+ . , . + X n)
=n
Así, por la desigualdad de Tchebycheff,
El teorema resulta del hecho de que el
a la derecha es O cuando n
-1>
ao.
Las notas siguientes son en su orden: Nota 1, Probamos la desigualdad de Tchebycheff solamente para el caso discreto. El caso continuo se una prueba análoga en que se usan en de sumatorias.
Nota 2. Probamos la ley de los números grandes solamente para el caso en que la varianza de XI, esto es, no diverge. Observamos que el teorema es verdadero siempre que E(X ,) existe.
Nota 3. La ley de los grandes números anteriores llamada también la ley débil de los grandes números a causa de un teorema similar, pero más firme, llamado la ley fuerte los grandes números.
[CAP, 5
VARIABLES ALEATORIAS
88
Problemas resueltos VARIABLES ALEATORIAS Y V ALaR ESPERADO
5.1.
p., la varianza a2 y la
Hallar el valor tes distribuciones:
estándar
O'
de cada una de las siguien-
(i)
(i)
~ x; f(xJ 0'2 (1
v'1o ;: :
;::::
¡(xI)
::::
(12::::
-5 •
::::
.l:
a2.
va
::::
x;
11· i
4
t + 11 2 • i
26
16
;::::
10
t-
4'
k+
1· t
25' i + 16'1 + l '
t
+ 4
==
1
::::
!(XI) -
¡(x¡)
t +
26 -
p.2
/12
9,25 -
+ 2 '1
'i
-1 9,25
8,25
2,9
.l: x¡/(x¡)
.l:
32 •
3·
3.2
...[8I5 ::::
-
Ji.
5.2.
-
.l: xl!(XI)
x;
(1
i +
•
.l: x; !(XI)
::::
/1
(1
22
::::
k+
2'
x¡/(x¡)
/l::::
1(0,4) + 3(0,1) + 4(0,2) + 5(0,3) 1(0.4)+9(0,1)+1
!(XI) -
/12
;:::;
12 -
12
+25(0,3)
9
::::
3
3
1.7
lanza un dado corriente, X como el doble del número que aparezca, y denotemos que el número sea impar o par. Hallar la distribución, el valor esperado, la V como 1 Ó 3 varianza y la desviación estándar (i) X, (ii) Y, (iii) X y, (iv) XY. muestral es S = 1 1,2,3,4,5,61, Y cada número aparece con probabilidad
El (i)
2, X(2) 4, X(3) 6, X(4) 8, }1'(5) 10, ,\'(6) tiene probabilidad Así, la distribución de X es como
X(I) =
12. Así X(S)
t·
( 2,4,6,8, 10, 121 Y cada número
i.
Por consiguiente,
J1.x
E(X)
==
2
'1r
= :;z, x¡ ¡(xi) + 4'
i
+ 6'
i
+
8 '1 + 10' i + 12'
::::
~ x~ ¡(Xl)
::;;;
4' i + 16'! + 36' i + 64'
var (X)
::::
=
E(X2) 3,4
pi
t +
60,7 -
t
==
1f
100· i + 144' i (7)2
:::
11,7
7
864
6
==
60,7
(ii)
89
VARIABLES ALEATORIAS
CAP . 5]
Y(l) U(l)
== 1,
== 3,
Y(2)
= 1,
Y(3)
= 3,
Y(4)
= 1,
Y(5)
4
== P(Y==l) == P({1,3,5}) == ~ ==
== 3.
Y(6)
y
O sea: Y(S)
== {1,3}
y
== P(Y = 3) == P({2, 4, 6}) == ~
g(3)
1
2'
De esta forma la di st ribución de Y es como sigue: Vi
1
3
g(YJ)
!
!
En consecuencia, I'y
E(y2)
== ~ V~ g(Vj)
2 ay
+
Usando (X
+ Y)(2) ==
4
9'!
5 (2)2
== 5
y
1
1
+
v)(s) = X(s)
(X + Y)(l) == 2 (X
E(Y2) _ ,.,. 2
Vi
2/
== 1'! + 3'!
== 1'! +
var (Y)
ay
(iii)
~ YJ g(YJ)
=
E(Y)
==
3
(X + Y)(3)
= 6 + 1 == 7
(X
3 = 7
(X + Y)(4)
= 8 + 3 = 11
(X + Y)(6)
+ 1 == +
Y(s) , obtenemos
+
Por consiguiente, el conjunto imagen es (X
Y)(S)
+ Y)(5)
10
+ 1 ==
== 12 + 3 == 15
= 13, 7, 11 , 151 Y 3 Y 1S suceden con probabilidad
7 Y 11 con probabilidad ~ . Esto es, la dist ribu ción de X
+ Y es como sigue:
Z¡
3
7
11
15
p(z¡)
!
2 6
2 6
1
6
11
k, y
6
Así,
E(X
+ Y)
Ux + y
+
11, ~6
+
== ~ == 9 6
15'!6
9'!6
."jT4j =
=
7' ~6
+ 49' ~6 + 121' ~6 + 225'!6 = 6H == 6 E«X + y)2) _,.,.2 == 95,7 - 9 2 == 14,7
+ y)2) == (X + Y) ==
E«X
var
+
3'!6
--
+
Nót ese que, E(X) 12,7 #- var (X + Y).
95,7
3,8
E( Y) =
7
+
2
9
E(X
-+- Y), pero va r (X)
+
var (Y)
11 ,7
(iv) Usa ndo (XY)(s) == X(s) Y(s), obtenemos (XY)(l)
= 2, 1
2
(XY)(3)
6 '1
(XY)(2)
= 4' 3
12
(XY)(4)
= 8, 3
== 6
(XY)(5)
== 10, 1 == 10
== 24
(XY)(6)
= 12' 3 == 36
Por tanto, la di stribución de X Y es como sigue: W¡
2
6
10
12
24
36
p(w¡)
i
t
i
t
t
t
576,
t +
Así,
4 'i
E«XY)2)
21~6 6
var (XY)
=
36' t + 100' i == 3593
+
144'!
+
'
E«XY)2) -
voo
+
==
11 ,6
1'2
359,3 -
15 2
134,3
1296'!
+
1
90 5.3.
[CAP. 5
VARIABLES ALEATORIAS
Una moneda cargada para que P(H) = i y P(T) = i se lanza tres veces. Sea X la variable aleatoria que denota la mayor hilera de caras (sucesivas) que aparezca. Hallar la distr.íbución, la esperanza, la varianza y la desviación estándar de X. La variable aleatoria X se define en el espacio muestral
s
= {HHH, HHT.
THH,
Los puntos de S tienen las probabilidades respectivas siguientes: .11 • II • lt
P(THH)
P(HHT)
l'~-l
P(THT)
P(HTT)
1'!'! _.. .~' i' i
4.t
4-
P(TTT)
.-
t'i'! t'J'! i'i-! t-!'!
Puesto que X denota la mayor hilera de caras,
X(TTT)
O;
X(HTT)
1,
1,
1,
X(HHT) :::: 2,
:=
2;
3
Así, el conjunto imagen de X es X(5) = lo, 1, 2, 3 1. La probabilidad do las de los puntos de S cuya imagen es x ¡:
1(0)
P(TTT) ==
1(1)
P(HTT)
{(2)
+ P(HTH) + P(HHT) + P(THH)
¡(3)
P(HHH)
1;
de cada número XI de X(S) se obtiene suman·
+
JR
U4
Por consiguiente, la distribución de X es como sigue:
Así,
E(X)
p.
::::
(f
5.4.
O-
+
::::
1-
+
1•
+
E(X2) -
var (X)
(12
+
O'
+
2-
+
4p.2
3'
2,1
9' 5,2
-
(2, 1)2
0,8
0,9
Se lanza una moneda corriente hasta que resulte una cara o cinco sellos. Hallar el valor esperado E de los de la moneda. Si sale cara en la primera vcz sucede un lanzamiento solamente, esto cs. el suceso H. Si el primero es sello y el se· gundo cara suceden dos lanzamientos, esto es el evento TH. Si los dos primeros son sellos y el tercero cara, suceden tres lanzamientos esto es el suceso TTI-l, Si resulta TTTH suceden cuatro lanzamientos y si resultan TTTTH o TTTTT suceden cinco lanzamientos. Entonces
=- P(H) P(TH)
¡(2)
1(3)
Por tanto,
=
! ' t
P(TTH)
1(4)
P(TTTH)
{(5)
P(TTTTH)
-Ir
+
+
+
5-
1,9.
5.5.
Se dibujan dos círculos concéntricos de radios I y 3 pulgadas dentro de un blanco circular de 5 pulgadas de radio. Un hombre recibe 10, 5 Ó 3 puntos según pegue en el blanco dentro del círculo menor, en el anillo intermedio o en el anillo exterior respectivamente. Supongamos que el hombre da en el blanco con probabilidad t y, por tanto, es lo mismo de posible que pegue en un punto del blanco como en otro. Hallar el valor esperado E de los puntos que marca cada vez que dispara. La probabilidad de mard r 10,5,3 ó
Así, E
°puntos es:
1(10)
1 2
área de 10 puntos
!. , '/1"(1)2
área blanco
2 . lT(5)2
1(5)
!. .
área de 5 puntos
1(3)
-1
1(0)
5.6.
91
VARIABLES ALEATORIAS
CAP. 51
2
2 1 2
área blanco
.
1 50
! , 7T(3)2 -
8
2
50
'/1"(1)2 '/1"(5)2
! , lT(5)2 -
área de 3 pu n tos
'/1"(3)2 lT( 5)2
2
área blanco
= 10' -lo + 5· k + 3' !t + o' i = ~ =
=
1,96.
Un jugador lanza dos monedas corrientes. Gana $\ ó $2 según que aparezcan I ó 2 caras. Por otra parte, pierde $5 si no aparece cara. Determinar el valor esperado E del juego y si éste es favorable al jugador. La probabilidad de que 2 caras sucedan es
l,
!'
1; de 2 sellos
l.
es
1 y de
'1 +
I cara es
t-
es de ganar $1 es y de perder $5 es Por tanto E = 2 l' 5' lor esperado del juego es menos 254, y en esta forma es desfavorable al jugador.
5.7.
16 50
t . Así la probabilidad de ganar $2 1 = -i = -0,25. Esto es, el va·
Un jugador lanza dos monedas corrientes . Gana $5 si aparecen 2 caras, $2 si aparece I cara y $\ si ninguna cara aparece. (i) Hallar la ganancia esperada. (ii) ¿Cuánto debe pagar para jugar si el juego es legal?
t
(i)
La probabilidad de ganar $5 es l, de ganar $2 es 2,50. esto es, la ganancia esperada es $2,50.
(ii)
Si paga $2,50 para jugar, entonces el juego es legal.
y de ganar $1 es
1; por tanto
E
= 5 '1 + 2' t + 1 '1 =
DISTRIBUCIONES CONJUNTAS, VARIABLES ALEATORIAS INDEPENDIENTES 5.8.
Supóngase que X y Y tienen la siguiente distribución conjunta:
~
-3
2
4
1
0,1
0,2
0,2
0,5
3
0,3
0,1
O,J
0,5
Suma
0,4
0,3
0,3
(i)
Hallar la distribución de X y de Y.
(ii)
Hallar la cov (X, Y), esto es, la covarianza de X y de Y.
(iii) Hallar p(X, Y), esto es, la correlación de X y de Y. (iv) ¿X y Y son variables aleatorias independientes?
4· PROBABILIDAD
Suma
[CAP. S
VARIABLES ALEATORIAS
92 (i)
La distribución marginal de la derecha es la distribución de X y la distribución marginal del fondo es la distribución de r. A saber,
Distribución de X (ii)
Primero calculamos
y
P.x
Distribución de Y
p.y:
ILy
~ x¡!(x¡)
(1)(0,5)
(3)(0,5)
~ Y¡ U(¡/j)
(--3)(0,4)
+ (2)(0,3) -+
=
2 (4)(0,3)
0,6
Luego clJmputamos F(X }/}:
E(XY)
X¡Yj h(xh Y¡) (1)( -3)(0,\)
(iii)
+ (\ X2)(O,2) + (1 )(4)(0,2) + (3)(-3)(0,3) + (3)(2)(0, 1)
Entonces coy (X, Y)
=
E(XY) - p.x!ly
Primero calculamos
ax
ay:
E(X2)
0-- (2)(0,6)
(l)(0,5)
5
Vi
O
1,2
+ (9)(0.5) =
var (X)
(3)(4)(0,\)
5
(2)2
1
1
y
~ Y~ U(Yj)
(9)(0,4)
,,; =
var (Y) ::::
ay
9,6
+ (16)(0,3)
9,6
(0,6)2 = 9,24
3.0
-0,4
p(X, Y)
Entonces (iv)
(4)(0,3)
X Y Y no son independientes, puesto que P(X = 1, Y -3) ~ P(X 1) PO'--3), esto es. el elemento h(I.--3) 0,1 no es igual a f(l) (0,5)(0,4) 0,2, el producto de sus elementos marginales.
X Y Y variables aleatorias independientes con las distribuciones siguientes:
5,9.
Distrí buci ón de V
Distribución de X
conjunta h de X y Y.
Hallar la
Puesto que )t y Y son independientes, la distribución
f y
h se puede obtener de las distribuciones marginales
g. Primero constrúyase la tabla de la distribución conjunta con las distribuciones marginales solamente como se in-
dica en la tabla de la iz.quierda, y luego los elementos marginales para obtener los otros elementos, esto es, colóquese h(x¡.1JJ) !(xl) U(Yj), como se muestra a la derecha.
~
5
10
15
Suma
~
5
10
16
Suma
1
0,6
1
0,12
0,30
0,18
0,6
2
0,4
2
0,08
0,20
0,12
0,4
Suma
0,2
0,5
0,3
Suma
0,2
0,5
0,3
93
VARIADLES ALEATORIAS
CAP. 5]
5.10. Una moneda corriente se lanza tres veces. Sea X que denota O.Ó I según que aparezca una cara o un sello en el primer lanzamiento, y sea Y que denota el número de caras que resulten. Determínese, (i) la distribución de X y de Y. (ii) la distribución conjunta h de X y Y, (iii) cov (X, Y) . (i)
1:
El espa cio muestral S consta de los ocho puntos siguientes, cada uno con probabilidad
s
= {HHH, HHT, HTH, HTT, THH, THT, TTH, TTT}
= O,
X(HHH) = O, X(HHT)
Tenemos
X(THH)
= 1,
= 0, = 1,
X(HTH)
X(THT) = 1, X(TTH)
X(HTT) = O X(TTT)
=1
Y(HHH) = 3
y
= 2,
Y(HHT)
= 2,
Y(HTH)
Y(THH)
=2
Y(HTT) = 1, Y(THT) = 1, Y(TTH) = 1
=O
Y(TTT)
.. Así la s distribuciones de X y de Y son como sigue:
°
XI
t
{(XI)
1
YJ
O
1
2
3
t
g(YJ)
i
1
i
1
Distribución de Y
Distribución de X
(ii)
La di stribución h de X y Yes:
x O 1 Suma
O
1
2
°
1
#
*1
#
i
i
i
Obtenemos, por ejemplo, el elemento ;'(0,2) = P(X = 0, y
(i ii)
J.Lx
~ XI {(XI)
O·t + l'!
J.Ly
~ YJ g(YJ)
O·!
E(XY) COY
(X, Y)
~ xlYJ h(XI VJ) E(XY) -
J.LxJ.LY
Suma
t
*
t
O
1 =
2) = P( 1 HTH, HHT:)
= t -
+ 1·2·! +
~. ~
=
#.
!
+ 1'1 + 2'1 + 3'* = 1'1'#
I
=
3
~
términ os con factor O
t
= -1
5.11. Sea X una variable aleatoria con la distribución siguiente y sea Y XI
-2
-1
1
2
{(XI)
1
!
!
!
=
X 2:
Determinar, (i) la distribución g de Y, (ii) la distribución conjunta h de X y y, (iii) la cov (X, Y) Y p(X, Y).
[CAP. 5
VARIABLES ALEATORIAS
94 (i)
Puesto que Y
X
tomar solamente los valores 4
la variable aleatoria Y
2 o X = - 2) P(X 2) la distribución g de Y es como sigue: P(X
+ P(X
i+i
2)
!
l. Además, g(4)
2, entonces Y La distribución conjunta h de X y Y viene luego. Nótese que si X = = 2) = Los otros elementos se obtienen de manera similar.
(ii)
'>z
(ii i)
E(X)
/ix /iy
E(XY) COY
(X, Y)
::::
4
Suma
-2
O
i
t
-1
i
O
i
1
t
O
i
2
O
i
i
Suma
!
!
Xi ¡(Xi)
-2'
~ Y¡ g(YJ)
t
l'
-8'!
Yj)
x¡Yj
1
D
PXpy
i -
1·
t + l'! + 2'i
4'! =
O
4)
Por tanto
O
Ií
~
1'i+ 1-i+ 8 -; D'!
P( y
4: y de aquí h(-2, 1)
1.
O Y h( - 2, 4)
=
1.
y, similarmente,
Y así
O
p(X, Y) = O
Nota: Este ejemplo muestra que no obstante que Y es una función de X es aún posible que la covarianza y la correlación de X y Y sean O, como en el caso en que X y }' son (teorema 5.6). Nótese, sin embargo, que X y Y no son independientes en este ejemplo.
PRU
Nota:
DE TEOREMAS
las pruebas, X y Y son variables alealorias con distribución distribución h.
h(x¡, Y¡) y g(Yi) =
que ¡(Xi)::::
5.12.
2: h(x" Yi),
f
y g respectivamente y
esto es, que las distribuciones
¡
marginales son las distribuciones (individuales) de X y Y.
=
Sea Al = {X x¡} y E j ::= {Y yuntas y S = UJEj. Por lanlo,
A¡
=
Y¡}; esto es, sea Al A¡nS
=
n(u j
= X-l (:1:,)
y Ej
:::::
y-l (1Ij)' Así las Ej son dis-
u¡(A¡nEJ)
donde las A¡nE¡ son también disyuntas. En consecuencia. ¡(XI)
=
P(X
x¡, Y
1IJ)
La prueba para g es similar.
5.13.
y
=
el teorema 5,8: Sean X y Y variables aleatorias del mismo muestral S con Y) iP(x¡) {(XI) donde f es la distribución de X.
iP(X).
2: ¡
(La prueba se da para el caso en que X es discreta y I1nita.)
CAP.
51
TI.
VARIABLES ALEATORIAS
95
Supóngase que X toma los valores :t:l •••• ,:l)" Y que 4>(xI) toma los valores lIl •••• J tl m como í recorre de 1 a Enlonces claramente los valores de Y = 4>(X) son Yh ... , 11m Y la distribución g de Y está dada por
Además m
m
n
n
~ ¡(XI)
1==1
~
{J: .¡'¡(z¡}=lI¡}
~ f(Xi) (XI)
1Ij
1=1
lo cllal prueba el teorema.
5.14. Probar el teorema S. 1: Sea X una variable aleatoria y k un número real. Entonces k
) =
+ k)
Y (ii) E(X
)
E(X)
k.
(La prueba se da para el caso discreto general suponiendo que E(X) existe.) (i)
Ahora kX
4>(X) donde (x)
=
kx. Además por el teorema ).8 (problema 5.13),
E(kX) (ji)
Aquí X
+k
k
(X) donde 4>(x)
= ~j
E(X + k)
(Xl
x
+ k.
Además
+ k) f(xJ
~ ¡
X¡
¡(Xi)
+
~ k ¡
f(xJ
E(X)
5.15. Probar el teorema 5.2: Sean X yY variables aleatorias del mismo E(X
+
E(X)
Y)
+
+
k
muestral S. Entonces
E(Y).
(La prueba se da para el caso discreto general suponiendo que E(X) y E( Y) ambos existen.) Ahora X
+
Y
=
(X.
Y) donde (x. y)
x
+ y.
Además por el teorema 5.9,
E(X+ Y) el problema 5.12. obtenemos
=
E(X + Y}
E(X)
5.16. Probar el corolario 5.3: Sean Xl, X 2 ,
E(X1
••• ,
E(Y)
X" variables aleatorias de S.
+ ... + X n )
(La prueba se da para el caso discreto general suponiendo que E(X 1),
••••
Probamos esto por inducción en n. El caso n I es trivial y el caso n (problema 5.15). Para el caso n > 2 aplicamos el caso n =,2 para obtener
E(X 1 + ... +X"-l + X,,) y por la hipótesis inductiva esto se convierte en E(X 1)
5.17. Probar el teorema 5.5: (i) var (X I1X+k I1x y U kX = Ikl U X ' Por el teorema 5.1, JlXH
+
Ilx
+k
+ y PlcX
=
E(X¡
=
E(X",) lodos 2 es precisamente el teorema 5.2
+ ...
+ ... + E(Xn _¡) +
k l var
var (X) Y (ii) var (k X)
= kll x .
También ~ x¡/(xJ
Px
y
). Por tanto
f(xJ :::: 1. Por tanto,
96
[CAP. 5
VARIABLES ALEATORIAS
+ k)
(X
var
(PX
==
::s var (kX)
y
+
x: ¡(x¡) XI
Il~X
x; ¡(x!; -
+
pi
¡(XI) -
(kX¡)2 f(xl) -
k2
2kpx
var
k2
1'i
(I'i + 2kl'x
k2
+ k 2)
(X)
::s x¡ f(xl)
k 2(2.
k2
+ k)2
(kp.X)2
f(xl) -
i'~)
k2
var
(X)
5.18. Mostrar que COY
(X, Y)
(La prueba se da para el caso en que X y Y son discretas y finitas) Puesto que
2. 7/j h(xl' 7/)
1
y
j,}
obtenemos
::s xIY} h(x¡, 7/J)
l. ¡
:::
-
xlYi h(x¡, 7/J) -
P-XPY -
I'XI'Y
+
p.xl'y
I'XI'Y
5.19. Probar el teorema 5.6: Sean X y V variables aleatorias (i) E(XY) = E(X) E(Y), (ii) var + = var (X)
Entonces
+
var (Y),
(iii)
COy
se da para el caso en que X y Y son diseretas y finitas.)
(La
Puesto que X y }' son
~
=
E(XY)
y
= f(x!) g(y}).
h(x¡,7Ij)
h(x¡, 1Ij)
¡.~
Y)
cav
XIVj
Así
-
I'xp.y
o
E(X)
:::
Con el fin de probar (ii) necesitarnos también PX+v ::: Px
+ Pv,
Por tanto. var (X + Y)
:::
~
1.1
(XI
+ 1Ij)2 h(x¡, 7/j)
-
¡.¡~ +Y
:::
=
h(x!,1I¡)
::s x~ f(xJ I
== ~¡ x 2l ¡(XI)·
+
2 p2
x
xd(x¡)
+
7/} U(Y¡)
+ ~J 7/J2 g(Yj)
-
p2
y
y;
g(lIj)
var (X)
+
var (Y)
(X, Y) = O.
VARIABLES ALEATORIAS
CAP 51
5.20. Probar el teorema 5.7: Sean Xl, val' (Xl
97
...• X" variables aleatorias independientes. Entonces
+ ... + X,,)
val' (Xl)
=
+ ... +
var (X It)
(La prueba da para el caso en que ... , X" SOI1 (Od'b discretas y finitas.) Dalllos por supuesto los problemas análogos:J1 5.12 Y al teorema 3.9 para JI variable, aleatorias. Entonces val
+
0'-
+ X,,)
E((X¡
+ .,. + Xn + ., +xn
~ (Xl
+ ... + x" -
{f f donde h es la distribución conjunta de que los
son
-
Px¡ + ' ..
Px ¡
+
X¡X}
-
...
J1.X,)2
h(x¡, ...• X,,)
2
~J Px 1Xi}
PX¡J1.X j
.. . ,X". y
Jlx¡+
+ ... + J1.X n
+X" -
dos a dos, ~ XiX; h(x¡ • ... , X n ) ::::: JlX¡JlX j n
~
, .. J
'
2~ ~
E(X;)
J
í
.
n
n
(Corolario 5.3). Pllc,to
para i ~ j. Por tanto
+ ~¡ ~I1XI1Xj j ,
+
JlX.!lX j
h(xlt ... , x,,)
~ var (Xi)
(Px¡)2
1=1
cumo se pedía.
PROBLEiVIAS VARIOS
5.21. Sea X una variable aleatoria continua con distribución
f{x) (i) (i)
Calcular k. (jí) Hallar P(I
{ ~
X
iox + le
SI
O.¿
x
3
en o lfa parte
~
El gráfiCO defse dibuja en seguida. Puesto quefes una función continua de probabihdad, la deb~ tener úrea I Nótese ljue A forma un trapecio de bases paralelas de longitudes k
tanto, el área de A
= !(k + k + !> • 3 ::::: 1
O
P(l ::= X ::= 2)
i'( 1::= X::= 2) ", igual al área de IJ la
est{l bajo el gráfi¡:o de
IIgura anterior lit: la derecha. Nótese qUlO 1(1) (¡rea de 8 1
+ . = i,
=A +
5.22. Sea X una variable aleatoria continua cuya distribución {a==x~b}, y O en otra parte:
f(x)
r~gión
+ t,
;ombreada A
y altura 3. Por
k:::::
Gráfico de j (íl)
y k
{~
SI
a === x
entre x
y x
constante en un .¿:
área de 8
2 como se muestra en la Pur tanto P(l ::= X 2)
como l =
b
en ot ra parte
(Se dice que dicha variable aleatoria está uni/oflnemellte distribuida en l.) (i) Determinar k. (ii) Hallar la media It de ,Y. (iii) Determinar la función de distribución acumulativa F de X
98
[CAP . 5
VARIABLES ALEATORIAS
(i)
El gráfico de J apar ece a la derecha. La región A debe tener área 1; por tanto 1 k(b-a) :::: 1 o k :::: b - a
(ii)
Si consideramos la probabilidad co mo peso o masa, y el promedio como el centro de gravedad, entonces es intuitiva mente claro que a+b
f=O
f=O Gráfico de J
2 el punto medi o entre a y b. Verificamos esto matemáticamente usa ndo el cálculo
=
p
(iii)
f
=
E(X)
fb
=
x f(x) dx R
~ a dx
b
a2
2(b-a)
2(b-a)
a
+b 2
Recalcamos que la fun ción de distribución acumulativa F(k) = P(X ~ k). Por tanto F(k) origina el área bajo el gráfico deja la izquierda de x = k. Pu es to que X está uniformem ente di stribuida en el interval o 1 {a == x ~ b}, es intuitivo que el grúfico de F debe ser co mo se muestra a la dere cha, esto es, F == O antes del punto a. F == I después del punto b. y F es line al entre a y b. Verificamos esto matemáticamente usa ndo el cálculo
F= 1
=
(a) para x < a.
JX
F(x)
F==O
a
~
x
~
/11
a
b
Gráfico de F
JX
=
f(t)dt
Odt
::::
O
-c.;¡
-00
(b) para
2(b - a) a
a
b2
Jb
x2 [
b,
F(x)
J
x
::::
-
> b, F(x) por tanto F(x) :::: 1.
(e) para x
P(X
=
f(t) dt
~
JX -
1 -dt:::: b-a
a
00
x)
~
P(X
~
b)
=
= 1
F(b)
y así
1
~
P(X ~ x)
= F(x);
5.23. Sea X una variable aleatoria con promedio ¡.t y desviación estándar (1 > O; Y sea X* la variable aleatoria estandarizada que corresponde a X, esto es, X* = (X -- p. )/ (1, Mostrar que E(X*) O y var(X*) = l. (Por tanto (1x. = l.) Por los teoremas 5.1 y 5.5,
E(X.) :::: E
y
var (X·) ::::
var
(X - p.) = u
X -
(
p)
--C1
!
u
E(X - p.)
= !(E(X) - p.) C1
1.
==
:::: 7: var (X - /1) C1
5.24. Sea X una variable aleatoria con distribución
f
1
2
U
O
var (X)
El r-ésimo momento M r de X se define por
Hallar los primeros cinco momentos de X si X tiene la distribución siguiente:
(Nótese que M tándar de x.)
I
Xi
-2
1
3
f(Xi)
-!
i
i
es el promedio de X, y M 2 se usa para calcular la varianza y la desviación es-
VARIABLES ALEATORIAS
CAP. 51
M1
~ x¡!(x¡)
-2'! + l·! + 3.! =
M2
~ x; !(x¡)
4'! + l'! + 9'-1 = 4,5,
M3
~ x: !(x¡) = -S'! + l ' !
M4
~ x: !(x,)
l6'! + l'! + SI·!
M5
~ x~ !(x,)
-32'! + 1'-1 + 243'! =
~
99
0,
3,
27'!
28,5, 45.
5.25. Sea h la distribución conjunta de las variables aleatorias X y Y. (i) Mostrar que la distribuciónf de la suma Z = X + Y puede obtenerse suponiendo las probabilidades a lo largo de las diagonales x + y = z", esto es,
(ii) Aplicar (i) para obtener la distribución f de la suma Z tribución conjunta siguiente:
X (i)
Los eventos {X
-2
-1
°
°
0,05
0,05
0,10
1
0,10
0,05
2
0,03
Suma
0,18
= x" Y == Y¡
: x¡
Y donde X y Y tienen la dis-
2 0,05
0,05
0,30
0 ,05
°
0,10
°
0,05
0,35
0,12
0,07
0,06
0,03
0,04
0,35
0,22
0,22
0,16
0,08
0,14
+ V¡ = z,,}
3
Suma
son disyuntos; por tanto,
~
z.
~ :t¡+II¡
X
+
X
1
:t,+II¡ =
(ii)
=
=
P(X==x¡, Y=Y¡) h(x¡, YJ)
Zk
=
~ h(x¡, :ti
-2
-1
°
1
2
O
0,05
0,05
0,10
O
0,05
1
0,10
0,05
0,05
0,10
2
0,03
0,12
0,07
0,06
° 0,03
z" -
xJ
3 0,05 0,05 0,04
Sumando a lo largo de las diagonales en la tabla anterior, obtt:llemos
!(-2) = 0,05
!(2)
0,05 +0, 10 + ,0 ,07
!(-1) = 0,05 +0 , 10 = 0,15
1(3)
0,05 +
1(4)
0,05 + 0,03 = 0,08
!(O)
0,10
+
!(1)
°+
0,05 + 0,12
0,05 + 0,03 = 0,18
En otras palabras, la distribución de Z Z¡
!(z¡)
=
X
=
+
°+
Y es como sigue :
-2
-1
°
0,05
0,15
0,18
1 0,17
2
3
0,22
0,11
4 0,08
0,22
0,06 = 0,11
1(5) = 0,04
0, 17
=
5 0,04
Ca pítulo 6 Distribuciones binomial, normal y de Poisson DISTRI13UCION B1NOMIAL Consideramos pruebas repetidas e independientes de un experimento con dos resultados; llamamos uno de los resultados favorable (o éxito) y el otro desJavorable (o Jracaso). Sea p la probabilidad favorable, así que q = I .- p es la probabilidad desfavorable. Si estamos interesados en el número de éxitos y no en el orden en que suceden, entonces aplicamos los teoremas siguientes. Teorema 6.1: La probabilidad de k éxitos exactamente en n pruebas repetidas se denota y expresa por
b(k; n,p)
m
Aquí es el coeficiente binomial (ver página 19). Téngase en cuenta que la probabilidad desfavorable es qn y, por consiguiente, la probabilidad de por lo menos un éxito es I - qn. Ejemplo 6.1: Se lanza una moneda corriente 6 veces o, su equivalente, seis monedas corrientes se lanzan una vez; llamamos cara un éxito. Por consiguiente n = 6 Y P = q =
t.
(i)
La probabilidad de que sucedan dos caras exactamente (o sea, k
b(2; 6, (ii)
(~) (1.)2 (!)"'
b(5; 6, .~)
t) +
+
b(6; 6,!)
2) es
= ti
La probabilidad de conseguir por lo menos cuatro caras (o sea, k
b(4; 6,
(iii)
i) =
=
=
4, 5 Ó 6) es
(~) (t)4 (t)2
+ (:) (!)5 (!) + (:) (t)6 = H+j¡+;{ = H
La probabilidad de no caras (o sea, lodosfracusos) es q5 = (!)6 = 6\ y. por tanto, la probabilidad de una cara por lo menos es 1 - q6
= 1 - -h = H,
Ejemplo.6.2: .Un dado corriente se lanza 7 veces; llamamos a un lanzamiento un éxito si sale un 5 o un 6. Entonces fI = 7, P = p(1 5, 61) = y q = I - P =
t
¡.
(i)
La probabilidad de que un 5 Ó 6 salga 3 veces exactamente (o sea, le
(ii)
La probabilidad de que un 5 Ó 6 no salga (o sea, todo s fracasos) es q7 (¡)7 2\2:7; por consiguiente la probabilidad de que un 5 o un 6 salga una vez por lo menos es 1 - q7 -- ~059 2187'
=
3) es
=
105
=
106
[CAP. 6
DISTRIBUCIONES BINOMIAL, NORMAL Y DE POISSON
Si TI YP como constantes, entonces la [unción anterior P(k) tribución de probabilidad discreta:
Se la llama distribución binomial puesto que para k sivos del desarrollo binomial (q
=
b(k;
11,
p) es una dis-
0, 1, 2, ... ,n corresponde a los términos suce-
+ p)"
Esta distribución se conoce dos resultados se llaman
como distribución de Bernoulli, y las de Bernoulli.
independientes con
Las propiedades de esta distribución son: Teorema 6.2: Distribución binomial Media
p.
Varianza
_.
(12
Desviación estándar
np
= npq
(f
Ejemplo 6.3: Un dado corriente se lanza 180 veces. El número esperado de seises es vi ación estándar es
(f
= ynpq
p.
np
180 • ~
JO. La des-
5.
DISTRIBUCION NORMAL La distribución normal o curva normal (o:
Gauss) se
como sigue:
f(x) donde ¡J. y (J' > O son constantes arbitrarias. Esta [unción es en realidad uno de los más importantes de una distribución de probabilidad continua. Los dos diagramas que siguen, muestran lOS cambios de f cuando Il varía y cuando (J' varía. En particular, obsérvese que estas curvas en forma de campanas son simétrícas alrededor de x = Ii.
f
f
Distribución normal para a fijo
«1
1)
Distribución normal para p. fijo (p. = O)
DISTRIBUCIONES BINOM IAL, NORMAL Y DE POISSON
CAP 6]
107
Las propiedades de la distribución normal son: Teorema 6.3; Distribución normal
Media
J1
Varian za
(72
Desviación
e s tánd~r
(7
La distribución normal anterior con media fL y vananza el- la designamos por ~
t
N(fL , 0- 2 ) Si hacemos la sustitución t
= (x -
fL)/(T en la fórmula de N(fll el-) obtenemos la distribución o curva
norll/al estándar
( t)
con media fL = O Y varianza el- = l. La gráfica de esta diqribución aparece luego. Observamos que para ~ 1 ~ t ~ 1 el área bajo la curva es 68,2%; y para - 2 ~ t ~ 2 el área bajo la curva es 95,4%.
0.4
-3
-2
o
-1
2
3
Distribución normal N(O, 1)
La tabla de la página 111 da el área bajo la curva normal estándar entre t = O Y valores positivos de t. La simetría de la curva alrededor de t = O nos permite obtener el área entre dos valores de t (ver problema 6.14). Ahora sea X una variable aleatoria continua con distribución normal; con frecuencia decimos que X está distribuida florrnalmcllte. Calculamos la probabilidad de que X caiga entre a y b, designada por P(a ~ X ~ b), como sigue. Primero pasamos a y b a unidades estándar
a'
=
(a-fL)/(T
y
b' = (b - fL)/(T
respectivamente. Entonces, P(a~X~
b)
P((¿/ ~ X*
~
b')
úrea bajo la curva normal estándar entre a' y b ' Aquí X* es la variable aleatoria estandarizada (ver página 79) que corresponde a X y, por tanto, X* tiene distribución normal estándur N(O, 1) .
,
[CAP. 6
DISTRIBU C IONES BINOMIAL. NORMAL Y DE POISSON
108
APROXIMACION NORMAL A LA DJSTRlBUClON BINOMIAL. TEOREMA CENTRAL DEL LIMITE
La di stribución binomial P(k) = b(k; n, p) se aproxima estrechamente a la di stribución normal proveyendo un f1 grande y ni p ni q próximos a cero. Esta propiedad se indica en el diagrama siguiente donde escogimos la di st ribución binomial correspondiente a 11 = 8 y p = q = 1- .
k P(k)
7
8
28
8
256
250
1 250
1
2
3
4
5
6
1
8 256
28 250
56 256
.2º-
256
56 250
O
Distribu ció n binomial con
256 11
8 YP
=
q
~ 256 d: stribuClón normal di ~ Hlbuci0n
binonllal
~ 256
20 256 ,;
o
2
3
4
5
6
Comparación de las distribuciones binomial y normal
La propiedad anterior de la di stribución normal se generaliza en el teorema central del límite que viene en seguida . La prueba de este teorema cae fuera del alcance de este texto . Teorema central del límite 6.4: Sean X 1, Xl, ... , una sucesión de variables aleatorias independientes con la misma distribución de media p. y varian za a. Sea XI + X 2 + . . . + X n-ni!
vna
Entonces para un intervalo
donde
{a~
x
~
b),
es la distribución normal estándar.
Record a mos que llamamos Sn = (X I + Xl + ... + X n)/II la media muestral de las variables aleatorias XI, .. X n . Así Z n en el teorema anterior es la media muestral estandarizada. Hablando en término s generales, el teorema central del límite dice que en una sucesión de pruebas repetidas la media muestral estandarizada se aproxima a la curva normal estándar según que el número de pruebas aumente. DISTRlBUCION DE POISSON
La di stribución de Poisson se define como sigue: ,\,Ke->'
p(k;'\') =
k!'
k = O, 1, 2,
donde A > O es una constante. Esta distribución infinita contable se present a en muchos renómenos naturales, tales como el número de llamadas telefónicas por minuto en un tablero de distribución, el número de erratas por página en un texto grande, y el número de partículas a emitidas por una sustancia radi activa. A continuación se mueslran a lgunos diagramas de la distribución de Poisson para diferentes valores de '\'.
109
DISTRIBUCIONES BINOMIAL, NORMAL Y DE POISSON
CAP. 6]
0.4
0,3
0,2
0,1
o
l
2.4
~
6
_---LullllillJ
0246810
),=1
O
2
-1
6
Distribución de Poisson para
Propiedades de la distribución
va¡ore~
8
A
1-=5
10 12
Ji
JI !
10
de A
","v,,"uu
Poisson'
Teorema 6.5:
Distribución de Poisson Media
¡.t
Variaru3
,,2
Desviación están.dar
l
i
=A ..¡};,
"
A pesar de que la distribución Poisson tiene interés independiente, también nos propurcion;r a la distribución binomial para un k pequeño, que p sea pCqUd,; y'\ np (ver problema 6.27). Esto se indica en la tabla siguiente. una
k
O
1
Binomial
0,366
0,370
Poisson
0,368
0,368
2 0,185
5
4
3 0,0610
0,0149
0,0029
0,0153
0,00307
Comparación de las distribuciones binomial y de Poisson 1¡¡oo y A = np I para I! = lOO, P
DISTnmUCION MULTINOMIAL d~ U,]
ex-
veces, A l suceda k:
I,L:-
La distribución binomial se generaliza como que el muestral perimento se divide en, s sucesos mutuamente exclusivos A" A 2, , A. con des Pi, p2, ,ps. consiguiente Pi + pi .+ ... + Ps = \.) Entonces Teorema 6.6: En n respectivas, la probabilidad de que A ces, .. " y A. suceda k s veces es igual
donde
+ k 2 + ... + ks =
I
suceda k
I
n.
Los números forman la tan nombrada distrihución multinornial que son \':1samente los términos del desarrollo de (p I + pi + '" + ps)n. Obsérvese que si s __ , Clild:' obtenemos la distribución binomial, discutida al principio del capítulo. Ejemplo 6.4: Un dado corriente se lanza 8 veces. La probabilidad de obtener los lados 5 y 6 dos veces y «¡da uno de lo, otros una vez es
= 0,006
[CAP. 6
DISTRIBUCIONES BINOMIAL, NORMAL Y DE POISSON
110
ORDENADAS DE LA CURVA NORMAL ESTANDAR
Tabla de valores