Probabilidad Condicional

REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACION UNIVERSITARIA PROGRAMA NACIONAL DE FOR

Views 109 Downloads 1 File size 945KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACION UNIVERSITARIA PROGRAMA NACIONAL DE FORMACION EN INFORMATICA PROYECTO SOCIO-TECNOLOGICO I EXTENSIÓN PUERTO LA CRUZ TRAYECTO I TRIMESTRE II

Introducción a la Probabilidad Condicional.

Puerto La Cruz, Octubre del año 2015.

Introducción En ocasiones uno está interesado en calcular probabilidades cuando dispone de cierta información parcial relativa al resultado del experimento. En tales situaciones, las probabilidades se denominan Probabilidades condicionadas. Dependiendo de la información que se tenga en un momento determinado, el espacio muestral de un experimento aleatorio puede variar. Cuanta más información se tenga, más se reducirá el conjunto de posibles resultados y por lo tanto las probabilidades de que ocurran los sucesos pueden cambiar. Esto dará lugar a la llamada probabilidad condicionada. Estos cambios en las probabilidades pueden hacer que el suceso estudiado sea más probable, menos probable e incluso no cambie, en cuyo caso diremos que existe independencia. Las probabilidades condicionadas, además, facilitan el cálculo de la probabilidad de algunos sucesos utilizando la información de sucesos que han ocurrido o pudieran ocurrir. Así, el teorema de la probabilidad total y el teorema de Bayes serán especialmente útiles cuando el experimento sigue un cierto proceso por etapas, aunque su aplicación es más diversa. La probabilidad tiene grandes aplicaciones en una amplia variedad de campos, entre ellos, en la Informática. En particular, el teorema de Bayes se aplica al filtrado de correos electrónicos basura o no deseados (spam) tan frecuentes en nuestros días. En todo este tema supondremos que trabajamos con un espacio de probabilidad (Q, .A, P) asociado a un experimento aleatorio, es decir, un espacio muestral, Q, un álgebra o un sigma álgebra, A, y una probabilidad, P.

Desarrollo Ley multiplicativa. Al multiplicar la formula P(B/A) =P( A Ç B)/ P(A) por P( A); obtenemos la siguiente regla multiplicativa, esta es importante porque nos permite calcular la probabilidad de que ocurran dos eventos. Teorema: Si un experimento pueden ocurrir los eventos A y B, entonces P(A Ç B)= P( A) P(B/A). Así la probabilidad de que ocurran A y B es igual a la probabilidad de que ocurra A multiplicada por la probabilidad de que ocurra B, dado que ocurre A. Ø Si los eventos A y B son dependientes:

Ø Si los eventos A y B son independientes:

Ejemplo 1: Se selecciona una muestra aleatoria n = 2 de un lote de 100 unidades, se sabe que 98 de los 100 artículos están en buen estado. La muestra se selecciona de manera tal que el primer artículo se observa y se regresa antes de seleccionar el segundo artículo (con reemplazo), a) calcule la probabilidad de que ambos artículos estén en buen estado, b) si la muestra se toma sin reemplazo, calcule la probabilidad de que ambos artículos estén en buen estado. A: El primer artículo está en buen estado. B: El segundo artículo está en buen estado.

B) Si la muestra se toma “sin reemplazo” de modo que el primer artículo no se regresa antes de seleccionar el segundo entonces:

Dependencia e independencia de sucesos. Independencia: Cuando no se da ningún tipo de relación entre 2 variables o atributos, diremos que son independientes. Dos variables X e Y, son independientes entre sí, cuando una de ellas no influye en la distribución de la otra condicionada por el valor que adopte la primera. Por el contrario existirá dependencia cuando los valores de una distribución condicionan a los de la otra. Dada dos variables estadísticas X e Y, la condición necesaria y suficiente para que sean independientes es:  Propiedades: 1. Si X es independiente de Y, las distribuciones condicionadas de X/Yj son idénticas a la distribución marginal de X. 2. Si X es independiente de Y, Y es independiente de X. 3. Si X e Y son 2 variables estadísticamente independientes, su covarianza es cero. La recíproca de esta propiedad no es cierta, es decir, la covarianza de 2 variables puede tomar valor cero, y no ser independientes. Dependencia funcional: (Existe una relación matemática exacta entre ambas variables) El carácter X depende del carácter Y, si a cada modalidad yj de Y corresponde una única modalidad posible de X. Por lo tanto cualquiera que sea j, la frecuencia absoluta nij vale cero salvo para un valor de i correspondiente a una columna j tal que nij = n.j Cada columna de la tabla de frecuencias tendrá, por consiguiente, un único término distinto de cero. Si a cada modalidad xi de X corresponde una única modalidad posible de Y, será Y dependiente de X. La dependencia de X respecto de Y no implica que Y dependa de X. Para que la dependencia sea recíproca, los caracteres X e Y deben presentar el mismo número de modalidades (debe ser n=m) y en cada fila como en cada columna de la tabla debe haber uno y solo un término diferente de cero.  Sea X el salario de un empleado e Y la antigüedad del mismo en la empresa  Dependencia funcional recíproca: X depende de Y e Y depende de X  Y depende de X pero X no depende de Y

Dependencia estadística: (Existe una relación aproximada) Existen caracteres que ni son independientes, ni se da entre ellos una relación de dependencia funcional, pero si se percibe una cierta relación de dependencia entre ambos; se trata de una dependencia estadística. Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia estadística se conoce como el problema de " regresión ", y el análisis del grado de dependencia que existe entre las variables se conoce como el problema de correlación.

Teorema de Bayes. El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada por el filósofo inglés Thomas Bayes en 1763, que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados. Sea

un conjunto de sucesos mutuamente excluyentes y

exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales probabilidad

viene dada por la expresión:

donde: 

son las probabilidades a priori.



es la probabilidad de



son las probabilidades a posteriori.

Thomas Bayes (1763)

en la hipótesis

.

. Entonces, la

Teoría combinatoria. La teoría combinatoria es una rama de la matemática perteneciente al área de matemáticas discretas que estudia la enumeración, construcción y existencia de propiedades de configuraciones que satisfacen ciertas condiciones establecidas. Es una rama de las matemáticas que estudia las posibles agrupaciones de objetos tomados de un conjunto dado; es de gran importancia en otras ramas de las matemáticas. Por ejemplo, se utiliza para el desarrollo del binomio de Newton; en la teoría de la probabilidad y en estadística (para calcular el número de casos posibles de un sistema). También tiene importantes aplicaciones en el diseño y funcionamiento de ordenadores o computadoras, así como en las ciencias físicas y sociales. De hecho, la teoría combinatoria es de gran utilidad en todas aquellas áreas en donde tengan relevancia las distintas maneras de agrupar un número finito de elementos. Estudia las agrupaciones que pueden ser tomadas cuando se toman todos, o algunos, de los elementos de un conjunto finito. Los elementos del conjunto pueden ser de cualquier naturaleza: números, personas, empresas, artículos producidos por una fábrica, etc. La Teoría Combinatoria estudia especialmente el número de agrupaciones que pueden ser obtenidas bajo algún modo de composición de los elementos. Para ello, distingue básicamente tres conceptos: arreglos, permutaciones y variaciones.

Permutaciones y variaciones. Permutaciones Una permutación es una combinación en donde el orden es importante. La notación para permutaciones es P(n,r) que es la cantidad de permutaciones de “n” elementos si solamente se seleccionan “r”. Es todo arreglo de elementos en donde nos interesa el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo.   

Sí entran todos los elementos. Sí importa el orden. No se repiten los elementos.

Variaciones Se llama variaciones ordinarias de m elementos tomados de n en n (m ≥ n) a los distintos grupos formados por n elementos de forma que:  

No entran todos los elementos. Sí importa el orden.

Ejercicio: ¿De cuantas maneras se pueden agrupar 5 bolas de distintos colores? Solución: Si las bolas tienen colores distintos, digamos amarillo (A), rojo (R), negro (N), verde (V) y marrón (M), se trata de permutarlas para obtener agrupaciones diferentes. Así serian distintas las agrupaciones: ARNVM, MVARN, NRAMV, RAVNM El número total de maneras distintas es: P5 = 5! = 1.2.3.4.5 = 120 Ejercicio: 10 personas se van a sentar en 4 sillas. ¿De cuantas maneras pueden hacerlo? Solución: De las 10 personas se van a seleccionar 4 y estas 4 personas pueden cambiarse entre si de asientos. Se trata entonces de 10,4. Observa que agrupaciones como P1, P2, P3, P4 y P4, P2, P1, P3 son distintas. Luego, el número de agrupaciones son: V10,4 = 10!/6! = 6! 7.8.9.10 / 6! = 5.040

Ejemplos vivenciales 1.- Una lotería de animalitos de la zona tiene en su catálogo 10 aves, 10 peces y 20 mamíferos. En el sorteo de hoy, salió un ave. Entonces, ¿cuál es la probabilidad de que haya salido el búho? Solución: Evento A: Que salga un Ave. Evento B: Que salga el Búho. Claramente, si no se da el evento A (ave), no podría ocurrir el evento B (búho), puesto que el búho es un ave, por lo tanto el evento B está condicionado a que ocurra el evento A. Tenemos que: 𝑃 (𝐴 ) =

10 40

Por otro lado, la intersección del conjunto A(aves) y el conjunto B(búho) es un solo elemento (el búho, claro está). Por lo tanto:

𝑃 (𝐴 ∩ 𝐵 ) =

1 40

Entonces, utilizando la fórmula de probabilidad condicional: 1 𝑃(𝐴 ∩ 𝐵) 40 1 𝑃 ( 𝐵 | 𝐴) = = = = 0,1 10 10 𝑃(𝐴) 40

2.-La línea de transporte que me lleva a la universidad tiene 20 carros. El 60% de ellos tiene los cauchos lisos. A la hora en que voy a la universidad están trabajando todos los carros, pero cuando regreso 4 de los que tienen cauchos buenos no trabajan. Suponiendo que tomar el transporte sea un evento totalmente aleatorio, ¿qué probabilidades hay de que hoy me toquen dos carros con cauchos lisos? Solución: Evento L1: Carro de ida con cauchos lisos. Evento L2: Carro de regreso con cauchos lisos. La ocurrencia de cada evento es independiente del otro (que ocurra uno de ellos, no condiciona la ocurrencia o no del otro). Por lo tanto, P(L2|L1) = P(L2). Entonces, utilizando la ley multiplicativa, tenemos: 𝑃 (𝐿1 ∩ 𝐿2 ) = 𝑃 (𝐿1 ) × 𝑃(𝐿2 |𝐿1 ) = 𝑃 (𝐿1 ) × 𝑃(𝐿2 ) = (

12 12 144 )×( )= = 0,45 20 16 320

3.-Un alumno de la universidad tiene dos rutas posibles para ir a la misma. Debido a múltiples causas (paros, tráfico, accidentes, etc.) la ruta larga (L) sólo le permite llegar puntualmente en un 80%, mientras que la ruta corta (C) en un 90%. El alumno prefiere usar la ruta corta el 70% de las veces. Hoy llegó tarde. ¿Qué probabilidades hay de que haya usado la ruta corta (C)? Solución: Tenemos los siguientes eventos: P(L): Probabilidad de usar la ruta larga P(C): Probabilidad de usar la ruta corta

P(T): Probabilidad de llegar tarde 𝑃(𝑇): Evento contrario al anterior, es decir, probabilidad de llegar puntualmente. Trazamos el siguiente diagrama tipo árbol: 𝑃(𝑇|𝐿) = 0.2 𝑃(𝐿) = 0.3 𝑃(𝑇|𝐿) = 0.8 𝑃(𝑇|𝐶) = 0.1 𝑃(𝐶) = 0.7 𝑃(𝑇|𝐶) = 0.9

Según el Teorema de Bayes, tenemos que: 𝑃(𝐵|𝑇) =

𝑃 ( 𝑇 |𝐵 ) ∗ 𝑃 ( 𝐵 ) 𝑃 (𝑇 )

Donde, para calcular la probabilidad total de llegar tarde, P(T), tomamos los valores mostrados en las ramas más gruesas de nuestro diagrama, quedando como: 𝑃(𝑇) = 𝑃(𝐿) ∗ 𝑃 (𝑇|𝐿 ) + 𝑃(𝐶 ) ∗ 𝑃(𝑇|𝐶 ) = 0,2 ∗ 0,3 + 0,1 ∗ 0,7 = 0,13 Entonces, nos queda que: 𝑃 ( 𝐵 |𝑇 ) =

𝑃(𝑇|𝐵) ∗ 𝑃(𝐵) 0,1 ∗ 0,7 = = 0,5385 𝑃(𝑇) 0,13

4. Combinaciones del Cubo de Rubik: Resumiendo, el número de combinaciones del cubo de Rubik son

8! ∗ 12! ∗ 37 ∗ 211 = 43.252.003.274.489.856.000 2 Y ahora viene la explicación larga de por qué es así. En el siguiente párrafo se resume de dónde sale cada número, pero a partir de ahí lo que queda es una explicación bastante larga que no os recomiendo leer salvo que tengáis mucho interés.

El grupo de todas las permutaciones posibles del Cubo de Rubik es el siguiente: por una parte podemos combinar entre sí de cualquier forma todos los picos lo que da lugar a 8! posibilidades. Con las aristas pasa lo mismo, es decir, que podemos combinarlos como queramos lo que da lugar a 12! posibilidades, pero la permutación total de vertices y aristas debe de ser en total par lo que nos elimina la mitad de las posibilidades. Por otra parte, podemos rotar todos los vértices como queramos salvo uno sin cambiar nada más en el cubo. La orienntación del último vértice vendrá determinada por la que tenga los otros siete y esto nos crea 3^7 posibilidades. Con las aristas pasa lo mismo, es decir, nos aparecen 2^11 posibilidades más. En total tendremos como ya hemos dicho que el número de combinaciones del Cubo de Rubik es de:

43.252.003.274.489.856.000

Conclusión

Con

los

grandes

avances

tecnológicos

hemos

ahorrado

tiempo

para

el análisis estadístico, sin embargo la comprensión de la lógica que se utiliza para llegar a la resolución del mismo es algo que nos ha llevado a determinar que los eventos de mayor interés son aquellos cuya ocurrencia está condicionada a la ocurrencia de otro evento. De aquí que interese introducir el concepto de probabilidad condicional, esto es, la probabilidad condicionada a que haya ocurrido o pudiese ocurrir cierto evento. Las probabilidades son muy útiles, ya que pueden servir para desarrollar estrategias. Por ejemplo, algunos automovilistas parecen mostrar una mayor tendencia a aumentar la velocidad si creen que existe un riesgo pequeño de ser multados; los inversionistas estarán más interesados en invertirse dinero si las posibilidades de ganar son buenas. El punto central en todos estos casos es la capacidad de cuantificar cuan probable es determinado evento. En concreto decimos que las probabilidades se utilizan para expresar cuan probable es un determinado evento.

INFOGRAFÍA

1) http://www.eumed.net/cursecon/libreria/drm/1g.htm 2) http://www.itpn.mx/recursosisc/2semestre/probabilidadyestadistica/Unidad%20II.pdf 3) http://www.rubikaz.com/combinaciones-del-cubo 4) http://www.albayat.net/material/ordenar_rubik.pdf 5) https://easymath2210.wordpress.com/2015/06/14/factoriales-y-teoria-combinatoria/ 6) https://eqowypujo.files.wordpress.com/2015/06/probabilidad-bayesiana-pdf.pdf