PROBABILIDADES

ESTADISTICA Y PROBABILIDADES P D A D I L I B A B O S E R PRESENTADO POR: BARRIOS ROSARIO MAGALY MAGARITA TERCER S

Views 122 Downloads 0 File size 9MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

ESTADISTICA Y

PROBABILIDADES

P

D A D I L I B A B O S E R

PRESENTADO POR:

BARRIOS ROSARIO MAGALY MAGARITA TERCER SEMESTRE C

Definición:  Las Probabilidades pertenecen a la rama de la matemática que estudia ciertos experimentos llamados aleatorios, o sea regidos por el azar, en que se conocen todos los resultados posibles, pero no es posible tener certeza de cuál será en particular el resultado del experimento. Por ejemplo, experimentos aleatorios cotidianos son el lanzamiento de una moneda, el lanzamiento de un dado, extracción de una carta de un mazo de naipes.

 La palabra probabilidad se utiliza para cuantificar nuestra creencia de que ocurra un acontecimiento determinado. Existen tres formas de estimar probabilidades: el enfoque clásico, el cual se aplica cuando todos los resultados posibles que se consideran igualmente probables; el de frecuencias relativas o probabilidad empírica, se refiere a la estimación con base en un gran número de experimentos repetidos en las mismas condiciones. El enfoque subjetivo basado en situaciones especiales, en las cuales no es posible repetir el experimento y sólo usa un grado de confianza personal.

La probabilidad mide la frecuencia con la que se obtiene un resultado y luego al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoria de probabilidad se usa extensamente en áreas como la estadistica, la fisica, la matemátematica , las ciencias y la filosofía para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos.

PODEMOS ENCONTRAR 2 TIPOS DE PROBABILIDADES: a.•  PROBABILIDAD FRECUENTISTA O DE VON MISES (frecuencias relativas 1957) La probabilidad experimental de que ocurra un evento es la frecuencia relativa observada con que ocurre ese evento. Si un experimento se realiza n veces, bajo las mismas condiciones y si ocurren n(A) resultados favorables al evento A, el valor estimado de la probabilidad de que ocurra A como resultado de la experimentación, puede determinarse de la manera siguiente:

Donde n(A) es el número de veces que se observó realmente el evento A, y n es el número de veces que se efectuó el experimento.

•Ejemplo:   De 70 alumnos que se inscribieron al curso de probabilidad y estadística en el semestre anterior. 15 no lo terminaron, 20 obtuvieron una calificación de NA y el resto lo aprobaron, ¿Cuál es la probabilidad de que un alumno acredite la materia?

PROBABILIDAD SUBJETIVA (1969) La probabilidad estimada mediante los enfoques clásicos y experimental, son completamente objetivos, ya que se determinan con base en hechos reales. En cambio, en algunos casos se presentan situaciones en las cuales no es posible realizar experimentos repetitivos y los resultados tampoco son igualmente probables. En estas condiciones, la probabilidad de ocurrencia de un evento debe evaluarse en forma subjetiva. Tales apreciaciones suelen ser de criterio personal, y por lo tanto, dos personas pueden cuantificar en forma diferente, la probabilidad subjetiva del mismo evento. Podemos entonces considerar la probabilidad subjetiva como la evaluación personal de la ocurrencia de un evento incierto.

Axiomas de probabilidades Los •   axiomas de la formulación moderna de la teoría de la probabilidad constituyen una base para deducir a partir de ellas un amplio número de resultados. La letra P se utiliza para designar la probabilidad de un evento, siendo P(A) la probabilidad de ocurrencia de un evento A en un experimento. AXIOMA 1 Si A es un evento de S, entonces la probabilidad del evento A es:

Como no podemos obtener menos de cero éxitos ni más de n éxitos en n experimentos, la probabilidad de cualquier evento A, se representa mediante un valor que puede variar de 0 a 1.

AXIOMA 2 •   Si dos eventos son mutuamente excluyentes, la probabilidad de obtener A o B es igual a la probabilidad de obtener A más la probabilidad de obtener B.

Excluirse mutuamente quiere decir que A y B no pueden ocurrir simultáneamente en el mismo experimento. Así, la probabilidad de obtener águila o sol en la misma tirada de una moneda será

En general podemos decir que la suma de las probabilidades de todos los posibles eventos mutuamente excluyentes es igual a 1:

•AXIOMA   3 Si A es un evento cualquiera de un experimento aleatorio y A’ es el complemento de A, entonces:

Es decir, la probabilidad de que el evento A no ocurra, es igual a 1 menos la probabilidad de que ocurra.

PROPIEDADES Si w1, w2, . . ., wn son los n sucesos elementales de un suceso aleatorio cualquiera una función. p : S → R de modo que cumple las propiedades: 1. 0 ≤ p(wi) ≤ 1 ∀ i ∈ {1, 2, . . . ,n} 2. p(w1) + p(w2) + . . .+ p(wn) = 1 Entonces p es una probabilidad.

Leyes de De Morgan: Si A y B son dos sucesos, se verifican: (A ∪ B) = A ∩ B (A ∩ B) = A ∪ B

Regla de Laplace: Si realizamos un experimento aleatorio en el que hay n sucesos elementales, todos igualmente probables, entonces si A es un suceso, la probabilidad de que ocurra el suceso A es:

P

A I R O TE DE S E D A D I L I B A B O R

Regla de la adición •  

Suponiendo que P(A) y P(B) representan las probabilidades para los dos eventos A y B, entonces P(A B) significa la probabilidad de que ocurran A o B. Si representamos los eventos A y B en un Diagrama de Venn con

Entonces A y B son conjuntos disjuntos o mutuamente excluyentes, o sea que no pueden ocurrir en forma simultánea

•En  cambio, si ambos eventos tienen puntos muestrales en común

Regla de la multiplicación • La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales. • P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes

Aplicaciones teoría de la probabilidad

• Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto.

Investigación biomédica Muestreo en estadística • La mayoría de las investigaciones biomédicas utilizan muestras de probabilidad, es decir, aquellas que el investigador pueda especificar la probabilidad de cualquier elemento en la población que investiga. Las muestras de probabilidad permiten usar estadísticas inferenciales, aquellas que permiten hacer inferencias a partir de datos. Por otra parte, las muestras no probabilísticas solo permiten usarse estadísticas descriptivas, aquellas que solo permiten describir, organizar y resumir datos. Se utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias simples, muestras aleatorias estratificadas, muestra por conglomerados y muestras sistemáticas.

Espacio muestral espacio muestral consiste en el conjunto de todos los posibles resultados individuales de un experimento aleatorio. Para algunos tipos de experimento puede haber dos o más espacios de muestreo posibles. Por ejemplo, cuando se toma una carta de un mazo normal de 52 cartas, una posibilidad del espacio de muestreo podría ser el número, mientras que otra posibilidad sería el palo . Una descripción completa de los resultados, sin embargo, especificaría ambos valores, número y palo, y se podría construir un espacio de muestreo que describiese cada carta individual como el producto cartesiano de los dos espacios de muestreo descritos. Los espacios de muestreo aparecen de forma natural en una aproximación elemental a la probabilidad, pero son también importantes en espacios de probabilidad. Un espacio de probabilidad (Ω, F, P) incorpora un espacio de muestreo de resultados, Ω, pero define un conjunto de sucesos de interés, la σ-álgebra F, por la cuál se define la medida de probabilidad P.

TIPOS DE ESPACIO MUESTRAL Podemos diferenciar entre dos tipos de espacios muestrales: discretos y continuos. Discretos: Son aquellos espacios donde el número de sucesos elementales es finito o infinito numerable. Espacio Probabilístico discreto: Es aquel cuyo espacio muestral es discreto.Podemos diferenciar varios tipos de espacio probabilístico discreto:

 Espacio Probabilistico Discreto

Equiprobable: Su espacio muestral es finito de tamaño n. La probabilidad de cualquier suceso elemental E es

, de aquí se deduce que para todo suceso A la probabilidad es Espacio Probabilistico Finito Su espacio muestral es discreto finito. Hay al menos 2 sucesos elementales que cumplen.

SUCESO Un suceso de un experimento aleatorio es cualquier cosa que se nos ocurra afirmar sobre dicho experimento.

suceso imposible: No tiene ning´un elemento y lo representaremos por ∅ . suceso seguro: Formado por todos los posibles resultados (es decir, al espacio muestral). espacio de sucesos: y lo representaremos por S, al conjunto de todos los sucesos aleatorios.

OPERACIONES CON SUCESOS 1. Igualdad de sucesos: Dos sucesos A y B son iguales si están compuestos por los mismos elementos (A = B). 2. Intersección de sucesos: Llamaremos suceso intersección de los sucesos A y B, al suceso que ocurre en A y B a la vez (A∩B). En ocasiones podremos encontrarnos con sucesos que NO tengan elementos en común. En estos casos se dice que los sucesos A y B son incompatibles, y su intersección se representa con el conjunto vacío: A∩B=∅ Evidentemente, si los sucesos sí tienen intersección, diremos que son compatibles.

3. Unión de sucesos: (A∪B) Suceso que ocurre en A o en B, Es decir (A∪B) son los elementos que están en ambos conjuntos (aunque no necesariamente en los dos a la vez).

4. Suceso contrario de otro: Dado un suceso A, denominaremos suceso contrario A al suceso que tiene por elementos a todos aquellos que no pertenecen a A.

6. Diferencia de sucesos: Si A y B son dos sucesos, llamaremos diferencia entre A y B al suceso B−A, que consta de los elementos que están en B pero no están en A.

Propiedades de las operaciones con sucesos. Las operaciones con sucesos tienen las siguientes propiedades

Procesos Estocasticos Finitos Y Diagramas de Árbol •   Un proceso estocástico es una sucesión finita de experimentos aleatorios, cada uno de ellos con un nº finito de resultados posibles. Se representan con diagrama de árbol. Por ejemplo, imaginemos que se lanza una moneda y un dado de seis caras. La probabilidad de obtener un resultado particular corresponde a la multiplicación de sus probabilidades. Es decir, la probabilidad de obtener «cara» y un tres será:

Ahora bien, la probabilidad de un suceso cualquiera es la suma de las probabilidades de los distintos resultados aislados posibles. Así, la probabilidad de sacar siempre un resultado impar en los dados, independientemente del resultado de la moneda, será:

Espacio Probabilistico Infinito Contable Aquel cuyo espacio muestral es discreto infinito contable. Por ejemplo La probabilidad de que salga cara en la primera tirada ----> La probabilidad de que salga cara en la segunda tirada ----> La probabilidad de que salga cara en la tercera tirada ---->

•   Espacio Probabilistico Infinito Contable Aquel cuyo espacio muestral es discreto infinito contable. Por ejemplo • La probabilidad de que salga cara en la primera tirada ----> • La probabilidad de que salga cara en la segunda tirada ----> • La probabilidad de que salga cara en la tercera tirada ---->

Continuos Son aquellos espacios donde el número de sucesos elementales es infinito incontable. Espacio probabilístico continuo • Espacio muestral infinito no numerable. -No es posible observar puntos concretos del espacio. • Tiene sentido hablar de intervalos observados. - No es posible asignar probabilidad a un punto concreto, se asigna a intervalos. • Por tanto la función P está definida sobre intervalos ----->

- Habitualmente cuando trabajamos con magnitudes físicas.

DISTRIBUCION DE PROBABILIDAD En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria. La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x.

La distribucion normal se conoce como la CAMPANA DE GAUSS

Distribución binomial • La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o si/no. • Para aplicar esta distribución al calculo de la probabilidad de obtener un número dado de éxitos en una serie de experimentos en un proceso de Bermnoulli, se requieren tres valores: el número designado de éxitos (m), el número de ensayos y observaciones (n); y la probabilidad de éxito en cada ensayo (p). Entonces la probabilidad de que ocurran m éxitos en un experimento de n ensayos es: P (x = m) = (nCm)(Pm)(1−P)n−m Siendo: nCm el número total de combinaciones posibles de m elementos en un conjunto de n elementos. En otras palabras P(x = m) = [n!/(m!(n−m)!)](p m)(1−p)n−m

DISTRIBUCIONES DISCRETAS Las distribuciones discretas incluidas en el módulo de “Cálculo de probabilidades” son: Uniforme discreta. Binomial. Hipergeométrica. Geométrica. Binomial Negativa. Poisson.

Distribución Uniforme discreta

Describe el comportamiento de una variable discreta que puede tomar n valores distintos con la misma probabilidad cada uno de ellos. Esta distribución asigna igual probabilidad a todos los valores enteros entre el límite inferior y el límite superior que definen el recorrido de la variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b sea mayor que a, y la variable toma los valores enteros empezando por a, a+1, a+2, etc. hasta el valor máximo b.

Distribución Hipergeométrica (N,R,n) La distribución hipergeométrica suele aparecer en procesos muestrales sin reemplazo, en los que se investiga la presencia o ausencia de cierta característica. En esta situación, la variable que cuenta el número de cápsulas que no cumplen los criterios de calidad establecidos sigue una distribución hipergeométrica. Por tanto, esta distribución es la equivalente a la binomial, pero cuando el muestreo se hace sin reemplazo.

• Esta distribución se puede ilustrar del modo siguiente: se tiene una población finita con N elementos, de los cuales R tienen una determinada característica que se llama “éxito” (diabetes, obesidad, hábito de fumar, etc.). El número de “éxitos” en una muestra aleatoria de tamaño n, extraída sin reemplazo de la población, es una variable aleatoria con distribución hipergeométrica de parámetros N, R y n. Cuando el tamaño de la población es grande, los muestreos con y sin reemplazo son equivalentes, por lo que la distribución hipergeométrica se aproxima en tal caso a la binomial.

Valores: x: max{0,n-(N-R)}, ..., min{R,n}, donde max{0,n(N-R)} indica el valor máximo entre 0 y n-(N-R) y min{R,n} indica el valor mínimo entre R y n. Parámetros: N: tamaño de la población, N>0 entero R: número de éxitos en la población, R³0 entero n: número de pruebas, n>0 entero

DEFINICION DE FUNCION DE DISTRIBUCION •  Dada una variable aleatoria , su función de distribución,, es

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice y se escribe, simplemente, .

Propiedades Como consecuencia casi inmediata de la definición, la función de distribución: Es una función continua por la derecha. Es una función monótona no decreciente. Además, cumple Para dos números reales cualesquiera y tal que , los sucesos y son mutuamente excluyentes y su unión es el suceso , por lo que tenemos entonces que:

TECNICAS DE CONTEO El principio fundamental en el proceso de contar ofrece un método general para contar el numero de posibles arreglos de objetos dentro de un solo conjunto o entre carios conjuntos. Las técnicas de conteo son aquellas que son usadas para enumerar eventos difíciles de cuantificar.

Si un evento A puede ocurrir de n1 maneras y una vez que este ha ocurrido, otro evento B puede n2 maneras diferentes entonces, el número total de formas diferentes en que ambos eventos pueden ocurrir en el orden indicado, es igual a n1 x n2. n un número entero positivo, el producto n (n-1) (n-2)...3 x 2 x 1 se llama factorial de n. El símbolo ! se lee factorial y es el producto resultante de todos los enteros positivos de 1 a n; es decir, sea n 5! = 5 x 4 x 3 x 2 x 1 = 120 Por definición 0! = 1

• • • •

Si, sin embargo, hay un gran número de posibles resultados tales como el número de niños y niñas por familias con cinco hijos, sería tedioso listar y contar todas las posibilidades. Las posibilidades serían, 5 niños, 4 niños y 1 niña, 3 niños y 2 niñas, 2 niños y 3 niñas, etc. Para facilitar el conteo examinaremos tres técnicas:   * La técnica de la multiplicación * La tecnica aditiva * La técnica de la permutación

Ya explicadas anterior mente.

Distribución Geométrica (p) Supóngase, que se efectúa repetidamente un experimento o rueba, que las repeticiones son independientes y que se está interesado en la ocurrencia o no de un suceso al que se refiere como “éxito”, siendo la probabilidad de este suceso p. La distribución geométrica permite calcular la probabilidad de que tenga que realizarse un número k de repeticiones hasta obtener un éxito por primera vez

Esta distribución presenta la denominada “propiedad de Harkov” o de falta de memoria, que implica que la probabilidad de tener que esperar un tiempo t no depende del tiempo que ya haya transcurrido.

Distribución Binomial negativa (r,p) Una generalización obvia de la distribución geométrica aparece si se supone que un experimento se continúa hasta que un determinado suceso, de probabilidad p, ocurre por résima vez. La variable aleatoria que proporciona la probabilidad de que se produzcan k fracasos antes de obtener el r-ésimo éxito sigue una distribución binomial negativa de parámetros r y p, BN(r,p). La distribución geométrica corresponde al caso particular en que r=1.

Distribución Poisson (lambda) La distribución de Poisson, que debe su nombre al matemático francés Simeón Denis Poisson (17811840), ya había sido introducida en 1718 por Abraham De Moivre como una forma límite de la distribución binomial que surge cuando se observa un evento raro después de un número grande de repeticiones10. En general, la distribución de Poisson se puede utilizar como una aproximación de la binomial, Bin(n, p), si el número de pruebas n es grande, pero la probabilidad de éxito p es pequeña; una regla es que la aproximación Poisson-binomial es “buena” si n³20 y p£0,05 y “muy buena” si n³100 y p£0,01.

La distribución de Poisson también surge cuando un evento o suceso “raro” ocurre aleatoriamente en el espacio o el tiempo. La variable asociada es el número de ocurrencias del evento en un intervalo o espacio continuo, por tanto, es una variable aleatoria discreta que toma valores enteros de 0 en adelante (0, 1, 2,...). Así, el número de pacientes que llegan a un consultorio en un lapso dado, el número de llamadas que recibe un servicio de atención a urgencias durante 1 hora, el número de células anormales en una superficie histológica o el número de glóbulos blancos en un milímetro cúbico de sangre son ejemplos de variables que siguen una distribución de Poisson

El concepto de evento “raro” o poco frecuente debe ser entendido en el sentido de que la probabilidad de observar k eventos decrece rápidamente a medida que k aumenta. Supóngase, por ejemplo, que el número de reacciones adversas tras la administración de un fármaco sigue una distribución de Poisson de media lambda=2. Si se administra este fármaco a 1.000 individuos, la probabilidad de que se produzca una reacción adversa (k=1) es 0,27; los valores de dicha probabilidad para k=2, 3, 4, 5, 6 reacciones, respectivamente, son: 0,27; 0,18; 0,09; 0,03 y 0,01. Para k=10 o mayor, la probabilidad es virtualmente 0

DISTRIBUCIONES CONTINUAS Las distribuciones continuas incluidas en el módulo de “Cálculo de probabilidades” son:  Uniforme  Normal  Lognormal  Logística  Beta  Gamma  Exponencial  Ji-cuadrado  t de Student  F de Snedecor

Distribución Uniforme (a,b) La distribución uniforme es útil para describir una variable aleatoria con probabilidad constante sobre el intervalo [a,b] en el que está definida. Esta istribución presenta una peculiaridad importante: la probabilidad de un suceso dependerá exclusivamente de la amplitud del intervalo considerado y no de su posición en el campo de variación de la variable.

Distribución Normal (Mu, Sigma)

La distribución normal es, sin duda, la distribución de probabilidad más importante del Cálculo de probabilidades y de la Estadística. Fue descubierta por De Moivre (1773), como aproximación de la distribución binomial. De todas formas, la importancia de la distribución normal queda totalmente consolidada por ser la distribución límite de numerosas variables aleatorias, discretas y continuas, como se demuestra a través de los teoremas centrales del límite.

Las consecuencias de estos teoremas implican la casi universal presencia de la distribución normal en todos los campos de las ciencias empíricas: biología, medicina, psicología, física, economía, etc. En particular, muchas medidas de datos continuos

Distribución Lognormal (Mu, Sigma) La variable resultante al aplicar la función exponencial a una variable que se distribuye normal con media Mu y desviación estándar Sigma, sigue una distribución lognormal con parámetros Mu (escala) y Sigma (forma). Dicho de otro modo, si una variable X se distribuy normalmente, la variable lnX, sigue una distribución lognormal.

Distribución Logística (a, b) La distribución logística se utiliza en el estudio del crecimiento temporal de variables, en particular, demográficas. En biología se ha aplicado, por ejemplo, para modelar el crecimiento de células de levadura, y para representar curvas de dosisrespuesta en bioensayos.

Distribución Beta (p,q) La distribución beta es posible para una variable aleatoria continua que toma valores en el intervalo [0,1], lo que la hace muy apropiada para modelar proporciones. En la inferencia bayesiana, por ejemplo, es muy utilizada

Distribución Gamma (a,p) La distribución gamma se puede caracterizar del modo siguiente: si se está interesado en la ocurrencia de un evento generado por un proceso de Poisson de media lambda, la variable que mide el tiempo transcurrido hasta obtener n ocurrencias del evento sigue una distribución gamma con parámetros a= n´lambda (escala) y p=n (forma). Se denota Gamma(a,p). Por ejemplo, la distribución gamma aparece cuando se realiza el estudio de la duración de elementos físicos (tiempo de vida).

Esta distribución presenta como propiedad interesante la “falta de memoria”. Por esta razón, es muy utilizada en las teorías de la fiabilidad, mantenimiento y fenómenos de espera (por ejemplo en una consulta médica “tiempo que transcurre hasta la llegada del segundo paciente”).

Distribución Exponencial (lambda) La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que interesa saber el tiempo hasta que ocurre determinado evento; en particular, se utiliza para modelar tiempos de supervivencia. Un ejemplo es el tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza, por ejemplo, para la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14.

Una característica importante de esta distribución es la propiedad conocida como “falta de memoria”. Esto significa, por ejemplo, que la probabilidad de que un individuo de edad t sobreviva x años más, hasta la edad x+t, es la misma que tiene un recién nacido de sobrevivir hasta la edad x. Dicho de manera más general, el tiempo transcurrido desde cualquier instante dado t0 hasta que ocurre el evento, no depende de lo que haya ocurrido antes del instante t0.

El uso de la distribución exponencial ha sido limitado en bioestadística, debido a la propiedad de falta de memoria que la hace demasiado restrictiva para la mayoría de los 1problemas.

Distribución Ji-cuadrado (n) Un caso especial, muy importante, de la distribución Gamma se obtiene cuando a=1/2 y p=n/2. La distribución resultante se conoce con el nombre de Ji-cuadrado con n grados de libertad. Es la distribución que sigue la suma de los cuadrados de n variables independientes N(0,1).

Distribución t de Student (n) La distribución t de Student se construye como un cociente entre una normal y la raíz de una Jicuadrado independientes. Esta distribución desempeña un papel importante en la inferencia estadística asociada a la teoría de muestras pequeñas. Se usa habitualmente en el contraste de hipótesis para la media de una población, o para comparar las medias de dos poblaciones, y viene definida por sus grados de libertad n.

A medida que aumentan los grados de libertad, la distribución t de Student se aproxima a una normal de media 0 y varianza 1 (normal estándar). Campo de variación: -¥ < x < ¥ Parámetros: n: grados de libertad, n>0

Distribución F de Snedecor (n,m) Otra de las distribuciones importantes asociadas a la normal es la que se define como el cociente de dos variables con distribución Ji-cuadrado divididas por sus respectivos grados de libertad, n y m.

En este caso la variable aleatoria sigue una distribución F de Snedecor de parámetros n y m. Hay muchas aplicaciones de la F en estadística y, en particular, tiene un papel importante en las técnicas del análisis de la varianza y del diseño de experimentos.