REPASO DE ESTADISTICA Estadística Descriptiva Medidas de Tendencia Central Son indicadores estadísticos que muest
Views 167 Downloads 3 File size 710KB
REPASO DE ESTADISTICA
Estadística Descriptiva
Medidas de Tendencia Central
Son indicadores estadísticos que muestran hacia que valor (o valores se agrupan los datos.
Medidas: Media Moda Mediana
Tipos de Medidas
Media (promedio). Es la suma de todos los valores divido para el numero de ellos (promedio simple). MUESTRAL n
X
X i 1
i
n
Ventajas
Es la medida de tendencia central más usada.
Desventajas
Es sensible a cualquier cambio en los datos (puede ser usado como un detector de variaciones en los datos).
Se emplea a menudo en cálculos estadísticos posteriores.
En la gráfica de frecuencia representa el centro de gravedad.
Es sensible a los valores extremos. No es recomendable emplearla en distribuciones muy asimétricas. Si se emplean variables discretas o cuasi-cualitativas, la media aritmética puede no pertenecer al conjunto de valores de la variable.
Tipos de Medidas
Mediana. Es un indicador en divide en dos partes iguales la base de datos. Para
su calculo deben ordenarse primero los datos de menor a mayor. Luego dependiendo del número de datos se escoge la tendencia. Ventajas
Es estable a los valores extremos.
Desventajas
Es recomendable para distribuciones muy asimétricas
No presenta todo el rigor matemático. Se emplea solo en variables cuantitativas
Tipos de Medidas.
Moda. Es el dato que más se repite en la base de datos. En el caso de que dos valores presenten la misma frecuencia, decimos que existe un conjunto de datos bimodal. Para más de dos modas hablaremos de un conjunto de datos multimodal
Ventajas
· Es estable a los valores extremos.
·
Es recomendable para el tratamiento de variables cualitativas
Desventajas
Pueda que no se presente. Puede existir más de una moda. En distribuciones muy asimétricas suele ser un dato muy poco representativo. Carece de rigor matemático.
Tipos de Medidas. Asimetría.-
Mide el grado de asimetría de la distribución con respecto a la media. Un valor positivo de este indicador significa que la distribución se encuentra sesgada hacia la izquierda (orientación positiva). Un resultado negativo significa que la distribución se sesga a la derecha. La distribución se considera simétrica si el valor del coeficiente es cero.
Tipos de Medidas. Curtosis.-
Indica que tan apuntada o plana se encuentra una distribución respecto a un comportamiento normal (distribución normal). Si los datos están muy concentrados hacia la media, la distribución es leptocúrtica (curtosis mayor a 0). Si los datos están muy dispersos, la distribución es platicúrtica (curtosis menor a 0). El comportamiento normal exige que la curtosis sea igual a 0 (distribución mesocúrtica).
Medidas de Posición
Son indicadores estadísticos que muestran la frecuencia acumulada hasta un valor k cualquiera.
Analizaremos tres medidas de posición: Percentiles Deciles Cuartiles La base de estos indicadores es encontrar el valor de la variable a partir de un porcentaje de datos acumulados, de forma similar como se hizo con la mediana
Medidas de posición
Percentiles: Los percentiles representan los valores de la variable que están por debajo de un porcentaje, el cual puede ser un valor entre 1% y 100%. El total de los datos es divido en 100 partes iguales.
La notación empleada es:
Pk
donde k es el porcentaje de datos acumulados, y Pk es el valor de la variable que representa dicho porcentaje. Por ejemplo, P5 es el valor de la variable que deja por debajo el 5%. P50 es el valor que divide en dos parte iguales la cantidad de datos (es la mediana)
Al igual como sucede con la mediana, pueden existir problemas en el cómputo de los percentiles, ya que puede existir el caso de que no exista el dato que acumule un determinado porcentaje. De darse esta situación, el percentil se determinará en función a la distancia de los valores por los que se ve rodeado, empleando una regla de tres.
Medidas de posición
Deciles: Los deciles, denotados por Dk, son derivaciones del calculo de percentiles, ya que consisten en la división de los datos en 10 partes iguales. D1 P10 :
D2 P20 : D3 P30 :
Valor de la variable que agrupa el 10% de los datos. Valor de la variable que agrupa el 20% de los datos. Valor de la variable que agrupa el 30% de los datos.
D4 P40
:
Valor de la variable que agrupa el 40% de los datos.
D5 P50
:
D6 P60
:
Valor de la variable que agrupa el 50% de los datos. Valor de la variable que agrupa el 60% de los datos. Valor de la variable que agrupa el 70% de los datos.
D7 P70 : D8 P80 : D9 P90 : D10 P100 :
Valor de la variable que agrupa el 80% de los datos. Valor de la variable que agrupa el 90% de los datos. Valor de la variable que agrupa el 100% de los datos.
Medidas de posición
Quartiles: Denotados por Qk, los cuales en cambio provienen de la división de los datos en 4 partes iguales.
Q1 P25 : Q2 P50 : Q3 P75 : Q4 P100 :
Valor de la variable que agrupa el 25% de los datos. Valor de la variable que agrupa el 50% de los datos. Valor de la variable que agrupa el 75% de los datos. Valor de la variable que agrupa el 100% de los datos
Medidas de desviación
Desviación Media.- Equivale a la división de la sumatoria del valor absoluto de las distancias existentes entre cada dato y su media aritmética, y el número total de datos.
n
Dm
X i 1
i
n
X
Medidas de desviación
Varianza : Es el resultado de la división de la sumatoria de las distancias existentes entre cada dato y su media aritmética elevadas al cuadrado, y el número total de datos. MUESTRAL
X
2
n
S2
i 1
i
X
n 1
Hay que tomar en cuenta que al elevar las distancias al cuadrado, automáticamente se elevan las unidades. Por ejemplo, si unidad trabajada en los datos es centímetros, la varianza da como resultados centímetros al cuadrado
Medidas de desviación
Desviación estándar típica : Es igual a la raíz cuadrada de la varianza. MUESTRAL
X
2
n
S S 2
i 1
i
X
n 1
Habíamos visto que la varianza transforma todas las distancias a valores positivos elevándolas al cuadrado, con el inconveniente de elevar consigo las unidades de los datos originales. La desviación estándar soluciona el problema obteniendo la raíz cuadrada de la varianza, consiguiendo así, un valor similar a la desviación media.
Medidas de desviación
Coeficiente de variación.- Permite comparar la dispersión entre dos poblaciones distintas e incluso, comparar la variación producto de dos variables diferentes (que pueden provenir de una misma población).
El coeficiente de variación elimina la dimensionalidad de las variables y tiene en cuenta la proporción existente entre una medida de tendencia y la desviación típica o estándar.
Equivale a la razón entre la desviación típica o estándar y la media
Cv
S X
MUESTRAL
También se puede calcular un coeficiente de variación utilizando la mediana, en ese caso se denomina “coeficiente de variación mediano”
Medidas de Asociación
Se utilizan para medir la relación existente entre 2 variables.
Covarianza Correlación
Medidas de asociación
Covarianza.- Es una medida de relación entre 2 variables.
1 n S xy ( X i X )(Yi Y ) n 1 i 1
Sin embargo, tiene un problema debido a que es el producto de la multiplicación de 2 variables.
Medidas de asociación
Correlación.- Mide el grado de relación lineal entre las variables
r xy
Sxy Sx2 Sy 2
Desaparece el problema de a-dimensionamiento. Es un valor que se encuentra entre -1 y 1.
Coeficiente de Spearman
La correlación de Spearman mide el grado de asociación entre dos variables cuantitativas que siguen una tendencia siempre creciente o siempre decreciente. Es más general que el Coeficiente de correlación de Pearson, la correlación de Spearman, en cambio se puede calcular para relaciones exponenciales o logarítmicas entre las variables.
Estadística inferencial
Probabilidades
Teoría de la probabilidad: Se encarga del estudio de los fenómenos o experimentos aleatorios
Experimento aleatorio: Es aquel ejercicio que cuando se lo repite bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo. El ejemplo mas sencillo y cotidiano de un experimento aleatorio es el de lanzar una moneda o un dado. En principio, no se sabe cual será el resultado del experimento aleatorio, así que por lo menos conviene agrupar en un conjunto a todos los resultados posibles.
Espacio muestral: Es el conjunto de todos los posibles resultados de un experimento aleatorio ().
Evento: Es cualquier subconjunto del espacio muestral.
Probabilidades
Ejemplo.- Si un experimento aleatorio consiste en lanzar un dado y observar el número que aparece en la cara superior, cuál es el espacio muestral?
Un evento de este espacio puede ser el conjunto {2,4,6}, que no es más que obtener un número par como resultado del experimento.
Probabilidades
Teoría de conjuntos
Unión:
Intersección:
Complemento:
Diferencia o exclusión:
Probabilidades
Teoría de la probabilidad La probabilidad de un evento representa una medida de la frecuencia con la sucede el evento en un experimento aleatorio. Probabilidad Clásica: Sea A un subconjunto de (un espacio muestral finito), entonces la probabilidad se define como:
P A
A
Válido para espacios muestrales finitos
Probabilidades
Axiomas
P(A) 0 0 P(A) 1 P() = 1 P(A B) = P(A) + P(B), si A B = P() = 0 P(Ac) = 1 – P(A) Si A B, P(A) P(B) P(A B) = P(A) + P(B) – P(A B), si A B
Probabilidades
Probabilidad condicional
Sean A y B dos eventos. Se define la probabilidad condicional del evento A dado el evento B (denotado por P(A/B) de la siguiente manera:
P A B P A B P B
Aquí, el evento B representa la información adicional acerca del experimento aleatorio.
Por ejemplo, consideremos el experimento de lanzar un dado. Sean los eventos A={2}, B={2,4,6}. Entonces la probabilidad de que salga el número 2 dado solo el suceso de número pares es: P( A / B)
1/ 6 1/ 3 3/ 6
Probabilidades
Probabilidad condicional Se dice que dos eventos A y B son independiente si y solo si: P A B P A P B
Lo cual implica: P A B
P A B P A P B P A P B P B
En otras palabras, no existe información adicional del evento que aporte al conocimiento del suceso del evento.
Por ejemplo, si se asume que el hecho de tener altos ingresos es independiente del sexo que posea el individuo, en una población donde individualmente estos eventos están asociados al siguiente esquema de probabilidad:
Probabilidades
Probabilidad condicional Ingresos
Evento
Descripción
A
Ingresos Bajos
B
Ingresos Altos
Sexo Probabilidad
Evento
Descripción
Probabilidad
0.75
A'
Masculino
0.4
0.25
B'
Femenino
0.6
Entonces, la probabilidad de ser hombre (evento A’) y tener altos ingresos (evento B) es:
P A ' B P A ' P B 0.4 0.25 0.1
O la probabilidad de ser mujer (evento B’ ) y tener bajos ingresos (evento A ) es:
P B ' A P B ' P A 0.6 0.75 0.45
Variables aleatorias
Una variable aleatoria transforma los eventos de un espacio muestral en eventos numéricos.
Una variable X se dice aleatoria cuando toma valores con determinadas probabilidades
El conjunto de valores que una variable aleatoria puede tomar, se puede clasificar en dos tipos: discretas y continuas.
Variables discretas.- Decimos que una variable aleatoria es discreta cuando el conjunto de valores que ésta variable toma puede asociarse a los números enteros.
Variables continuas.- Decimos que una variable aleatoria es continua cuando el conjunto de valores que ésta variable toma puede asociarse a los números reales.
Variables aleatorias Función de densidad o de probabilidad de una variable discreta X: es la función que asigna a cada valor que puede tomar la variable, la probabilidad con la que eso sucede. Se puede expresar mediante una fórmula f(x), ó mediante una tabla. La función de densidad cumple: 1.- f(x)≥0 para todo valor que pueda tomar la variable.
2.-
f ( x) 1
x
La función de distribución de una variable discreta X es la función que asigna a cada valor que puede tomar la variable, la probabilidad de que tome ese valor, o cualquier valor inferior.
F ( xi ) P( X xi )
Esperanza matemática La esperanza matemática o valor esperado de una variable aleatoria discreta es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso.
E X xi P( X xi ) xi p( xi ) i
i
X
P(X)
X P(X)
-1 0 1 2 3
.1 .2 .4 .2 .1
-.1 .0 .4 .4 .3 1.0
Propiedades de la esperanza Sean a, b y c constantes: (1)
E (c) c
(2)
E ( X Y ) E ( X ) E (Y )
(3)
E (aX b) aE( X ) b
Varianza matemática Se utiliza para estudiar el comportamiento de los valores de la variable aleatoria en función de la media o valor esperado
2 Var( X ) E (( X ) 2 ) 2 ( x ) P( X xi ) i i
X
P(X)
X
-1 0 1 2 3
.1 .2 .4 .2 .1
-2 -1 0 1 2
( X ) ( X ) P( X ) 2
4 1 0 1 4
2
.4 .2 .0 .2 .4 1.2
Propiedades de la varianza Sean a, b y c constantes: (1) Var(c) 0 (2) Var( X Y ) Var( X ) Var(Y ), ssi X y Y son ind. (3) Var(aX b) a 2Var( X )
Funciones Discretas Sencillas
Distribución de Bernulli.- Se produce en experimentos sencillos en los que solamente hay dos resultados posibles, tales como cara y cruz, éxito o fracaso, etc.
Distribución de Binomial.- Consiste en contar el número de éxitos en n ensayos de Bernoulli
X B p, n donde p constituye la probabilidad de éxito y n el numero de ensayos que se realizan
n x n x P( X x) p q x © Edwin Buenaño - Estadística II PUCE
Funciones Discretas Sencillas Distribución de Poisson Dado un suceso que aparece de esporádicamente, en un intervalo de tiempo o un espacio dado, ¿cuál es la probabilidad de que se haya dado x veces?
f ( x) e
x
x!
x 0,1,2,...
: número medio o esperado de ocurrencias
Funciones Discretas Sencillas Distribución de Hipergeométrica.- Una variable tiene distribución n hipergeométrica siempre y cuando proceda de una muestra de tamaño n , sin reemplazamiento, de un conjunto finito de N objetos donde existen K elementos con una característica en particular. Aquí, la variable cuenta el número de elementos con dicha característica obtenidos al realizar la muestra.
X H N, K
Aplicación:
Por ejemplo, al momento de revisar deberes, cuando de un lote pequeño de tamaño N con K deberes con error se extrae una muestra aleatoria de tamaño n , la probabilidad de encontrar un determinado número de deberes con error en lac muestra se puede calcular mediante la distribución hipergeométrica. k N k x nx P ( X x) N © Edwin Buenaño - Estadística II PUCE n
Funciones Continuas
Dado que entre dos datos continuos siempre existe otro dato continuo, se puede conseguir una agrupación mas fina de los mismos mediante los intervalos de clase; situación que no sucede con los números enteros Este hecho permite conseguir una curva mas continua del polígono de frecuencias Sin embargo, como el número de valores que puede tomar una variable continua es infinito, la probabilidad puntual de que suceda uno de ellos es nula. Por lo tanto, solo es posible determinar probabilidades de intervalos con este tipo de variables
DEFINICION (Función de densidad): Dada una variable aleatoria continua X decimos que f(x) es una función de densidad, si la probabilidad de que X tome valores en el intervalo (a,b) es igual al área encerrada por la gráfica de f(x), el eje x y las rectas x=a, x=b. Se cumple: 1.- f(x)≥0 para todo valor de x 2.-
f ( x)dx 1
Funciones Continuas En estas condiciones, P(a ≤ X ≤ b) (es decir, la probabilidad de que la variable X esté entre los valores a y b), se calcula como:
b
P ( a X b) f ( x ) dx a
f(x)
a
b
Funciones Continuas DEFINICION (Función de distribución): Dada una variable aleatoria continua X, con función de densidad f(x), la función de distribución F(x) es la función que para cada valor de la variable nos da la probabilidad de que X tome ese valor, o cualquier otro inferior. x
F ( x) P ( X x) f (t )dt a
Funciones Continuas La función de distribución cumple:
1. La derivada de la función de distribución, es la función de densidad.
F ' ( x) f ( x)
2. Se verifica:
P(a X b) F (b) F (a)
a, b
Funciones Continuas
Distribución Uniforme.- Se produce en experimentos cuando los posibles resultados pueden darse equiprobablemente dentro de un determinado intervalo de valores. X U a, b
x
xa P X x ba
a, b
Funciones Continuas
Distribución Normal.- Se produce en experimentos cuando los posibles resultados pueden concentrarse alrededor de un valor central y repartirse inferiormente en los extremos X N ,
x x
P X x
1 x 2 1 exp x 2 2
a, b
Funciones Continuas
Distribución Normal Estandar.- Este tipo de distribución es simplemente una transformación de la variable normal, de manera que consiga media 0 y desviación 1:
Z
X
N 0,1
a, b
Funciones Continuas
Distribución muestral.- Si X1, X2, …, Xn es una muestra aleatoria de una población normal con media x y varianza x, entonces la media muestral sigue una distribución:
x N ( x ; / n) 2 x
Una distribución muestral es una distribución de probabilidad donde la variable aleatoria es un estimador, como la media muestral o la varianza muestral.
a, b
Funciones Continuas
Distribución t-student.- Está estrechamente relacionada con la distribución normal
x N ( x ; x2 / n) x x Z N (0;1) x / n
La variable Z sigue una distribución normal estándar, siempre que se conozca x y x. Suponiendo que sólo conocemos x y n estimamos x a partir de su estimador muestral: ( xi x ) 2 Sx
i 1
n 1
Sustituyendo x por Sx, es decir, la desviación estándar de la población por la desviación de la muestra, se obtiene una nueva variable:
x x t t( n 1) Sx / n
a, b
Funciones Continuas t
x x t( n 1) Sx / n
Esta variable sigue una distribución t de student con (n-1) grados de libertad (g.l) La distribución t tiene un único parámeto que son los grados de libertad
Propiedades:
Es simétrica
La media es 0 y la varianza es k/(k-2), donde k representa los grados de libertad
a, b
Funciones Continuas
Distribución Ji-Cuadrado.- El cuadrado de una variable normal estándar se distribuye siguiendo una distribución de probabilidad Jicuadrado (c2) con un grado de libertad
Z 2 c (21) Sean ahora Z1, Z2, Z3, ….., Zn variables normales con media 0 y varianza 1. Se puede demostrar que la suma de las Zi variables al cuadrado, también sigue una distribución Ji-Cuadrado k
2 2 2 2 2 Z Z Z ..... Z c i 1 2 k (k ) i 1
a, b
Funciones Continuas
Propiedades.-
- La distribución c2 solo asume valores positivos -
Es asimétrica, a medida que aumentan los g.l. se torna simétrica
-
El valor esperado (media) es k y la varianza 2k
-
Si Z1 y Z2 son 2 variables c2 independientes, la suma también es una variable c2
a, b
Funciones Continuas
Distribución F.- Sean X1, X2, ….., Xm una muestra aleatoria de tamaño m de una población normal con media x y desviación x. Y sean Y1, Y2, ………, Yn una muestra aleatoria de tamaño n de una población normal con media y y desviación y. Suponiendo que dichas muestras son independientes y se extraen de poblaciones que se distribuyen normalmente y el interés radica en conocer si las varianzas de estas 2 poblaciones son las mismas x = y Si no se conoce las poblaciones y se utiliza los estimadores muestrales de la siguiente manera:
( xi x ) 2 m 1 i 1 m
S x2
S y2
n
i 1
S x2 F 2 F( m 1;n 1) Sy
( yi y ) 2 n 1
a, b
Funciones Continuas S x2 F 2 F( m 1;n 1) Sy
La teoría muestra que si las varianzas son iguales, el coeficiente F sigue una distribución F con (m-1) g.l del numerador y (n-1) g.l del denominador.
a, b
Funciones Continuas
Propiedades.-
La distribución F es asimétrica a la derecha y toma valores entre 0 e infinito.
Se aproxima a la distribución normal a medida que aumentan los g.l
El cuadrado de una variable que sigue una distribución t con k g.l; sigue una distribución F con 1 y k g.l
Una variable c2 dividida para sus g.l se aproxima a una variable F con m g.l en el numerador y unos g.l muy elevados en el denominador.
Estimación
Estimación: puntual y por intervalos
A partir de los estadísticos que hemos obtenido en la/s muestra/s queremos tener una idea de los valores de los parámetros en la población. Se trata de emplear los estadísticos para estimar los parámetros.
Veremos DOS tipos de estimadores: 1) Estimación puntual. Aquí obtendremos un punto, un valor, como estimación del parámetro.
2) Estimación por intervalos. Aquí obtendremos un intervalo dentro del cual estimamos (bajo cierta probabilidad) estará el parámetro.
Estimación puntual de parámetros Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.).
Es decir, cuando obtenemos una media aritmética a partir de una muestra, tal valor puede ser empleado como un estimador para el valor de la media poblacional.
Propiedades
Métodos de estimación
1. Ausencia de sesgo
1. Momentos
2. Consistencia
2. Máximaversomilitud
3. Eficiencia 4. Suficiencia
Insesgado 1. Ser insesgado. Diremos que es un estimador insesgado de si la esperanza de es . Es decir,E( )
La media muestral es un estimador insesgado de la media poblacional. Pero la varianza muestral NO es un estimador insesgado de la varianza poblacional, pero sí lo es en cambio la cuasivarianza.
Eficiencia Se emplea para COMPARAR estimadores.
Si tenemos dos estimadores 1 y 2 de un mismo parámetro , diremos que 1 es más eficiente que 2 si tenemos que var( 1 )0
Prueba inferior:
H0: =0 (equivale a decir que es mayor o igual) H1: 0
c) 0
c) 20
c) 2 < 20
Región de rechazo de la hipótesis nula
a
s 2 c12a / 2
b
s c
c
s c
2
2
2 1a
2 1a
02 (n 1)
02 (n 1)
02 (n 1)
s 2 c12a / 2
02 (n 1)
a, b
Pruebas de hipótesis para la proporción
H0: p = p 0
H1: a) p p 0
b p > p 0
c) p < p 0
Región de rechazo de la hipótesis nula
a
pˆ p0 Za / 2
b
pˆ p0 Za
c
pˆ p0 Za
pq n pq n pq n
pˆ p0 Za / 2
pq n