Estadistica descriptiva e inferencial

REPASO DE ESTADISTICA Estadística Descriptiva Medidas de Tendencia Central  Son indicadores estadísticos que muest

Views 167 Downloads 3 File size 710KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

REPASO DE ESTADISTICA

Estadística Descriptiva

Medidas de Tendencia Central 

Son indicadores estadísticos que muestran hacia que valor (o valores se agrupan los datos.



Medidas:  Media  Moda  Mediana

Tipos de Medidas 

Media (promedio). Es la suma de todos los valores divido para el numero de ellos (promedio simple). MUESTRAL n

X

X i 1

i

n

Ventajas

Es la medida de tendencia central más usada. 



Desventajas 



Es sensible a cualquier cambio en los datos (puede ser usado como un detector de variaciones en los datos).



Se emplea a menudo en cálculos estadísticos posteriores.





En la gráfica de frecuencia representa el centro de gravedad. 

Es sensible a los valores extremos. No es recomendable emplearla en distribuciones muy asimétricas. Si se emplean variables discretas o cuasi-cualitativas, la media aritmética puede no pertenecer al conjunto de valores de la variable.

Tipos de Medidas 

Mediana. Es un indicador en divide en dos partes iguales la base de datos.  Para

su calculo deben ordenarse primero los datos de menor a mayor.  Luego dependiendo del número de datos se escoge la tendencia. Ventajas

Es estable a los valores extremos.



Desventajas



Es recomendable para distribuciones muy asimétricas 

 

No presenta todo el rigor matemático. Se emplea solo en variables cuantitativas

Tipos de Medidas. 

Moda. Es el dato que más se repite en la base de datos. En el caso de que dos valores presenten la misma frecuencia, decimos que existe un conjunto de datos bimodal. Para más de dos modas hablaremos de un conjunto de datos multimodal

Ventajas

· Es estable a los valores extremos. 

·

Es recomendable para el tratamiento de variables cualitativas



Desventajas   



Pueda que no se presente. Puede existir más de una moda. En distribuciones muy asimétricas suele ser un dato muy poco representativo. Carece de rigor matemático.

Tipos de Medidas. Asimetría.-

Mide el grado de asimetría de la distribución con respecto a la media. Un valor positivo de este indicador significa que la distribución se encuentra sesgada hacia la izquierda (orientación positiva). Un resultado negativo significa que la distribución se sesga a la derecha. La distribución se considera simétrica si el valor del coeficiente es cero.

Tipos de Medidas. Curtosis.-

Indica que tan apuntada o plana se encuentra una distribución respecto a un comportamiento normal (distribución normal). Si los datos están muy concentrados hacia la media, la distribución es leptocúrtica (curtosis mayor a 0). Si los datos están muy dispersos, la distribución es platicúrtica (curtosis menor a 0). El comportamiento normal exige que la curtosis sea igual a 0 (distribución mesocúrtica).

Medidas de Posición 

Son indicadores estadísticos que muestran la frecuencia acumulada hasta un valor k cualquiera.

Analizaremos tres medidas de posición:  Percentiles  Deciles  Cuartiles La base de estos indicadores es encontrar el valor de la variable a partir de un porcentaje de datos acumulados, de forma similar como se hizo con la mediana

Medidas de posición 

Percentiles: Los percentiles representan los valores de la variable que están por debajo de un porcentaje, el cual puede ser un valor entre 1% y 100%. El total de los datos es divido en 100 partes iguales.

La notación empleada es:

Pk



donde k es el porcentaje de datos acumulados, y Pk es el valor de la variable que representa dicho porcentaje. Por ejemplo, P5 es el valor de la variable que deja por debajo el 5%. P50 es el valor que divide en dos parte iguales la cantidad de datos (es la mediana)



Al igual como sucede con la mediana, pueden existir problemas en el cómputo de los percentiles, ya que puede existir el caso de que no exista el dato que acumule un determinado porcentaje. De darse esta situación, el percentil se determinará en función a la distancia de los valores por los que se ve rodeado, empleando una regla de tres.

Medidas de posición 

Deciles: Los deciles, denotados por Dk, son derivaciones del calculo de percentiles, ya que consisten en la división de los datos en 10 partes iguales. D1  P10 :

D2  P20 : D3  P30 :

Valor de la variable que agrupa el 10% de los datos. Valor de la variable que agrupa el 20% de los datos. Valor de la variable que agrupa el 30% de los datos.

D4  P40

:

Valor de la variable que agrupa el 40% de los datos.

D5  P50

:

D6  P60

:

Valor de la variable que agrupa el 50% de los datos. Valor de la variable que agrupa el 60% de los datos. Valor de la variable que agrupa el 70% de los datos.

D7  P70 : D8  P80 : D9  P90 : D10  P100 :

Valor de la variable que agrupa el 80% de los datos. Valor de la variable que agrupa el 90% de los datos. Valor de la variable que agrupa el 100% de los datos.

Medidas de posición 

Quartiles: Denotados por Qk, los cuales en cambio provienen de la división de los datos en 4 partes iguales.

Q1  P25 : Q2  P50 : Q3  P75 : Q4  P100 :

Valor de la variable que agrupa el 25% de los datos. Valor de la variable que agrupa el 50% de los datos. Valor de la variable que agrupa el 75% de los datos. Valor de la variable que agrupa el 100% de los datos

Medidas de desviación 

Desviación Media.- Equivale a la división de la sumatoria del valor absoluto de las distancias existentes entre cada dato y su media aritmética, y el número total de datos.

n

Dm 

X i 1

i

n

X

Medidas de desviación 

Varianza : Es el resultado de la división de la sumatoria de las distancias existentes entre cada dato y su media aritmética elevadas al cuadrado, y el número total de datos. MUESTRAL

 X

2

n

S2 



i 1

i

X

n 1

Hay que tomar en cuenta que al elevar las distancias al cuadrado, automáticamente se elevan las unidades. Por ejemplo, si unidad trabajada en los datos es centímetros, la varianza da como resultados centímetros al cuadrado

Medidas de desviación 

Desviación estándar típica : Es igual a la raíz cuadrada de la varianza. MUESTRAL

 X

2

n

S S  2



i 1

i

X

n 1

Habíamos visto que la varianza transforma todas las distancias a valores positivos elevándolas al cuadrado, con el inconveniente de elevar consigo las unidades de los datos originales. La desviación estándar soluciona el problema obteniendo la raíz cuadrada de la varianza, consiguiendo así, un valor similar a la desviación media.

Medidas de desviación 

Coeficiente de variación.- Permite comparar la dispersión entre dos poblaciones distintas e incluso, comparar la variación producto de dos variables diferentes (que pueden provenir de una misma población).



El coeficiente de variación elimina la dimensionalidad de las variables y tiene en cuenta la proporción existente entre una medida de tendencia y la desviación típica o estándar.



Equivale a la razón entre la desviación típica o estándar y la media

Cv 



S X

MUESTRAL

También se puede calcular un coeficiente de variación utilizando la mediana, en ese caso se denomina “coeficiente de variación mediano”

Medidas de Asociación 

Se utilizan para medir la relación existente entre 2 variables.

Covarianza  Correlación 

Medidas de asociación 

Covarianza.- Es una medida de relación entre 2 variables.

1 n S xy  ( X i  X )(Yi  Y )  n  1 i 1 

Sin embargo, tiene un problema debido a que es el producto de la multiplicación de 2 variables.

Medidas de asociación 

Correlación.- Mide el grado de relación lineal entre las variables

r xy   

Sxy Sx2 Sy 2

Desaparece el problema de a-dimensionamiento. Es un valor que se encuentra entre -1 y 1.

Coeficiente de Spearman 

La correlación de Spearman mide el grado de asociación entre dos variables cuantitativas que siguen una tendencia siempre creciente o siempre decreciente. Es más general que el Coeficiente de correlación de Pearson, la correlación de Spearman, en cambio se puede calcular para relaciones exponenciales o logarítmicas entre las variables.

Estadística inferencial

Probabilidades 

Teoría de la probabilidad: Se encarga del estudio de los fenómenos o experimentos aleatorios



Experimento aleatorio: Es aquel ejercicio que cuando se lo repite bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo. El ejemplo mas sencillo y cotidiano de un experimento aleatorio es el de lanzar una moneda o un dado. En principio, no se sabe cual será el resultado del experimento aleatorio, así que por lo menos conviene agrupar en un conjunto a todos los resultados posibles.



Espacio muestral: Es el conjunto de todos los posibles resultados de un experimento aleatorio ().



Evento: Es cualquier subconjunto del espacio muestral.

Probabilidades 

Ejemplo.- Si un experimento aleatorio consiste en lanzar un dado y observar el número que aparece en la cara superior, cuál es el espacio muestral?



Un evento de este espacio puede ser el conjunto {2,4,6}, que no es más que obtener un número par como resultado del experimento.

Probabilidades 

Teoría de conjuntos



Unión:



Intersección:



Complemento:



Diferencia o exclusión:

Probabilidades 

Teoría de la probabilidad La probabilidad de un evento representa una medida de la frecuencia con la sucede el evento en un experimento aleatorio. Probabilidad Clásica: Sea A un subconjunto de  (un espacio muestral finito), entonces la probabilidad se define como:

P  A 

A 

Válido para espacios muestrales finitos

Probabilidades 

Axiomas



P(A)  0 0  P(A)  1 P() = 1 P(A  B) = P(A) + P(B), si A  B =  P() = 0 P(Ac) = 1 – P(A) Si A  B, P(A)  P(B) P(A  B) = P(A) + P(B) – P(A B), si A  B  

      

Probabilidades 

Probabilidad condicional



Sean A y B dos eventos. Se define la probabilidad condicional del evento A dado el evento B (denotado por P(A/B) de la siguiente manera:

P  A  B P  A B  P  B



Aquí, el evento B representa la información adicional acerca del experimento aleatorio.



Por ejemplo, consideremos el experimento de lanzar un dado. Sean los eventos A={2}, B={2,4,6}. Entonces la probabilidad de que salga el número 2 dado solo el suceso de número pares es: P( A / B) 

1/ 6  1/ 3 3/ 6

Probabilidades  

Probabilidad condicional Se dice que dos eventos A y B son independiente si y solo si: P  A  B   P  A P  B 



Lo cual implica: P  A B 

P  A  B  P  A P  B    P  A P  B P  B



En otras palabras, no existe información adicional del evento que aporte al conocimiento del suceso del evento.



Por ejemplo, si se asume que el hecho de tener altos ingresos es independiente del sexo que posea el individuo, en una población donde individualmente estos eventos están asociados al siguiente esquema de probabilidad:

Probabilidades 

Probabilidad condicional Ingresos



Evento

Descripción

A

Ingresos Bajos

B

Ingresos Altos

Sexo Probabilidad

Evento

Descripción

Probabilidad

0.75

A'

Masculino

0.4

0.25

B'

Femenino

0.6

Entonces, la probabilidad de ser hombre (evento A’) y tener altos ingresos (evento B) es:

P  A ' B   P  A ' P  B   0.4  0.25  0.1 

O la probabilidad de ser mujer (evento B’ ) y tener bajos ingresos (evento A ) es:

P  B ' A  P  B ' P  A  0.6  0.75  0.45

Variables aleatorias 

Una variable aleatoria transforma los eventos de un espacio muestral en eventos numéricos.



Una variable X se dice aleatoria cuando toma valores con determinadas probabilidades



El conjunto de valores que una variable aleatoria puede tomar, se puede clasificar en dos tipos: discretas y continuas.



Variables discretas.- Decimos que una variable aleatoria es discreta cuando el conjunto de valores que ésta variable toma puede asociarse a los números enteros.



Variables continuas.- Decimos que una variable aleatoria es continua cuando el conjunto de valores que ésta variable toma puede asociarse a los números reales.

Variables aleatorias Función de densidad o de probabilidad de una variable discreta X: es la función que asigna a cada valor que puede tomar la variable, la probabilidad con la que eso sucede. Se puede expresar mediante una fórmula f(x), ó mediante una tabla. La función de densidad cumple: 1.- f(x)≥0 para todo valor que pueda tomar la variable. 

2.-

 f ( x)  1

x  

La función de distribución de una variable discreta X es la función que asigna a cada valor que puede tomar la variable, la probabilidad de que tome ese valor, o cualquier valor inferior.

F ( xi )  P( X  xi )

Esperanza matemática La esperanza matemática o valor esperado de una variable aleatoria discreta es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso.

  E  X    xi P( X  xi )   xi p( xi ) i

i

X

P(X)

X P(X)

-1 0 1 2 3

.1 .2 .4 .2 .1

-.1 .0 .4 .4 .3 1.0

Propiedades de la esperanza Sean a, b y c constantes: (1)

E (c)  c

(2)

E ( X  Y )  E ( X )  E (Y )

(3)

E (aX  b)  aE( X )  b

Varianza matemática Se utiliza para estudiar el comportamiento de los valores de la variable aleatoria en función de la media o valor esperado

 2  Var( X )  E (( X   ) 2 )  2 ( x   ) P( X  xi )  i i

X

P(X)

X 

-1 0 1 2 3

.1 .2 .4 .2 .1

-2 -1 0 1 2

( X   ) ( X   )  P( X ) 2

4 1 0 1 4

2

.4 .2 .0 .2 .4 1.2

Propiedades de la varianza Sean a, b y c constantes: (1) Var(c)  0 (2) Var( X  Y )  Var( X )  Var(Y ), ssi X y Y son ind. (3) Var(aX  b)  a 2Var( X )

Funciones Discretas Sencillas 

Distribución de Bernulli.- Se produce en experimentos sencillos en los que solamente hay dos resultados posibles, tales como cara y cruz, éxito o fracaso, etc.



Distribución de Binomial.- Consiste en contar el número de éxitos en n ensayos de Bernoulli

X  B  p, n  donde p constituye la probabilidad de éxito y n el numero de ensayos que se realizan

 n  x n x P( X  x)    p q  x © Edwin Buenaño - Estadística II PUCE

Funciones Discretas Sencillas Distribución de Poisson Dado un suceso que aparece de esporádicamente, en un intervalo de tiempo o un espacio dado, ¿cuál es la probabilidad de que se haya dado x veces?



f ( x)  e 



x

x!

x  0,1,2,...

 : número medio o esperado de ocurrencias

Funciones Discretas Sencillas Distribución de Hipergeométrica.- Una variable tiene distribución n hipergeométrica siempre y cuando proceda de una muestra de tamaño n , sin reemplazamiento, de un conjunto finito de N objetos donde existen K elementos con una característica en particular. Aquí, la variable cuenta el número de elementos con dicha característica obtenidos al realizar la muestra.



X  H N, K  

Aplicación:

Por ejemplo, al momento de revisar deberes, cuando de un lote pequeño de tamaño N con K deberes con error se extrae una muestra aleatoria de tamaño n , la probabilidad de encontrar un determinado número de deberes con error en lac muestra se puede calcular mediante la distribución hipergeométrica.  k  N  k     x nx  P ( X  x)    N © Edwin Buenaño - Estadística II   PUCE n

Funciones Continuas 

  

Dado que entre dos datos continuos siempre existe otro dato continuo, se puede conseguir una agrupación mas fina de los mismos mediante los intervalos de clase; situación que no sucede con los números enteros Este hecho permite conseguir una curva mas continua del polígono de frecuencias Sin embargo, como el número de valores que puede tomar una variable continua es infinito, la probabilidad puntual de que suceda uno de ellos es nula. Por lo tanto, solo es posible determinar probabilidades de intervalos con este tipo de variables

DEFINICION (Función de densidad): Dada una variable aleatoria continua X decimos que f(x) es una función de densidad, si la probabilidad de que X tome valores en el intervalo (a,b) es igual al área encerrada por la gráfica de f(x), el eje x y las rectas x=a, x=b. Se cumple: 1.- f(x)≥0 para todo valor de x 2.-







f ( x)dx  1

Funciones Continuas En estas condiciones, P(a ≤ X ≤ b) (es decir, la probabilidad de que la variable X esté entre los valores a y b), se calcula como:

b

P ( a  X  b)   f ( x ) dx a

f(x)

a

b

Funciones Continuas DEFINICION (Función de distribución): Dada una variable aleatoria continua X, con función de densidad f(x), la función de distribución F(x) es la función que para cada valor de la variable nos da la probabilidad de que X tome ese valor, o cualquier otro inferior. x

F ( x)  P ( X  x)   f (t )dt a

Funciones Continuas La función de distribución cumple:

1. La derivada de la función de distribución, es la función de densidad.

F ' ( x)  f ( x)

2. Se verifica:

P(a  X  b)  F (b)  F (a)

 a, b 

Funciones Continuas 

Distribución Uniforme.- Se produce en experimentos cuando los posibles resultados pueden darse equiprobablemente dentro de un determinado intervalo de valores. X  U  a, b 

x

xa P  X  x  ba

 a, b 

Funciones Continuas 

Distribución Normal.- Se produce en experimentos cuando los posibles resultados pueden concentrarse alrededor de un valor central y repartirse inferiormente en los extremos X  N  , 

x x

P  X  x 



 1  x   2  1 exp      x 2  2    

 a, b 

Funciones Continuas 

Distribución Normal Estandar.- Este tipo de distribución es simplemente una transformación de la variable normal, de manera que consiga media 0 y desviación 1:

Z

X 



 N  0,1

 a, b 

Funciones Continuas 

Distribución muestral.- Si X1, X2, …, Xn es una muestra aleatoria de una población normal con media x y varianza x, entonces la media muestral sigue una distribución:

x  N ( x ; / n) 2 x



Una distribución muestral es una distribución de probabilidad donde la variable aleatoria es un estimador, como la media muestral o la varianza muestral.

 a, b 

Funciones Continuas 

Distribución t-student.- Está estrechamente relacionada con la distribución normal

x  N ( x ; x2 / n) x  x Z  N (0;1) x / n

La variable Z sigue una distribución normal estándar, siempre que se conozca x y x. Suponiendo que sólo conocemos x y n estimamos x a partir de su estimador muestral: ( xi  x ) 2 Sx 

 i 1

n 1

Sustituyendo x por Sx, es decir, la desviación estándar de la población por la desviación de la muestra, se obtiene una nueva variable:

x  x t  t( n 1) Sx / n

 a, b 

Funciones Continuas t

x  x  t( n 1) Sx / n

Esta variable sigue una distribución t de student con (n-1) grados de libertad (g.l) La distribución t tiene un único parámeto que son los grados de libertad



Propiedades:



Es simétrica



La media es 0 y la varianza es k/(k-2), donde k representa los grados de libertad

 a, b 

Funciones Continuas 

Distribución Ji-Cuadrado.- El cuadrado de una variable normal estándar se distribuye siguiendo una distribución de probabilidad Jicuadrado (c2) con un grado de libertad

Z 2  c (21) Sean ahora Z1, Z2, Z3, ….., Zn variables normales con media 0 y varianza 1. Se puede demostrar que la suma de las Zi variables al cuadrado, también sigue una distribución Ji-Cuadrado k

2 2 2 2 2 Z  Z  Z  .....  Z  c  i 1 2 k (k ) i 1

 a, b 

Funciones Continuas 

Propiedades.-

- La distribución c2 solo asume valores positivos -

Es asimétrica, a medida que aumentan los g.l. se torna simétrica

-

El valor esperado (media) es k y la varianza 2k

-

Si Z1 y Z2 son 2 variables c2 independientes, la suma también es una variable c2

 a, b 

Funciones Continuas 

Distribución F.- Sean X1, X2, ….., Xm una muestra aleatoria de tamaño m de una población normal con media x y desviación x. Y sean Y1, Y2, ………, Yn una muestra aleatoria de tamaño n de una población normal con media y y desviación y. Suponiendo que dichas muestras son independientes y se extraen de poblaciones que se distribuyen normalmente y el interés radica en conocer si las varianzas de estas 2 poblaciones son las mismas x = y Si no se conoce las poblaciones y se utiliza los estimadores muestrales de la siguiente manera:

( xi  x ) 2  m 1 i 1 m

S x2

S y2 

n

 i 1

S x2 F  2  F( m 1;n 1) Sy

( yi  y ) 2 n 1

 a, b 

Funciones Continuas S x2 F  2  F( m 1;n 1) Sy 

La teoría muestra que si las varianzas son iguales, el coeficiente F sigue una distribución F con (m-1) g.l del numerador y (n-1) g.l del denominador.

 a, b 

Funciones Continuas 

Propiedades.-



La distribución F es asimétrica a la derecha y toma valores entre 0 e infinito.



Se aproxima a la distribución normal a medida que aumentan los g.l



El cuadrado de una variable que sigue una distribución t con k g.l; sigue una distribución F con 1 y k g.l



Una variable c2 dividida para sus g.l se aproxima a una variable F con m g.l en el numerador y unos g.l muy elevados en el denominador.

Estimación

Estimación: puntual y por intervalos

A partir de los estadísticos que hemos obtenido en la/s muestra/s queremos tener una idea de los valores de los parámetros en la población. Se trata de emplear los estadísticos para estimar los parámetros.

Veremos DOS tipos de estimadores: 1) Estimación puntual. Aquí obtendremos un punto, un valor, como estimación del parámetro.

2) Estimación por intervalos. Aquí obtendremos un intervalo dentro del cual estimamos (bajo cierta probabilidad) estará el parámetro.

Estimación puntual de parámetros Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.).

Es decir, cuando obtenemos una media aritmética a partir de una muestra, tal valor puede ser empleado como un estimador para el valor de la media poblacional.

Propiedades

Métodos de estimación

1. Ausencia de sesgo

1. Momentos

2. Consistencia

2. Máximaversomilitud

3. Eficiencia 4. Suficiencia

Insesgado 1. Ser insesgado. Diremos que  es un estimador insesgado de  si la esperanza de es  . Es decir,E( )  

La media muestral es un estimador insesgado de la media poblacional. Pero la varianza muestral NO es un estimador insesgado de la varianza poblacional, pero sí lo es en cambio la cuasivarianza.

Eficiencia Se emplea para COMPARAR estimadores.

Si tenemos dos estimadores  1 y  2 de un mismo parámetro , diremos que  1 es más eficiente que  2 si tenemos que var( 1 )0



Prueba inferior:

H0: =0 (equivale a decir que es mayor o igual) H1:  0



c)  0



c)  20



c) 2 < 20



Región de rechazo de la hipótesis nula



a

s 2  c12a / 2



b

s c

c

s c



2

2

2 1a

2 1a

 02 (n  1)

 02 (n  1)

 02 (n  1)

s 2  c12a / 2

 02 (n  1)

 a, b 

Pruebas de hipótesis para la proporción 

H0: p = p 0



H1: a) p  p 0



b p > p 0



c) p < p 0



Región de rechazo de la hipótesis nula



a

pˆ  p0  Za / 2



b

pˆ  p0  Za



c

pˆ  p0  Za

pq n pq n pq n

pˆ  p0  Za / 2

pq n