Antologia Estadistica I (1)

ESTADISTICA INFERENCIAL I “INSTITUTO TECNOLÓGICO SUPERIOR DE LERDO” ANTOLOGIA: ESTADISTICA INFERENCIAL I COMPILADOR:

Views 112 Downloads 61 File size 5MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

ESTADISTICA INFERENCIAL I

“INSTITUTO TECNOLÓGICO SUPERIOR DE LERDO”

ANTOLOGIA: ESTADISTICA INFERENCIAL I

COMPILADOR:

M.C. CECILIA GUADALUPE PALACIOS.

ASIGNATURA:

ESTADÍSTICA INFERENCIAL I.

DIVISIÓN:

INGENIERÍA INDUSTRIAL PARA MANUFACTURA AUTOMATIZADA.

2 DE DICIEMBRE DE 2011

ESTADISTICA INFERENCIAL I

INDICE

INTRODUCCION .............................................................................................................................. 1

UNIDAD 1. DISTRIBUCIONES FUNDAMENTALES PARA EL MUESTREO ............................................. 2 1.1 Introducción a la Estadística Inferencial ................................................................................... 2 1.2 Muestreo: Introducción al muestreo y tipos de muestreo ....................................................... 3 1.3 Teorema del límite central ........................................................................................................ 4 1.4 Distribuciones fundamentales para el muestreo ...................................................................... 5 1.4.1 Distribución muestral de la media ..................................................................................... 6 1.4.2 Distribución muestral de la diferencia de medias.............................................................. 6 1.4.3 Distribución muestral de la proporción ............................................................................. 8 1.4.4 Distribución muestral de la diferencia de proporciones .................................................... 9 1.4.5 Distribución t-student ...................................................................................................... 11 1.4.6 Distribución muestral de la varianza ................................................................................ 12 1.4.7 Distribución muestral de la relación de varianzas ........................................................... 12

UNIDAD 2. ESTIMACION ................................................................................................................... 13 2.1 Introducción 13 2.2 Características de un estimador .............................................................................................. 14 2.3 Estimación puntual .................................................................................................................. 16 2.4 Estimación por intervalos ........................................................................................................ 18 2.4.1 Intervalo de confianza para la media ............................................................................... 20 2.4.2 Intervalo de confianza para la diferencia de medias ....................................................... 24 2.4.3 Intervalos de confianza para la proporción...................................................................... 25 2.4.4 Intervalos de confianza para la diferencia de proporciones ............................................ 28 2.4.5 Intervalos de confianza para la varianza .......................................................................... 31 2.4.6 Intervalos de confianza para la relación de varianzas...................................................... 35

ESTADISTICA INFERENCIAL I 2.5 Determinación del tamaño de muestra .................................................................................. 37 2.5.1 Basado en la media de la Población ................................................................................. 38 2.5.2 Basado en la proporción de la Población ......................................................................... 39 2.5.3 Basado en la diferencia entre las medias de la Población ............................................... 41

UNIDAD 3. PRUEBA DE HIPOTESIS ................................................................................................... 42 3.1 Introducción 42 3.2 Confiabilidad y significancia .................................................................................................... 43 3.3 Errores tipo I y tipo II ............................................................................................................... 46 3.4 Potencia de la prueba ............................................................................................................. 48 3.5 Formulación de Hipótesis estadísticas .................................................................................... 49 3.6 Prueba de hipótesis para la media .......................................................................................... 52 3.7 Prueba de hipótesis para la diferencia de medias .................................................................. 55 3.8 Prueba de hipótesis para la proporción .................................................................................. 55 3.9 Prueba de hipótesis para la diferencia de proporciones ........................................................ 59 3.10 Prueba de hipótesis para la varianza .................................................................................... 63 3.11 Prueba de hipótesis para la relación de varianzas. ............................................................... 66 3.12 Uso de software estadístico .................................................................................................. 66

UNIDAD 4. PRUEBAS DE BONDAD DE AJUSTE Y PRUEBAS NO PARAMÉTRICAS ............................ 69 4.1 Bondad de ajuste..................................................................................................................... 69 4.1.1 Análisis Ji-Cuadrada .......................................................................................................... 69 4.1.2 Prueba de independencia ................................................................................................ 71 4.1.3 Prueba de la bondad del ajuste........................................................................................ 72 4.1.4 Tablas de contingencia ..................................................................................................... 76 4.1.5 Uso del software estadístico. ........................................................................................... 79 4.2 Pruebas no paramétricas ........................................................................................................ 80 4.2.1 Escala de medición ........................................................................................................... 81 4.2.2 Métodos estadísticos contra no paramétricos ................................................................ 82 4.2.3 Prueba de Kolmogorov – Smirnov.................................................................................... 83 4.2.4 Prueba de Anderson – Darling ......................................................................................... 84 4.2.5 Prueba de Ryan – Joiner ................................................................................................... 84

ESTADISTICA INFERENCIAL I 4.2.6 Prueba de Shappiro – Wilk. .............................................................................................. 90 4.2.7 Aplicaciones del paquete computacional. ....................................................................... 92

UNIDAD 5. REGRESIÓN LINEAL SIMPLE Y MÚLTIPLE. ...................................................................... 93 5.1 Regresión Lineal simple. .......................................................................................................... 93 5.1.1 Prueba de hipótesis en la regresión lineal simple. ........................................................... 95 5.1.2 Calidad del ajuste en regresión lineal simple ................................................................... 97 5.1.3 Estimación y predicción por intervalo en regresión lineal simple ................................. 101 5.1.4 Uso de software estadístico ........................................................................................... 104 5.2 Regresión lineal múltiple ....................................................................................................... 105 5.2.2 Pruebas de hipótesis en regresión lineal múltiple ......................................................... 108 5.2.3 Intervalos de confianza y predicción en regresión múltiple .......................................... 108 5.2.4 Uso de un software estadístico. ..................................................................................... 108 5.3 Regresión no lineal. ............................................................................................................... 109

REFERENCIAS BIBLIOGRAFÍCAS. ..................................................................................................... 112 REFERENCIAS ELECTRONICAS ......................................................................................................... 112

ESTADISTICA INFERENCIAL I

ESTADISTICA INFERENCIAL I

ESTADISTICA INFERENCIAL I

INTRODUCCION

El presente trabajo esta dirigido a los estudiantes del ITSL que cursan la Carrera de Ingeniería Industrial bajo el enfoque de estrategias educativas centradas en el aprendizaje, con el firme propósito de que sirva de guía y q u e c o n las

actividades

que

desarrollaras

durante

cada

unidad,

te

permitirán adquirir y reafirmar los conocimientos que competen a l o s contenidos del programa de estudios de la asignatura de Estadística Inferencial I. Con el desarrollo de los contenidos programáticos dentro y fuera del aula, tú como participante entusiasta y responsable de tu propio aprendizaje, te permitirá comprender los conceptos a n a l i z a d o s y l a aplicación significativa para resolver problemas de la vida cotidiana.

La meta se logrará con tú valiosa participación porque eres el principal actor de tu propio aprendizaje y que con el apoyo de tu facilitador determinarás el éxito en tú desempeño escolar, familiar y laboral.

1

ESTADISTICA INFERENCIAL I

UNIDAD 1. DISTRIBUCIONES FUNDAMENTALES PARA EL MUESTREO

1.1 Introducción a la Estadística Inferencial La estadística inferencial no es más que un argumento. Un buen argumento hace creíble una afirmación. En nuestro caso, cualquier estudio necesitará, al menos dos argumentos sólidos: el estadístico y el relativo al diseño de. Desde este punto de vista, nuestra tarea es poder entender (y calibrar) los argumentos estadísticos y también poder construirlos nosotros mismos. La estadística inferencial es necesaria cuando queremos hacer alguna afirmación sobre más elementos de los que vamos a medir. La estadística inferencial hace que ese salto de la parte al todo se haga de una manera ―controlada‖. Aunque nunca nos ofrecerá seguridad absoluta, sí nos ofrecerá una respuesta probabilística. Esto es importante: la estadística no decide; sólo ofrece elementos para que el investigador o el lector decidan. En muchos casos, distintas personas perciben diferentes conclusiones de los mismos datos. El proceso será siempre similar. La estadística dispone de multitud de modelos que están a nuestra disposición. Para poder usarlos hemos de formular, en primer lugar, una pregunta en términos estadísticos. Luego hemos de comprobar que nuestra situación se ajusta a algún modelo (si no se ajusta no tendría sentido usarlo). Pero si se ajusta, el modelo nos ofrecerá una respuesta estadística a nuestra pregunta estadística. Es tarea nuestra devolver a la psicología esa respuesta, llenándola de contenido psicológico. ¿Cuándo es necesaria la estadística inferencial? Cuando queremos hacer alguna afirmación sobre más elementos de los que vamos a medir. La estadística descriptiva, como indica su nombre, tiene por finalidad describir. Así, si queremos estudiar diferentes aspectos de, por ejemplo, un grupo de personas, la estadística descriptiva nos puede ayudar. Lo primero será tomar medidas, en todos los miembros del grupo, de esos aspectos o variables para, posteriormente, indagar en lo que nos interese. La estadística inferencial resulta de aplicar la probabilidad a los estadísticos que ya conocemos por la estadística descriptiva. Los resultados de esa aplicación vendrán expresados, pues, en lenguaje probabilístico. Y esto no ayuda precisamente a sentirse cómodo con la estadística inferencial. Además de ser matemática, tiene la fea costumbre de no decir sí o no. En lugar de ello, sus respuestas suenan a veces a excusas, eso sí, muy diplomáticas, como ―no hay suficiente evidencia‖

2

ESTADISTICA INFERENCIAL I o ―esa afirmación es altamente improbable‖. Pero en lenguaje matemático. El resultado es quizás extraño, difuso pero preciso; no se decanta pero nos da cuatro decimales: ―a partir de los datos que me ofrece, la probabilidad de que ocurra eso que usted afirma es 0.2381‖1. Pero aun así nos permite incrementar nuestro conocimiento. Las afirmaciones anteriores pretenden ilustrar algo fundamental: las afirmaciones que nos permite hacer la estadística inferencial tienen un riesgo, y quien la usa debe saberlo. No es difícil, de todas maneras, porque todas estas afirmaciones están formuladas en términos de riesgo, de seguridad e inseguridad: de probabilidad. El azar es, por definición, lo impredecible. ¿Cómo es posible entonces utilizar lo impredecible para obtener información? La clave está en que incluso lo impredecible, para poder serlo, ha de cumplir algunas normas. El conjunto de esas normas, y las técnicas para extraer información del azar, es lo que llamamos probabilidad. No hay nada mágico en el azar; resulta de una sucesión de circunstancias no controlables que lleva a no poder predecir el resultado. Fijémonos en la moneda de toda la vida. Lo que hace que lanzarla sea un experimento aleatorio es que es imposible controlar la fuerza con la que se lanza, los giros que da y los ángulos con que golpea el suelo una y otra vez hasta detenerse2. Basta situar la moneda de canto en una mesa y empujarla deliberadamente en una dirección para que desaparezca el azar. Pero si estando de canto la hacemos girar rápidamente volvemos a disponer de un experimento aleatorio. 1.2 Muestreo: Introducción al muestreo y tipos de muestreo Para extraer conclusiones de una población a partir de una muestra, es vital que la muestra sea representativa. Hay dos tipos de muestreo: probabilístico (se conoce, o puede calcularse, la probabilidad de cada elemento, por tanto, de cada muestra posible) y no probabilístico (se desconoce o no interesa la probabilidad de cada elemento; el investigador selecciona aquella muestra que considera más representativa o que le resulta más fácil). Cuidado: no es que el muestreo no probabilístico no permita generar muestras representativas; lo que ocurre es que no tenemos ninguna información sobre el grado de representatividad de la muestra elegida. El muestreo probabilístico puede darse de diferentes formas, según estemos considerando poblaciones finitas (los votantes de la Comunidad de Madrid, los pacientes con insomnio) o infinitas (los posibles tiempos de reacción ante una tarea de búsqueda visual), y según consideremos (en las finitas) un muestreo con o sin reposición.

3

ESTADISTICA INFERENCIAL I El muestreo aleatorio simple se da cuando se cumple la igualdad de distribuciones (cualquier valor tiene la misma probabilidad de salir en cada extracción) e independencia (la probabilidad de obtener un determinado valor no se modifica por los valores ya obtenidos). Otros tipos de muestreo probabilístico son el m. a. sistemático, el m. a. estratificado y el m. a. por conglomerados. 1.3 Teorema del límite central El Teorema del Límite Central o Teorema Central del Límite indica que, bajo condiciones muy generales, la distribución de la suma de variables aleatorias tiende a una distribución gaussiana cuando la cantidad de variables es muy grande. Existen diferentes versiones del teorema, en función de las condiciones utilizadas para asegurar la convergencia. Una de las más simples establece que es suficiente que las variables que se suman sean independientes, idénticamente distribuidas, con valor esperado y varianza finitas. La aproximación entre las dos distribuciones es en general mayor en el centro de las mismas que en sus extremos o colas, motivo por el cual se prefiere el nombre ―Teorema del Límite Central‖ (―central‖ califica al límite, más que al teorema). Esta relación entre la forma de la distribución de la población y la forma de la distribución de muestreo se denomina teorema del límite central, que es tal vez el más importante de toda la inferencia estadística. Nos asegura que la distribución de muestreo de la media se aproxima a la normal al incrementarse el tamaño de la muestra. Hay situaciones teóricas en las que el teorema del límite central no se cumple, pero casi nunca se encuentran en la toma de decisiones práctica. Una muestra no tiene que ser muy grande para que la distribución de muestreo de la media se acerque a la normal. Los estadísticos utilizan la distribución normal como una aproximación a la distribución de muestreo siempre que el tamaño de la muestra sea al menos de 30, pero la distribución de muestreo de la media puede ser casi normal con muestras incluso de la mitad de ese tamaño. La importancia del teorema del límite central es que nos permite usar estadísticas de muestra para hacer inferencias con respecto a los parámetros de población sin saber nada sobre la forma de la distribución de frecuencias de esa población más que lo que podamos obtener de la muestra. Lo que hemos visto hasta el momento parece bastante restrictivo ya que hemos supuesto, de entrada, que la distribución en la población es normal, pero existen muchos casos en los que no es posible suponer distribución Normal. El siguiente resultado permite trabajar con la normal para la distribución muestral de medias aunque la población no lo sea, y es conocido como Teorema Central del Límite.

4

ESTADISTICA INFERENCIAL I Sea X1, X2, ... , Xn , una muestra aleatoria de una población X con una distribución de probabilidad

muestral tiene una distribución cuando n tiende a infinito. La demostración del resultado excede los límites de un curso introductorio. La aproximación a la distribución normal es mejor para n grande ya que se trata de una aproximación y no de una distribución exacta como en el caso de poblaciones normales. En Estadística consideramos n grande cuando es mayor de 30. Una consecuencia directa del teorema es que la suma de los valores muéstrales sigue una distribución normal El teorema de De Moivre que se explicó en el apartado de la normal puede entenderse también como un caso particular del Teorema Central del Límite. Sea una población en la que se mide una v.a. X con distribución binomial B(1,p), es decir, toma el valor 1 con probabilidad p y el valor 0 con probabilidad q, tiene una media p y una varianza pq. Una distribución B(n,p) puede entenderse como la suma de n binomiales B(1,p), luego aplicando el TCL, si n es grande la distribución B(n,p) se puede aproximar por una normal que tiene como media a np y como varianza npq. 1.4 Distribuciones fundamentales para el muestreo La comprensión del concepto de la distribución de muestreo es fundamental para el correcto entendimiento de la inferencia estadística. Una distribución de la población es la distribución de la totalidad de las medidas individuales de una población, en tanto que una distribución muestral es la distribución de los valores individuales incluidos en una muestra. En contraste con estas distribuciones de medidas individuales, una distribución de muestreo se refiere a la distribución de los diferentes valores que una estadística muestral, o estimador, podría adoptar en muchas muestras del mismo tamaño. Así, aunque por lo general disponemos únicamente de una muestra aleatoria o subgrupo racional, reconocemos que la estadística muestral particular que determinamos, como la media o mediana de la muestra, no es exactamente igual al respectivo parámetro de la población. Más aún, el valor de una estadística muestral variará de una muestra a otra, a causa de la variabilidad del muestreo aleatorio, o error de muestreo. Ésta es la idea en la que se apoya el concepto de que toda estadística maestral es de hecho un tipo de variable cuya distribución de valores está representada por una distribución de muestreo.

5

ESTADISTICA INFERENCIAL I 1.4.1 Distribución muestral de la media Si tenemos una muestra aleatoria de una población N(m,s ), se sabe (Teorema del límite central) que la fdp de la media muestral es también normal con media m y varianza s2/n. Esto es exacto para poblaciones normales y aproximado (buena aproximación con n>30) para poblaciones cualesquiera. Es decir es el error típico, o error estándar de la media. ¿Cómo usamos esto en nuestro problema de estimación? 1º problema: No hay tablas para cualquier normal, sólo para la normal m=0 y s=1 (la llamada z); pero haciendo la transformación (llamada tipificación) una normal de media m y desviación s se transforma en una z. Llamando za al valor de una variable normal tipificada que deja a su derecha un área bajo la curva de a, es decir, que la probabilidad que la variable sea mayor que ese valor es a (estos son los valores que ofrece la tabla de la normal) podremos construir intervalos de la forma para los que la probabilidad es 1 - a. Teniendo en cuenta la simetría de la normal y manipulando algebraicamente que también se puede escribir o, haciendo énfasis en que es el error estándar de la media, Recuérdese que la probabilidad de que m esté en este intervalo es 1 - a. A un intervalo de este tipo se le denomina intervalo de confianza con un nivel de confianza del 100(1 - a)%, o nivel de significación de 100a%. El nivel de confianza habitual es el 95%, en cuyo caso a=0,05 y za /2=1,96. Al valor se le denomina estimación puntual y se dice que es un estimador de m. Ejemplo: Si de una población normal con varianza 4 se extrae una muestra aleatoria de tamaño 20 en la que se calcula se puede decir que m tiene una probabilidad de 0,95 de estar comprendida en el intervalo que sería el intervalo de confianza al 95% para m En general esto es poco útil, en los casos en que no se conoce m tampoco suele conocerse s2; en el caso más realista de s2 desconocida los intervalos de confianza se construyen con la t de Student (otra fdp continua para la que hay tablas) en lugar de la z. o, haciendo énfasis en que es el error estándar estimado de la media, esta manera de construir los intervalos de confianza sólo es válido si la variable es normal. Cuando n es grande (>30) se puede sustituir t por z sin mucho error. 1.4.2 Distribución muestral de la diferencia de medias Sean X1 y X2 dos variables aleatorias con valores esperados m1 y m2 y varianzas y , respectivamente. Por ejemplo, X1 puede ser la duración de una batería para carro de una marca, y X2 la duración de una batería de otra marca diferente. Si los medias m1 y m2 son desconocidas, podríamos estar interesados en conocer si ambas baterías tienen la misma duración media. En forma similar, si las varianzas son desconocidas, podríamos estar interesados en saber si son iguales o no.

6

ESTADISTICA INFERENCIAL I Para realizar estas inferencias, se pueden someter a pruebas idénticas diferentes baterías, controlando los factores externos, de tal forma que las diferencias se deban exclusivamente a la clase de marca probada. Inicialmente estaremos interesados en verificar si ambas distribuciones tienen la misma media poblacional, es decir si m1 = m2 ó equivalentemente m1 - m2 = 0. Suponga que es una muestra aleatoria de tamaño n1 tomada de una población con media m1 y varianza, es otra muestra aleatoria de tamaño n2 tomada de una población con media m2 y varianza. Si deseamos realizar alguna inferencia sobre m1 - m2, nos podemos basar en la distribución de la diferencia de las medias muéstrales Ahora bien, para la diferencia de las medias muéstrales se tiene: Para conocer la distribución muestral de las diferencias entre las medias se debe saber si las varianzas poblacionales son conocidas o desconocidas, y en caso de que sean desconocidas, se debe saber si son iguales o diferentes. Cada uno de estos tres casos se analizará por separado. a) Distribución de la diferencia entre dos medias cuando las varianzas son conocidas. Si las varianzas y son conocidas, tanto como se distribuyen normalmente. Por lo tanto la distribución de la diferencia entre las medias muéstrales es normal con el valor esperado y la varianza dados anteriormente, es decir, De acuerdo con lo anterior la siguiente variable aleatoria tiene una distribución normal estándar: Por lo tanto, con base en la expresión anterior se pueden realizar inferencias con respecto a la diferencia de medias poblacionales, bajo el supuesto de que las varianzas sean conocidas. Si además, son iguales, la expresión anterior se puede expresar como: b) Distribución de la diferencia entre dos medias cuando las varianzas son desconocidas pero iguales. Cuando las varianzas son desconocidas, se debe realizar previamente una prueba estadística para verificar si éstas son iguales o diferentes. Para realizar esta prueba debemos hacer uso de la distribución F para verificar si la relación de varianzas es igual a uno o diferente de uno. Además tienen distribuciones chi cuadrado con n1–1 y n2–1 grados de libertad respectivamente. Por lo tanto su suma también sigue otra distribución chi cuadrado con n1+n2–2 grados de libertad. Ejemplo. El gerente de una refinería piensa modificar el proceso para producir gasolina a partir de petróleo crudo. El gerente hará la modificación sólo si la gasolina promedio que se obtiene por este nuevo proceso (expresada como un porcentaje del crudo) aumenta su valor con respecto al proceso en uso. Con base en un experimento de laboratorio y mediante el empleo de dos muestras aleatorias de tamaño 12, una para cada proceso, la cantidad de gasolina promedio del proceso en uso es de 24.6 con una desviación estándar de 2.3, y para el proceso propuesto fue de 28.2 con una desviación

7

ESTADISTICA INFERENCIAL I estándar de 2.7. El gerente piensa que los resultados proporcionados por los dos procesos son variables aleatorias independientes normalmente distribuidas con varianzas iguales. Con base en esta evidencia, ¿debe adoptarse el nuevo proceso? 1.4.3 Distribución muestral de la proporción La distribución muestral de proporciones es la adecuada para dar respuesta a estas situaciones. Esta distribución se genera de igual manera que la distribución muestral de medias, a excepción de que al extraer las muestras de la población se calcula el estadístico proporción (p=x/n en donde ―x‖ es el número de éxitos u observaciones de interés y ―n‖ el tamaño de la muestra) en lugar del estadístico media. Una población binomial está estrechamente relacionada con la distribución muestral de proporciones; una población binomial es una colección de éxitos y fracasos, mientras que una distribución muestral de proporciones contiene las posibilidades o proporciones de todos los números posibles de éxitos en un experimento binomial, y como consecuencia de esta relación, las afirmaciones probabilísticas referentes a la proporción muestral pueden evaluarse usando la aproximación normal a la binomial, siempre que np5 y n(1-p) 5. Cualquier evento se puede convertir en una proporción si se divide el número obtenido entre el número de intentos. Sea una población formada por n elementos, de los cuales algunos poseen una determinada característica y otros no (llamaremos p a la proporción de los elementos que poseen la característica, y q = 1 - p a la de los restantes elementos). Entonces, es posible extraer muestras de la población de manera que a cada una se asocie como valor la proporción de la característica analizada. Por ejemplo, en la población {1, 2, 3}, la característica par tiene un valor p = 1 / 3, mientras que la impar es q = 2 / 3. Mediante la tabla siguiente de muestras se construye una nueva distribución muestral de las proporciones. Muestra 1,1 1,2 1,3 2,1 2,2 2,3 3,1 3,2 3,3 Proporción f/n 0 0,5 0 0,5 0 0,5 0 0,5 0 Parámetros estadísticos de una distribución muestral de las proporciones de tamaño n: Una distribución muestral de las proporciones se comporta como una distribución normal descrita por los parámetros N.

8

ESTADISTICA INFERENCIAL I 1.4.4 Distribución muestral de la diferencia de proporciones Cuando el muestreo procede de dos poblaciones binomiales y se trabaja con dos proporciones muéstrales, la distribución muestral de diferencia de proporciones es aproximadamente normal para tamaños de muestra grande (n1p1 5, n1q1 5,n2p2 5 y n2q2 5). Entonces p1 y p2 tienen distribuciones muéstrales aproximadamente normales, así que su diferencia p1-p2 también tiene una distribución muestral aproximadamente normal. Cuando se estudió a la distribución muestral de proporciones se comprobó que y que, por lo que no es difícil deducir que y que. Suponga que se tienen dos poblaciones distintas, la primera con media 1,

y la segunda con media

2

y desviación estándar

2.

1

y desviación estándar

Más aún, se elige una muestra

aleatoria de tamaño n1 de la primera población y una muestra independiente aleatoria de tamaño n2 de la segunda población; se calcula la media muestral para cada muestra y la diferencia entre dichas medias. La colección de todas esas diferencias se llama distribución muestral de las diferencias entre medias o la distribución muestral del estadístico

La distribución es aproximadamente normal para n1 30 y n2 30. Si las poblaciones son normales, entonces la distribución muestral de medias es normal sin importar los tamaños de las muestras. En ejercicios anteriores se había demostrado que

deducir que

y que

y que

, por lo que no es difícil

.

9

ESTADISTICA INFERENCIAL I La fórmula que se utilizará para el cálculo de probabilidad del estadístico de diferencia de medias es:

Ejemplo: En un estudio para comparar los pesos promedio de niños y niñas de sexto grado en una escuela primaria se usará una muestra aleatoria de 20 niños y otra de 25 niñas. Se sabe que tanto para niños como para niñas los pesos siguen una distribución normal. El promedio de los pesos de todos los niños de sexto grado de esa escuela es de 100 libras y su desviación estándar es de 14.142, mientras que el promedio de los pesos de todas las niñas del sexto grado de esa escuela es de 85 libras y su desviación estándar es de 12.247 libras. Si

representa el promedio de los pesos de 20 niños y

es el promedio de los pesos de una muestra de 25 niñas, encuentre la probabilidad de que el promedio de los pesos de los 20 niños sea al menos 20 libras más grande que el de las 25 niñas. Solución: Datos: 1= 2

100 libras

= 85 libras

1=

14.142 libras

2=

12.247 libras

n1 = 20 niños n2 = 25 niñas =?

Por lo tanto, la probabilidad de que el promedio de los pesos de la muestra de niños sea al menos 20 libras más grande que el de la muestra de las niñas es 0.1056.

10

ESTADISTICA INFERENCIAL I

1.4.5 Distribución t-student La Distribución t de Student, tiene por función de densidad:

Donde el parámetro n de

, se denomina grados de libertad de la distribución.

La distribución t de Student existe para todos los valores de x reales, y es simétrica respecto al eje y. La distribución de probabilidad de esta función para valores menores de un x dado, que representamos por

Dónde:

11

ESTADISTICA INFERENCIAL I Para el cálculo de esta integral existen distintos tipos de Tabla de distribución t de Student, en la que para distintos valores de n y de x se puede buscar su probabilidad acumulada p, veamos una de esas tablas. 1.4.6 Distribución muestral de la varianza La varianza de las muestras sigue un proceso distinto a los de la media y proporción. La causa es que el promedio de todas las varianzas de las muestras no coincide con la varianza de la población s2. Se queda un poco por debajo. En concreto, se verifica que Hemos usado el subíndice n para recordar que en la varianza se divide entre n. Si deseamos que la media de la varianza coincida con la varianza de la población, tenemos que acudir a la cuasivarianza o varianza insesgada, que es similar a la varianza, pero dividiendo las sumas de cuadrados entre n-1. Su raíz cuadrada es la cuasidesviación típica o desviación estándar. Si se usa esta varianza, si coinciden su media y la varianza de la población lo que nos indica que la cuasivarianza es un estimador insesgado, y la varianza lo es sesgado. La suma de cuadrados de la varianza, dividida entre la varianza de la población se distribuye según una chi-cuadrado c2 con n-1 grados de libertad

1.4.7 Distribución muestral de la relación de varianzas

12

ESTADISTICA INFERENCIAL I UNIDAD 2. ESTIMACION 2.1 Introducción

En general, de las variables experimentales u observacionales no conocemos la fpd. Podemos conocer la familia (normal, binomial,…) pero no los parámetros. Para calcularlos necesitaríamos tener todos los posibles valores de la variable, lo que no suele ser posible. La inferencia estadística trata de cómo obtener información (inferir) sobre los parámetros a partir de subconjuntos de valores (muestras) de la variable. Estadístico: variable aleatoria que sólo depende de la muestra aleatoria elegida para calcularla. Estimación: Proceso por el que se trata de averiguar un parámetro de la población representado, en general, por  a partir del valor de un estadístico llamado estimador y representado por El problema se resuelve en base al conocimiento de la ―distribución muestral‖ del estadístico que se use. ¿Qué es esto? Concretemos, p.e. en la media (. Si para cada muestra posible calculamos la media muestral ( ) obtenemos un valor distinto ( es un estadístico: es una variable aleatoria y sólo depende de la muestra), habrá por tanto una fpd para, llamada distribución muestral de medias. La desviación típica de esta distribución se denomina error típico de la media. Evidentemente, habrá una distribución muestral para cada estadístico, no sólo para la media, y en consecuencia un error típico para cada estadístico. Si la distribución muestral de un estadístico estuviera relacionada con algún parámetro de interés, ese estadístico podría ser un estimador del parámetro. Existen dos formas de hacer Inferencia Estadística: - La estimación de parámetros. - Las pruebas de hipótesis. En la Inferencia Estadística hay varios métodos, pero en cualquier caso es necesario utilizar una muestra que represente a la población, esto se consigue con las Técnicas de muestreo. A partir de una muestra nos proponemos dos objetivos: - Obtener valores aproximados de parámetros poblacionales: Estimación puntual. - La estimación por intervalos de confianza tiene por objeto proporcionar, a partir de la información recogida en la muestra, un intervalo que contenga con alto nivel de confianza (probabilidad), al parámetro objeto de nuestro interés. A partir de dicho intervalo obtendremos una medida del error máximo cometido al aproximar puntualmente el parámetro.

13

ESTADISTICA INFERENCIAL I 2.2 Características de un estimador En estadística, un estimador es un estadístico (esto es, una función de la muestra) usado para estimar un parámetro desconocido de la población. Por ejemplo, si se desea conocer el precio medio de un artículo (el parámetro desconocido) se recogerán observaciones del precio de dicho artículo en diversos establecimientos (la muestra) y la media aritmética de las observaciones puede utilizarse como estimador del precio medio. Para cada parámetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que posea mejores propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez (consistencia). El valor de un estimador proporciona lo que se denomina en estadística una estimación puntual del valor del parámetro en estudio. En general, se suele preferir realizar una estimación mediante un intervalo, esto es, obtener un intervalo [a,b] dentro del cual se espera esté el valor real del parámetro con un cierto nivel de confianza. Utilizar un intervalo resulta más informativo, al proporcionar información sobre el posible error de estimación, asociado con la amplitud de dicho intervalo. El nivel de confianza es la probabilidad de que a priori el verdadero valor del parámetro quede contenido en el intervalo. En la práctica, los intervalos suelen indicarse dando el valor del estimador puntual utilizado como centro del intervalo y un valor que debe sumarse y restarse para obtener el límite superior e inferior; por ejemplo:

equivale a Propiedades de los estimadores: Sesgo: Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro que se desea estimar. Por ejemplo, si se desea estimar la media de una población, la media aritmética de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la media de la población. En efecto, si una muestra X=(X1,X2,...,Xn)t procede de una población de media μ, quiere decir que: E[Xi] = μ para cualquier i=1...n

14

ESTADISTICA INFERENCIAL I La media aritmética o media muestral,

, con lo que, al aplicar las propiedades de linealidad de la esperanza matemática se tiene que:

Eficiencia: Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del primero es menor que la del segundo. Por ejemplo, si

Diremos que

es más eficiente que

y

son ambos estimadores de θ y

. Un estimador es más eficiente (más preciso), por tanto,

cuanto menor es su varianza. La eficiencia de los estimadores está limitada por las características de la distribución de probabilidad de la muestra de la que proceden. El teorema de Cramér-Rao determina que la varianza de un estimador insesgado de un parámetro θ es, como mínimo,

donde

f(X;θ)

es

la

función

de

en

función

densidad del

15

de

parámetro

probabilidad θ,

de

(denominada

la

muestra

función

de

ESTADISTICA INFERENCIAL I verosimilitud). Si un estimador alcanza esta cota mínima, entonces se dice que el estimador es de mínima varianza. Consistencia: Si no es posible emplear estimadores de mínima varianza, el requisito mínimo deseable para un estimador es que a medida que el tamaño de la muestra crece, el valor del estimador tienda a ser el valor del parámetro, propiedad que se denomina consistencia. Existen diversas definiciones de consistencia, más o menos restrictivas, pero la más utilizada es la denominada consistencia en media cuadrática que exige que:

1.

cuando

2.

cuando

Robustez: El estimador será un estimador robusto del parámetro θ si la violación de los supuestos de partida en los que se basa la estimación (normalmente, atribuir a la población un determinado tipo de función de distribución que, en realidad, no es la correcta), no altera de manera significativa los resultados que éste proporciona.

Suficiencia Se dice que un estimador es suficiente cuando resume toda la información relevante contenida en la muestra, de forma que ningún otro estimador pueda proporcionar información adicional sobre el parámetro desconocido de la población.

Invarianza Se dice que un estimador es invariante cuando el estimador de la función del parámetro coincide con la función del estimador del parámetro, 2.3 Estimación puntual Si a partir de las observaciones de una muestra se calcula un solo valor como estimación de un parámetro de la población desconocido, el procedimiento se denomina estimación puntual. Por ejemplo queremos estimar la nota media de los alumnos de bachiller en la asignatura de matemáticas que notaremos. Sea X la variable aleatoria que indica la nota obtenida por cada

16

ESTADISTICA INFERENCIAL I estudiante. Tomamos una muestra de tamaño n y denotamos la nota media de la muestra. Si al tomar una muestra de 100 estudiantes obtenemos que la media es 6´2, este número lo tomaríamos como estimativo de. Decimos que 6´2 es una estimación puntual de. Un estimador puntual T de un parámetro es cualquier estadística que nos permita a partir de los datos muéstrales obtener valores aproximados del parámetro. Para indicar que T es un estimador del parámetro escribimos =T. Con esto queremos decir que empleamos la expresión dada mediante T para obtener valores próximos al valor del parámetro. Es muy probable que haya error cuando un parámetro es estimado. Es cierto que si el número de observaciones al azar se hace suficientemente grande, éstas proporcionarían un valor que casi sería semejante al parámetro; pero a menudo hay limitaciones de tiempo y de recursos y se tendrá que trabajar con unas cuántas observaciones. Para poder utilizar la información que se tenga de la mejor forma posible, se necesita identificar las estadísticas que sean ―buenos‖ estimadores. Hay cuatro criterios que se suelen aplicar para determinar si una estadística es un buen estimador: Insesgamiento, eficiencia, consistencia y suficiencia

Esencialmente son tres los parámetros de interés: - En el caso de que investiguemos una variable cuantitativa: a) Para la media de la población μ tomaremos como aproximación la media de la muestra.

=

b) Para la varianza de la población σ2 tomaremos la cuasivarianza de la muestra.

=

Si el estudio se centra en el estudio de un carácter cualitativo el parámetro de interés será la proporción de elementos de la población que pertenecen a cierta categoría C que lo aproximaremos con la correspondiente proporción en la muestra.

17

ESTADISTICA INFERENCIAL I

2.4 Estimación por intervalos Nos proponemos determinar dos números entre los cuales se halla el parámetro estudiado con cierta certeza.

18

ESTADISTICA INFERENCIAL I El procedimiento para obtener un intervalo (de confianza) para un parámetro, la media , por ejemplo, requiere de la determinación de un estimador del parámetro y de la distribución del estimador. Un intervalo de confianza para un parámetro es un intervalo construido alrededor del estimador del parámetro de tal manera que podemos esperar que el verdadero valor del parámetro quede incluido en dicho intervalo. El nivel de confianza de un intervalo es una probabilidad (expresada en porcentaje) que representa la seguridad de que el intervalo encierra el verdadero valor del parámetro. Para cada nivel de confianza existe un valor de tabla ( normal, t , , F) asociado al nivel de confianza dado. Este valor se llama coeficiente de confiabilidad y se denota:

DISTRIBUCIÓN F NORMAL

DISTRIBUCIÓN T

JI CUADRADO

Si queremos un intervalo con un nivel de confianza de 100(1- ) %, en la tabla correspondiente buscaremos un valor de variable para el que el área de cola superior (también inferior) sea del 100(1- /2) % ya que la porción de área que no será cubierta por el intervalo debe tener una medida de tamaño y se toma como norma general de procedimiento que se reparta en partes iguales entre las dos colas. Los tres conceptos básicos que encierra un intervalo quedan resumidos en la expresión general para un intervalo de confianza: ESTIMADOR (COEF. DE CONF.) . (ERROR ESTÁNDAR)

Ejemplo: Sea X la variable aleatoria que se utiliza para designar el peso de un pasajero de avión y que interesa conocer, el peso medio de todos los pasajeros. Para ello tomamos una muestra de 36 pasajeros y obtenemos una media muestral de 160 libras. Supongamos que la distribución de los pasajeros sea normal con desviación estándar 36. Calcula el intervalo del 95% de confianza... El intervalo está dado por la expresión, reemplazamos los valores y obtenemos 160 (1´96). (30/6). Por lo tanto el intervalo pedido es: [150´2,169´8]. Si nos hubieran pedido un intervalo del 90% de confianza tendríamos 160 (1´645). (30/6). Y el intervalo pedido es [151´78,168´23]. Podríamos construir también un intervalo de confianza del 99% obteniendo 160 (2´575). (30/6). Y el intervalo sería [147´13,172´88]. Al observar los intervalos podemos notar que a medida que se aumenta el nivel de confianza la longitud del intervalo también aumenta como podemos ver en la figura.

19

ESTADISTICA INFERENCIAL I Tenemos las siguientes propiedades sobre la longitud del intervalo: PROPIEDAD 1. Para un tamaño de muestra y una varianza dada a medida que aumenta el nivel de confianza también lo hace la longitud del intervalo PROPIEDAD 2. Para un nivel de confianza y una varianza dadas cuando el tamaño de la muestra aumenta la longitud del intervalo disminuye. Estas propiedades se deducen de la expresión de la longitud del intervalo L=. Como podemos ver si la varianza se considera fija la fórmula está sujeta a dos números cuyas acciones se contraponen en cuanto a la longitud, el nivel de confianza y el tamaño de la muestra. Para que un intervalo sea tomado en cuenta con algún interés, el nivel de confianza debe ser alto. Suelen presentarse dos interpretaciones para un intervalo de confianza, una probabilística y otra práctica. Veamos cómo son en el caso de la media: Desde un punto de vista de la probabilidad se dice: ―En el muestreo aleatorio simple de una población normal de media y varianza conocida, el 100(1- ) % de todos los intervalos de la forma incluirá la media desconocida”. Aplicando esto al ejemplo anterior podemos decir que de 100 muestras de tamaño 36 que escojamos de los pasajeros del avión, 95 de ellas (aproximadamente) producirán intervalos que contendrán el verdadero peso promedio. O lo que es lo mismo, de 100 intervalos obtenidos por la fórmula anterior 95 de ellos contendrán el verdadero valor del parámetro. De la interpretación probabilística se desprende la práctica que se establece así:‖Si se realiza un muestreo aleatorio simple en una población normal con media y varianza conocida, se tiene el 100(1- ) % de confianza de que el intervalo particular contendrá el verdadero valor del parámetro desconocido” En el ejemplo diremos que tenemos una confianza o certeza del 95% de que el verdadero peso promedio de los pasajeros del avión está entre 150´2 y 169´8 libras. 2.4.1 Intervalo de confianza para la media En estadística, se llama intervalo de confianza a un par de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación mediante tal intervalo.

20

ESTADISTICA INFERENCIAL I El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo más amplio tendrá más posibilidades de acierto (mayor nivel de confianza), mientras que para un intervalo más pequeño, que ofrece una estimación más precisa, aumentan sus posibilidades de error. Para la construcción de un determinado intervalo de confianza es necesario conocer la distribución teórica que sigue el parámetro a estimar, θ. Es habitual que el parámetro presente una distribución normal. También pueden construirse intervalos de confianza con la desigualdad de Chebyshov. En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un parámetro poblacional θ que sigue una determinada distribución de probabilidad, es una expresión del tipo [θ1, θ2] tal que P [θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de distribución de probabilidad de θ. En el contexto de estimar un parámetro poblacional, un intervalo de confianza es un rango de valores (calculado en una muestra) en el cual se encuentra el verdadero valor del parámetro, con una probabilidad determinada. La probabilidad de que el verdadero valor del parámetro se encuentre en el intervalo construido se denomina nivel de confianza, y se denota 1. La probabilidad de equivocarnos se llama nivel de significancia y se simboliza. Generalmente se construyen intervalos con confianza 1- =95% (o significancia =5%). Menos frecuentes son los intervalos con =10% o =1%. Para construir un intervalo de confianza, se puede comprobar que la distribución Normal Estándar cumple P (-1.96 < z < 1.96) = 0.95 (Lo anterior se puede comprobar con una tabla de probabilidades o un programa computacional que calcule probabilidades normales). Luego, si una variable X tiene distribución N (,), entonces el 95% de las veces se cumple:

Despejando ᵘ en la ecuación se tiene:

El resultado es un intervalo que incluye al

el 95% de las veces. Es decir, es un intervalo de

confianza al 95% para la media cuando la variable X es normal y es conocido.

Ejemplo:

21

ESTADISTICA INFERENCIAL I Intervalo de confianza para la media de una población De una población de media μ y desviación típica σ se pueden tomar muestras de n elementos. Cada una de estas muestras tiene a su vez una media ( ). Se puede demostrar que la media de todas las medias muéstrales coincide con la media poblacional: Pero además, si el tamaño de las muestras es lo suficientemente grande, 3 la distribución de medias muéstrales es, prácticamente, una distribución normal (o gaussiana) con media μ y una desviación

típica dada por la siguiente expresión:

. Esto se representa como sigue:

. Si estandarizamos, se sigue que:

En una distribución Z ~ N (0, 1) puede calcularse fácilmente un intervalo dentro del cual caigan un determinado porcentaje de las observaciones, esto es, es sencillo hallar z1 y z2 tales que P [z1 ≤ z ≤ z2] = 1 - α, donde (1 - α) ·100 es el porcentaje deseado (véase el uso de las tablas en una distribución normal).

Se desea obtener una expresión tal que En esta distribución normal de medias se puede calcular el intervalo de confianza donde se encontrará la media poblacional si sólo se conoce una media muestral ( ), con una confianza determinada. Habitualmente se manejan valores de confianza del 95 y del 99 por ciento. A este valor se le llamará 1 − α (debido a que α es el error que se cometerá, un término opuesto). Para ello se necesita calcular el punto Xα / 2 —o, mejor dicho, su versión estandarizada Zα / 2 o valor crítico— junto con su "opuesto en la distribución" X

− α / 2.

para el intervalo, como se muestra en la siguiente imagen:

22

Estos puntos delimitan la probabilidad

ESTADISTICA INFERENCIAL I

Dicho punto es el número tal que:

Y en la versión estandarizada se cumple que: Z − α / 2 = − zα / 2 Así:

Haciendo operaciones es posible despejar μ para obtener el intervalo:

De lo cual se obtendrá el intervalo de confianza:

Obsérvese que el intervalo de confianza viene dado por la media muestral

valor crítico Zα / 2 por el error estándar

.

23

± el producto del

ESTADISTICA INFERENCIAL I Si no se conoce σ y n es grande (habitualmente se toma n ≥ 30).

, donde s es la desviación típica de una muestra. Aproximaciones para el valor zα / 2 para los niveles de confianza estándar son 1,96 para 1 − α = 95% y 2,576 para 1 − α = 99%. 2.4.2 Intervalo de confianza para la diferencia de medias En esta sección se verá el caso en donde se tienen dos poblaciones con medias y varianzas desconocidas, y se desea encontrar un intervalo de confianza para la diferencia de dos medias 1-

2.

Si los tamaños de muestras n1 y n2 son mayores que 30, entonces, puede emplearse el

intervalo de confianza de la distribución normal. Sin embargo, cuando se toman muestras pequeñas se supone que las poblaciones de interés están distribuidas de manera normal, y los intervalos de confianza se basan en la distribución t. Si

s12 y s22 son las medias y las varianzas de dos muestras aleatorias de tamaño n1 y n2,

respectivamente, tomadas de dos poblaciones normales e independientes con varianzas desconocidas pero iguales, entonces un intervalo de confianza del 100(

) por ciento para la

diferencia entre medias es:

En donde:

es el estimador combinado de la desviación estándar común de la población con n1+n2 – 2 grados de libertad.

Sean X11, X12, … X1n1, una muestra aleatoria de n1 observaciones tomadas de una primera población con valor esperado µ1 y varianza s

24

ESTADISTICA INFERENCIAL I 1, y X21, X22, … X2n2 una muestra aleatoria de n2 observaciones tomada de la segunda población con valor esperado µ2 y varianza s. 2. Si son las medias muéstrales, la estadística es un estimador puntual de µ1 - µ2, y tiene una distribución normal si las dos poblaciones son normales, o aproximadamente normal si cumple con las condiciones del teorema del límite central (tamaños de muestras relativamente grandes). Es decir, Por lo tanto, para calcular el intervalo de confianza para la diferencia de dos medias se debe saber si las varianzas poblacionales son conocidas o desconocidas, y en caso de que sean desconocidas, se debe probar si son iguales o diferentes. Cada uno de estos tres casos se analizarán por separado Varianzas conocidas Si las varianzas poblacionales son conocidas, los pasos a seguir para encontrar el intervalo de confianza son los siguientes: a) El estadístico usado como estimador puntual de la diferencia de medias µ1 - µ2 será T =, que es un estimador suficiente b) La variable aleatoria asociada con el estimador será la variable normal estándar dada por: c) Para calcular el intervalo de confianza se debe tener en cuenta la siguiente probabilidad: Manipulando la expresión anterior en forma similar a como se hizo en los casos de una sola muestra se llega al siguiente teorema que nos define el intervalo de confianza para la diferencia entre dos medias µ1 - µ2 con varianzas conocidas s1 y s2. Teorema Si son las medias de dos muestras aleatorias independientes de tamaño n1 y n2 tomadas de poblaciones que tienen varianzas conocidas s 1 y s 2. 2.4.3 Intervalos de confianza para la proporción En este caso, interesa construir un intervalo de confianza para una proporción o un porcentaje poblacional (por ejemplo, el porcentaje de personas con hipertensión, fumadoras, etc.) Si el tamaño muestral n es grande, el Teorema Central del Límite nos asegura que:

O bien:

25

ESTADISTICA INFERENCIAL I Donde p es el porcentaje de personas con la característica de interés en la población (o sea, es el parámetro de interés) y p es su estimador muestral. Luego, procediendo en forma análoga al caso de la media, podemos construir un intervalo de 95% de confianza para la proporción poblacional p.

Ejemplo: En un estudio de prevalencia de factores de riesgo en una cohorte de 412 mujeres mayores de 15 años en la Región Metropolitana, se encontró que el 17.6% eran hipertensas. Un intervalo de 95% de confianza para la proporción de mujeres hipertensas en la Región Metropolitana está dado por:

Luego, la proporción de hipertensas varía entre (0,139, 0,212) con una confianza de 95%.

Si el estadístico S es la proporción de ―éxitos‖ en una muestra de tamaño n>= 30 extraída de una población binomial en la que p es la proporción de éxito (es decir, la probabilidad de éxito), los límites de confianza para p vienen dados por P + z o p, donde P es la proporción de éxitos en la muestra de tamaño n. Con los valores obtenidos, se tiene que los límites de confianza para la proporción poblacional son dados por P (±) Z la raíz de (pq)/n será igual a p (±) Z la raíz de p (1-q)/n Para el caso de muestreo en una población infinita, o con reemplazamiento en una población finita. Análogamente los límites de confianza son P (±) Z la raíz de pq/n por la raíz de (N-n)/(N-1) Si el muestreo es sin reemplazamiento en una población finita de tamaño N. Obsérvese que estos resultados se obtienen de (1) y (2) reemplazando X por P y desviación por la raíz del producto pq. Para calcular estos límites de confianza puede utilizarse la estima muestral P para p . Intervalo de confianza para una proporción. El intervalo de confianza para estimar una proporción p, conocida una proporción muestral pn de una muestra de tamaño n, a un nivel de confianza del (1-α) ·100% es:

%

26

ESTADISTICA INFERENCIAL I Dada una variable aleatoria con distribución Binomial B(n, p), el objetivo es la construcción de un intervalo de confianza para el parámetro p, basada en una observación de la variable que ha dado como valor x. El mismo caso se aplica si estudiamos una Binomial B (1, p) y consideramos el número de veces que ocurre el suceso que define la variable al repetir el experimento n veces en condiciones de independencia. Existen dos alternativas a la hora de construir un intervalo de confianza para p: 

Considerar la aproximación asintótica de la distribución Binomial en la distribución Normal.



Utilizar un método exacto.

Aproximación asintótica Tiene la ventaja de la simplicidad en la expresión y en los cálculos, y es la más referenciada en la mayoría de textos de estadística. Se basa en la aproximación

Que, trasladada a la frecuencia relativa, resulta

Tomando como estadístico pivote

que sigue una distribución N(0, 1), y añadiendo una corrección por continuidad al pasar de una variable discreta a una continua, se obtiene el intervalo de confianza asintótico:

Donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha una probabilidad aceptadas para considerar válida la aproximación asintótica anterior son:

27

ESTADISTICA INFERENCIAL I

El intervalo obtenido es un intervalo asintótico y por tanto condicionado a la validez de la aproximación utilizada. Intervalo exacto Aun cuando las condiciones anteriores no se verifiquen, es posible la construcción de un intervalo exacto, válido siempre pero algo más complicado en los cálculos. Es posible demostrar que un intervalo exacto para el parámetro p viene dado por los valores siguientes:

Donde F

a, b

es el valor de una distribución F de Fisher-Snedecor con a y b grados de libertad que (1 − α) · 100 %.

En el programa siguiente se pueden calcular los intervalos de confianza asintótica y, si n es menor de 100, también el exacto para una proporción. 2.4.4 Intervalos de confianza para la diferencia de proporciones Vamos a considerar que tenemos dos poblaciones de modo que en cada una de ellas estudiamos una v.a. dicotómica (Bernoulli) de parámetros respectivos p1 y p2. De cada población vamos a extraer muestras de tamaño n1 y n2

Entonces:

Si las muestras son suficientemente grandes que

28

ocurre

ESTADISTICA INFERENCIAL I

Esta última relación se puede aproximar por otra que simplifica bastante los cálculos:

Por el mismo razonamiento que en el caso de una población llegamos a que una aproximación para un intervalo de confianza al nivel para la diferencia de proporciones de dos poblaciones es:

Sea X1 el número de eventos de cierto tipo observado en una primera muestra de tamaño n1 tomada de una población binomial, y sea X2 el número de eventos observado en otra muestra de tamaño n2. Entonces X1 y X2 son variables aleatorias binomiales independientes con parámetros (n1, 1) y (n2, 2), tomadas de dos poblaciones grandes, y 1 y 2 son sus dos proporciones respectivas. Además, P1= X1/ n1 y P2= X2/ n2 son estimadores independientes de 1 y 2, respectivamente, y tienden a distribuirse normalmente. Si los tamaños de muestra son suficientemente grandes, la siguiente variable tiene una distribución que es aproximadamente normal estándar. Para encontrar un intervalo de confianza para la diferencia de proporciones 1- 2, el estimador puntual estará dado por P1 - P2, la variable aleatoria asociada será la normal estándar, de acuerdo a lo explicado antes, y el intervalo de confianza estará dado por el siguiente teorema. Teorema. Si P1 y P2 son las proporciones muestrales de dos muestras aleatorias independientes de tamaño n1 y n2 que pertenecen a una clase de interés, entonces un intervalo de confianza aproximado del 100(1-) % para la diferencia de las proporciones verdaderas 1 - 2 es:

29

ESTADISTICA INFERENCIAL I Ejemplo: Considere un proceso de producción que tiene una fracción defectuosa 1, desconocida. A este proceso se le realizan unas mejoras para reducir el porcentaje de defectuosos que está produciendo, y queremos saber si estos cambios sí reducen sustancialmente la proporción de artículos defectuosos del proceso. Para ello, se toma una muestra de 200 artículos del proceso original, y se encuentran 12 defectuosos, y se examinan 150 artículos del nuevo proceso y se observan 6 defectuosos. ¿Cree Usted que los cambios efectuados al proceso han reducido el porcentaje de artículos defectuosos? Use un nivel de confianza del 95%. Tenemos: n1 = 200, x1 = 12  p1 = 12/200 = 0.06 n2 = 150, x2 = 6  p2 = 6/150 = 0.04 El intervalo de confianza del 95% para la diferencia entre las fracciones defectuosas antes y después de las mejoras realizadas al proceso está dado por: Como la diferencia de cero está incluida en el intervalo de confianza, concluimos que no tenemos evidencia para afirmar que los cambios efectuados al proceso contribuyen a reducir el porcentaje de artículos defectuosos. Cuál hubiera sido la conclusión si las muestras y los resultados hubieran sido los siguientes (observe que las proporciones defectuosas muéstrales son las mismas): Tenemos: n1 = 1000, x1 = 60  p1 = 60/1000 = 0.06 n2 = 750, x2 = 30  p2 = 30/750 = 0.04 El intervalo de confianza del 95% está dado por En este caso, aunque las proporciones muéstrales son las mismas, el tener tamaños de muestra mucho mayores, nos permite concluir que efectivamente los cambios realizados al proceso redujeron la fracción defectuosa (1>2). Problema. Un artículo del New York Times en 1987 reportó que se puede reducir el riesgo de sufrir ataques al corazón ingiriendo aspirina. Para llegar a esta conclusión el cronista se basó en los resultados de un experimento diseñado, en donde participaron dos grupos de personas. A un grupo de 11,034 personas se le suministró una dosis diaria de una pastilla que no contenía ninguna droga (un placebo), y de estos 189 sufrieron posteriormente ataques al corazón, mientras que al otro grupo de 11,037 se les suministró una aspirina, y sólo 104 lo sufrieron. ¿Considera Usted que el cronista del New York Times estaba en lo correcto? Use un intervalo de confianza. Haga explícitas las suposiciones que considere necesarias.

30

ESTADISTICA INFERENCIAL I Vamos a considerar que tenemos dos poblaciones de modo que en cada Una de ellas estudiamos una v.a. dicotómica (Bernoulli) de parámetros respectivos p1 y p2. De cada población vamos a extraer muestras de tamaño n1 y n2

Entonces

Si las muestras son suficientemente grandes ocurre que una aproximación para un intervalo de confianza al nivel 1 − α para la diferencia de proporciones de dos poblaciones es:

2.4.5 Intervalos de confianza para la varianza Si deseamos estimar la proporción p con que una determinada característica se da en una población, a partir de la proporción p’ observada en una muestra de tamaño n, sabemos que La distribución muestral de proporciones sigue una distribución normal con q=1-p Como la proporción p de la población es desconocida, se aproxima por la de la muestra siempre que n>100. Entonces para un nivel de confianza 1-a, p pertenece al intervalo:

31

ESTADISTICA INFERENCIAL I En el contexto de estimar un parámetro poblacional, un intervalo de confianza es un rango de valores (calculado en una muestra) en el cual se encuentra el verdadero valor del parámetro, con una probabilidad determinada. Para estimar un intervalo de confianza para la varianza, nos ayudaremos de la siguiente propiedad de la distribución

:

Consideremos dos cuantiles de esta distribución que nos dejen una probabilidad ``zona central'' de la distribución:

Figura: Cuantiles de la distribución

.

32

en la

ESTADISTICA INFERENCIAL I Entonces un intervalo de confianza al nivel

para la varianza de una distribución gaussiana

(cuyos parámetros desconocemos) lo obtenemos teniendo en cuenta que existe una probabilidad de que:

Por tanto el intervalo que buscamos es

Ejemplo: En un ejemplo anterior se estudiaba la altura de los individuos de una ciudad, obteniéndose en una muestra de tamaño 25 los siguientes valores:

Calcular un intervalo de confianza con

para la varianza

de la altura de los individuos

de la ciudad. Solución: Para estimar un intervalo de confianza para

(varianza poblacional) el estadístico que nos resulta

útil es:

33

ESTADISTICA INFERENCIAL I Entonces el intervalo de confianza que buscamos lo obtenemos mediante Percentiles del 2,5% y del 97,5% para la distribución

Por tanto, para el valor poblacional de la desviación típica tenemos que

Con una confianza del 95%, que por supuesto contiene a las estimaciones puntuales

calculados sobre la muestra.

34

y

ESTADISTICA INFERENCIAL I 2.4.6 Intervalos de confianza para la relación de varianzas Se tienen dos poblaciones normales e independientes con varianzas desconocidas s 1 y s 2, respectivamente. De este par de poblaciones se tienen disponibles dos muestras .aleatorias de tamaños n1 y n2, respectivamente; sean S1 y S2. Las varianzas muéstrales respectivas. Para hallar el intervalo de confianza del 100(1-a) % para el cociente de dos varianzas sabemos que la siguiente relación tiene una distribución muestral F con n1–1 y n2–1 grados de libertad. Usando el hecho de que obtenemos el siguiente intervalo de confianza para la relación de dos varianzas. Se tienen dos poblaciones normales e independientes con varianzas desconocidas s1 y s2, respectivamente. De este par de poblaciones se tienen disponibles dos muestras .aleatorias de tamaños n1 y n2, respectivamente; sean S1 y S2 las varianzas muéstrales respectivas. Para hallar el intervalo de confianza del 100(1-a) % para el cociente de dos varianzas sabemos que la siguiente relación tiene una distribución muestral F con n1–1 y n2–1 grados de libertad. Si X1, X2, Xn es una muestra aleatoria de tamaño n tomada de una población normal, y si S es la varianza muestral, entonces S es un estimador puntual razonable de la varianza poblacional s. Por otra parte, si la población es normal, la distribución muestral de la siguiente variable es una distribución ji-cuadrado con n-1 grados de libertad. Por lo tanto, para obtener un intervalo de confianza del 100(1-a) % para la varianza s2 nos basamos en el estadístico S y en la distribución chi cuadrado.

Intervalo de confianza para la varianza de una distribución normal. Si X1, X2, Xn es una muestra aleatoria de tamaño n tomada de una población normal, y si S es la varianza muestral, entonces S es un estimador puntual razonable de la varianza poblacional s. Por

35

ESTADISTICA INFERENCIAL I otra parte, si la población es normal, la distribución muestral de la siguiente variable es una distribución ji-cuadrado con n-1 grados de libertad. Por lo tanto, para obtener un intervalo de confianza del 100(1-a)% para la varianza s2 nos basamos en el estadístico S y en la distribución chi cuadrado. Ejemplo: Un proceso produce cierta clase de cojinetes de bola cuyo diámetro interior es de 3 cm. Se seleccionan en forma aleatoria 12 de estos cojinetes y se miden sus diámetros interiores, y los valores resultantes son los siguientes: 3.01, 3.05, 2.99, 2.99, 3.02, 3.00, 2.98, 2.99, 2.97, 2.97, 3.02 y 3.01. Suponiendo que el diámetro es una variable aleatoria normal, determine un intervalo de confianza para la varianza poblacional. Use un intervalo de confianza del 99%. Solución. En el intervalo de confianza para la varianza, el punto medio del intervalo (0.001266) no coincide con el estimador puntual, debido a la no simetría de la distribución chi cuadrado.

36

ESTADISTICA INFERENCIAL I

2.5 Determinación del tamaño de muestra A la hora de determinar el tamaño que debe alcanzar una muestra hay que tomar en cuenta varios factores: el tipo de muestreo, el parámetro a estimar, el error muestral admisible, la varianza poblacional y el nivel de confianza. Por ello antes de presentar algunos casos sencillos de cálculo del tamaño muestral delimitemos estos factores. Parámetro. Son las medidas o datos que se obtienen sobre la población. Estadístico. Los datos o medidas que se obtienen sobre una muestra y por lo tanto una estimación de los parámetros. Error Muestral, de estimación o estándar. Es la diferencia entre un estadístico y su parámetro correspondiente. Es una medida de la variabilidad de las estimaciones de muestras repetidas en torno al valor de la población, nos da una noción clara de hasta dónde y con qué probabilidad una estimación basada en una muestra se aleja del valor que se hubiera obtenido por medio de un censo completo. Siempre se comete un error, pero la naturaleza de la investigación nos indicará hasta qué medida podemos cometerlo (los resultados se someten a error muestral e intervalos de confianza que varían muestra a muestra). Varía según se calcule al principio o al final. Un estadístico será más preciso en cuanto y tanto su error es más pequeño. Podríamos decir que es la desviación de la distribución muestral de un estadístico y su fiabilidad. Nivel de Confianza. Probabilidad de que la estimación efectuada se ajuste a la realidad. Cualquier información que queremos recoger está distribuida según una ley de probabilidad (Gauss o Student), así llamamos nivel de confianza a la probabilidad de que el intervalo construido en torno a un estadístico capte el verdadero valor del parámetro. Varianza Poblacional. Cuando una población es más homogénea la varianza es menor y el número de entrevistas necesarias para construir un modelo reducido del universo, o de la población, será más pequeño. Generalmente es un valor desconocido y hay que estimarlo a partir de datos de estudios previos.

37

ESTADISTICA INFERENCIAL I 2.5.1 Basado en la media de la Población Veamos los pasos necesarios para determinar el tamaño de una muestra empleando el muestreo aleatorio simple. Para ello es

necesario partir de dos supuestos: en

primer lugar el nivel de confianza

al que queremos trabajar; en segundo

lugar, cual es el error máximo que

estamos dispuestos a admitir en nuestra

estimación. Así pues los pasos a

seguir

1.- Obtener el tamaño muestral imaginando que

son:

:

Dónde: : z correspondiente al nivel de confianza elegido : varianza poblacional e: error máximo 2.-Comprobar si se cumple

si esta condición se cumple el proceso termina aquí, y ese es el tamaño adecuado que debemos muestrear. Si no se cumple, pasamos a una tercera fase: 3.- Obtener el tamaño de la muestra según la siguiente fórmula:

Veamos un ejemplo: La Consejería de Trabajo planea un estudio con el interés de conocer el promedio de horas semanales trabajadas por las mujeres del servicio doméstico. La muestra será extraída de una población de 10000 mujeres que figuran en los registros de la Seguridad Social y de las cuales se conoce a través de un estudio piloto que su varianza es de 9.648. Trabajando con un

38

ESTADISTICA INFERENCIAL I nivel de confianza de 0.95 y estando dispuestos a admitir un error máximo de 0,1, ¿cuál debe ser el tamaño muestral que empleemos?.

Buscamos en las tablas de la curva normal el valor de confianza elegido:

que corresponde con el nivel de

= ±1.96 y seguimos los pasos propuestos arriba.

Comprobamos que no se cumple

, pues en este caso

10000 < 3706 (3706 - 1); 10000 < 13730730

2.5.2 Basado en la proporción de la Población Para calcular el tamaño de muestra para la estimación de proporciones poblacionales hemos de tener en cuenta los mismos factores que en el caso de la media. La fórmula que nos permitirá determinar el tamaño muestral es la siguiente:

Donde: : z correspondiente al nivel de confianza elegido P: proporción de una categoría de la variable e: error máximo N: tamaño de la población

39

ESTADISTICA INFERENCIAL I

Siguiendo con el estudio planteado en el punto anterior, supongamos que tratamos de estimar la proporción de mujeres que trabajan diariamente 10 horas o más. De un estudio piloto se dedujo que P=0.30, fijamos el nivel de confianza en 0.95 y el error máximo 0.02.

Si conoces el valor del error muestral y la confianza de estimación, además de las varianzas estimadas entonces resulta algo más leve el trabajo E = Z √ [( σ1²/n1) + ( σ2²/n2)] Hay dos casos, si n1=n2=n o si n1 es diferente a n2 ( n= n1 = k n2) Luego se despeja el "n" que es el tamaño de la muestra pedido Si en caso son del mismo tamaño sería así: n = Z² ( σ1² + σ2²) / E² Previamente deberás conocer el error de estima E y la Z mediante la confianza, si no conoces las desviaciones poblacionales puedes estimarla con las muéstrales.

40

ESTADISTICA INFERENCIAL I 2.5.3 Basado en la diferencia entre las medias de la Población

41

ESTADISTICA INFERENCIAL I

UNIDAD 3. PRUEBA DE HIPOTESIS 3.1 Introducción Prueba de hipótesis En esta unidad nos concentraremos en la prueba de hipótesis, otro aspecto de la inferencia estadística que al igual que la estimación del intervalo de confianza, se basa en la información de la muestra. Se desarrolla una metodología paso a paso que le permita hacer inferencias sobre un parámetro poblacional mediante el análisis diferencial entre los resultados observados (estadístico de la muestra) y los resultados de la muestra esperados si la hipótesis subyacente es realmente cierta. En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es o no lo es). Prueba de hipótesis: Estadísticamente una prueba de hipótesis es cualquier afirmación acerca de una población y/o sus parámetros. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste en rechazar o no una hipótesis en favor de la otra. Una hipótesis estadística se denota por ―H‖ y son dos: - Ho: hipótesis nula - H1: hipótesis alternativa Partes de una hipótesis 1-La hipótesis nula ―Ho‖ 2-La hipótesis alternativa ―H1‖ 3-El estadístico de prueba 4-Errores tipo I y II 5-La región de rechazo (crítica) 6-La toma de decisión 1. Concepto: Una prueba de hipótesis estadística es una conjetura de una o más poblaciones. Nunca se sabe con absoluta certeza la verdad o falsedad de una hipótesis estadística, a no ser que se examine la población entera. Esto por su puesto sería impráctico en la mayoría de las situaciones. En su lugar, se toma una muestra aleatoria de la población de interés y se utilizan los datos que contiene tal muestra para proporcionar evidencia que confirme o no la hipótesis. La evidencia de la muestra que es un constante con la hipótesis planteada conduce a un rechazo de la misma mientras que la evidencia que apoya la hipótesis conduce a su aceptación. Definición de prueba de hipótesis estadística es que cuantifica el proceso de toma de decisiones. Por cada tipo de prueba de hipótesis se puede calcular una prueba estadística apropiada. Esta prueba estadística mide el acercamiento del calor de la muestra (como un promedio) a la hipótesis nula. La prueba estadística, sigue una distribución estadística bien conocida (normal, etc.) o se puede desarrollar una distribución para la prueba estadística particular. La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente.

42

ESTADISTICA INFERENCIAL I Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo. Método de seis pasos de la prueba de hipótesis. 1. Prepare la hipótesis nula, y la hipótesis alternativa . 2. Seleccione el nivel de significancia α, y el tamaño de la muestra n. el nivel de significancia se especifica de acuerdo con la importancia relativa de los riesgos de cometer errores de tipo I y tipo II en el problema. 3. Determine el estadístico de prueba y la distribución muestral apropiados. 4. Determine los valores críticos que dividen las zonas de rechazo y aceptación. 5. Recopile los datos y calcule el valor del estadístico de prueba. 6. Tome la decisión estadística y establezca la conclusión administrativa que se escribe en el contexto de problema real. 3.2 Confiabilidad y significancia El propósito de la prueba de hipótesis no es cuestionar el valor calculado de la estadística de muestra, sino hacer un juicio respecto a la diferencia entre esa estadística de muestra y un parámetro de población hipotetizado. El siguiente paso después de establecer la hipótesis nula alternativa consiste en decidir qué criterio utilizar para decidir si aceptar o rechazar la hipótesis nula. Si suponemos que la hipótesis es correcta, entonces el nivel de significancia indicará el porcentaje de medias de muestra que está fuera de ciertos límites. Siempre que afirmemos que aceptamos la hipótesis nula, en realidad lo que queremos decir es que no hay suficiente evidencia estadística para rechazarla. El empleo del término aceptar, en lugar de rechazar, se ha vuelto de uso común. Significa simplemente que cuando los datos de la muestra n hacen que rechacemos una hipótesis nula, nos comportamos como si fuera cierta. Selección del nivel de significancia. Nuestra elección del estándar mínimo para una probabilidad aceptable, o el nivel de significancia, es también el riesgo que asumimos al rechazar una hipótesis nula cuando es cierta. Mientras más alto sea el nivel de significancia que utilizamos para probar una hipótesis, mayor será la probabilidad de rechazar una hipótesis nula cuando es cierta. Nivel de significancia: Probabilidad de rechazar la hipótesis nula cuando es verdadera. Se le denota mediante la letra griega α, también es denominada como nivel de riesgo, este término es más adecuado ya que se corre el riesgo de rechazar la hipótesis nula, cuando en realidad es verdadera. Este nivel está bajo el control de la persona que realiza la prueba.

43

ESTADISTICA INFERENCIAL I Si suponemos que la hipótesis planteada es verdadera, entonces, el nivel de significación indicará la probabilidad de no aceptarla, es decir, estén fuera de área de aceptación. El nivel de confianza (1-α), indica la probabilidad de aceptar la hipótesis planteada, cuando es verdadera en la población.

La distribución de muestreo de la estadística de prueba se divide en dos regiones, una región de rechazo (conocida como región crítica) y una región de no rechazo (aceptación). Si la estadística de prueba cae dentro de la región de aceptación, no se puede rechazar la hipótesis nula. La región de rechazo puede considerarse como el conjunto de valores de la estadística de prueba que no tienen posibilidad de presentarse si la hipótesis nula es verdadera. Por otro lado, estos valores no son tan improbables de presentarse si la hipótesis nula es falsa. El valor crítico separa la región de no rechazo de la de rechazo. El nivel de confianza es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro. Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%

Ejemplo: Para un nivel de confianza del 88%, 1-α = 0.88 α = 0.12 α/2 = 0.06 Z α / 2 = Z 0.06

44

ESTADISTICA INFERENCIAL I P(Z ≤ Z 0.06) =0.94 (1-α/2) Z(0.94)=1.56 Para un nivel de confianza del 98%, 1-α=0.98 α=0.02 α/2=0.01 Z α / 2 = Z 0.01 P(Z ≤ Z 0.01) =0.99 (1-α/2) Z(0.99)=2.35 E l n i ve l d e co n f i a n za e s l a pr o b ab i l i da d d e q u e el p a r á me t r o a e s t i ma r s e e n c u e nt r e e n e l i nt e r va l o de c o nf i a n za . E l n i ve l d e c o nf i an za ( p) se d es i gn a me d i a nt e 1 − α , y s e s u el e t o ma r en t a nt o p or c i e n t o . L o s n i ve l e s d e c o nf i an za má s u s u a l e s s o n: 9 0 % ; 9 5% y 9 9 % . E l n i ve l d e si gn i f i c aci ó n se d e si gn a me d i a nt e α . E l va l o r c r í t i c o ( k) c omo z P ( Z> z

α/2)

= α/2

.

α/2

P[ - z

α/2

< z < z

1 - α

α/2

z

0.90

0.05

1.645

0.95

0.025

1.96

0.99

0.005

2.575

α/2]

= 1 - α

α/2

E n u n a d i s t r i bu c i ó n N ( μ , σ ) e l i n t e r va l o c a r ac t e r í s t i c o c o r r e sp o n d i en t e a u n a p r o b a bi l i d a d p = 1 - α e s : (μ - Z

α/2

· σ, μ + z

45

α/2

· σ)

ESTADISTICA INFERENCIAL I

Ejemplo: L a me d i a d e l a s e s t at u r a s d e u n a mu e s t r a a l e at or i a d e 4 0 0 p er so n a s d e u na c i u d ad e s 1 , 7 5 m. S e s a b e q u e l a e s t a t ur a d e l a s p er s on a s d e esa c i u d ad e s u n a va r i a bl e a l e at o r i a q u e s i gu e u n a d i s t r i b u ci ó n n o r ma l c o n va r i a n za σ 2 = 0,16 m2. C o n s t r u ye u n i nt e r va l o , de u n 9 5% d e c o n f i a n za , p ar a l a me d i a d e l as e s t at ur a s d e l a p o bl a ci ó n . n = 400

σ = 0.4

x = 1. 7 5

1- α = 0.95

z

( 1 . 7 5 ± 1 . 9 6 · 0 . 4/ 2 0)



α/2

= 1.96 ( 1 . 7 1 0 8 , 1 . 7 89 2 )

3.3 Errores tipo I y tipo II Cualquiera sea la decisión tomada a partir de una prueba de hipótesis, ya sea de aceptación de la Ho o de la Ha, puede incurrirse en error: Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y debía ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa α Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es aceptada cuando de hecho es falsa y debía ser rechazada. En cualquiera de los dos casos se comete un error al tomar una decisión equivocada. En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las consecuencias posibles.

46

ESTADISTICA INFERENCIAL I

Para que cualquier ensayo de hipótesis sea bueno, debe diseñarse de forma que minimice los errores de decisión. En la práctica un tipo de error puede tener más importancia que el otro, y así se tiene a conseguir poner una limitación al error de mayor importancia. La única forma de reducir ambos tipos de errores es incrementar el tamaño de la muestra, lo cual puede ser o no ser posible. La probabilidad de cometer un error de tipo II denotada con la letra griega beta β, depende de la diferencia entre los valores supuesto y real del parámetro de la población. Como es más fácil encontrar diferencias grandes, si la diferencia entre la estadística de muestra y el correspondiente parámetro de población es grande, la probabilidad de cometer un error de tipo II, probablemente sea pequeña. El estudio y las conclusiones que obtengamos para una población cualquiera, se habrán apoyado exclusivamente en el análisis de una parte de ésta. De la probabilidad con la que estemos dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una distribución normal Existe una relación inversa entre la magnitud de los errores α y β: conforme a aumenta, β disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas estadísticas. Lo ideal sería establecer α y β. En la práctica se establece el nivel α y para disminuir el Error β se incrementa el número de observaciones en la muestra, pues así se acortan los límites de confianza respecto a la hipótesis planteada. La meta de las pruebas estadísticas es rechazar la hipótesis planteada. En otras palabras, es deseable aumentar cuando ésta es verdadera, o sea, incrementar lo que se llama poder

47

ESTADISTICA INFERENCIAL I de la prueba (1- β) La aceptación de la hipótesis planteada debe interpretarse como que la información aleatoria de la muestra disponible no permite detectar la falsedad de esta hipótesis. El rechazo de una hipótesis nula cuando es cierta se denomina error de tipo I, y su probabilidad (que es también el nivel de significancia) se simboliza como  . El hecho de aceptar una hipótesis nula cuando es falsa se denomina error de tipo II, y su probabilidad se simboliza como  . La probabilidad de cometer un tipo de error puede reducirse sólo si deseamos incrementar la probabilidad de cometer el otro tipo de error. Con el propósito de obtener una  baja, tendremos que tolerar una  alta. Los responsables de la toma de decisiones deciden el nivel de significancia adecuado, al examinar los costos o desventajas vinculadas con ambos tipos de errores. 3.4 Potencia de la prueba El complemento (1-) de la probabilidad de cometer un error del tipo II se conoce como potencia de una prueba estadística. La potencia de una prueba es la probabilidad de rechazar la hipótesis nula cuando de hecho esta es falsa y debería ser rechazada. Una manera en que podemos controlar la probabilidad de cometer un error del tipo II en un estudio, consiste en aumentar el tamaño de la muestra. Tamaños más grandes de muestra, nos permitirán detectar diferencias incluso muy pequeñas entre las estadísticas de muestra y los parámetros de la población. Cuando se disminuye ,  aumentará de modo que una reducción en el riesgo de cometer un error de tipo I tendrá como resultado un aumento en el riesgo de cometer un error tipo II. Prueba de hipótesis Z para la media (desvío de la población conocido) El estadístico de prueba a utilizar es: La Potencia de una prueba β representa la probabilidad de que la hipótesis nula no sea rechazada cuando de hecho es falsa y debería rechazársele. La potencia de prueba 1-β representa la sensibilidad de la prueba estadística para detectar cambios que se presentan al medir la probabilidad de rechazar la hipótesis nula cuando de hecho es falsa y debería ser rechazada. La potencia de prueba estadística depende de qué tan diferente en realidad es la media verdadera de la población del valor supuesto. Una prueba de un extremo es más poderosa que una de dos extremos, y se debería utilizar siempre que sea adecuado especificar la dirección de la hipótesis alternativa. Puesto que la probabilidad de cometer un error tipo I y la probabilidad de cometer un error tipo II tienen una relación inversa y esta última es el complemento de la potencia de prueba (1-β), entonces α y la potencia de la prueba varían en proporción directa. Un aumento en el valor del nivel de significación escogido, tendría como resultado un aumento en la potencia y una disminución en α tendría como resultado una disminución en la potencia. Un aumento en el tamaño de la muestra

48

ESTADISTICA INFERENCIAL I escogida tendría como resultado un aumento en la potencia de la prueba, una disminución en el tamaño de la muestra seleccionada tendría como resultado una disminución en la potencia.

Ejemplo: Se realizan controles de calidad y de eficacia de vacunas contra herpes virus bovino-1 (HVB-1) aplicando un novedoso modelo de análisis que incluye una etapa de estudio en ratones y otra posterior en bovinos. En la segunda etapa se le aplica la vacuna a un grupo de bovinos. Más tarde se lo desafía con el herpes virus infeccioso, bajo estrictas normas de seguridad, para evaluar si la vacuna ha resultado protectiva. Este método se denomina ―prueba de potencia‖, y ya ha sido realizado con éxito para la empresa farmacéutica Biogénesis para controlar vacunas de serie contra HVB-1. El servicio a esta empresa en particular continúa en la actualidad. Potencia de la prueba La potencia de una prueba es la probabilidad de rechazar la hipótesis nula cuando ésta sea falsa. Se suele simbolizar como 1-. Se suele considerar OK una potencia de al menos 0′80 (es decir, asumiendo 100 experimentos en que hay un efecto real, lo detectaríamos -en promedio- 80 veces.) La potencia de una prueba aumenta cuando aumentamos el tamaño muestral. (Por ejemplo, en la prueba t para la diferencia de medias, ello se observa por cuanto ―n‖ incrementa el valor de la t empírica.) La potencia de una prueba aumenta cuando el tamaño del efecto aumenta. (Por ejemplo, en la prueba t para la diferencia de medias, cuanto mayor sea la diferencia de medias, mayor será el valor de la t empírica.) La potencia de una prueba disminuye cuando reducimos la probabilidad de error de tipo I (alpha o ). Es decir, si alpha es de 0′01 en lugar de 0′05, los valores críticos (v.g., las t teóricas en el caso de la prueba de diferencia de medias) son algo más extremos y necesitaremos un valor del estadístico de contraste (v.g., t empírica) mayor para rechazar la hipótesis nula. Potencia de la prueba Hay fórmulas estadísticas (y programas en la internet) que permiten determinar la potencia de una prueba dado cierto tamaño muestral, y la inversa, es decir, determinar el tamaño muestral para una potencia dada. (Claro, que hemos de ser precavidos: para obtener tales valores necesitamos indicar lo que pensamos que serán los parámetros poblacionales…algo que en realidad no sabemos. 3.5 Formulación de Hipótesis estadísticas Después de que el PON se ha definido y precisado, el siguiente paso en el proceso de investigación es establecer la hipótesis de investigación. En términos generales el término hipótesis se define como una respuesta probable de carácter tentativo a un problema de investigación y que es factible de verificación empírica. La hipótesis expresa la relación entre dos o más variables que son

49

ESTADISTICA INFERENCIAL I susceptibles de medición. Una hipótesis planteada correctamente debe poderse verificar o contrastar contra la evidencia empírica. Lo que se somete a comprobación no es exactamente la hipótesis ni las variables que la integran, sino la relación que expresan entre sí las variables estudiadas en la investigación. De acuerdo con Zorrilla (1985) una hipótesis se estructura con tres elementos: a) Unidades de Análisis. También conocidas como unidades de observación y representan el objeto de estudio, son ejemplos, las personas, las empresas, los movimientos sociales, los fenómenos naturales, etc. que se someten a investigación. b) Las Variables. Que son los atributos, características o propiedades que presentan las unidades de análisis y que serán sometidas a medición. c) Enlace Lógico. Son términos de relación o enlace entre las unidades de análisis y las variables, por ejemplo, las expresiones: si…entonces…, existe relación entre…y…etc. De acuerdo con Kerlinger (1983) las hipótesis deben cubrir dos requisitos: a) Expresar la relación entre una variable y otra. b) Indicar la necesidad de verificar la relación entre las variables Si no se cumplen ambos requisitos no se tiene una verdadera hipótesis científica. La hipótesis es importante porque ayuda a darle una dirección a la investigación, además es también una predicción que puede ser probada y que se deriva lógicamente del problema de investigación. De acuerdo con Therese L. Baker (1997) si el objetivo del estudio es una explicación entonces una pregunta de investigación puede ser la base para formular una o más hipótesis. La abundante literatura existente sobre metodología de la investigación, describe una gran variedad de tipos de hipótesis, no obstante, en la presente sección únicamente se explicarán las siguientes: hipótesis de investigación, hipótesis de nulidad, hipótesis alternativa e hipótesis estadística.

a) Hipótesis de Investigación. Es el tipo de hipótesis al que nos hemos referido anteriormente y se le define como una aseveración, conjetura o proposición sobre las probables relaciones entre dos o más variables. Con frecuencia se pueden expresar en forma descriptiva, correlacionar, de causalidad, de nulidad, etc. dependiendo del propósito y naturaleza de la investigación que se intenta desarrollar. a1) Hipótesis Descriptiva. La hipótesis descriptiva como su nombre lo indica describe una situación relacional entre las variables que se someten a estudio. Se utiliza en investigaciones de tipo descriptivo, como pudieran ser los estudios por encuesta. Son ejemplos de hipótesis descriptiva los siguientes: El periodo de recuperación de la inversión del proyecto Duply Office es de dos años.

50

ESTADISTICA INFERENCIAL I Los productos de consumo doméstico en México aumentarán un 18 % en los próximos seis meses. a2) Hipótesis Correlacionar. La palabra correlación es un término estadístico que expresa una posible asociación o relación entre dos o más variables, sin que sea importante el orden de presentación de las variables, ya que no expresan una relación de causalidad. Para verificarlas se utilizan pruebas estadísticas de correlación. Son ejemplos de hipótesis correlacionar los siguientes: A mayor apreciación del dólar norteamericano, mayor depreciación del peso mexicano. El volumen de importaciones en México disminuye con el aumento en el tipo de cambio peso-dólar. a3) Hipótesis de Causalidad. Las hipótesis de causalidad se formulan para investigaciones experimentales. Expresan una relación de causa-efecto entre las variables que se someten a estudio. Una hipótesis de causalidad puede expresar una relación causal entre una variable independiente y una variable dependiente, o bien, puede hacerlo entre más de una variable independiente y una variable dependiente. Son ejemplos de hipótesis de causalidad: El elevado índice de inflación en México es causa del bajo poder adquisitivo del peso mexicano. Los factores de productividad total (insumo humano, materia prima, energía, capital y otros gastos) del sector manufacturero mexicano son los determinantes de la productividad total. b) Hipótesis de Nulidad. Este tipo de hipótesis expresa la ausencia de relación, diferencia, causalidad, etc. entre dos o más variables. De acuerdo con D‖Ary, Jacobs y Razavieh (1982) la hipótesis de nulidad ―…permite comparar los descubrimientos con las expectativas mediante métodos estadísticos,‖ (p. 85). Son ejemplos de hipótesis de nulidad: La oferta de carreras profesionales del Instituto Tecnológico de Cd. Cuauhtémoc no satisface la demanda de formación académica profesional de los egresados de nivel medio superior en la región. La tecnología de punta no representa una ventaja competitiva definitiva de la empresa A al disminuir sus costos de producción y hacer mas eficientes los procesos productivos. c) Hipótesis Estadísticas. Una hipótesis estadística expresa en términos o símbolos estadísticos los anteriores tipos de hipótesis. Se pueden expresar en términos de: c1) Estadísticas de Estimación. Diseñadas para evaluar la suposición respecto al valor de alguna característica de una muestra de individuos o unidades de análisis. c2) Estadísticas de Correlación. Traduce o transforma una situación de correlación entre dos o más variables a la simbología estadística Propia de las pruebas estadísticas de correlación. c3) Estadísticas de la Diferencia de Medias u otros Valores. En este tipo de hipótesis se compara una estadística entre dos o más grupos.

51

ESTADISTICA INFERENCIAL I Es un ejemplo de hipótesis estadística la siguiente: La hipótesis ―No hay relación entre el aprendizaje (mayor cantidad de impresiones por hora) y el costo por unidad impresa en la compañía Ediciones Tarahumara‖, se expresa como una hipótesis estadística de la siguiente manera: Hipótesis nula: Ho: rxy = 0 (no hay relación entre…) Hipótesis alternativa: H1: rxy  0 (existe relación entre…) 3.6 Prueba de hipótesis para la media Cuando se van a realizar pruebas de hipótesis relativas a la media poblacional m se debe saber si la varianza poblacional s es conocida o desconocida, ya que la distribución subyacente al estadístico de prueba será la normal estándar si la varianza es conocida, y la distribución t en caso contrario. Las diferentes hipótesis que se pueden presentar son las siguientes: 1) Ho: m = m0 H1: m > m0 2) Ho: m = m0 H1: m < m0 3) Ho: m = m0 H1: m ¹ m0 Las pruebas de hipótesis para la media se basan en el estadístico dado por la media muestral cuya distribución tiende a la distribución normal (m, s /n) para muestras grandes. Prueba de hipótesis para la media con varianza conocida Cuando la varianza s es conocida, las pruebas de hipótesis se basan en el hecho de que la variable aleatoria Z definida como , se distribuye normalmente con media cero y varianza unitaria. Para el caso de las hipótesis Ho: m = m0 contra H1: m > m0 vimos, al analizar las mejores pruebas, que la mejor región crítica de tamaño a consistía en rechazar H0 si la media muestral era mayor o igual que una constante c dada por. Por lo tanto, una vez tomada la muestra y obtenidos los valores x1, x2,…, xn. Y los criterios de decisión serían los siguientes: a) Rechace Ho: m = m0 si ³ c, donde. b) Calcule el ―estadístico de prueba‖ y rechace Ho: m = m0 si Z ³ Za. c) Calcule el ―estadístico de prueba‖ y estime P como el área en la distribución normal estándar a la derecha del valor Z calculado, y rechace Ho: m = m0 si P < a. Para el caso de las hipótesis Ho: m = m0 contra H1: m < m0 la mejor región crítica de tamaño a consiste en rechazar H0 si la media muestral es menor o igual que una constante c dada por. Por lo tanto, una vez tomada la muestra y obtenidos los valores x1, x2,…, xn, se calcula la media muestral, y los criterios de decisión sería los siguientes:

52

ESTADISTICA INFERENCIAL I a) Rechace Ho: m = m0 si £ c, donde . b) Calcule el ―estadístico de prueba‖ y rechace Ho: m = m0 si Z £ Z1-a. Como Za = -Z1-a se rechaza Ho si Z £ -Za o equivalentemente, si êZ ê³ Z a. c) Calcule el ―estadístico de prueba‖ y estime P como el área en la distribución normal estándar a la izquierda del valor Z calculado, y rechace Ho: m = m0 si P < a. Por último, si las hipótesis fueran Ho: m = m0 contra H1: m ¹ m0 la mejor región crítica de tamaño a (aunque no es uniformemente más potente como en el caso de las dos anteriores) consiste en rechazar H0 si la media muestral es menor o igual que una constante c1 ó mayor igual que otra constante c2. Por lo tanto, una vez tomada la muestra y obtenidos los valores x1, x2,…, xn, se calcula la media muestral, y los criterios de decisión serían los siguientes: a) Rechace Ho: m = m0 si £ c1 ó ³ c2, donde y . b) Calcule el ―estadístico de prueba‖ y rechace Ho: m = m0 si Z £ -Za/2 ó Z ³ Za/2, ó simplemente, si êZ ê³ Z a/2. c) Calcule el ―estadístico de prueba‖ y estime P como el área en la distribución normal estándar a la izquierda del valor Z calculado si Z es negativo, o a la derecha del valor de Z si Z es positivo, y rechace Ho: m = m0 si P < a. También P se puede calcular como el área a derecha del valor absoluto de Z. Ejemplo: Un inspector de pesos y medidas visita una planta de empacado para verificar que el peso neto de las cajas sea el indicado en la etiqueta. El gerente de la planta asegura al inspector que el peso promedio de cada caja es de 750 gramos con una desviación estándar de 5 gr. El inspector selecciona, al azar, 100 cajas y encuentra que el peso promedio es de 748 gr. Bajo estas condiciones y usando un nivel de significancia de 0.05, ¿Qué actitud debe tomar el inspector? Solución. Este problema lo podemos plantear como una prueba de hipótesis del siguiente tipo: 1) Ho: m = m0 = 750 H1: m < m0 (hay preocupación si el peso medio es inferior al especificado) Con n = 100, a = 0.05, s = 5 gramos. Se tiene que Z0.05 = 1.645. Por lo tanto, la región crítica está dada por = 750 - 1.645 x 5/10 =749.18. Por lo tanto como la media muestral es 748 gramos, se rechaza la hipótesis de que el promedio de cada caja sea 750 gramos. Por lo tanto, deben tomarse las medias necesarias para corregir esta situación, que va en contra de los intereses del consumidor. Usando los otros criterios de aceptación tenemos que Z = - 4.0 y el valor P es aproximadamente cero (P = 0.0). Prueba de hipótesis para la media con varianza desconocida Cuando la varianza s no es conocida, las pruebas de hipótesis se basan en el hecho de que la variable aleatoria T definida como tiene una distribución t con n-1 grados de libertad. Por lo tanto,

53

ESTADISTICA INFERENCIAL I al analizar los diferentes casos presentados anteriormente para las pruebas de hipótesis con respecto a la media, bastará con cambiar la varianza poblacional s por su estimativo muestral S y la distribución normal estándar por la distribución t. En consecuencia los diferentes casos a analizar serán los siguientes: Si tenemos las hipótesis Ho: m = m0 contra H1: m > m0 la mejor región crítica de tamaño a consiste en rechazar H0 si la media muestral es mayor o igual que la constante c, que en este caso está dada por. Por lo tanto, una vez tomada la muestra y obtenidos los valores x1, x2,…, xn, se calculan la media muestral y la varianza muestral s dados por: , y los criterios de decisión serían los siguientes: a) Rechace Ho: m = m0 si ³ c, donde. b) Calcule el ―estadístico de prueba‖ y rechace Ho: m = m0 si T ³ tn - 1, a. c) Calcule el ―estadístico de prueba‖ y estime P como el área en la distribución t a la derecha del valor T calculado, y rechace Ho: m = m0 si P < a. Para el caso de las hipótesis Ho: m = m0 contra H1: m < m0 la mejor región crítica de tamaño a consiste en rechazar H0 si la media muestral es menor o igual que una constante c dada por. Por lo tanto, una vez tomada la muestra y obtenidos los valores x1, x2,…, xn, se calculan la media muestral y la varianza muestral S, y los criterios de decisión sería los siguientes: a) Rechace Ho: m = m0 si £ c, donde. b) Calcule el ―estadístico de prueba‖ y rechace Ho: m = m0 si êT ê³ tn - 1, a. c) Calcule el ―estadístico de prueba‖ y estime P como el área en la distribución t a la izquierda del valor T calculado, y rechace Ho: m = m0 si P < a.

Por último, si las hipótesis fueran Ho: m = m0 contra H1: m ¹ m0 la mejor región crítica de tamaño a (aunque no es uniformemente más potente como en el caso de las dos anteriores) consiste en rechazar H0 si la media muestral es menor o igual que una constante c1 ó mayor igual que otra constante c2. Por lo tanto, una vez tomada la muestra y obtenidos los valores x1, x2,…, xn, se calcula la media muestral, y los criterios de decisión serían los siguientes: a) Rechace Ho: m = m0 si £c1 ó ³c2, donde y. b) Calcule el ―estadístico de prueba‖ y rechace Ho: m = m0 si êT ê³ tn - 1, a/2. c) Calcule el ―estadístico de prueba‖ y estime P como el área en la distribución t a la izquierda del valor T calculado si T es negativo, o a la derecha del valor de T si T es positivo, y rechace Ho: m = m0 si P < a. También P se puede calcular como el área a derecha del valor absoluto de T.

54

ESTADISTICA INFERENCIAL I 3.7 Prueba de hipótesis para la diferencia de medias Prueba de hipótesis para la diferencia de medias. Supongamos que se toma una muestra aleatoria de n1 de la primera población y una muestra aleatoria de n2, y los datos recolectados provienen de una variable numérica. En la primera población, la media se representa con el símbolo y la desviación estándar con el símbolo: en la segunda población, la media se representa con el símbolo y la desviación estándar con el símbolo. El estadístico de prueba usado para determinar la diferencia entre dos medias poblacionales se basa en la diferencia entre las medias de muestras. Si se supone que las muestras son aleatorias y seleccionadas independientemente de las poblaciones que están distribuidas de forma normal, este estadístico seguirá la distribución normal estandarizada. Si las poblaciones no están distribuidas de forma normal, la prueba Z sigue siendo la adecuada si las muestras son lo suficientemente grandes (generalmente n1 y n2 30. La siguiente ecuación define la prueba Z para la diferencia entre dos medias. 3.8 Prueba de hipótesis para la proporción Las pruebas de hipótesis a partir de proporciones se realizan casi en la misma forma utilizada cuando nos referimos a las medias, cuando se cumplen las suposiciones necesarias para cada caso. Pueden utilizarse pruebas unilaterales o bilaterales dependiendo de la situación particular. La proporción de una población Las hipótesis se enuncian de manera similar al caso de la media. Ho: p = p0 H1: p ¹ p0 Regla de decisión: se determina de acuerdo a la hipótesis alternativa (si es bilateral o unilateral), lo cual puedes fácilmente hacerlo auxiliándote de la tabla 4.4.1. En el caso de muestras pequeñas se utiliza la distribución Binomial. No lo abordaremos por ser complicado y poco frecuente su uso. Diferencia entre las proporciones de dos poblaciones La situación más frecuente es suponer que existen diferencias entre las proporciones de dos poblaciones, para ello suelen enunciarse las hipótesis de forma similar al caso de las medias: Ho: p1 = p2 Þ p1 - p2 = 0 H1: p1 ¹ p2 Puede la hipótesis alternativa enunciarse unilateralmente. Siendo a1 y a2, el número de sujetos con la característica objeto de estudio en las muestras 1 y 2 respectivamente, es decir, en vez de calcular la varianza para cada muestra, se calcula una p

55

ESTADISTICA INFERENCIAL I conjunta para ambas muestras bajo el supuesto que no hay diferencias entre ambas proporciones y así se obtiene la varianza conjunta. Recuerda que q = 1-p. Está de más que te diga que este estadígrafo se distribuye normal estándar. La regla de decisión se determina de manera similar a los casos ya vistos anteriormente. El objetivo de la prueba es comparar estas dos proporciones, como estimadores H1: p1 ¹ p2 Recuerda que la H1 también puede plantearse de forma unilateral. Pruebas de hipótesis para proporciones En el caso de proporciones se mostrara mediante un ejemplo como realizar pruebas de hipótesis para muestras grandes (mayores a 30 elementos).

Ejemplo: El dueño de un café desea saber si la proporción de mujeres que entran a su negocio es igual al 60%. Para hacer lo anterior se realiza un muestreo aleatorio de 40 personas, dando un promedio de la muestra de 58%. Paso 1. Determinar la hipótesis Nula ―Ho‖ y Alternativa ―Ha‖. Ho: La cantidad de mujeres que entra al negocio es del 60%. Ha: La cantidad de mujeres que entran al negocio NO ES del 60% (El estudiante debe describir la Ha) Nótese que la hipótesis nula considera IGUAL al 60% por lo tanto es una prueba de hipótesis de dos colas. Paso 2. Determinar el nivel de significancia. Este nivel representa la probabilidad de rechazar una hipótesis nula verdadera, matemáticamente se puede considerar cualquier valor entre cero y uno; pero para estudios de pruebas de hipótesis normalmente está entre 0.05 y 0.1. Este nivel está determinado por el analista y debe basarse en las características del estudio y el riesgo que se considere aceptable de cometer el error tipo I. Nivel de significancia del estudio para el ejemplo: α = 0.1 Gráficamente el nivel de significancia se distribuye en la curva de distribución normal tal como se muestra en la figura, nótese que en el caso de pruebas de hipótesis de medias, ésta se ubica en la parte media de la distribución de probabilidad:

56

ESTADISTICA INFERENCIAL I

Paso 3. Calcular los intervalos que implican ese nivel de significancia. Para dicho nivel de significancia (equivale a un nivel de confianza del 90%) los valores de Z son: Z = +/- 1.6448 Gráficamente queda de la siguiente manera:

Paso 4. Calcular el ―estadístico‖ de la prueba. El estadístico Z se calcula de la siguiente manera: En el caso de pruebas de hipótesis para proporciones la ecuación que se usa es la siguiente:

Dónde:

57

ESTADISTICA INFERENCIAL I ˆp Proporción muestral p Proporción poblacional (considerado en la hipótesis nula) q 1- p Inverso de ―p‖. n Número de elementos muestreados. z Valor de Z tipificado Para el caso del presente ejemplo:

Paso 5. Determinar si el estadístico cae dentro de la región que hace la Hipótesis nula verdadera.

Podrá notarse, el estadístico esta dentro de la región que hace verdadera la hipótesis nula. Paso 6. Aceptar o rechazar la hipótesis nula. En este caso como el estadístico de la prueba cae dentro de la región que hace verdadera la hipótesis nula, ésta se ACEPTA y se toma como falsa la hipótesis alternativa: Ho: La cantidad de mujeres que entra al negocio es del 60%. (VERDADERO) Ha: La cantidad de mujeres que entra al negocio NO es del 60%. (FALSO)

58

ESTADISTICA INFERENCIAL I

3.9 Prueba de hipótesis para la diferencia de proporciones En algunos diseños de investigación, el plan muestral requiere seleccionar dos muestras independientes, calcular las proporciones muéstrales y usar la diferencia de las dos proporciones para estimar o probar una diferencia entre las mismas. Las aplicaciones son similares a la diferencia de medias, por ejemplo si dos empresas consultoras ofrecen datos de proporciones de personas que van a votar por el PRI y al hacer dos estudios diferentes salen resultados ligeramente diferentes ¿pero qué tanta diferencia se requiere para que sea estadísticamente significativo? De eso se tratan las pruebas estadísticas de diferencias de proporciones. El estadístico Z para estos casos se calcula de la siguiente manera:

Dónde:

59

ESTADISTICA INFERENCIAL I Ejemplo: Una muestra de 87 mujeres trabajadoras profesionales mostró que la cantidad promedio que pagan a un fondo de pensión privado el 5% de su sueldo. Una muestra de 76 hombres trabajadores profesionales muestra que la cantidad que paga a un fondo de pensión privado es el 6.1% de su sueldo. Un grupo activista de mujeres desea demostrar que las mujeres no pagan tanto como los hombres en fondos de pensión privados. Si se usa alfa = 0.01 ¿Se confirma lo que el grupo activista de mujeres desea demostrar o no? Paso 1. Determinar la hipótesis Nula ―Ho‖ y Alternativa ―Ha‖. Nótese que este problema es de una cola. Ho: Lo que pagan las mujeres en el fondo de pensión es igual o mayor a lo que pagan los hombres (algunos autores solo le colocan igual). Ha: _______________________________________ (El estudiante debe describir la Ha) La hipótesis alternativa es lo que las mujeres del grupo activista desea demostrar. Paso 2. Determinar el nivel de significancia. Definido por el analista, en este caso se desea usar α = 0.01 Gráficamente el nivel de significancia se distribuye en la curva de distribución normal tal como se muestra en la figura:

Paso 3. Calcular los intervalos que implican ese nivel de significancia. Para dicho nivel de significancia el valor de Z es: Z=-2.326

60

ESTADISTICA INFERENCIAL I Gráficamente queda de la siguiente manera:

Paso 4. Calcular el ―estadístico‖ de la prueba. El estadístico Z para estos casos se calcula de la siguiente manera:

Para el caso del presente ejemplo: considerando la población de mujeres como 1 y la de hombres como 2 tenemos la siguiente sustitución:

61

ESTADISTICA INFERENCIAL I

Paso 5. Determinar si el estadístico cae dentro de la región que hace la Hipótesis nula verdadera.

Estadístico de prueba z = -0.3069 Como podrá notarse, el estadístico está DENTRO de la región que hace verdadera la hipótesis nula. Paso 6. Aceptar o rechazar la hipótesis nula. En este caso como el estadístico de la prueba cae DENTRO de la región que hace verdadera la hipótesis nula, dicha hipótesis se ACEPTA y se toma como falsa la hipótesis alternativa: Ho: El porcentaje de su sueldo que pagan las mujeres en el fondo de pensión es igual a lo que pagan los hombres. (VERDADERO) Ha: El porcentaje del sueldo que pagan las mujeres en el fondo de pensión privado es menor a lo que pagan los hombres. (FALSO)

62

ESTADISTICA INFERENCIAL I

3.10 Prueba de hipótesis para la varianza Es frecuente que se desee comprobar si la variación o dispersión de una variable ha tenido alguna modificación, lo cual se hace con la prueba de hipótesis para la varianza. Hipótesis Se puede plantear uno de los siguientes tres tipos de hipótesis: - Prueba de hipótesis a dos colas H0 :

=k

H1 :

k

- Prueba de hipótesis a una cola superior H0 :

=k

ó

H0 :

k

H1 :

>k

ó

H1 :

>k

- Prueba de hipótesis a una cola inferior H0 :

=k

ó

H1 :

k

H1 :

0,2

Para realizar esta prueba de hipótesis se utiliza la expresión 3.6

Asumiendo un nivel de confianza del 95 por ciento, en la tabla de la distribución chi-cuadrado con 9 grados de libertad, se obtiene un valor para Z de 16,919. Como puede observarse en la figura, el valor de la estadística de trabajo se ubica en la zona de no rechazo de la hipótesis nula, por

65

ESTADISTICA INFERENCIAL I consiguiente con una confiabilidad del 95 por ciento se puede afirmar que la varianza poblacional no ha aumentado.

Regla de decisión para una prueba de hipótesis a una cola superior 3.11 Prueba de hipótesis para la relación de varianzas. 3.12 Uso de software estadístico El uso de ordenadores y calculadoras facilita el que los alumnos comprendan mejor temas complejos de matemáticas. Es evidente que en muchos casos la tecnología agiliza y supera, la capacidad de cálculo de la mente humana, con ayuda de la tecnología, los alumnos tienen más tiempo para concentrarse en enriquecer su aprendizaje matemático. Las nuevas tecnologías han venido a cambiar por completo el panorama tradicional de como se hacían, se veían y se enseñaban las matemáticas. Introducirse en este nuevo panorama implica realizar profundos cambios en nuestros programas educativos. Es muy amplia la variedad de aplicaciones informáticas disponibles para estadística y probabilidad: 

Excel o Calc



Javascript



Applet de Java, Geogebra



Proyecto Descartes



Software Libre



Otros Software

Excel/Calc La hoja de cálculo Excel o Calc (OpenOffice) es un software considerado como estándar en todos los entornos(educativo, profesional, familiar, etc), que posee la virtud de presentar una interfaz

66

ESTADISTICA INFERENCIAL I agradable, una facilidad de uso digna de elogio y permite realizar análisis estadísticos simples o más complejos y avanzados. Javascript JavaScript, es un lenguaje de programación de páginas web de lado del cliente, nos permite añadir a las páginas web efectos y funciones adicionales a los contemplados en el estándar HTML. Gracias a que se ejecuta en el navegador(localmente), JavaScript, nos permite responder de manera rápida y eficaz a las acciones del usuario, creando de esta manera aplicaciones interactivas

Applet de Java El lenguaje Java se puede usar para crear los applets de Java. Un applet es un elemento más de una página web, como una imagen o una porción de texto. Cuando el navegador carga la página web, el applet insertado en dicha página se carga y se ejecuta.

Proyecto Descartes Descartes (M.E.C.) es un programa realizado en lenguaje applet de java que se caracterizan porque crean "escenas" que se pueden insertar en las páginas web. Descartes no sólo convierte una web en una web interactiva sino que, además, es configurable, es decir, que los usuarios (profesores) pueden "programarlo" para que aparezcan diferentes elementos y distintos tipos de interacción.

Software Libre "Software Libre" es un asunto de libertad, no de precio.`Software Libre'' se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software. Ejemplo: Comprobación de un estadístico de prueba calculado mediante el Software Minitab que es igual a Z = 2.38 y lo comparamos con el valor critico de Zc = 1.96. Como el estadístico de prueba calculado cae a la derecha del valor critico de Z, se rechaza Ho. Por tanto no se confirma el supuesto del Jefe de la Biblioteca. One-Sample Z Test of mu = 350 vs not = 350 The assumed standard deviation = 52.414 N Mean SE Mean 95% CI Z P 30 372.800 9.569 (354.044, 391.556) 2.38 0.017

67

ESTADISTICA INFERENCIAL I

68

ESTADISTICA INFERENCIAL I UNIDAD 4. PRUEBAS DE BONDAD DE AJUSTE Y PRUEBAS NO PARAMÉTRICAS 4.1 Bondad de ajuste La bondad de ajuste o coeficiente de determinación (R2) es una manera de medir la aproximación de la recta a la nube de puntos. R2 puede tomar valores entre 0 y 1 (0 y 100 en términos de tanto por ciento). Cuanto más se aproxime a 1 mejor será el ajuste a la nube de puntos y más fuerte será la relación entre las variables que el modelo quiere captar. No se debe confundir con el coeficiente de Pearson (r). 4.1.1 Análisis Ji-Cuadrada En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas. Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X 2. Si se elige una muestra de tamaño n de una población normal con varianza

, el estadístico:

tiene una distribución muestral que es una distribución ji-cuadrada con gl=n-1 grados de libertad y se denota X2 (X es la minúscula de la letra griega ji). El estadístico ji-cuadrada esta dado por:

donde n es el tamaño de la muestra, s2 la varianza muestral y

la varianza de la población de

donde se extrajo la muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión:

Propiedades de las distribuciones ji-cuadrada

69

ESTADISTICA INFERENCIAL I 1. Los valores de X2 son mayores o iguales que 0. 2. La forma de una distribución X2 depende del gl=n-1. En consecuencia, hay un número infinito de distribuciones X2. 3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1. 4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la derecha; esto es, están sesgadas a la derecha. 5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es 2(n-1). 6. El valor modal de una distribución X2 se da en el valor (n-3). La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece en el valor (n-3) = (gl-2).

La función de densidad de la distribución X2 está dada por:

Para x>0 La tabla que se utilizará para estos apuntes es la del libro de probabilidad y estadística de Walpole, la cual da valores críticos

(gl) para veinte valores especiales de

. Para denotar el valor

crítico de una distribución X2 con gl grados de libertad se usa el símbolo crítico determina a su derecha un área de

(gl); este valor

bajo la curva X2 y sobre el eje horizontal. Por ejemplo

para encontrar X20.05(6) en la tabla se localiza 6 gl en el lado izquierdo y lado superior de la misma tabla.

70

a o largo del

ESTADISTICA INFERENCIAL I

4.1.2 Prueba de independencia Cuando cada individuo de la población a estudio se puede clasificar según dos criterios A y B, admitiendo el primero a posibilidades diferentes y b el segundo, la representación de las frecuencias observadas en forma de una matriz a x b recibe el nombre de Tabla de contingencia. Los datos se disponen de la forma siendo nij el número de individuos que presentan simultáneamente la iésima modalidad del carácter A y la j-ésima del B. La hipótesis nula a contrastar admite que ambos caracteres, A y B, se presentan de forma independiente en los individuos de la población de la cual se extrae la muestra; siendo la alternativa la dependencia estocástica entre ambos caracteres. La realización de esta prueba requiere el cálculo del estadístico donde: y son las frecuencias absolutas marginales y el tamaño muestral total. El estadístico L se distribuye como una con (a - 1)(b - 1) grados de libertad. El contraste se realiza con un nivel de significación del 5%.

71

ESTADISTICA INFERENCIAL I Ejemplo: Para estudiar la dependencia entre la práctica de algún deporte y la depresión, se seleccionó una muestra aleatoria simple de 100 jóvenes, con los siguientes resultados: Sin

Con

depresión

depresión

38

9

31

22

69

31

Deportista No deportista

total

47 53

100

L = (38 – 32,43)2/32,43 + (31 – 36,57)2/36,57 + (9 – 14,57)2/14,57 + (22 – 16,43)2/16,43 = 0,9567 + 0,8484 + 2,1293 + 1,8883 = 5,8227

El valor que alcanza el estadístico L es 5,8227. Buscando en la tabla teórica de Chi Cuadrado para 1 grado de libertad se aprecia Lt = 3,84146 < 5,8227 lo que permite rechazar la hipótesis de independencia de caracteres con un nivel de significación del 5%, admitiendo por tanto que la práctica deportiva disminuye el riesgo de depresión.

4.1.3 Prueba de la bondad del ajuste Las pruebas de bondad de ajuste tienen por objetivo determinar si los datos se ajustan a una determinada distribución, esta distribución puede estar completamente especificada (hipótesis simple) o perteneciente a una clase paramétrica (hipótesis compuesta). Una hipótesis estadística se definió como una afirmación o conjetura acerca de la distribución f(x,q) de una o más variables aleatorias. Igualmente se planteó que la distribución podía tener uno o más parámetros desconocidos, que denotamos por q y que la hipótesis se relaciona con este parámetro o conjunto de parámetros En otros casos, se desconoce por completo la forma de la distribución y la hipótesis entonces se relaciona con una distribución específica f(x,q) que podamos asignarle al conjunto de datos de la muestra. El primer problema, relacionado con los parámetros de una distribución conocida o supuesta es el problema que hemos analizado en los párrafos anteriores. Ahora examinaremos el problema de verificar si el conjunto de datos se puede ajustar o afirmar que

72

ESTADISTICA INFERENCIAL I proviene de una determinada distribución. Las pruebas estadísticas que tratan este problema reciben el nombre general de ―Pruebas de Bondad de Ajuste‖. Se analizarán dos pruebas básicas que pueden aplicarse: La prueba Chi - Cuadrado y la prueba de Smirnov-Kolmogorov. Ambas pruebas caen en la categoría de lo que en estadística se denominan pruebas de ―Bondad de Ajuste‖ y miden, como el nombre lo indica, el grado de ajuste que existe entre la distribución obtenida a partir de la muestra y la distribución teórica que se supone debe seguir esa muestra. Ambas pruebas están basadas en la hipótesis nula de que no hay diferencias significativas entre la distribución muestral y la teórica. Ambas pruebas están basadas en las siguientes hipótesis H0: f(x,q) = f0(x,q) H1: f(x,q) ¹ f0(x,q)

Donde f0(x,q) es la distribución que se supone sigue la muestra aleatoria. La hipótesis alternativa siempre se enuncia como que los datos no siguen la distribución supuesta. Si se desea examinar otra distribución específica, deberá realizarse de nuevo la otra prueba suponiendo que la hipótesis nula es esta nueva distribución. Al especificar la hipótesis nula, el conjunto de parámetros definidos por q puede ser conocido o desconocido. En caso de que los parámetros sean desconocidos, es necesario estimarlos mediante alguno de los métodos de estimación analizados con anterioridad. Para formular la hipótesis nula deberán tenerse en cuenta los siguientes aspectos o criterios:

a) La naturaleza de los datos a analizar. Por ejemplo, si tratamos de investigar la distribución que siguen los tiempos de falla de unos componentes, podríamos pensar en una distribución exponencial, o una distribución gama o una distribución Weibull, pero en principio no consideraríamos una distribución normal. Si estamos analizando los caudales de un río en un determinado sitio, podríamos pensar en una distribución logarítmica normal, pero no en una distribución normal. b) Histograma. La forma que tome el histograma de frecuencia es quizás la mejor indicación del tipo de distribución a considerar TEST

Están diseñados para variables aleatorias discretas con

un numero finito de valores, si esto no ocurriese los valores de la variable se agrupan en un numero finito de clases. 1. Hipótesis nula simple

73

ESTADISTICA INFERENCIAL I Dada una muestra aleatoria simple de una variable aleatoria X que toma valores en las clases C1; : : : ;Ck ,sea Oi = no de individuos de la muestra en la clase

La idea de una prueba de bondad de ajuste es comparar el histograma,

,con la mejor

densidad de Poisson que le queda a los datos. Si la discrepancia entre éstos es demasiado grande, entonces se habla de evidencia en contra del hecho de que f(x) sea Poisson (recuerda que por la Ley

de los Grandes Números,

siempre se parece a f(x), sin importar si ésta última es o no

de Poisson). Hay teoría matemática (llamada máxima verosimilitud) que dice que, en cierto sentido, la mejor densidad de Poisson que le queda a los datos es aquella que tiene parámetro dado por Es decir, el

problema se reduce a comparar

con

Cómo comparar entre sí las dos funciones y ? Esto es equivalente a comparar entre sí

y (la letra e es por frecuencia ``esperada'' bajo la densidad de Poisson). Una forma de comparar las ox con las ex es calculando el valor de

La cantidad

se llama estadística de prueba para bondad de ajuste

intuitivamente, debes notar que 

es una cantidad positiva o cero.

74

. Para entenderla

ESTADISTICA INFERENCIAL I 

Si las ox las ex se parecen mucho, entonces la cantidad

será pequeña (y

en el

caso de que todas las ox sean iguales a las ex). 

Entre más sean las ox y ex las distintas entre sí, mayor es el valor de

La moraleja es que

.

es una medida de discrepancia entre las ox y ex las que se esperarían bajo

una densidad de Poisson.

Se dice que

es demasiado grande si excede cierto valor C que depende de cuántas categorías

de x hubo (los valores de C se encuentran calculados por teoría estadística y se anotan en tablas). Un resultado matemático establece lo siguiente:

Si la densidad f(x) es Poisson, entonces la probabilidad de que

exceda C es solo del 5%.

Esto quiere decir que si se obtiene una muestra de X, y se calcula un valor de que resulta demasiado grande, entonces hay dos posibles explicaciones para ello: A f(x) es Poisson y tuve buenísima suerte, pues me ocurrió algo que tenía sólo probabilidad 5% de ocurrir

B f(x) no es Poisson, y por eso me salió un valor de

demasiado grande

Asumir la explicación A es creer que sólo la suerte explica las cosas y que la naturaleza nos juega bromas con cosas poco probables. La explicación B es mucho más razonable. La explicación A es posible, pero poco probable. De hecho, se trata exactamente del razonamiento que usamos en las siguientes dos situaciones: Situación análoga #1: Suponer que el director de la Lotería Nacional se ganó dos veces seguidas el Premio Mayor. Hay dos posibles explicaciones para ello:

A El Director de la LN tuvo una suerte tremenda, pues le ocurrió algo que tenía sólo probabilidad .0000000004 de ocurrir B La urna de la LN estuvo intervenida, y por eso ocurrió que el Director de la LN ganó dos veces seguidas

Estarán de acuerdo que B es la explicación natural que elegimos.

75

ESTADISTICA INFERENCIAL I Situación análoga #2: El mago me adivinó la carta que secretamente elegí. Hay dos explicaciones para ello: A

El mago tuvo mucha suerte, pues en realidad me la adivinó al azar, lo cual tiene sólo

probabilidad 1/52=.019 de ocurrir B El mago tiene poderes mágicos legítimos, y por eso me la pudo adivinar La explicación B es la que siempre preferimos; por eso nos maravillamos ante el truco del mago.

Conclusión: si

, se interpreta como evidencia en contra de la suposición de que

f(x) sea Poisson, y si

entonces se concluye que no hay razón para sospechar que

f(x) no sea de Poisson. La posibilidad de que yo concluya erróneamente que f(x) no es de Poisson cuando realmente sí lo sea, es sólo del 5%.

4.1.4 Tablas de contingencia Se emplean para registrar y analizar la relación entre dos o más variables, habitualmente de naturaleza cualitativa (nominales u ordinales). Supóngase que se dispone de dos variables, la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables, del siguiente modo: Diestro Zurdo TOTAL Hombre 43

9

52

Mujer

4

48

13

100

44

TOTAL 87

Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total. La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. Sin embargo, ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con la prueba χ² de Pearson, supuesto que las cifras de la tabla son una muestra aleatoria de una población. Si la proporción de

76

ESTADISTICA INFERENCIAL I individuos en cada columna varía entre las diversas filas y viceversa, se dice que existe asociación entre las dos variables. Si no existe asociación se dice que ambas variables son independientes. El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por φ = √(χ2 / N) donde χ2 se deriva del test de Pearson, y N es el total de observaciones -el gran total-. Φ puede oscilar entre 0 (que indica que no existe asociación entre las variables) e infinito. A diferencia de otras medidas de asociación, el coeficiente Φ de Cramer no está acotado. Ejemplo: Supóngase que la Federal Correction Agency (de Estados Unidos) desea investigar el interrogante indicado antes: ¿hay diferencia en la readaptación de la vida civil, de un hombre liberado de una prisión federal, si regresa a vivir a su ciudad natal o se va a vivir a otra parte? En otras palabras, ¿existe relación entre la readaptación de la vida civil y el lugar de residencia después de ser liberado de la prisión? El primer paso en la prueba de hipótesis es establecer las hipótesis nula y alternativa: Ho

No existe relación entre la readaptación a la vida civil y el lugar de residencia de un

individuo después de ser liberado de la prisión. H1

existe relación entre la readaptación a la vida civil y el lugar donde resida la persona

después de salir de prisión. Se usará el nivel de significancia de 0.01 para probar la hipótesis. Recuerdese que esto es la probabilidad de un error de tipo I (es decir, que existe la probabilidad de 0.01 de que se rechace una hipótesis nula verdadera). Los psicólogos de la agencia entrevistaron a 200 ex convictos seleccionados aleatoriamente. Utilizando una serie de preguntas, los psicólogos clasificaron la readaptación a la vida civil de cada individuo como excelente, buena regular o insatisfactoria. Las clasificaciones de los 200 ex convictos fueron cuantificadas como se muestra a continuación. Por ejemplo, Joseph Camden volvió a su ciudad natal y mostró una excelente readaptación a la vida civil. Su caso corresponde a una de las 27 marcas que se tienen en la casilla superior de la izquierda, en el cuadro.

77

ESTADISTICA INFERENCIAL I

Se contaron os registros en cada casilla o celda. Los conteos se muestran la siguiente tabla de contingencia. En este caso, a la Federal Correction Agency le interesaba determinar si la readaptación a la vida civil es contingente o no con respecto al lugar a donde valla a vivir el ex convicto después de ser liberado.

gl= (número de renglones - 1)(número de columnas – 1) gl= (r - 1)(c - 1) = (2-1)(4-1) =3 Para determinar el valor crítico para 3 grados de libertad y el nivel de 0.01 (seleccionado antes), se consulta el apéndice I, y se obtiene 11.345. en consecuencia la regla de decisión es: se rechaza la hipótesis nula si el valor calculado de X2 es mayor que 11.345.

78

ESTADISTICA INFERENCIAL I Ahora se determinara el valor calculado de X2 las frecuencias observadas se presentan en esta tabla:

Frecuencia esperada fe para la casilla superior izquierda es: 60 x 40 = 24 Puesto que el valor calculado de ji cuadrada 5.729 se encuentra en la región ubicada a la izquierda de 11.345 se acepta la hipótesis nula al nivel de 0.01. Se concluye que no hay relación entre la readaptación a la vida civil y el lugar donde resida el prisionero después de haber alcanzado su libertad.

4.1.5 Uso del software estadístico. En práctica.

79

ESTADISTICA INFERENCIAL I

4.2 Pruebas no paramétricas Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o de Gauss. Pero en muchas ocasiones esta suposición no resulta válida, y en otras la sospecha de que no sea adecuada no resulta fácil de comprobar, por tratarse de muestras pequeñas. En estos casos disponemos de dos posibles mecanismos: los datos se pueden transformar de tal manera que sigan una distribución normal, o bien se puede acudir a pruebas estadísticas que no se basan en ninguna suposición en cuanto a la distribución de probabilidad a partir de la que fueron obtenidos los datos, y por ello se denominan pruebas no paramétricas (distribution free), mientras que las pruebas que suponen una distribución de probabilidad determinada para los datos se denominan pruebas paramétricas. Dentro de las pruebas paramétricas, las más habituales se basan en la distribución de probabilidad normal, y al estimar los parámetros del modelo se supone que los datos constituyen una muestra aleatoria de esa distribución, por lo que la elección del estimador y el cálculo de la precisión de la estimación, elementos básicos para construir intervalos de confianza y contrastar hipótesis, dependen del modelo probabilístico supuesto. Cuando un procedimiento estadístico es poco sensible a alteraciones en el modelo probabilístico supuesto, es decir que los resultados obtenidos son aproximadamente válidos cuando éste varía, se dice que es un procedimiento robusto. Las inferencias en cuanto a las medias son en general robustas, por lo que si el tamaño de muestra es grande, los intervalos de confianza y contrastes basados en la t de Student son aproximadamente válidos, con independencia de la verdadera distribución de probabilidad de los datos; pero si ésta distribución no es normal, los resultados de la estimación serán poco precisos. Se deben de usar con: Datos de distribución libre (no necesariamente normal). Si un grupo tiene distribución normal mientras el otro no. Si se trata de datos cuantittivos, ordinales o nominales. Con varianza grande, un grupo con varianza de 0 y el otro no. Al trabajar con muestras pequeñas. Algunas de las pruebas no paramétricas son las siguientes: Chi cuadrado de Pearson (independencia, bondad de ajuste, homogeneidad)

80

ESTADISTICA INFERENCIAL I



Prueba exacta de Fisher



U de mann whitney-w de wilcoxon



T de Wilcoxon



Mac nemar



Kruskall wallis



Friedman



Q de cichran.

4.2.1 Escala de medición Se define como un patrón convencional de medición, y básicamente consiste en un instrumento capaz de representar con gran fidelidad verbal, grafica o simbólicamente el estado de una variable. Hay varios tipos de escalas: nominal, ordinal, intervalo y razón.

NOMINALES Una variable esta medida en la escala nominal cuando utilizan nombre para establecer categorías. Para distinguir los agrupamientos se emplean símbolos, letras e incluso números, aunque estos últimos solo cumplen una función de carácter simbólico y no numérico. Los cálculos matemáticos con estos números no tendrán sentido.

ORDINALES En este nivel se definen varias categorías, pero además de mostrar un ordenamientos existe una relación de mayor o menor que entre ellas. Las etiquetas, símbolos o números asignados si indican jerarquía, aunque n es posible conocer la magnitud de la diferencia entre cada una de las categorías.

INTERVALO Esta escala mide las variables de manera numérica. Los números de esta escala permiten establecer distancias entre dos individuos y las operaciones aritméticas de suma y resta son perfectamente realizables y significativas, no así la multiplicación y división. En esta escala el cero es un valor que no indica ausencia de la característica o variable medida, y es colocado arbitrariamente en algún lugar de la escala.

81

ESTADISTICA INFERENCIAL I

DE RAZON Es la escala mas fuerte, dado que usa un sistema numerico en el que el cero es un valor que indica ausencia de la caracteristica que se esta midiendo. Las operaciones aristmeticas de multiplicacion y division adquieren significacion. La diferencia entre dos valores es importante y de magnitd definida. 4.2.2 Métodos estadísticos contra no paramétricos Las pruebas no paramétricas no necesitan suposiciones respecto a la composición de los datos poblacionales. Las pruebas no paramétricas son de uso común: 1.- Cuando no se cumplen las suposiciones requeridas por otras técnicas usadas, por lo general llamadas pruebas paramétricas. 2.- Cuando es necesario usar un tamaño de muestra pequeño y no es posible verificar que se cumplan ciertas suposiciones clave. 3.- Cuando se necesita convertir datos cualitativos a información útil para la toma de decisiones. Existen muchos casos en los que se recogen datos medidos en una escala nominal u ordinal. Muchas aplicaciones de negocios involucran opiniones o sentimientos y esos datos se usan de manera cualitativa. Las pruebas no paramétricas tienen varias ventajas sobre las pruebas paramétricas: 1.- Por lo general, son fáciles de usar y entender. 2.- Eliminan la necesidad de suposiciones restrictivas de las pruebas paramétricas. 3.- Se pueden usar con muestras pequeñas. 4.- Se pueden usar con datos cualitativos. También las pruebas no paramétricas tienen desventajas: 1.- A veces, ignoran, desperdician o pierden información. 2.- No son tan eficientes como las paramétricas. 3.- Llevan a una mayor probabilidad de no rechazar una hipótesis nula falsa (incurriendo en un error de tipo II). Las pruebas no paramétricas son pruebas estadísticas que no hacen suposiciones sobre la constitución de los datos de la población. Por lo general, las pruebas paramétricas son mas poderosas que las pruebas no paramétricas y deben usarse siempre que sea posible. Es importante observar, que aunque las pruebas no paramétricas no hacen suposiciones sobre la distribución de la población que se muestrea, muchas veces se apoyan en distribuciones muéstrales como la normal o la ji cuadrada.

82

ESTADISTICA INFERENCIAL I 4.2.3 Prueba de Kolmogorov – Smirnov Este contraste, que es válido únicamente para variables continuas, compara la función de distribución (probabilidad acumulada) teórica con la observada, y calcula un valor de discrepancia, representado habitualmente como D, que corresponde a la discrepancia máxima en valor absoluto entre la distribución observada y la distribución teórica, proporcionando asimismo un valor de probabilidad P, que corresponde, si estamos verificando un ajuste a la distribución normal, a la probabilidad de obtener una distribución que discrepe tanto como la observada si verdaderamente se hubiera obtenido una muestra aleatoria, de tamaño n, de una distribución normal. Si esa probabilidad es grande no habrá por tanto razones estadísticas para suponer que nuestros datos no proceden de una distribución, mientras que si es muy pequeña, no será aceptable suponer ese modelo probabilístico para los datos. En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos distribuciones de probabilidad entre sí. En el caso de que queramos verificar la normalidad de una distribución, la prueba de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogórov-Smirnov; y, en general, el test de Shapiro–Wilk o la prueba de Anderson-Darling son alternativas más potentes. Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más sensible a los valores cercanos a la mediana que a los extremos de la distribución. La prueba de Anderson-Darling proporciona igual sensibilidad con valores extremos. Estadístico La distribución de los datos Fn para n observaciones yi se define como

Para dos colas el estadístico viene dado por

83

ESTADISTICA INFERENCIAL I Donde F(x) es la distribución presentada como hipótesis. 4.2.4 Prueba de Anderson – Darling La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov. En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica. La fórmula para el estadístico A determina si los datos

(observar que los datos se deben ordenar) vienen de una

distribución con función acumulativa F A2 = − N − S Donde

El estadístico de la prueba se puede entonces comparar contra las distribuciones del estadístico de prueba (dependiendo que F se utiliza) para determinar el P-valor. 4.2.5 Prueba de Ryan – Joiner Esta prueba evalúa la normalidad calculando la correlación entre sus datos y las puntuaciones normales de sus datos. Si el coeficiente de correlación se encuentra cerca de 1, es probable que la población sea normal. La estadística de Ryan-Joiner evalúa la solidez de esta correlación; si se encuentra por debajo del valor crítico apropiado, usted rechazará la hipótesis nula de normalidad en la población. Esta prueba es similar a la prueba de normalidad de Shapiro-Wilk. Ejemplo: Se realiza un experimento para un instrumento electrónico que mide de humedad de un producto alimenticio. Las investigaciones toman lecturas del instrumento para valores seleccionando de humedad. Analice los datos y determine lo siguiente: a) Grafica de dispersión de datos.

84

ESTADISTICA INFERENCIAL I b) Determine la ecuación de la regresión para mínimos cuadrados y realice las operaciones correspondientes la Y de ajuste de cada uno de los puntos. c) Vuelva a graficar y elabore la línea de regresión ajustada. Datos:

85

ESTADISTICA INFERENCIAL I

Formulas a utilizar:

Procedimiento:

86

ESTADISTICA INFERENCIAL I

Llenado de tabla:

87

ESTADISTICA INFERENCIAL I Procedimiento:

Tabla para encontrar el valor de r

88

ESTADISTICA INFERENCIAL I EJEMPLO CON MINITAB

Los datos tienen que ser introducidos de la siguiente manera:

Se sigue el siguiente procedimiento:

Seleccionamos: Estadísticas – tablas – prueba chi - cuadrada

89

ESTADISTICA INFERENCIAL I Y nos queda así:

4.2.6 Prueba de Shappiro – Wilk. Aunque esta prueba es menos conocida es la que se recomienda para contrastar el ajuste de nuestros datos a una distribución normal, sobre todo cuando la muestra es pequeña (n2.88 Como se cumple la función: Ho=0------ R H1≠0------ A Puesto que el valor de referencia de T es T.005= 2.88el valor estadístico de la prueba está muy lejos de la región critica lo que implica que debe rechazar Ho.

5.1.2 Calidad del ajuste en regresión lineal simple El ajuste del modelo de regresión requiere varias suposiciones. 1) La estimación de los parámetros del modelo requiere la suposición de que los errores son variables aleatorias con media cero y varianza constante.

2) Las pruebas de hipótesis y la estimación de los intervalos requieren que los errores estén distribuidos de manera normal.

3) Los datos se ajustan a un modelo lineal; Es decir, el comportamiento de las variables es o se aproxima a una relación lineal

97

ESTADISTICA INFERENCIAL I

Y=Bo+B1X

9.3 11.82 6.15 8.04 8.67

98

A

B

ESTADISTICA INFERENCIAL I 10.56 5.52 7.41 9.93 11.19 6.78 95,73

FORMULA Y= B0 + B1(x) donde: * Y: es un valor predicho de la variable dependiente

* B0: es una constante llamada ordenada

* B1: es una constante llamada pendiente

* X: es una variable independientes

99

ESTADISTICA INFERENCIAL I

100

ESTADISTICA INFERENCIAL I 5.1.3 Estimación y predicción por intervalo en regresión lineal simple Hay dos objetivos básicos en el ajuste de un modelo de regresión:

- Conocer la relación existente entre la variable respuesta y las variables regresoras. En el caso de la regresión lineal simple se estima la mejor recta de regresión que relaciona la variable Y con la variable X y se cuantifica la importancia de dicha relación por medio del coeficiente de correlación, r. - Utilizar el modelo de regresión ajustado para ―predecir‖ el valor de la variable respuesta Y cuando la variable regresora toma un valor determinado, X = xt. En esta sección se estudia este segundo objetivo. Esto es, estimada la recta de regresión, ¿cómo predecir el valor de Y sabiendo que la variable regresora toma el valor X = xt? Ante esta pregunta, se deben distinguir dos situaciones diferentes: Estimar la media de la distribución condicionada de Y/X = xt : E

= mt.

Se quiere responder a preguntas del tipo: “¿cuál es el gasto medio en material informático de las empresas que tienen unos ingresos globales de 300 millones anuales?”. Predecir el valor de la variable respuesta en un individuo de la población en estudio del que se sabe que X = xt. Esto es, predecir un valor de la variable condicionada Y/X=xt

Se quiere responder a preguntas del tipo: “La empresa MEGA tiene unos ingresos anuales de 300 millones, ¿cuál será el gasto en material informático de esta empresa?”.

Estimación de las medias condicionadas. Una vez calculada la recta de regresión de la variable Y respecto a X,

se quiere estimar el parámetro mt = E

. Para ello, como estimador se utiliza el que

proporciona la recta de regresión, sustituyendo xt por x en la ecuación de la recta,

101

ESTADISTICA INFERENCIAL I

Este estimador verifica las siguientes propiedades: 1. Es centrado o insesgado, E

= mt.

2. La varianza es,

3. donde

4. nt se denomina número equivalente de observaciones para estimar mt. 5. Teniendo en cuenta que en una muestra de tamaño n, la varianza de la media muestral es V ar

=

/n, la interpretación de nt es la siguiente: “la información que proporciona la

2

muestra, de tamaño n, de datos bivariantes

n i = 1

para estimar mt es la misma

que proporcionaría una muestra de tamaño nt de observaciones univariantes de una población con distribución igual a la de Y/X = xt”. 6. De la expresión de nt se deduce que este valor será mayor cuanto más próximo esté xt de . Y si xt = se verifica que nt = n. 7. La inversa de nt, htt = 1/nt se denomina valor de influencia de la observación xt (muy utilizado el nombre en inglés leverage) y se verá más adelante que es una medida de la influencia de la observación

(si este es uno de los datos muestrales) en el cálculo

de la recta de regresión. 8. La distribución del estimador

t

es normal,

102

ESTADISTICA INFERENCIAL I 9.

En la práctica el estadístico anterior no se puede utilizar para calcular intervalos de

confianza de mt porque

es desconocido. Por ello, se sustituye

por su estimador

R

y

bajo la hipótesis de normalidad se obtiene la siguiente distribución,

Al utilizar el modelo de regresión lineal para estimar una media condicionada o predecir una observación debe de tenerse en cuenta que el método proporciona resultados aceptables dentro del rango de valores muestrales de la X (interpolar), aquí está garantizado que 1 < nt < n. Si xt es un punto muy alejado de (aún estando dentro de la nube de observaciones está muy alejado del centro de la misma) entonces nt 1 y la varianza de

t

será muy grande con lo que se obtienen

estimaciones con poca precisión (mucha variabilidad). El caso opuesto es que xt = y, por tanto, nt = n, ahora la varianza de

t

es

/n, la menor posible.

2

Por otra parte, si se quiere predecir fuera del rango de valores muéstrales de X (extrapolar), entonces xt - puede ser muy grande y, en consecuencia, nt 0, lo que hace que la precisión de la estimación de mt sea muy pequeña por tener el estimador

t

una varianza muy grande y, por tanto, obtener

resultados con muy poca validez.

Predicción de una observación. Se quiere predecir el valor de la variable aleatoria Y/X = xt teniendo en cuenta que se ha ajustado una recta de regresión. El problema es conceptualmente diferente del anterior, ya que en el apartado anterior se estima un parámetro (la media condicionada) y ahora se quiere predecir el resultado de una variable aleatoria. El predictor que se utiliza Cuadrático Medio de Predicción. Esto es,

t

t

se obtiene como aquel que minimize el Error

se obtiene como el valor que minimiza la siguiente

función

Al resolver este problema de minimización se obtiene como predictor el resultado de sustituir el valor de xt en la recta de regresión calculada,

103

ESTADISTICA INFERENCIAL I

Por tanto, la predicción de Y/X = xt es la misma que la estimación de mt pero su varianza aumenta ya que la variabilidad debida a la muestra variable aleatoria que se quiere predecir

Var(

t

se incrementa con la variabilidad propia de la . Ahora la varianza de la predicción es

- yt) =

Por la hipótesis de normalidad y razonando como en el apartado anterior se obtiene

5.1.4 Uso de software estadístico En practica.

104

ESTADISTICA INFERENCIAL I

5.2 Regresión lineal múltiple En la regresión lineal múltiple vamos a utilizar más de una variable explicativa; esto nos va a ofrecer la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas. Al tener más de una variable explicativa (no se debe de emplear el término independiente) surgirán algunas diferencias con el modelo de regresión lineal simple. Una cuestión de gran interés será responder a la siguiente pregunta: de un vasto conjunto de variables explicativas: x , x , …, xk, cuáles son las que más influyen en la variable dependiente Y. 1

2

En definitiva, y al igual que en regresión lineal simple, vamos a considerar que los valores de la variable dependiente Y han sido generados por una combinación lineal de los valores de una o más variables explicativas y un término aleatorio: uxbxbxbbykk+⋅++⋅+⋅+=...22110 Los coeficientes son elegidos de forma que la suma de cuadrados entre los valores observados y los pronosticados sea mínima, es decir, que se va a minimizar la varianza residual. Esta ecuación recibe el nombre de hiperplano, pues cuando tenemos dos variables explicativas, en vez de recta de regresión tenemos un plano:

Con tres variables explicativas tendríamos un espacio de tres dimensiones, y así sucesivamente. Vamos a ir introduciendo los elementos de este análisis a través de un sencillo ejemplo.

105

ESTADISTICA INFERENCIAL I

Consideramos una muestra de personas como la que sigue a continuación: Registro X

sexo X

1

estatura X

6

l_roxto

pie X

2

l_brazo X

3

a_espald X

4

d_cráne

peso

o Y

5

1

mujer

158

39

36

68

43

55

43

2

mujer

152

38

34

66

40

55

45

3

mujer

168

43

39

72.5

41

54.5

48

4

mujer

159

40

36

68.5

42

57

49

5

mujer

158

41

36

68.5

44

57

50

6

mujer

164

40

36

71

44.5

54

51

7

mujer

156

41

36

67

36

56

52

8

mujer

167

44

37

73

41.5

58

52

En base a estos datos, vamos a construir un modelo para predecir el peso de una persona (Y). Esto equivale a estudiar la relación existente entre este conjunto de variables y la variable peso

En primer lugar tenemos que la variable dependiente es el peso; y las variables que vamos a utilizar para predecir el peso reciben el nombre de variables independientes o explicativas. En la práctica deberemos de elegir cuidadosamente qué variables vamos a considerar como explicativas. Algunos criterios que deben de cumplir serán los siguientes: 

Tener sentido numérico.



No deberá de haber variables repetidas o redundantes



Las variables introducidas en el modelo deberán de tener una cierta justificación teórica.



La relación entre variables explicativas en el modelo y casos debe de ser como mínimo de 1 a 10.



La relación de las variables explicativas con la variable dependiente debe de ser lineal, es decir, proporcional.

106

ESTADISTICA INFERENCIAL I

El modelo de regresión lineal múltiple es idéntico al modelo de regresión lineal simple, con la única diferencia de que aparecen más variables explicativas: Modelo de regresión simple:

Modelo de regresión múltiple:

Siguiendo con nuestro ejemplo, si consideramos el peso como variable dependiente y como posibles variables explicativas: 

estatura



pie



l_brazo



a_espald



d_craneo

El modelo que deseamos construir es:

Al igual que en regresión lineal simple, los coeficientes b van a indicar el incremento en el peso por el incremento unitario de la correspondiente variable explicativa. Por lo tanto, estos coeficientes van a tener las correspondientes unidades de medida.

107

ESTADISTICA INFERENCIAL I

5.2.2 Pruebas de hipótesis en regresión lineal múltiple Para realizar un análisis de regresión lineal múltiple se hacen las siguientes consideraciones sobre los datos: a) Linealidad: los valores de la variable dependiente están generados por el siguiente modelo lineal: b) Homocedasticidad: todas las perturbaciones tienen las misma varianza: c) Independencia: las perturbaciones aleatorias son independientes entre sí: d) Normalidad: la distribución de la perturbación aleatoria tiene distribución normal: Las variables explicativas X se obtienen sin errores de medida. k

Si admitimos que los datos presentan estas hipótesis entonces el teorema de Gauss-Markov establece que el método de estimación de mínimos cuadrados va a producir estimadores óptimos, en el sentido que los parámetros estimados van a estar centrados y van a ser de mínima varianza.

5.2.3 Intervalos de confianza y predicción en regresión múltiple Razonando como en el modelo de regresión lineal simple, se deben distinguir dos problemas diferentes: Estimar la media de la distribución condicionada de Y/ parámetro

=

t.

Esto es, se quiere estimar el

Y poder responder a preguntas como la siguiente: ―¿cuál es el volumen medio de los árboles de diámetro 10 u. y altura 80 u.?‖. Predecir el valor de la variable respuesta en un individuo del que se conoce que quiere predecir un valor de la variable condicionada Y/ = h.

=

h.

Esto es, se

Se quiere responder a preguntas como la siguiente: ―conociendo que un determinado árbol tiene un diámetro 10 u. y una altura de 80 u. ¿qué volumen se predice para este árbol?‖ 5.2.4 Uso de un software estadístico. En práctica.

108

ESTADISTICA INFERENCIAL I 5.3 Regresión no lineal.

En estadística, la regresión no lineal es un problema de inferencia para un modelo tipo: y = f(x,θ) + ε

basado en datos multidimensionales x,y, donde f es alguna función no lineal respecto a algunos parámetros desconocidos θ. Como mínimo, se pretende obtener los valores de los parámetros asociados con la mejor curva de ajuste (habitualmente, con el método de los mínimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadística tales como intervalos de confianza para los parámetros así como pruebas de bondad de ajuste. El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal. Cuando la función f toma la forma: f(x) = ax2 + bx + c

la función f es no lineal en función de x pero lineal en función de los parámetros desconocidos a, b, yc. Este es el sentido del término "lineal" en el contexto de la regresión estadística. Los procedimientos computacionales para la regresión polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos variables predictoras x y x2. Sin embargo, en ocasiones se sugiere que la regresión no lineal es necesaria para ajustar polinomios. Las consecuencias prácticas de esta mala interpretación conducen a que un procedimiento de optimización no lineal sea usado cuando en realidad hay una solución disponible en términos de regresión lineal. Paquetes (software) estadísticos consideran, por lo general, más alternativas de regresión lineal que de regresión no lineal en sus procedimientos.

109

ESTADISTICA INFERENCIAL I

110

ESTADISTICA INFERENCIAL I

111

ESTADISTICA INFERENCIAL I REFERENCIAS BIBLIOGRAFÍCAS. Johnson Richard . “Probabilidad y estadística para ingenieros”. Quinta edición. Editorial Prentice Hall. México 1997 Levin, Richard. Rubin, David. “Estadística para administradores”. Sexta edición Editorial Prentice Hall. México 1996 Mendelhall, William. Reinmuth, James. “Estadística para administración de economía”. editorial: Iberoamérica, México 1978 Montgomery, Douglas C. ―probabilidad y estadística para ingeniería‖. Tercera edición. Editorial Continental CECSA. Año 1993. Páginas 263-278. Myers. ―Probabilidad y estadística para ingenieros‖. Sexta edición. Editorial Pearson Probabilidad y estadistica para ingenieros de Miller y Freund. Richard A. Johnson. 14/11/2011 Quinta Edición Stevenson, William. “Estadistica para administración y economía: conceptos y aplicaciones”. Editorial Alfa Omega. México 1981 Triola, Mario F. “estadística”. 9ª Edición. Editorial Pearson, México, 2004 Walpole, Ronald E. ―probabilidad y estadística para ingenieros‖. Sexta edición. Editorial PrenticeHall Iberoamericana. México 1999. Páginas 198-232. Weimer, Richard. “Estadistica.” Editorial cecsa. México 2004.

REFERENCIAS ELECTRONICAS

http://esta2.galeon.com/Temas1-3.pdf http://esta2.galeon.com/Temas1-3.pdf http://biplot.usal.es/problemas/confianza/INFERENCIA.pdf https://www.u-cursos.cl/ingenieria/2009/2/MA3401/1/material_docente/bajar?id_material=260765 http://biplot.usal.es/problemas/confianza/INFERENCIA.pdf http://www.mitecnologico.com/Main/EstadisticaI http://www.mitecnologico.com/Main/EstadisticaI http://www.mitecnologico.com/Main/EstadisticaI http://www.mitecnologico.com/Main/EstadisticaI http://es.wikibooks.org/wiki/Tablas_estad%C3%ADsticas/Distribuci%C3%B3n_t_de_Student http://www.mitecnologico.com/Main/EstadisticaI http://www.itch.edu.mx/academic/industrial/estadistica1/cap01c.html www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r51656.PDF

112

ESTADISTICA INFERENCIAL I http://thales.cica.es/rd/Recursos/rd99/ed99-0018-04/MINTCONF.html www.bioestadistica.uma.es/libro/node104.htm www.psico.uniovi.es/Dpto_Psicologia/metodos/tutor.7/p3.html http://www.mitecnologico.com/Main/PruebaDeHipotesisIntroduccion http://www.ditutor.com/inferencia_estadistica/nivel_confianza.html http://www.mitecnologico.com/Main/PotenciaDeLaPrueba www.mitecnologico.com/Main/FormulacionHipotesisEstadisticas http://www.mitecnologico.com/Main/PruebaHipotesisParaMedia http://www.mitecnologico.com/Main/PruebaDeHipotesisIntroduccion http://marcelrzm.comxa.com/EstadisticaInf/34PruebaParaProporcion.pdf http://marcelrzm.comxa.com/EstadisticaInf/37PruebaDeHipotesisParaVarianza.pdf http://www.estadisticaparatodos.es/software/software.html http://enciclopedia.us.es/index.php/Bondad_de_ajuste https://www.itescam.edu.mx/principal/sylabus/fpdb/.../r27622.DOC http://www.monografias.com/trabajos15/prueba-de-independencia/prueba-deindependencia.shtml#PRINDEPEND http://www.cimat.mx/~gil/tcj/1999/estadistica/node9.html http://es.wikipedia.org/wiki/Tabla_de_contingencia http://www.uam.es/personal_pdi/economicas/eva/pdf/tab_conting.pdf http://www.seh-lelha.org/noparame.htm http://www.slideshare.net/freddygarcia/pruebas-no-parametricas-presentation http://aprendeenlinea.udea.edu.co/lms/moodle/file.php/481/Escala_medicio_internet.pdf http://es.wikipedia.org/wiki/Prueba_de_Kolmog%C3%B3rov-Smirnov http://es.wikipedia.org/wiki/Prueba_de_Anderson-Darling http://es.scribd.com/doc/26816059/Prueba-de-Anderson-Darling http://www.seh-lelha.org/noparame.htm http://www.xatakaciencia.com/matematicas/contraste-de-shapiro-wilk http://www.udc.es/dep/mate/estadistica2/sec6_10.html http://humanidades.cchs.csic.es/cchs/web_UAE/tutoriales/PDF/Regresion_lineal_multiple_3.pdf http://humanidades.cchs.csic.es/cchs/web_UAE/tutoriales/PDF/Regresion_lineal_multiple_3.pdf

113