(Resumen Capitulo2) Experimentos Comparativos Simples.

Universidad Autónoma de Santo Domingo (UASD) Facultad de Ingeniería y Arquitectura Nombre: Leydy Estefany Padilla Concep

Views 49 Downloads 0 File size 946KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Universidad Autónoma de Santo Domingo (UASD) Facultad de Ingeniería y Arquitectura Nombre: Leydy Estefany Padilla Concepción Matricula: 100180078 Seccion: Z02 Asignatura: Diseño De Experimento Por Comp. (IND-5410) Tema: Resumen CapítuloII. Experimentos Comparativos Simples. Maestro: Felipe Llaugel Emiliano

Diseño De Experimento Por Computadora.

Experimentos Comparativos Simples. Los experimentos comparativos simples son básicamente, experimentos en los cuales la muestra se compara por sus efectos medios sobre una variable respuesta. El objetivo de ellos es determinar cuál de ellos es mejor en algún sentido. Por lo tanto, vamos a examinar los experimentos comparativos simples.

La fuerza de la tensión de adhesión del mortero de cemento portland es una característica importante del producto. Un ingeniero está interesado en comparar la fuerza de una formulación modificada en la que se han agregado emulsiones de látex de polímeros durante el mezclado, con la fuerza del mortero sin modificar.

Descripción Grafica De La Variabilidad. Es frecuente usar métodos gráficos simples como ayuda para analizar los datos de un experimento. El diagrama de puntos, es un recurso muy útil para representar un cuerpo reducido de datos. El diagrama de puntos le permite al experimentador ver de inmediato la localización o tendencia central de las observaciones y su dispersión. El diagrama de caja (o diagrama de caja y bigote) es una manera muy útil de representar gráficamente los datos. Los diagramas de puntos, los histogramas y los diagramas de cajas son útiles para resumir la información de una muestra de datos.

Distribución De Probabilidad. La estructura de la probabilidad de una variable aleatoria, por ejemplo “y” se describe mediante su distribución de probabilidad. Cuando “y” es discreta, es común hacer referencia a su distribución de probabilidad, por ejemplo f (y), como la función de densidad de probabilidad. La media, de una distribución de probabilidad es una media de su tendencia central o localización. Esta también puede expresarse en términos de valor esperado o valor promedio a la larga de la variable aleatoria. La varianza es una medida de dispersión definida como la esperanza del cuadro de la desviación de dicha variable respeto a su media. La covarianza es una medida de la asociación lineal entre 𝑌1 y 𝑌2 .

Muestreo Y Distribución De Muestreo. El objetivo de la inferencia estadística es sacar conclusiones acerca de una población utilizando una muestra de la misma. En la inferencia estadística se utilizan profusamente cantidades calculadas a partir de las observaciones de la muestra. Un estadístico se define como cualquier función de las observaciones de una muestra que no contiene parámetros desconocidos. La media muestral ȳ es un estimador puntual de la media población µ, y la varianza muestral 𝒔𝟐 es un estimador puntual de la varianza poblacional 𝛔𝟐. En general, un estimador de un parámetro desconocido es un estadístico que corresponde con dicho parámetro. Observe que un estimador puntual es una variable aleatoria. El valor numérico particular de un estimador, calculado a partir de los datos muestrales, se les llama una estimación. Un buen estimador puntual debe tener varias propiedades. Dos de las más importantes son las siguientes: El estimador puntual deberá ser insesgado. Es decir, el parámetro que se está estimando debería ser el promedio o valor esperado a la larga del estimador puntual. Un estimador insesgado debería tener la varianza mínima. Esta propiedad establece que el estimador puntual de varianza mínima tiene una varianza que es menor que la varianza de cualquier otro estimador del parámetro en cuestión.

Prueba de Hipótesis. El procedimiento para decidir si se acepta o se rechaza las proposiciones se denomina prueba de hipótesis. Una prueba de hipótesis es una herramienta de análisis de datos que puede en general formar parte de un experimento comparativo más completo. Una hipótesis estadística es un enunciado o afirmación ya sea acerca de los parámetros de una distribución probabilidad o de los parámetros de un modelo. La hipótesis refleja alguna conjetura acerca de la situación del problema. Por ejemplo, en el experimento del cemento portland, pude pensarse que las fuerzas de la tensión de adhesión promedio de las dos formulaciones del morteo son iguales. Esto puede enunciarse formalmente como:

𝐻0 : µ1 = µ2 𝐻1 : µ1 ≠ µ2 Donde al enunciado 𝑯𝟎 : µ𝟏 = µ𝟐 se le llama hipótesis nula y a 𝑯𝟏 : µ𝟏 ≠ µ𝟐 se le llama hipótesis alternativa. A la hipótesis alternativa que se especifica aquí se llama hipótesis alternativa de dos colas porque sería verdadera si µ𝟏 < µ𝟐 o si µ𝟏 > µ𝟐 . Para probar una hipótesis se proyecta un procedimiento para tomar una muestra aleatoria, calcular un estadístico de prueba apropiado para después rechazar o no estar en posición de rechazar la hipótesis nula 𝐻0 . Parte de este procedimiento cosiste en especificar el conjunto de valores del estadístico de prueba que llevan al

rechazo de 𝐻0 . A este conjunto de valores se le llama la región critica o región de rechazo de la prueba. Pueden cometerse dos tipos de errores cuando se prueban hipótesis. Si la hipótesis nula se rechaza cuando es verdadera, ha ocurrido un error tipo I. si la hipótesis nula no se rechaza cuando es falsa, se ha cometido un error tipo II. Elección Del Tamaño De La Muestra. La elección de un tamaño de la muestra apropiado es uno de los aspectos más importantes de cualquier problema de diseño experimental. La elección del tamaño de la muestra y la probabilidad β del error tipo II guardan una estrecha relación. Supongamos que se está probando la hipótesis

𝐻0 : µ1 = µ2 𝐻1 : µ1 ≠ µ2 Y que las medias no son iguales, por lo que σ = µ𝟏 − µ𝟐 . Puesto que 𝐻0 : µ1 = µ2 no es verdadera, la preocupación principal es cometer la equivocación de no rechazar.

Intervalos de confianza. Aun cuando la prueba de hipótesis es un procedimiento útil, en ocasiones no cuenta la historia completa. Muchas veces es preferible proporcionar un intervalo dentro del cual cabría esperar que estaría incluido el valor del parámetro o los parámetros en cuestión. A las declaraciones de estos intervalos se les llama intervalos de confianza. Tenemos que un intervalo de confianza a un par o varios pares de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. Debido a su naturaleza aleatoria, es poco probable que dos muestras de una población en particular generen intervalos de confianza idénticos. Sin embargo, si usted repitiera muchas veces su muestra, un determinado porcentaje de los intervalos de confianza resultantes incluiría el parámetro de población desconocido. Para definir un intervalo de confianza, suponga θ que es un parámetro desconocido. Para obtener una estimación del intervalo de θ, es necesario encontrar dos estadísticos L y U tales que la declaración de probabilidad P (L ≤ θ ≤ U) = 1- α sea verdadera. Al intervalo L≤ θ ≤ U se le llama intervalo de confianza de 100 (1- α) por ciento para el parámetro θ. La interpretación de este intervalo es que si, en muestreos aleatorios repetidos, se construye gran número de estos intervalos, 100 (1- α) por ciento de ellos contendrán el verdadero valor de θ. A los estadísticos L y U se les llama los límites de confianza inferior y superior, respectivamente, y a 1- α se le llama el coeficiente de confianza.