unidad 3 y 4

INSTITUTO TECNOLOGICO DE LA LAGUNA ING: JORGE ANTONIO OROZCO PINEDA ALUMNO: JUAN ROMAN GONZALEZ QUIRINO Control: 151301

Views 231 Downloads 2 File size 545KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

INSTITUTO TECNOLOGICO DE LA LAGUNA

ING: JORGE ANTONIO OROZCO PINEDA ALUMNO: JUAN ROMAN GONZALEZ QUIRINO Control: 15130168

UNIDAD 3 Y 4

TEMARIO 3.1 Introducción. 3.2 Variables aleatorias discretas. 3.3 Variables aleatorias continuas. 3.4 Métodos para generar variables aleatorias. 3.5 Procedimientos especiales.

MÉTODO DE GENERACIÓN DE NUMEROS ALEATORIOS Método Conguencial Mixto

Este genera una sucesión de números enteros aleatorios en el cual el proximo número pseudoaleatorio, es determinado a partir del último número generado, es decir, el número pseudoaleatorio Xn+1, es derivado a partir del numero pseudoaleatorio Xn. Para en caso particular del generador congruencial mixto, la relación de recurrencia es la siguiente: Xn+1 = (aXn + c) mod m, donde:  Xo = la semilla (Xo > 0)  a = el multiplicador (a > 0)  c = constante aditiva (c > 0)  m = modulo (m > Xo, m > 0 y m > c ) a = 5, c = 7, Xo = 4, m = 8

Medios al cuadrado Este algoritmo no congruencial requiere un numero entero denotador (llamado semilla) con D digitos, el cual es elevado al cuadrado para seleccionar del resultado los D digitos del centro; el primer numero ri se determina simplemente anteponiendo el cero a esos digitos. Para obtener el segundo r se sigue el mismo procedimiento, solo que ahora se eleva al cuadrado los d digitos del centro que se seleccionaron para obtener el primer r. Este método se repite hasta obtener n números r. Pasos:

1. Seleccionar una semilla (Xo) con d digitos (D > 3). 2. Sea X0 = resultado de elevar Xo al cuadrado; sea X1 digitos del centro, y sea ri = 0, d digitos del centro. 3. Sea yi = resultado de elevar Xi al cuadrado; sea Xi+1 = a los dígitos del centro, y sea ri = 0, d dígitos del centro para toda i = 1, 2, 3, …n. 4. Repetir el paso tres hasta obtener los n números ri deseados. NOTA: si no es posible obtener los D dígitos del centro del numero yi, agregue ceros a la izquierda del numero yi. Generar los primeros 14 números a partir de 3825, con 4 digitos.

MÉTODO MULTIPLICATIVO Para este generador se recomienda una selección adecuada para los valores de los parámetros a, Xo y m; con el fin de asegurar un periodo máximo para las sucesiones generadas por este método: Número Decimal (sistema); los valores de los parámetros deben ser seleccionadas de acuerdo a los siguientes criterios:  El valor de la semilla puede ser cualquiera entero impar no divisible entre 2 o 5.  Debe ser relativamente primo a “m”.  El valor seleccionado de “a”, debe ser obtenido de acuerdo a la siguiente identidad; a = 200 t + p, donde “t”, es cualquier entero y “p” es cualquiera de los siguientes valores: 3, 11, 13, 19, 21, 27, 29, 37, 53, 59, 61, 67, 69, 77, 83, 91.

 El valor seleccionado de “m” puede ser 10^d. Si m es igual a 10 y d > = 5, el periodo del generador es 5 x 10 ^d-2.

• • •

CHI-CUADRADA Se usa cuando se trabaja con variables nominales (categorías o grupos). Responder la pregunta: si las frecuencias observadas, difiere de la frecuencia esperada. Utiliza los recuentros. EJEMPLO:

Si 20 de 40 escolares varones con hipoidismo primario (por defecto) los niveles de TSH están elevados en suero y 5 de 38 varones normales muestran elevaciones similares. HIPOTESIS NULA Pacientes con la enfermedad no tienen niveles altos de TSH en suero.

KOLMOGOROV Es una prueba estadísitca que sirve para determinar si un conjunto ri cumple la propiedad de uniformidad. Es recomendable aplicarla en conjuntos pequeños, por ejemplo nDan EJEMPLO Realizar la prueba, con un nivel de confianza de 90%, al siguiente conjunto ri de 10 números ri = (0.97, 0.11, 0.65, 0.26, 0.98, 0.03, 0.13, 0.89, 0.21, 0.69) Ordenada es: (0.03 – 0.11 – 0.13 – 0.21 – 0.26 – 0.65 – 0.69 – 0.89 – 0.97 – 0.98) De acuerdo a las tablas de valores para la prueba, el valor crítico correspondiente n = 10 es: D = 0.368, que resulta menor al valor D = 1.04, por tanto, se concluye que los números del conjunto ri no se distribuyen uniformemente D (1.04)> Dα,n (0.368) o hay uniformidad PRUEBA DE INDEPENDENCIA

· ·

Las pruebas de independencia consiste en demostrar que los números generados son estadísticamente independientes entre si, esto es, que no dependen uno de otro. Para esto se propone la siguiente hipótesis: HO : r independiente Hi Dependiente Para realizar esta prueba de hipótesis existen varios métodos, puede seleccionarse cualquiera de la siguiente lista:  Prueba de poker  Prueba de corridas arriba y abajo  Pruebas de corridas arriba y debajo de la media  Prueba de la longitud de las corridas  Prueba de distancia  Prueba de series  Prueba de huecos Autocorrelación Mide la correlación entre los valores de la serie distanciados en un lapso de tiempo k. Se define como la correlación cruzada de la señal consigo misma. Resulta de gran utilidad. PRUEBAS DE HUECO Consiste en suprimir de un texto una serie de palabras seleccionadas en virtud que representan los aspectos que se requieren medir. La tarea del candidato es deducir, por el contexto, la palabra eliminada y rescribirla para determinar la palabra dada es correcta o incorrecta. PRUEBA DE POKER

· · · ·

Examina en forma individual los dígitos del numero pseudo-aleatorio. La forma como esta prueba se realiza es tomando numeros decimales con 5 digitos a la vez y clasificándolos como; par, dos pares, tercia, poker, quintilla, y todos diferentes. La prueba poker se puede realizar con 2, 4 y 5 decimales. Procedimiento: Determinar la categoría de cada numero del conjunto ri Contabilizar los numeros ri de la misma categoría o clase para obtener la frecuencia observada (Oi) Calcular el estadístico de la prueba X^2n Finalmente comparar el estadístico de X^2º PRUEBA DE Q DE YULE Es una medida de asociación creada por el estadístico escoces George Udny Yule, se utiliza en cuadros estadísticos llamado contingencia.

· ·

Variables nominales Restricciones: Tener en cuenta que son numeros positivos, solo pueden tomar valores comprendidos entre cero y uno. Cuando se acercan a un cero, indican independencia o asociación muy débil entre las variables. MÉTODO DE MONTE CARLO Se agrupan una serie de procediemientos que alcanzan distribuciones de variables aleatorias usando una simulación de numeros aleatorios. Da solución a una gran variedad de problemas matemáticos haciendo experimentos con muestreos estadísticos en una computadora. Se usa para analizar problemas que no tienen un componente aleatorio explicito. Fue creada para resolver integrales que no se pueden resolver por métodos analíticos, para solucionar estos integrales se usaron números aleatorios. Posteriormente se utilizo para cualquier esquema que emplee números aleatorios, usando variables aleatorias con distribuciones de probabilidad conocidos, para resolver problemas estocásticos y determinísticos. MÉTODO DE COMPOSICIÓN Genera valores de variables aleatorias no- uniformes usando también el método de composición, en la cual la distribución de probabilidad f(x) se expresa como una mezcla de varias distribuciones de probabilidad f(x), seleccionadas adecuadamente. Este procedimiento se basa en el objetivo de minimizar el tiempo de computación requerida para la generalización de valores de la variable aleatoria analizada. También conocida como método mixto, permite generar variables aleatorias “x”, cuando estas provienen de una función de densidad fx que pueda expresarse como la combinación convexa de distribuciones de probabilidad fi(x). Algunas de las distribuciones mas conocidas que pueden expresarse como una combinación convexa son: triangular, Laplace, y trapezoidal. Procedimiento general de generación es el siguiente: 1. Calcular la probabilidad de cada una de las distribuciones fi(x) 2. Asegurar que cada función fi(x) sea función de densidad 3. Obtener mediante el método de la transformada inversa, las expresiones para generar variables aleatorias de cada una de las distribuciones fi(x) 4. Genera un numero pseudoaleatorio ri que permita definir el valor de IA(x) 5. Seleccionar la función generadora correspondiente a la función fi(x) 6. Generar un segundo numero pseudoaleatorio y sustituirlo en la función generada anteriormente para obtener y.

PRUEBA DE BONDAD DEL AJUSTE

Cuando se realizan investigaciones, con frecuencias importante obtener información a través de una muestra. Algunos estudios producen resultados sobre los que no podemos afirmar que se distribuyen. En estos casos debemos emplear técnicas no paramétricas que se utilizan ampliamente en las aplicaciones de las ciencias sociales, cuando se pueden asumir a priori que los datos de una muestra se ajusten a una distribución normal. Ahora nos ocuparemos del problema de verificar si de un conjunto de datos se pueden afirmar que proviene de que proviene. Estadística No Parametrica La estadística no paramétrica es una rama de la estadística las pruebas y modelos estadísticos cuya distribución subyacente no se ajuste a los llamados criterios paramétricos. Las pruebas paramétricas no asumen ningún parámetro de distribución de las variables muéstrales. Las pruebas paramétricas asumen los parámetros de las variable (media y varianza) y un tipo de distribución normal. Las pruebas no paramétricas no asumen ningún parámetro de distribución de las variables muéstrales. Para resolver este problema utilizaremos unas pruebas estadísticas que reciben el nombre general de pruebas de bondad de ajuste. Este calculo de pruebas es sencillo, desde el punto de vista manual y matemático, sin embargo y siguiendo con nuestra practica, facilita el trabajo hacerlo con la hoja de calculo de Excel. Prueba Fisher Es la prueba estadística de elección cuando la prueba de Chi-cuadrada no puede ser empleada por tamaño maestral insufiente. Prueba de Chi-Cuadrada Se basa en la hipótesis nula (Ho) de que no hay diferencias significativas entre la distribución muestral y la teoría. Mientras que la hipótesis alternativa (H1), siempre se enuncia como que los datos no siguen la distribución supuesta. Estadístico de Prueba El estadístico de prueba esta definido como la sumatoria de los residuos expresados en términos de las frecuencias esperadas para cada una de las clases. Interpretación. Cuanto mayor sea el valor de , menos verosímil es que la hipótesis Ho sea correcto. De la misma forma, cuanto más se aproxima a cero el valor de Chi-cuadrada. Si = 0. La frecuencia teórica y observada concuerda exactamente. Si > 0. Mientras mayor es la diferencia mayor es la discrepancia. En la practica: si Ho = 0 no existe diferencia significativa es la distribución de la frecuencia observada y la distribución teórica específicamente los mismos parámetros. MÉTODO DE CONVOLUCIÓN

La distribución de la suma de dos o mas variables aleatorias independientes es llamada la consolación de las distribuciones de las variables originales. El método de con solución es entonces la suma de dos variables aleatorias para obtener una variable aleatoria con la distribución de probabilidad deseada. Puede ser usada para obtener variables con distribuciones Erlang y binomiales. Antes de comenzar con el método, identifiquemos los valores de cada señal. Una vez que tenemos identificados los valores de cada señal, comenzamos a resolver. Primero, hacemos una tabla que contendrá:  Cantidad de columnas = cantidad de puntos a[n]+1  Cantidad de filas = cantidad de puntos de a[n]+ de puntos de b[n]  En el ejemplo que estamos realizando quedaría:  Cantidad de columnas = 6+1 = 7  Cantidad de filas = 6+4 = 10 Segundo, hay que llenar la tabla. En la primera fila, colocamos los valores de a[n] Para calcular el elemento de y[0], tomamos en cuenta siempre la primera fila la que continúe los elementos de a[n] y la fila correspondiente al elemento que estamos calculando.

TEMARIO 4.1 Lenguaje de simulación y simuladores 4.2 Aprendizaje y uso del lenguaje de simulación o un simulador 4.3 Casos prácticos de simulación 4.3.1 Problemas con líneas de espera 4.3.2 Problemas con sistemas de inventario 4.4 Validación de un simulador

4.4.1 Pruebas paramétricas (Validación del modelo, pruebas de hipótesis y pruebas de estimación). 4.4.2 Pruebas no paramétricas

LENGUAJE DE SIMULACION Y SIMULADORES En un principio, los programas de simulación se elaboraban utilizando algún lenguaje de propósito general, como ASSEMBLER, FORTRAN, ALGOL o PL/I. A partir de la década de 1960 hacen su aparición los lenguajes específicos para simulación como GPSS, GASP, SIMSCRIPT, SLAM. En la última década del siglo pasado las apariciones de las interfaces gráficas revolucionaron el campo de las aplicaciones en esta área, y ocasionaron el nacimiento de los simuladores. En lo práctico, es importante utilizar la aplicación que mejor se adecúe al tipo de sistema a simular, ya que de la selección del lenguaje o simulador dependerá el tiempo de desarrollo del modelo de simulación. Las opciones van desde las hojas de cálculo, lenguajes de tipo general (como Visual Basic, C++ o Fortan), lenguajes específicos de simulación (como GPSS, SLAM, SIMAN, SIMSCRIPT, GAS y SSED), hasta simuladores específicamente desarrollados para diferentes objetivos (como SIMPROCESS, ProModel, Witness, Taylor II y Cristal Ball). APRENDIZAJE

Y

USO

LENGUAJE

DE

SIMULACIÓNOSIMULADOR

Los lenguajes de simulación facilitan enormemente el desarrollo y ejecución de simulaciones de sistemas complejos del mundo real. Los lenguajes de simulación son similares a los lenguajes de programación de alto nivel pero están especialmente preparados para determinadas aplicaciones de la simulación. Así suelen venir acompañados de una metodología de programación apoyada por un sistema de símbolos propios para la descripción del modelo por ejemplo mediante

diagramas de flujo u otras herramientas que simplifican notablemente la modelización y facilitan la posterior depuración del modelo. Características de los lenguajes de simulación:  Los lenguajes de simulación proporcionan automáticamente las características necesarias para la programación de un modelo de simulación, lo que redunda en una reducción significativa del esfuerzo requerido para programar el modelo.  Proporcionan un marco de trabajo natural para el uso de modelos de simulación. Los bloques básicos de construcción del lenguaje son mucho más afines a los propósitos de la simulación que los de un lenguaje de tipo general.  Los modelos de simulación son mucho más fácilmente modificables.  Proporcionan muchos de ellos una asignación dinámica de memoria durante la ejecución,.  Facilitan una mejor detección de los errores.  Los paquetes de software especialmente diseñados para simulación contienen aplicaciones diversas que facilitan al simulador las tareas de comunicaciones, la depuración de errores sintácticos y de otro tipo de errores, la generación de escenarios, la manipulación “on-line” de los modelos, etc.  Son muy conocidos y en uso actualmente  Aprendizaje lleva cierto tiempo  Simuladores de alto nivel  Muy fáciles de usar por su interface gráfica  Restringidos a las áreas de manufactura y comunicaciones  Flexibilidad restringida puede afectar la validez del modelo Entre estos lenguajes específicos podemos nombrar los siguientes: MIDAS, DYSAC, DSL , GASP, MIMIC, DYNAMO, GPSS, SIMULA, CSSL( Continuous System Simulation Language) , CSMP, ACSL ( Advanced Conrinuous Simulation Language), DARE-P and DARE-Interactive, C-Simscript, SLAM, SIMAN, SIMNON, SIMSCRIPT-II-5, ADA, GASP IV, SDL. Muchos de estos lenguajes dependen fuertemente de los lenguajes de propósito general como es el caso de SLAM o SIMAN que dependen de Fortran para las subrutinas. Por otro lado, el GPSS es un caso especial de un lenguaje de simulación de propósito especial, altamente estructurado que esta orientado a la transacción, un caso especial de una orientación basada en procesos más general. El GPSS fue diseñado para la simulación simple de sistemas de colas tales como trabajos de taller. A diferencia de los otros lenguajes de simulación, GPSS tiene varias implementaciones incluyendo GPSS/H y GPSS/PC, ambos de los cuales serán discutidos mas adelante. El SIMAN V, SIMSCRIPT II.5, y el SLAM son lenguajes de simulación de alto nivel que tienen constructor especialmente diseñados para

facilitar la construcción de modelos. Estos lenguajes proveen al analista de simulación con una opción orientación basada en procesos o basada en eventos, o un modelo usando una mezcla de las dos orientaciones. A diferencia del FORTRAN, estos tres lenguajes proveen la administración de la lista de eventos futuros, generador interno de variables aleatorias, y rutinas internas para la obtención de estadísticas (estas características para las implementaciones del GPSS mencionadas previamente.) Se pueden lograr calculo complejos en ambas implementaciones del GPSS y estos tres lenguajes. El SIMAN, SIMSCRIPT II.5, y el SLAMSYSTEM proveen la capacidad de realizar simulación continua ( esto es, para modelar sistemas que tengan continuamente cambios en sus variables de estado) pero este tema no esta dentro del alance de este libro. El SIMAN esta escrito en C, aunque las primeras versiones del lenguaje fue escrito en FORTRAN. El SIMAN V puede ser acezado directamente, o a través del medio ambiente del ARENA. El SLAMSYSTEM contiene al lenguaje de simulación SLAM II. El SLAM II esta basado en el FORTRAN y contiene al lenguaje GASP como un subconjunto. El GASP es un conjunto de subrutinas en FORTRAN para facilitar las simulaciones orientadas al objeto escritas en FORTRAN. El SIMSCRIPT II.5 por otro lado, contiene un subconjunto de un completo lenguaje científico de simulación comparable con el FORTRAN, C o C++. El MODSIM III es un descendiente del lenguaje que la compañía de productos CACI originalmente diseñado por la armada de los Estados Unidos. Hereda mucha de su sintaxis del MODULA-2 y del ADA, ciertas características del ADA y sus conceptos de simulación del SIMSCRIPT y el SIMULA. Algunas de las características de la simulación orientada al objeto fueron originalmente vistas en el SIMULA y el SMALLTALK. CASOS PRACTICOS DE SIMULACIÓN Un caso practico de una simulación podemos decir en esta parte, la simulación del Método de Monte Carlo. ALGORITMOS El algoritmo de Simulación Monte Carlo Crudo o Puro está fundamentado en la generación de números aleatorios por el método de Transformación Inversa, el cual se basa en las distribuciones acumuladas de frecuencias:  Determinar la/s V.A. y sus distribuciones acumuladas(F)  Generar un número aleatorio uniforme Î (0,1).  Determinar el valor de la V.A. para el número aleatorio generado de acuerdo a las clases que tengamos.  Calcular media, desviación estándar error y realizar el histograma.  Analizar resultados para distintos tamaños de muestra.

Otra opción para trabajar con Monte Carlo, cuando la variable aleatoria no es directamente el resultado de la simulación o tenemos relaciones entre variables es la siguiente: 

Diseñar el modelo lógico de decisión Especificar distribuciones de probabilidad para las variables aleatorias relevantes Incluir posibles dependencias entre variables. Muestrear valores de las variables aleatorias. Calcular el resultado del modelo según los valores del muestreo (iteración) y registrar el resultado Repetir el proceso hasta tener una muestra estadísticamente representativa Obtener la distribución de frecuencias del resultado de las iteraciones Calcular media, desvío. Analizar los resultados Las principales características a tener en cuenta para la implementación o utilización del algoritmo son: · El sistema debe ser descripto por 1 o más funciones de distribución de probabilidad (fdp) · Generador de números aleatorios: como se generan los números aleatorios es importante para evitar que se produzca correlación entre los valores muéstrales. · Establecer límites y reglas de muestreo para las fdp: conocemos que valores pueden adoptar las variables. · Definir Scoring: Cuando un valor aleatorio tiene o no sentido para el modelo a simular. · Estimación Error: Con que error trabajamos, cuanto error podemos aceptar para que una corrida sea válida? · Técnicas de reducción de varianza. · Paralelización y vectorización: En aplicaciones con muchas variables se estudia trabajar con varios procesadores paralelos para realizar la simulación. EJEMPLO PRACTICO I Tenemos la siguiente distribución de probabilidades para una demanda aleatoria y queremos ver que sucede con el promedio de la demanda en varias iteraciones: Utilizando la distribución acumulada(F(x) es la probabilidad que la variable aleatoria tome valores menores o iguales a x) podemos determinar cual es el valor obtenido de unidades cuando se genera un número aleatorio a partir de una distribución continua uniforme. Este método de generación de variable aleatoria se llama Transformación Inversa.

Generando los valores aleatorios vamos a ver como se obtiene el valor de la demanda para cada día, interesándonos en este caso como es el orden de aparición de los valores. Se busca el número aleatorio generado en la tabla de probabilidades acumuladas, una vez encontrado(si no es el valor exacto, éste debe se menor que el de la fila seleccionada pero mayor que el de la fila anterior), de esa fila tomada como solución se toma el valor de las unidades (Cuando trabajamos en Excel debemos tomar el límite inferior del intervalo para busca en las acumuladas, para poder emplear la función BUSCARV(), para 42 sería 0, para 43 0,100001 y así sucesivamente). Ejemplo: Supongamos que el número aleatorio generado sea 0,52, ¿a qué valor de unidades corresponde? Nos fijamos en la columna de frecuencias acumuladas, ese valor exacto no aparece, el siguiente mayor es 0,70 y corresponde a 48 unidades. Se puede apreciar mejor en el gráfico, trazando una recta desde el eje de la frecuencia hasta que intersecta con la línea de la función acumulada, luego se baja a la coordenada de unidades y se obtiene el valor correspondiente; en este caso 48. Cuando trabajamos con variables discretas la función acumulada tiene un intervalo o salto para cada variable(para casos prácticos hay que definir los intervalos y luego con una función de búsqueda hallar el valor). Para funciones continuas se puede hallar la inversa de la función acumulada. De esta forma logramos a partir de la distribución de densidad calcular los valores de la variable aleatoria dada. En la siguiente tabla, vemos como a medida que aumenta el numero de simulaciones, el valor simulado se acerca al valor original de la media y desviación estándar, además de la disminución del error típico. PROBLEMAS CON LINEA DE ESPERA Simulación de una línea de espera con una fila y un servidor Un sistema de colas estará definido cuando tengamos la siguiente información acerca de este: • Distribución de probabilidad de los tiempos de servicio • Distribución de probabilidad de los tiempos entre llegadas • Numero de servidores • Numero de filas • Conexiones entre servidores y filas • Disciplinas y restricciones de los servidores y filas (en caso de que existan) Para este primer ejemplo se utilizará el modelo de líneas de espera que se muestra en la figura siguiente. Como se puede apreciar, es un modelo bastante simple donde la disciplina de atención es FIFO (primero en llegar, primero en salir).

Tanto el tiempo de servicio como el tiempo entre llegadas siguen una distribución exponencial, aunque con parámetros diferentes, para el caso del tiempo entre llegadas tenemos λ=15 y para el tiempo de servicio tenemos λ=10. Aplicando el método de la transformada inversa a la distribución exponencial (consultar Dyner etc. al, 2008), tenemos que: Donde corresponde a una observación de una variable exponencial, _ es un numero aleatorio entre cero y uno y λ es la media de la distribución. Para la implementación del sistema descrito en Excel, abra una nueva hoja de calculo y configúrela como se muestra en la figura. En la celda B8 escriba la formula =ALEATORIO() y arrastre hasta la celda B23. Repita este procedimiento para la columna G. En el paso anterior, se definió los números aleatorios a partir de los cuales se generaran las observaciones de variables aleatorias de la simulación. Ahora, en la celda C8 escribe la formula =-LN(1-B8)/$B$4, y arrastre hasta la celda C23. Como se puede apreciar, esta es la formula descrita anteriormente para obtener observaciones de una variable exponencial. En este caso, se están generando observaciones para la variable aleatoria de tiempos entre llegadas. En la celda D8 escribe la formula =C8, lo anterior significa que como es la primera llegada al sistema, su tiempo de llegada (en el instante de tiempo en el que llego al sistema), sera igual a su tiempo entre llegadas. Sin embargo, para la celda D9 la formula correspondiente es =C9+D8, ahora arrastre la formula de D9 hasta D23; esta formula significa que después de que llega el primer cliente, el instante de tiempo en el que cualquier otro cliente llega al sistema será el instante de tiempo en el que entro el penúltimo cliente sumado el tiempo entre llegadas del último cliente, es decir, si el penúltimo cliente entro al sistema en el instante t=4, y el tiempo entre llegadas del ultimo cliente es dt=2, entonces este ultimo cliente entrara realmente al sistema en t=6. La formula correspondiente a la celda E8 es =D8, esto significa que, al ser primer cliente, el instante en el que llega al sistema será el mismo instante en el que comienza el servicio; mas adelante se presenta las formulas correspondientes al resto de clientes del sistema en esta columna. Ahora en la celda F8 escriba la formula =E8-D8 y arrástrela hasta la celda F23, esto corresponde al tiempo de espera del cliente antes de comenzar a ser atendido, note que D8 nunca será mayor que E8 ya que el valor mínimo que puede tomar el tiempo de comienzo del servicio es el tiempo de llegada, es decir, cuando un cliente llega al sistema y no tiene que hacer fila. En la celda H8 escribe la formula =-LN(1-G7)/$B$5, y arrástrela hasta la celda H23, esta formula indica cuanto tiempo tardara el servidor atendiendo al cliente actual. Ahora en la celda I8 escriba la formula =E8+H8, esta formula indica el instante de tiempo en el que servidor termina de atender al cliente actual y

corresponde a la suma entre el instante que comienza el servicio y la cantidad de tiempo que este toma. Retomemos ahora la columna E, notese que esta solo esta definida en su posición E8, esto porque primero se requeria definir otros valores antes de poder determinar el instante en el que empieza realmente el servicio. En un sistema como el aqui presentado se pueden tener dos casos para el tiempo de comienzo del servicio, en primer lugar puede que el servidor se encuentre desocupado, en este caso el tiempo de comienzo del servicio sera igual al tiempo de llegada al sistema y no habra tiempo de espera. Sin embargo, si el servidor se encuentra ocupado, el tiempo de comienzo del servicio será igual al máximo entre el instante en que el servidor termine de atender al cliente actual y el tiempo de llegada al sistema; por si el tiempo de fin del servicio del cliente actual es igual a tfs=12 pero el tiempo de llegada del próximo cliente es tll=14, el tiempo de comienzo del servicio del próximo cliente será t=14 y el servidor tendrá un ocio dt=2; por otro lado, si tfs=13 para el cliente actual y el próximo cliente tiene un tll=10, el servidor no tendrá ocio y el próximo cliente deberá esperar un intervalo de tiempo dt=3. De lo anterior se concluye que la formula para la celda E9 debe ser =MAX(D9;I8), ahora arrastre esta formula hasta la celda E23. Hasta este punto se tiene una simulación de un sistema de líneas de espera con una fila y un servidor, si se desea generar nuevas observaciones presione la tecla F9; como tarea al lector se deja el calculo de: • Tiempo promedio en el sistema • Tiempo promedio de espera (sin incluir ceros) • Tiempo promedio de espera (incluyendo ceros) • Tiempo promedio de servicio • Tiempo promedio de ocio Adicionalmente se plantea al lector elaborar, una simulación en Excel que represente el sistema que se muestra en la figura siguiente, donde p es la probabilidad de que un cliente se dirija a S1 o a S2. Tanto el tiempo entre llegadas como los tiempos de servicio, se distribuyen exponencial con los parámetros que se muestran a continuación. Tiempo entre llegadas: λ=8 Tiempo de servicio S1: λ=13 Tiempo de servicio S2: λ=18 Probabilidad p: 0.63 PRUEBAS PARAMETRICAS (VALIDACIÓN DEL MODELO, PRUEBAS DE HIPOTESIS Y PRUEBAS DE ESTIMACIÓN) Validación del modelo Etapas en el desarrollo de un simulador.

Recordemos que las etapas nombradas para desarrollar un simulador son: 1) Identificación del problema 2) Delimitación del sistema 3) Formulación del modelo 4) Preparación de datos 5) Construcción del modelo 6) Validación 7) Diseño de experimentos 8) Ejecución de experimentos 9) Interpretación (Inferencia) 10) Documentación IV) Etapa IV: Preparación de datos, o bien obtención de datos.

· · · ·

Consiste en la identificación y captación de los datos que requiere el modelo, de acuerdo a la formulación que se haya hecho en las etapas anteriores del diseño. Los datos son para: Las relaciones funcionales, ya sea para determinar la forma de éstas, completar su forma o expresión, o para precisar algún parámetro que en ella se tenga. Las variables estocásticas, que de ellas se deberá determinar su función de distribución de probabilidades, tanto para variables continuas como discretas. Las relaciones funcionales podrían ser, rectas obtenidas por regresión lineal o ajuste de curvas. En las relaciones funcionales se debe fijar todos los parámetros que tenga; a menos que se haya dejado como una variable de entrada al simulador. Los datos a usar pueden ser:  Datos empíricos  Datos obtenidos con distribución teóricas. El usar datos empíricos es en general más conveniente, pero puede implicar que el modelo quede influido por factores que se dieron en el tiempo de gestación de ellos y no vuelvan a repetirse. V. Construcción del modelo Es llevar el modelo que se tiene del simulador a un lenguaje de programación disponible en el computador a usar o en las configuraciones disponibles, y que debe conocer su programación. Luego que se tiene el programa fuente del modelo, escrito en el lenguaje elegido, probarlo y depurarlo desde el punto de vista computacional, hasta obtener una versión satisfactoria. VI. Validación Es esta etapa se trata de establecer, y si es posible aumentar, el nivel aceptable de confiabilidad de las inferencias efectuadas sobre el sistema real. La validación tiene el concepto de grado, no es un resultado dicotómico, no es un si o no, no es válido o inválido, no es correcto o incorrecto. Fuentes de error En la formulación del modelo:  Que se excluya variables relevantes, o un atributo (esto es más dramático).

 Que se incluya variables irrelevantes (es menos dramático).  Mala elección de una función de distribución de probabilidad para una variable.  Mal establecimiento de alguna relación funcional o de los parámetros del modelo.  En los datos usados  Toma de datos con margen de error relativo importante.  Técnica de muestreo mal aplicada. Ejemplo: Tomar todos los datos de un sector no representativo.  Datos mal digitados o mal almacenados. El analista hace un acto de confianza en el equipo que tenía los datos.  En la construcción  Errores en los programas (de lógica, mal uso del lenguaje).  El tiempo real se simula mal.  Uso de una imagen no adecuada del mundo real. (Usar matrices de punto para territorios, lagos, bosque, cardumen, conglomerados; en lugar del espacio R2 por ej.) La validación consiste en 2 etapas: 1. Validación de los modelos de procesos simples; esto es validar la estructura interna del modelo. Se valida la salida de los procesos simples y en ello se hace uso de técnicas de estadística. Las relaciones funcionales también deben validarse. Puede hacerse cuando se establece el modelo o en la toma de datos .No debe tomarse relaciones funcionales desconocidas, o que no tengan ya un grado de validez aceptable. Siempre será posible validar las componentes o subsistemas porque se habrán construido de manera modular para formar el modelo. En esta etapa se observará el comportamiento del modelo en cada uno de esos procesos simples para asegurarse que cada componente o subsistema esta bien simulado. Validar el modelo de simulación en su entorno, esto es validar los datos de salida.  Puede ser que la validez de la estructura sea buena, pero el resultado combinado de los procesos simples sea casi mala.  Confrontar los resultados de la simulación con las experiencias pasadas y con teorías existentes al respecto:  No tomar posturas como: los resultados no me parecen correctos, pero si el modelo lo dice yo lo acepto.  Si los resultados son absurdos, no tiene sentido continuar; cualquier otro análisis no convencerá a los usuarios. Ningún modelo se ha aceptado si los resultados van contra la teoría.  Para modelos de importancia, de envergadura deberá consultarse la opinión de expertos. Análisis de sensibilidad

En las 2 etapas de la validación (de estructura y de los datos de salida) se debe hacer análisis de sensibilidad. Para ello, se varía los valores de 1 o 2 variables de entrada y se observa la respuesta del modelo. Es de cuidado cuando el modelo es muy sensible a una pequeña variación de una variable, y en general el modelo no es bueno cuando ello ocurre. Efectuar análisis de sensibilidad de las variables dependientes ante cambios de las variables independientes.  Con un simulador se puede realizar muchos análisis de sensibilidad por el grado de control sobre las variables de entrada (Método Turing ). Luego consultar a expertos, si es posible.  Análisis de la capacidad de replicar los datos que se uso en su construcción. Esta réplica no es tan importante ya que si replica los datos usados no significa que el modelo sea bueno; y, si ni siquiera replica los datos usados es porque el modelo de simulación obtenido, es malo.  Análisis de la capacidad de predecir usando datos críticos no incluidos en los datos, o usar datos históricos o datos que se obtienen del sistema real o de otro simulador ya probado. Se espera que estas salidas no sean absurdas comparadas con la experiencia y la teoría. Se consulta la opinión de expertos en esta confrontación del modelo con la realidad presente. Ej. Simular la evolución de una población de chinchillas dándole población máxima altísima, y datos de población existentes. Consulta a expertos en chinchillas.  El modelo debe correrse muchas veces antes de llegar a tener una probabilidad de distribución de la respuesta de un variable de salida. VII Diseño de experimentos Aquí se usan las reglas y los procedimientos que la estadística considera para el diseño de experimentos en general y que se aplica a diseñar experimentos a efectuar con el simulador. El diseño se hará orientado principalmente a los objetos que tiene el estudio o el programa en que se inserta la construcción del simulador, o los objetivos de los usuarios que utilizarán el simulador, y para lo cual éste fue diseñado. Se puede distinguir una etapa estratégica donde se decide el diseño de experimentos a usar por ser el más adecuado, y la etapa táctica donde se decide el cómo se llevara a la práctica los experimentos del diseño a aplicar. Se ve aquí la distribución de recursos, el uso del tiempo y del personal. VIII Ejecución de los experimentos Corresponde a la etapa operacional del diseño de experimentos. IX Interpretación Se hacen las inferencias sobre el sistema real de los datos generados por el simulador. X. Documentación Se debe indicar por escrito puntos tales como: los objetivos, las componentes y subsistemas, variables de entrada y de salida, relaciones funcionales, el modelo

formulado, la función de desempeño, y lo pertinente hasta aquí (Diseño lógico del simulador). Se debe documentar el programa computacional, los módulos o las subrutinas, las inter-relaciones entre módulos y la conclusiones de la etapa de validación (Diseño físico del simulador). Confeccionar un manual de procedimiento para el uso del simulador. Este resultará más breve cuanto más amigable sea el ingreso y manejo del simulador. Deberá contener alcances que faciliten la inferencia al sistema real. XII. Explotación Es dejar el simulador con los manuales y documentación a disposición del o los usuarios. Pruebas de hipótesis Una Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional. Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta. Etapas Para La Prueba De Hipótesis. Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor hipotético del parámetro que se compra con el resultado muestral resulta muy poco probable cuando la hipótesis es cierta. Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%, entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con una probabilidad de 1.05 o menos. Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística muestral (el estimador no segado del parámetro que se prueba) o una versión transformada de esa estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se transforme la media en un valor z el cual, a su vez, sirve como estadística de prueba. Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado la hipótesis nula, el nivel de significancia y la estadística de prueba que se van a utilizar, se produce a establecer el o los valores críticos de estadística de prueba. Puede haber uno o más de esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos. Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor hipotético de la media poblacional, se toma una muestra aleatoria

y se determina el valor de la media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la media muestral en un valor de z. Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor (o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la hipótesis nula. Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar de desempeño o cuál de dos estrategias de mercadotecnia utilizar. La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente. Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo. PASOS DE LA PRUEBA DE HIPÓTESIS 1. Expresar la hipótesis nula 2. Expresar la hipótesis alternativa 3. Especificar el nivel de significancia 4. Determinar el tamaño de la muestra 5. Establecer los valores críticos que establecen las regiones de rechazo de las de no rechazo. 6. Determinar la prueba estadística. 7. Coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada. 8. Determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo. 9. Determinar la decisión estadística. 10 Expresar la decisión estadística en términos del problema. Errores de tipo I y de tipo II. Si rechazamos una hipótesis cuando debiera ser aceptada, diremos que se ha cometido un error de tipo I. Por otra parte, si aceptamos una hipótesis que debiera ser rechazada, diremos que se cometió un error de tipo II. En ambos casos, se ha producido un juicio erróneo. Para que las reglas de decisión (o no contraste de hipótesis) sean buenos, deben diseñarse de modo que minimicen los errores de la decisión; y no es una cuestión sencilla, porque para cualquier tamaño de la muestra, un intento de disminuir un tipo de error suele ir acompañado de un crecimiento del otro tipo. En

la práctica, un tipo de error puede ser más grave que el otro, y debe alcanzarse un compromiso que disminuya el error más grave. La única forma de disminuir ambos a la vez es aumentar el tamaño de la muestra que no siempre es posible.

BIOGRAFIA http://simulacionkarla.blogspot.com/p/unidad-iv-lenguajes-de-simulacion.html