Investigacion de Operaciones Unidad 4

INSTITUTO TECNOLOGICO NACIONAL DE MEXICO INSTITUTO TECNOLOGICO DE MERIDA INGENIERIA INDUSTRIAL INVESTIGACION DE OPERA

Views 259 Downloads 0 File size 921KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

INSTITUTO TECNOLOGICO NACIONAL DE MEXICO

INSTITUTO TECNOLOGICO DE MERIDA

INGENIERIA INDUSTRIAL

INVESTIGACION DE OPERACIONES II

EQUIPO #4

2.- Castillo Cambranis Victor Ubaldo

E17080364

3.- Méndez Lara William Eliezer

E17080394

4.- Uitz Madera Cristian Angélica

E16081992

Contenido INTRODUCCION .................................................................................................... 3 A) ASPECTOS FUNDAMENTALES DE LAS CADENAS DE MARKOV EN LA VIDA REAL.............................................................................................................. 4 B)DEFINICION DE LAS CADENAS DE MARKOV.................................................. 5 C) LOS ESTADOS DE LA NATURALEZA Y DE LOS SISTEMAS EN LA VIDA REAL ....................................................................................................................... 6 D) VENTAJAS Y DEVENTAJAS DE SU APLICACION ......................................... 12 E) CARACTERISTICAS BASICAS DE LAS CADENAS DE MARKOV ................. 13 G) EJEMPLOS REALES DE APLICACIÓN DE LAS CADENAS DE MARKOV .... 16 CONCLUSION Y COMENTARIOS: ...................................................................... 20 BIBLIOGRAFIAS ................................................................................................... 21

INTRODUCCION Dentro de esta investigación se planteó el objetivo de definir cada uno de los conceptos que integran el análisis de Markov, comenzando desde los más básicos hasta los más complejos, al igual el por qué es llamado así a dicho estudio, dándole este nombre por su autor (Markov) en este documento se plasma acerca de su biografía, así como todos sus logros que ejecutó. En las cadenas de Márkov considera ciertos puntos discretos en el tiempo para toma valores de la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Márkov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas. Los estados en el tiempo representan situaciones exhaustivas y mutuamente excluyentes del sistema en un tiempo específico. Además, el número de estado puede ser finito o infinito. Por lo general una cadena de Márkov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí. Las cadenas de Markov se pueden aplicar en áreas como la educación, comercialización, servicios de salud, finanzas, contabilidad y producción.

A) ASPECTOS FUNDAMENTALES DE LAS CADENAS DE MARKOV EN LA VIDA REAL

Una cadena de Márkov consta de unos estados E1 E2 E3 E4…..En. que inicialmente en un tiempo 0 o paso 0 se le llama estado inicial, además de esto consta de una matriz de transición que significa la posibilidad de que se cambie de estado en un próximo tiempo o paso. Los procesos de paseo aleatorio en realidad son un caso particular de procesos más generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo discreto en el que una variable aleatoria Xn va cambiando con el paso del tiempo. Las cadenas de Markov tienen la propiedad de que la probabilidad de que Xn = j sólo depende del estado inmediatamente anterior del sistema: Xn−1. Cuando en una cadena dichas probabilidades no dependen del tiempo en que se considere, n,

P (Xn = j | Xn−1 = i)

Una aplicación interesante de procesos de Markov que yo conozco es la industria costera noruega del petroleo/gas. En Noruega un cuerpo estatal, el Consejo de administración de Petróleo noruego, (junto con la compañía de aceite estatal noruega (STATOIL)), tienen un papel grande en la planeación de los medios para el desarrollo costero del petroleo/gas. El problema esencial que el Consejo de la administración del Petróleo noruego tiene, es cómo planear la producción para aumentar al máximo su contribución en el tiempo a la economía noruega. Aquí los horizontes de tiempo son muy largos, típicamente 30 a 50 años. De importancia crítica es el precio del aceite - todavía nosotros no podemos prever esto, sensiblemente con exactitud, para esta horizonte de planeación.

Para superar este problema ellos modelan el precio del aceite como un proceso de Markov con tres niveles de precio (estados), correspondiendo a escenarios optimista, probable y pesimista. Ellos también especifican las probabilidades de hacer una transición entre los estados cada periodo de tiempo (año). Pueden usarse matrices de transición diferentes para horixzontes de tiempo diferentes ( matrices diferentes para el cercano, medio y futuro lejano). Aunque éste simplemente es un enfoque simple, tiene la ventaja de capturar la incertidumbre sobre el futuro en un modelo que es relativamente fácil de entender y aplicar. Estudios sobre el modelado de la población (donde nosotros tenemos objetos con "edad") también son una aplicación interesante de procesos de Markov. Un ejemplo de esto sería el modelado el mercado del automóvil como un proceso de Markov para prever la "necesidad" de nuevos automóviles cuando los automóviles viejos puedan extínguirse. Otro ejemplo sería modelar el progreso clínico de un paciente en hospital como un proceso de Markov y ver cómo su progreso es afectado por régimenes de droga diferentes.

B)DEFINICION DE LAS CADENAS DE MARKOV Una cadena o modelo de Markov es una herramienta para analizar procesos en que la sucesión de variables aleatorias evoluciona en función de otra variable. Dichas variables o conjunto de variables que tienen efectos aleatorios reciben el nombre de proceso estocástico. La inserción de este método a las matemáticas se le atribuye a Andrei Andreyevich Markov. Una cadena de Markov es una secuencia X1, X2, X3 de variables aleatorias. El valor de Xn es el estado del proceso en el tiempo n. De esta manera se obtiene la propiedad markoviana:

¿QUIÉN FUE ANDREI MARKOV ANDREYEVICH? Andrei Markov Andreyevich nació el 2 de junio de 1856 en Riazán, Rusia. Markov fue uno de los más famosos discípulos de Chebyshev y sus ideas se basaban en representar la probabilidad como una ciencia matemática exacta y práctica. La introducción de la cadena de Markov como un modelo para el estudio de variables aleatorias fue uno de los aportes más representativos a las matemáticas. Markov también escribió un libro de texto de estadística y probabilidad. Su obra influyó en

muchos otros famosos matemáticos y estadísticos, incluyendo SN Bernstein, Romanovsky VI, y Jerzy Neyman. Después de contribuir en gran medida a la teoría de números, análisis, cálculo de diferencias finitas, teoría de la probabilidad (con las cadenas de Markov) y las estadísticas, murió en Petrogrado (San Petersburgo antes, ahora Leningrado), el 20 de julio de 1922.

C) LOS ESTADOS DE LA NATURALEZA Y DE LOS SISTEMAS EN LA VIDA REAL Estados Los estados son la caracterización de la situación en que se halla el sistema en un instante dado, de dicha caracterización puede ser tanto cuantitativa como cualitativa. El estado de un sistema en un instante t es una variable cuyos valores solo pueden pertenecer al conjunto de estaos en el sistema. El sistema modelizado por la cadena, por lo tanto, es una variable que cambia con el valor del tiempo, cambio al que llamamos transición.

Matriz de transición Una matriz de transición es el arreglo numérico donde se encuentran las probabilidades de un estado a otro. Dicha matriz es cuadrada con tantas filas y columnas como estados que tiene el sistema, y los elementos de matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado actual es el correspondiente a la fila. La matriz debe cumplir con ciertos requisitos: La suma de las probabilidades de los estados debe ser igual a 1, la matriz de transición debe ser cuadrada y las probabilidades de transición deben estar entre 0 y 1.

Distribución actual (Vector Po): Es la manera en la que se distribuyen las probabilidades de los estados en un periodo inicial, (periodo 0). Esta información te permitirá averiguar cual será la distribución en periodos posteriores.

Estado estable: Se puede decir que el estado estable es la distribución de probabilidades que en cierto punto quedará fija para el vector P y no presentará cambios en periodos posteriores.

ESTADO ABSORBENTE

Previamente hablamos de estado estable, ahora procederemos a explicar otra clase de estado, el absorbente. Definición: Estado cuya única transición posible es volver al mismo estado. Un estado absorbente constituye una clase final de un único estado. En otras palabras un estado absorbente es aquel del que no se puede salir una vez se haya caído en él, es decir la probabilidad de permanecer en el mismo es de 100% .Por ejemplo si expresáramos la vida como una cadena de markov, con la serie de estados: nacer, crecer, reproducirse y morir; la muerte sería obviamente el estado absorbente ya que no existe la posibilidad alguna de volver a un estado anterior.

D) VENTAJAS Y DEVENTAJAS DE SU APLICACION Ventajas: 1. Cualquier problema para el que puede obtenerse un diagrama de transición de estado y que usa el enfoque dado puede analizarse. 2. Teoría de Markov es simple de aplicar y entender. 3. Cálculos de sensibilidad (contestar las preguntas "qué-si") se llevan a cabo fácilmente. 4. La teoría de Markov nos da con el tiempo una visión de los cambios en el sistema. 5. P puede ser dependiente del estado actual del sistema. Si P es dependiente tanto del tiempo y del estado actual del sistema i.e., P es una función de t y st, entonces la ecuación de Markov básica se vuelve st=st-1P(t-1,st-1). 6. La teoría de Markov es un modelo simplificado de un proceso de toma de decisión complejo.

Desventajas: ·

No existe un conjunto de soluciones cerrado.

· Cada cambio en las variables de entrada requiere una solución separada o conjunto de ejecuciones.

· Los modelos de simulación complejos pueden requerir mucho tiempo para construirlos y ejecutarlos.

E) CARACTERISTICAS BASICAS DE LAS CADENAS DE MARKOV Irreductibilidad ·

En una cadena de Markov un estado ej se dice que es accesible desde otro estado ei si la probabilidad de ir desde el estado e i al ej en algún momento futuro es distinta de cero. Un estado ei está comunicado con otro ej si ej es accesible desde ei y ei lo es desde ej. Una cadena de Markov se dice que es irreducible si todos los estados están comunicados entre sí.

· ·

Absorbencia ·

Un estado ej se dice absorbente si es imposible abandonar dicho estado, es decir

P(Xk= ej½Xk-1= ej) = 1. · ·

Una cadena de Markov es absorbente si tiene algún estado absorbente. Si una cadena de Markov es irreducible y absorbente entonces la probabilidad de caer en alguno de los estados absorbentes tiende a uno cuando el número de etapas tiende a infinito.

Regularidad · ·

Una cadena de Markov se dice que es regular si alguna potencia de la matriz de transición tiene todos sus elementos positivos (no hay ceros) Si una cadena es regular entonces es irreducible y no absorbente.

F) FORMULACION DE PROBLEMAS DE PROBLEMAS DE APLICACIÓN El departamento de estudios de mercado de una fábrica estima que el 20% de la gente que compra un producto un mes, no lo comprará el mes siguiente. Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente. En una población de 1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos lo comprarán al mes próximo? ¿Y dentro de dos meses? Solución: Para resolver este tipo de problemas, lo primero es hacer un esquema. A la vista del esquema podemos pasar a construir la matriz de probabilidades de transición:

Cálculo: con esa información construimos la matriz 2x2. P(0) representa la situación:

EJEMPLO 2: En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos de un paquete diario y 2500 fuman más de un paquete diario. En un mes hay un 5% de probabilidad de que un no fumador comience a fumar un paquete diario, o menos, y un 2% de que un no fumador pase a fumar más de un paquete diario. Para los que fuman un paquete, o menos, hay un 10% de probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar más de un

paquete diario. Entre los que fuman más de un paquete, hay un 5% de probabilidad de que dejen el tabaco y un 10% de que pasen a fumar un paquete, o menos. ¿Cuántos individuos habrá de cada clase el próximo mes? SOLUCION:

NF= No fuman FC= fuman uno o menos de un paquete diarios FCC= fuman más de un paquete diario.

G) EJEMPLOS REALES DE APLICACIÓN DE LAS CADENAS DE MARKOV En un país como Colombia existen 3 operadores principales de telefonía móvil como Suponga que en el mercado se consiguen 3 tipos de gaseosas colas que son: coca cola, Pepsi cola y big cola cuando una persona a comprado coca cola existe una probabilidad de que la siga consumiendo de el 75%, un 15% de que compre Pepsi cola y un 10% de que compre big cola; cuando el comprador actualmente consume Pepsi existe una probabilidad de que la siga comprando de 60%, un 25% que compre coca cola y un 15% big cola; si en la actualidad consuma big cola la probabilidad de que la siga consumiendo es del 50%, un 30% que compre coca cola y 205 pepsi cola. En la actualidad cada marca cocacola, Pepsi y big cola tienen los siguientes porcentajes en participación en el mercado respectivamente (60% 30% 10%) Elaborar la matriz de transición Hallar la probabilidad que tiene cada marca en el periodo 5

Matriz de transición

NOTA: estos ejercicios se pueden realizar en Excel utilizando la función de multiplicar matrices.

CONCLUSION Y COMENTARIOS:

Como conclusión las cadenas de Markov nos permite hacer análisis sobre el estudio de los comportamientos de ciertos sistemas en ciertos periodos que pueden ser cortos o largos. Además, se tiene una relación con las probabilidades absolutas. Pero sin embargo lo más importante es el estudio del comportamiento sistemas a largo

plazo,

cuando

el

número

de

transiciones

tiene

al

infinito

Al conocer más o menos las probabilidades de un experimento, esto a su vez nos permitirá conocer a corto y plazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses, y tomar una decisión de manera consciente y no se comentan muchos errores. Esto también nos proporcionara un tiempo estimado para que identifiquemos cada estado y el periodo en que se encuentra con la implementación de un proceso, también se establece las probabilidades como una herramienta más en las cadenas de Markov.

Para concluir podemos decir que las cadenas de Markov son una herramienta para analizar el comportamiento, de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados. Que para su elaboración requieren del conocimiento de diversos elementos como son el estado y la matriz de transición. Dichos elementos fueron descubiertos por su creador Markov, el cual realizó una secuencia de experimentos conectados en cadena y la necesidad de descubrir matemáticamente los fenómenos físicos.

BIBLIOGRAFIAS 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826 Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826 Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 928-931.

ESTADO ESTABLE Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 934-938.

ESTADOS ABSORBENTES Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830 https://jrvargas.files.wordpress.com/2009/01/problemas-resueltos-cadenas-demarkov.pdf http://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_Mar kov.htm http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema4pe.pdf