Cadenas de Markov

FACULTAD DE INGENIERIA Y ARQUITECTURA ESCUELA PROFESIONAL DE INGENIERIA INDUSTRIAL TEMA: CADENAS DE MARKOV ASIGNATURA:

Views 295 Downloads 0 File size 857KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

FACULTAD DE INGENIERIA Y ARQUITECTURA ESCUELA PROFESIONAL DE INGENIERIA INDUSTRIAL

TEMA: CADENAS DE MARKOV

ASIGNATURA:

Investigación Operativa II

DOCENTE:

Ing. Sara Cabrera Marquez

ALUMNO:

Bedia Rayme , Tirsa

CÓDIGO:

016100188E

CUSCO - PERÚ diciembre de 2019

INTRODUCCIÓN Las cadenas de Markov están destinadas a una clase de modelos probabilisticos que son útiles en una amplia variedad de ciencias. Estas presentan un amplio numero de aplicaciones, como son: en la biologiá , la fiś ica, la demografiá , la contabilidad, la economiá , la administración, la educación, la comercialización, los servicios de salud, las finanzas, producción, etc. Una relación de algunos elementos de apoyo cuantitativo en la toma de decisiones gerenciales es el análisis de markov. Estas se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios. Un factor importante que se debe considerar al seleccionar una herramienta de toma de decisiones es su grado de confiabilidad, ya que así la incertidumbre y el riesgo resultan menores será mejor.

DEFINICIÓN Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.

CONCEPTOS BÁSICOS 1. Estados (Ei, i=1,..., n) Opciones entre las que los consumidores pueden elegir. Para que los estados formen parte del mismo mercado es necesario que todos los consumidores de dicho mercado tenga acceso a todos los estados en igualdad de condiciones. 2. Cuota de mercado o Estado de probabilidad (Pi, i=1,.., n). Es la probabilidad de consumir el Estado i en el momento n. Siempre estará situado en 0 ≤ Pi ≤ 1. Se calcula con la siguiente fórmula:

3. Vector estado (Pn) Es un vector fila formado por las cuotas de mercado del momento n. Los elementos de este vector suman siempre 1. 𝑃𝑛 = (𝑃1 , 𝑃2 , 𝑃3 , … . . , 𝑃𝑖 ) 4. Probabilidad de cambio (Pij i=1,..., n y j=1,..., n) Es la probabilidad de que un consumidor que esté en el Estado i en el momento n pase al Estado j en el momento n+1. Siempre estará situado en 0 ≤ Pij ≤ 1. Se calcula con la siguiente fórmula:

𝑃𝑖𝑗 =

𝑛º 𝑑𝑒 𝑐𝑜𝑛𝑠𝑢𝑚𝑖𝑑𝑜𝑟𝑒𝑠 𝑑𝑒𝑙 𝑒𝑠𝑡𝑎𝑑𝑜 𝑖 𝑒𝑛 𝑒𝑙 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑛 𝑞𝑢𝑒 𝑠𝑒 𝑝𝑎𝑠𝑎𝑛 𝑎𝑙 𝑒𝑠𝑡𝑎𝑑𝑜 𝑗 𝑒𝑛 𝑒𝑙 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑛 + 1 𝑛º 𝑑𝑒 𝑐𝑜𝑛𝑠𝑢𝑚𝑖𝑑𝑜𝑟𝑒𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑑𝑒𝑙 𝑒𝑠𝑡𝑎𝑑𝑜 𝑖 𝑒𝑛 𝑒𝑙 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑛

5. Proceso estocástico Un proceso estocástico es una sucesión de variables aleatorias ordenadas en el tiempo (en el caso de series temporales). 6. Matriz de transición (Mt) Es la matriz formada por las distintas probabilidades de cambio. Sus filas siempre suman 1.

7. Proceso estocástico Un conjunto de variables aleatorias que evolucionan en función normalmente del tiempo. 8. Vector Equilibrio o Vector de Estabilidad. Es un vector estable que nunca se modificará salvo que cambien las condiciones de mercado. Se obtiene a largo plazo si la matriz de transición cumple la caracteriś tica del ergodismo. 9. Matriz ergódica Una matriz es ergódica si su primer auto valor es uno y el resto de los autos valores menores que uno. FORMULACIÓN 1. Tipos 1.1. Cadenas irreducibles

Se dice que una cadena es irreducible si cumple con cualquiera de las siguientes condiciones : -

Desde cualquier estado de E se puede acceder a cualquier otro.

-

Todos los estados se comunican entre si.

-

El único conjunto cerrado es el total.

-

C( x) = E para algún x ∈ E.

-

C (x) = E para todo x ∈ E.

1.2. Cadenas regulares Son también llamadas primitivas o ergódica, se da si existe alguna potencia positiva de la matriz de transición cuya entrada sean estrictamente mayor a cero. 1.3. Cadenas positivo recurrentes Ocurre si la cadena es irreducible, por tanto se puede demostrar que existe un único vector de probabilidad invariable. 1.4. Cadenas absorbentes Si cumple las siguientes condiciones: -

La cadena tiene al menos un estado absorbente.

-

De cualquier estado no absorbente se accede a algún estado absorbente.

Para realizar el diagrama de transición debemos saber que: -

Cada nodo representa un estado

-

Cada arco representa ( i, j ), la probabilidad de transición Pij.

PROPIEDAD MARKOVIANA DE PRIMER ORDEN Dice que el futuro depende únicamente del valor del estado del presente y es independiente del pasado. Establece que la probanbilidad condicional de encontrarse en el periodo t+1 en el estado j, depende unicamente del valor del estado en el periodo t y es independiente del pasado. Como son probabilidades condicionales deben satisfacer:

PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE UN SOLO PASO

Ejemplo Suponga que toda la industria de bebidas produce solo 2 refrescos. Dado que una persona la ultima vez compro refresco 1, hay 90% de probabilidades de que su siguiente compra sea refresco 1. dado que la ultima compra de una persona fue refresco 2, hay un 80% de probabilidades de que su siguiente compra se refresco 2. -

Si una persona en la actualidad es comprador de cola 2, ¿cuál es la probabilidad de que compre cola 1 dos veces a partir de ahora?

-

Si una persona en la actualidad es comprador de cola 1, ¿cuál es la probabilidad de que compre cola 1 tres ocasiones a partir de ahora?

Solución Vemos las compras de cada persona como una cadena de Markov con el estado, en cualquier tiempo dado, del tipo de cola que compró la persona en la última vez. Así, las compras de cada individuo pueden representarse como una cadena de Markov de dos estados, donde Estado 1= La persona compró cola del tipo 1 la última vez. Estado 2= La persona compró cola del tipo 2 la última vez.

Si se define Xn como el tipo de cola que una persona compra en su n- ésima compra futura (compra actual de cola = Xo), entonces X0, X1,... se podría describir como la cadena de Markov con la siguiente matriz de transición:

Ahora se pueden contestar las preguntas 1 y 2. Se busca P(X2 = 1|X0 = 2) = p21(2) = elemento 2,1 de P 2:

Por consiguiente, P21(2) = .34. Esto significa que la probabilidad de que un bebedor de cola 2 en el futuro compre dos veces cola l es .34. Mediante la teoriá de probabilidad básica, se podría obtener esta respuesta de una manera distinta Observe que P21 (2) = (probabilidad de que la siguiente compra sea cola 1 y la segunda compra sea cola 1) + (probabilidad de que la siguiente compra sea cola 2 y la segunda compra sea cola1) = P21P11 + P22P21= (.20)(.90) + (.80)(.20) = .34. Ahora se busca P11(3) = elemento 11 de P 3 :

Por lo tanto, P11(3) = .781

PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE “N” PASOS. Si una cadena de Markov está en el estado i en el tiempo m, ¿cual es la probabilidad de que n periodos después la cadena esté en el estado j? Puesto que se trata con una cadena de Markov estacionaria, esta probabilidad es independiente de m, así́ que se podría escribir.

Donde: 𝑃𝑖𝑗 (𝑛): Probabilidad del n-ésimo paso de una transición del estado i al estado j. 𝑃𝑖𝑗 (1) = Pu: para determinar 𝑃𝑖𝑗 (2). PROBABILIDADES DE ESTADOS ESTABLES. Se puede usar para describir el comportamiento a largo plazo de una cadena de Markov. El resultado es vital para comprender las probabilidades de estado estable y el comportamiento a largo plazo de las cadenas de Markov. Sea P la matriz de transición de una cadena ergódica de estado estable. Entonces existe un vector π = [π1, π2, ..., πs] tal que:

El vector π = [π1 π2 ... πs] se llama distribución de estado estable, o distribución de equilibrio, para principiante

experiment

asociado

ado

principiante

Sale

como Sale

no asociado

como

la

asociado

0.8

0.15

0

0.05

0

experimentado

0

0.7

0.2

0.1

0

asociado

0

0

0.95

0

0.05

cadena de Marcov.

Cuando el sistema llega a un estado j, la probabilidad en estado estable llegara ser: 𝜋𝑗 =

𝑚

lim ( 𝑃𝑖𝑗 ) = 𝜋 𝑃

𝑚 →∞

ESTADOS ABSORBENTES Si se comienza en un estado transitorio, entonces finalmente se esta seguro de salir del estado transitorio y terminar en uno de los estados absorbentes. En este formato, los renglones y las columnas de P corresponden (en orden) a los estados Aquí I es una matriz identidad de m x m que refleja el hecho de que nunca se puede dejar un estado absorbente: Q es una matriz de (s – m) x (s – m) que representa estados transitorios; R es una matriz de (s – m) x m que representa transiciones a estados absorbentes; 0 es una matriz de m x (s – m) que consiste por completo en ceros. Esto refleja el echo de que es imposible ir de un estado absorbente a un transitorio. Ejemplo: El bufete jurid́ ico de Mason y Burger emplea tres tipos de abogados: principiantes, experimentados y asociados. Durante un año determinado, hay una probabilidad .15 de que un abogado principiante sea promovido a experimentado y una probabilidad .05 de que salga de la empresa. También, hay una probabilidad .20 de que el abogado experimentado sea promovido asocio y una probabilidad .10 de que salga de la empresa. La probabilidad de que un asociado salga de la empresa es de .05 1. ¿Cuál es el tiempo promedio que un abogado principiante recién contratado dure trabajando en la empresa? 2. ¿Cuál es la probabilidad de que un abogado principiante se convierta en asociado? 3. ¿Cuál es el tiempo promedio que un asociado pasa en la empresa?

Matriz de probabilidades de transición:

solución

CONCLUSIONES

Es una herramienta utilizada para analizar el comportamiento y el gobierno de determinados tipos de procesos que evolucionan de forma no determinístico a lo largo del tiempo en torno a un conjunto de estados.

Se trata de un sistema que sufre a lo largo del tiempo cambios de estado o transiciones aleatorias y las probabilidades que describen la forma en que el proceso evolucionará en el futuro, son independientes de los eventos ocurridos en el pasado. El sistema no está desprovisto de memoria en su totalidad, sólo guarda información del recuerdo más reciente de su pasado.

Es muy importante comentar que su estudio no estuvo basado en un simple análisis estadístico, sino que intentó aplicarlo a la generación de textos literarios. REFERENCIAS BIBLIOGRÁFICAS Cadenas de Markov, 2002. Ediciones upc. Consulta: 16 de mayo del 2016. Recuperado de : http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf Teodoro Rodriguez. 2002.“Procesos Estocásticos”. Introducción a los métodos estadísticos, numéricos y probabiliś ticos. Portal Colegio Maristas Cristo Rey. España. Consulta: 17 de mayo 2019. Recuprado de http://centros.edu.aytolacoruna.es/maristas/Apuntes%20Estadisti ca%20P3.pdf