Cadenas de Markov Clase Ji

Escuela de Ingeniería Industrial Universidad del Valle Cadenas de Markov AGRADECIMIENTOS AL PROFESOR JUAN JOSE BRAVO,

Views 78 Downloads 3 File size 3MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Escuela de Ingeniería Industrial Universidad del Valle

Cadenas de Markov

AGRADECIMIENTOS AL PROFESOR JUAN JOSE BRAVO, MsC

ANDREI ANDREYEVICH MARKOV Andrei Andreyevich Markov nació el 14 de junio de 1856 en Ryazan, Rusia y murió el 20 de julio de 1922 en Petrogrado, ahora San Petersburgo. Andrei A. Markov fue un destacado Matemático Graduado de la Universidad de San Petersburgo en 1878. Después de 1900 Markov realizó grandes avances en la teoría de la probabilidad, probando incluso el importante Teorema Central del Limite. Estudió sucesiones de variables mutuamente dependientes, con la esperanza de establecer las leyes límite de probabilidad en su forma más general. Sin embargo Markov es particularmente recordado por sus estudios de las Cadenas de Markov (teoría que desarrolló a sus 51 años), sucesiones de variables aleatorias en las cuales la siguiente variable está determinada por la actual variable pero es independiente de las anteriores. Con esto surge una nueva rama de la teoría de Probabilidades y comienza la teoría de los procesos estocásticos.

CADENAS DE MARKOV Proceso estocástico de tiempo discreto con espacio de estados finito No se conoce el estado futuro de la variable pero se dispone de cierta información probabilística respecto a su evolución Estados e instantes de tiempo

{Xt}  Característica de interés que evoluciona en el tiempo de manera probabilística Si Xt=i, se dice que el proceso estocástico está en el estado i en el tiempo t Sea Pij la probabilidad de estar en el estado j en el momento t+1, dado que en el momento t se encuentra en el estado i

INSTANTES DE TIEMPO

Momentos en los que es probable que se den cambios de estado de la variable aleatoria Momentos en los que nos interesa inspeccionar el estado de la variable aleatoria

Sincrónicos o asincrónicos La distribución de probabilidad asociada difiere para cada intervalo de tiempo definido para la variable

CÓMO DEFINIR INSTANTES Y ESTADOS? Conocimiento del sistema Experiencia Estudios

Grado de conocimiento del sistema Estadísticas

Condiciones particulares e intrínsecas del sistema Funcionalidad y requerimiento de los resultados Características particulares de estudio

LA MEMORIA TEMPORAL DE LA CADENA DE MARKOV Pensemos en la secuencia de Estados para la Variable Aleatoria Xt cambiante con respecto al tiempo.

Xt+1=j , Xt=i, Estado Futuro

Estado Actual

Xt-1=m,

Xt-2=k,……..,X0=p

Estados Pasados

El estado futuro de la variable en el tiempo t+1, está condicionado únicamente por el “recuerdo” que se tiene de lo ocurrido en el tiempo t.

LA MEMORIA TEMPORAL DE LA CADENA DE MARKOV

La probabilidad condicional P(Xt+1=j / Xt=i) existe Propiedad Procesos Markovianos

Pij

Xt

1

j / X0 Pij

k0 , X1 k1 , ..., Xt Xt

1

j / Xt

i

1

kt 1 , Xt

i

QUE UTILIDAD TIENE LAS CADENAS DE MARKOV ?

Se busca una herramienta “telescópica” que permita aproximarnos objetivamente al futuro.

Cadenas de Markov

El análisis de Markov, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Con esta información se puede predecir y entender el comportamiento del sistema a través del tiempo.

Procesos de planeación de largo plazo

PROBABILIDADES DE TRANSICIÓN

A la probabilidad condicional P(Xt+1=j/Xt=i) se le llama Probabilidad de Transición del estado i al estado j y se simboliza con pij.

Xt+1=j , Xt=i Estado Futuro

Estado Actual

Observe que al evaluar pij se analiza la transición de un estado a otro en períodos de tiempos consecutivos, es decir, se estudian los instantes de tiempo t y t+1.

pij

(1) ij

p

Por tanto, a pij suele en algunas ocasiones escribirse con uno, (1), arriba indicando que entre un estado y otro hay un solo periodo de tiempo (ó un paso)

CADENAS DE MARKOV HOMOGÉNEAS Si la probabilidad P(Xt+1=j / Xt=i) ó pij es igual para cualquier t Es decir…….. P(X1=j / X0=i) =……= P(X5=j / X4=i) =………= P(Xt+1=j / Xt=i)

P Xt

1

j / Xt

i

P X1

j / X0

i

t

En este caso se dice que la probabilidad de transición del estado i al j es estacionaria.

Supuesto

Las probabilidades de transición no cambian con el tiempo

ACIONES DEL SUPUESTO DE LAS PROBABILIDADES ESTACION

(1)

(n)

Si pij , es decir pij es estacionaria, entonces, pij también es estacionaria ó no cambia con el tiempo.

pij

(n)

Probabilidad P(Xt+n=j / Xt=i) y se le conoce como probabilidad de transición de n pasos.

En el curso se tomará como válido el supuesto de las probabilidades de transición estacionarias.

MATRIZ DE PROBABILIDADES DE TRANSICIÓN DE “UN PASO” Matriz de Probabilidades de Transición de un paso de una Cadena de Markov de 5 estados.

Pij

P00 P10 P20 P30 P40

P01 P11 P21 P31 P41

P02 P12 P22 P32 P42

P03 P13 P23 P33 P43

P04 P14 P24 P34 P44

Recordando un poco la definición de espacio muestral.....veamos la FILA 2 de la matriz anterior: P(Xt

0 / Xt 1) P(Xt 1 / Xt 1) P(Xt

2 / Xt 1) P(Xt

3 / Xt 1) P(Xt

Cada fila de Pij corresponde a un espacio muestral

P10 + P11 + P12 + P13 + P14 = 1

4 / Xt 1)

1

EN RESUMEN …

Las probabilidades de transición definen la matriz P = [pij] que satisface 1)

pij

(n)

0

i, j, n

M 2)

pij j o

( n)

1

i, n

MATRICIALMENTE…

n 00

n ij

P

n 0M

p ... p : : : n n pM 0 ... pMM

EJEMPLO DE MATRIZ DE TRANSICIÓN DE “UN PASO”

Después de muchos estudios sobre el clima, se ha visto que si un

día está soleado, en el 70% de los casos el día siguiente continua soleado y en el 30% se pone nublado. Además, si un día está nublado, la probabilidad de que esté soleado el día siguiente es 0,6 y la probabilidad de que se ponga nublado es 0,4. Si hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado?

EJEMPLO DE MATRIZ DE TRANSICIÓN DE “UN PASO” (2) Estados:

Soleado y Nublado

Periodo de transición entre estados:

P(X1 = nublado/ X0 = nublado)=

0.4

P(X1 = nublado/ X0 = soleado)=

0.3

P(X1 = soleado/ X0 = nublado)=

0.6

P(X1 = soleado/ X0 = soleado)=

0.7

Pt t 1

=

Un día

Estados

Soleado

Nublado

Soleado

0,7

0,3

Nublado

0,6

0,4

EJEMPLO DE MATRIZ DE TRANSICIÓN DE “UN PASO” (3) Ley Inicial del Sistema: Hoy está nublado (condición inicial) y por tanto la ley inicial es:

(0) P( X 0 soleado) 0 P( X 0 nublado) 1 nublado(0) soleado

(0)

(0),

soleado

(0)

nublado

0,1

La pregunta entonces es, dada la ley inicial en t = 0, hallar las Leyes de Probabilidad un día después, es decir, en t = 1. Para lograr esto debemos recordar el Teorema de Probabilidad Total, que lo aplicaríamos de la siguiente forma:

EJEMPLO DE MATRIZ DE TRANSICIÓN DE “UN PASO” (4)

P(X1 nublado) P( X1 nublado/ X 0 nublado)xP( X 0 nublado) P( X1 nublado/ X 0 soleado)xP( X 0 soleado) Por lo tanto:

P(X1 nublado) ( 0.4 )x(1) ( 0.3 )x( 0 ) 0.4 Se puede notar que mañana hay más probabilidad de que esté el día soleado. Si calcula en este caso P (X1 = soleado) se dará cuenta que es igual al 0.6, y por lo tanto la Ley de Probabilidades el día de mañana dada la condición inicial de nublado será :

(1)

(1),

soleado

(1)

nublado

0.6, 0.4

EJEMPLO DE MATRIZ DE TRANSICIÓN DE “UN PASO” (5) CONCLUSIÓN

0.7 0.3 soleado( 0 ), nublado( 0 ) * 0.6 0.4 Estado Inicial del Sistema

Matriz de Transición

( 1 ),

soleado

Probabilidad del Estado final del sistema

En general, se tiene que para cualquier cadena de Markov`

(1)

( t 1) (n)

(1)

nublado

( 0 )xP10

( t )Ptt 1

( 0)xP10P12 .. Pnn 1

( 0 )Pn

Departamento de Ciencias de la Ingeniería y Producción Pontificia Universidad Javeriana

Ejercicios de construcción de matrices de transición

Juego de apuestas

En el tiempo 0 tengo $ 2 y en los tiempos 1,2,3,... participo en un juego en el que apuesto $1. Gano el juego (y gano $1) con probabilidad p y lo pierdo (perdiendo lo apostado) con probabilidad 1-p. Mi meta es aumentar mi capital hasta $4 y tan pronto lo logre me salgo del juego. También salgo cuando me arruine (capital $0).

El Profesor Un profesor de Modelos Estocásticos tiene tres preguntas claves en sus exámenes y una de ellas sale en cada examen que él realiza. Los estudiantes conocen muy bien sus extraños hábitos: Él nunca utiliza la misma pregunta en dos exámenes consecutivos. Si utilizó la pregunta No. 1 en el último examen, arroja una moneda al aire y si sale cara usa la pregunta No. 2. Si había usado la pregunta No. 2, arroja dos monedas al aire y si salen dos caras, utiliza la pregunta No. 3 y, finalmente, si había usado la pregunta No. 3, arroja tres monedas al aire y si salen tres caras, usa la pregunta No. 1. Elabore la matriz de transición de un paso para el problema descrito anteriormente.

Costurera Una costurera trabaja exclusivamente en una fase del proceso de producción de un diseño especial de prendas de vestir. Esta fase requiere exactamente 30 minutos para terminar una prenda. Cada 30 minutos llega un mensajero a la mesa de la costurera para recoger todas aquellas prendas que estén terminadas y para entregar las nuevas prendas que deben ser cosidas. El número de nuevas prendas que lleva el mensajero es aleatorio: 30% del tiempo el mensajero llega sin prendas; 50% del tiempo el mensajero trae una sola prenda para dejar y el 20% restante del tiempo el mensajero trae dos prendas para la costurera. Sin embargo, el mensajero tiene instrucciones de nunca dejar más de tres prendas (si es que las llevase) juntas no terminadas a la costurera y simplemente llevarlas a otra costurera que sí tenga capacidad.

Grupo Musical Un estudiante que vio el curso de modelos estocásticos ha decidido dedicarse a la música, y junto a unos amigos formó el grupo “Jorge y los Markovianos”. Actualmente se limitan a tocar los fines de semana en algunos bares de la capital, siendo una de tantas bandas desconocidas que existen en el país. Cada mes existe una probabilidad q que un empresario de algún sello musical nacional los escuche y decida apoyarlos para grabar y realizar giras para cantar de Arica a Punta Arenas. Si tal cosa ocurre pasarían a ser una banda conocida a nivel nacional. Una banda que es conocida a nivel nacional corre el riesgo de perder el apoyo del sello nacional que la patrocina, con lo cual volvería a ser una banda desconocida. Cada mes, la probabilidad que esto ocurra es r. Por otro lado, una banda conocida a nivel nacional puede llegar a llamar la atención del representante de un sello musical internacional, el cual podría decidir patrocinarlos. De ser así la banda pasaría a ser conocida a nivel internacional. Cada mes existe una probabilidad s que esto ocurra (s +r < 1).

Grupo Musical Una banda que es conocida internacionalmente nunca dejará de serlo. Sin embargo podemos distinguir dos categorías entre ellas: las que están de moda y las que no. Una banda internacionalmente conocida que está de moda en un mes dado seguirá estando de moda al mes siguiente con probabilidad t. Una banda conocida a nivel internacional que no está de moda en un mes dado pasará a estar de moda al mes siguiente con probabilidad u. El primer mes que una banda se hace conocida a nivel internacional nunca está de moda. Una banda sólo percibe utilidades (equivalentes a K[$]) en los meses que es conocida internacionalmente y está de moda (parte de esas utilidades corresponden a una satisfacción de su ego). Construya una cadena de Markov que represente la trayectoria de la banda de Jorge y que permita predecir si en un mes dado percibirán utilidades o no

INTERPRETACIÓN MATRIZ DE PROBABILIDADES DE TRANSICIÓN Considere el ejemplo del valor de una acción. Al final de un día dado se registra el precio. Si la acción subió, la probabilidad de que suba mañana es 0.7. Si la acción bajó, la probabilidad de que suba mañana es sólo 0.5. Esta es una cadena de markov con los siguientes estados: Estado 0: el precio de la acción sube Estado 1: el precio de la acción baja

P

La matriz de transición está dada por

0.7 0.3 0.5 0.5

Ahora interprete esta matriz de transición Estado 0: la acción aumentó hoy y ayer. Estado 1: la acción aumentó hoy y ayer bajó. Estado 2: la acción bajó hoy y ayer aumentó Estado 3: la acción bajó hoy y ayer

P

0.9 0 0.1 0 0.6 0 0.4 0 0 0.5 0 0.5 0 0.3 0 0.7

Ejemplo: Considere el estado del tiempo donde el llover mañana depende si llovió o no ayer y hoy

Estado 0

Llovió ayer y hoy

Estado 1

No Llovió ayer y llovió hoy

Estado 2

Llovió ayer y No llovió hoy

Estado 3

No llovió ni ayer ni hoy

La matriz de transición de un paso es la siguiente: 0 - LL

P= Ayer y Hoy

0,7 0,5

0 0

0,3 0,5

0 0

0 0

0,4 0,2

0 0

0,6 0,8

0 - LL

1 - NL

2 - LN

3 - NN

1- NL

2 - LN 3 - NN

Hoy y Mañana 0,5

0,5

1

0,4 0,7

0

0,2

2

0,3 0,6 3

0,8

Suponga que le preguntan, cuál es la probabilidad de que llueva pasado mañana dado que llovió ayer y hoy? 0,7 0,5 0 0

2

P=

2

P=

0 0 0,4 0,2

0,3 0,5 0 0

0 0 0,6 0,8

0,49 0,35 0,20 0,10

0,12 0,20 0,12 0,16

LL

NL

X

0,7 0,5 0 0

0,21 0,15 0,20 0,10 LN

Hoy y Mañana

0 0 0,4 0,2

0,3 0,5 0 0

0,18 0,30 0,48 0,64 NN

0 0 0,6 0,8 LL NL Ayer y LN Hoy NN

P(llueva pasado mañana/ llovió ayer y hoy)= P(llueva mañana y pasado mañana / llovió ayer y hoy) + P(no llueva mañana y llueva pasado mañana / llovió ayer y hoy)

0.49 + 0.12 = 0.61

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cada semana. Sean D1, D2,…...las demandas de esta cámara durante la primera, segunda,…. semana respectivamente. Se supone que las Di son variables aleatorias independientes e idénticamente distribuidas que tienen una distribución de probabilidad conocida.

Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras que se tienen al final de la semana dos, etc. Suponga que X0 = 3 El sábado en la noche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política (s, S) para ordenar: si el número de cámaras en inventario al final de la semana es cero s = 0 (no hay cámaras en la tienda), ordenar hasta S = 3. De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido).

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (2) Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces, {Xt} para t = 0, 1, … es un proceso estocástico de la forma que se acaba de describir. Los estados posibles del proceso son enteros 0, 1, 2, 3 que representan el número posible de cámaras en inventario al final de la semana. Las Variables aleatorias Xt, son dependientes y se pueden evaluar en forma iterativa por medio de la expresión:

Xt

1

Max (3 - Dt 1 ), 0 si X t 1 Max ( X t - Dt 1 ), 0 si X t 1

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (3) Suponiendo que cada Dt, tiene una distribución Poisson con Donde Dt son las demandas de cámaras en la semana t

= 1,

Para obtener P00 es necesario evaluar: P{Xt = 0 / Xt-1 = 0}

Xt

1

Max (3 - Dt 1 ), 0 si X t 1 Max ( X t - Dt 1 ), 0 si X t 1

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (4) Si Xt-1=0

P00

Xt={Max(3-Dt+1), 0}

P Dt 3 1 P Dt 0 1 - P Dt 2 P Dt 1

P Dt

0 k

Dado que la demandase consideraPoisson Demanda

Probabilidad

2

(1)2e(-1)/2!= 0,18394

1

(1)1e(-1)/1!= 0,18394

0

(1)0e-(1)/0!= 0.367879

e k!

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (5)

P10 =:P{Xt = 0 / Xt-1 = 1} Si Xt-1=1

P10

Xt={Max(1- Dt), 0}

P Dt 1 1 P Dt 1 - 0,367879 0,632

0

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (5)

P21 =:P{Xt = 1 / Xt-1 = 2} Si Xt-1=2

P21 P D 1

Xt={Max(2-Dt), 0}

0.368

EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (7)

De forma similar se obtienen las demás probabilidades

ECUACIONES DE CHAPMAN - KOLMOGOROV

pij

(n)

M

pik ( m ) pkj( n

m)

i 0,1,...,M j 0,1,...,M

k o

m 1,2,...,n -1 n m 1, m 2,... Ir del estado i al estado j en n pasos, implica que el proceso podría estar en el estado k después de exactamente m pasos (m < n).

Pik(m): Probabilidad de ir del estado i al estado k en m pasos Pkj (n-m): Probabilidad de ir del estado k al estado j en (n-m) pasos M

M

Si m 1

pij

( n)

pik pkj

(n 1)

Si m n -1

pij

(n)

pik (n k o

k o M

Si n 2

pij (2)

pik pkj

P (2) P * P P 2

k o

P

(n)

(n-1)

PP

P

(n-1)

P P

n

1)

pkj

MATRIZ DE PROBABILIDADES DE TRANSICIÓN DE “N PASOS”

Pij

( 2)

Pij Pij

P00 P10 P20 P30 P40

P01 P11 P21 P31 P41

P02 P12 P22 P32 P42

P03 P13 P23 P33 P43

P04 P14 P24 P34 P44

P00 P10 P20 P30 P40

X

P01 P11 P21 P31 P41

P02 P12 P22 P32 P42

P03 P13 P23 P33 P43

P04 P14 P24 P34 P44

Y generalizando a “n pasos” ( n)

P00 P10 Pij Pij Pij ...... P P20 P30 n - veces Según la Ecuación de P40 ( n)

Pij (n)

( n)

ij

( n)

( n)

Chapman-Kolmogorov

( n)

( n)

( n)

( n)

P01 P11 P21 P31 P41

P02 P12 P22 P32 P42

P03 P13 P23 P33 P43

P04 P14 P24 P34 P44

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

( n)

Esta probabilidad suele ser útil cuando el sistema se encuentra en estado i y se desea la probabilidad de que el sistema se encuentre en el estado j después de n períodos de tiempo.

ECUACIONES DE CHAPMAN - KOLMOGOROV

ECUACIONES DE CHAPMAN - KOLMOGOROV

Cuando n no es muy grande la matriz de transición de n pasos se puede calcular fácilmente, pero si n es muy grande los cálculos resultan tediosos y los errores de redondeo pueden causar inexactitudes

La Matriz de Transición de 2 Pasos para el Caso del Almacén de Cámaras

P2

0.249 0.283 0.351 0.249

0.286 0.252 0.319 0.286

0.300 0.233 0.233 0.300

Cuál es la probabilidad

0.165 que teniendo ahora una 0.233 cámara haya exactamente cero 0.097 cámaras en inventario en 0.165 dos semanas?

Cuál es la probabilidad que teniendo ahora una cámara haya exactamente tres cámaras en inventario en dos semanas?

La Matriz de transición de 4 pasos

P4=

0.249 0.283 0.351 0.249

0.286 0.252 0.319 0.286

P4=

0.289 0.281 0.284 0.289

0.286 0.285 0.283 0.286

0.300 0.233 0.233 0.300

0.261 0.267 0.263 0.261

0.165 0.233 0.097 * 0.165

0.164 0.166 0.171 0.164

0.249 0.283 0.351 0.249

0.286 0.252 0.319 0.286

0.300 0.233 0.233 0.300

0.165 0.233 0.097 0.165

Por favor construir P8

Qué tiene de particular? Se dice que estas son las probabilidades del estado estable

PROBABILIDADES INCONDICIONALES Probabilidades del estado estable

n

(n) (0)

(0)P 0 (0)

1(0) ....

M (0)

pij( n )

P00(n) . . . (n) PM0

(n) ... P0M ... . ... . ... . (n) ... PMM

Si se desea la probabilidad incondicional P{Xn=j} es necesario que se especifique la distribución de probabilidad del estado inicial, o sea P{X0=i} para i desde 1 hasta M, entonces:

P{ X n

j } P{ X 0

0 }P0nj P{ X 0 1}P1nj ... P{ X 0

M }PMjn

Si en el ejemplo anterior, se supuso que el inventario inicial era tres cámaras, la probabilidad incondicional de que haya tres cámaras en inventario después de dos semanas es P{X2=3} = (1)p33(2)=0,165

LA EVOLUCIÓN DE UN PROCESO ESTOCASTICO ¿Cómo simular la evolución de un proceso estocástico caracterizado por la siguiente matriz de probabilidades de transición? P=

0.080 0.632 0.264 0.080

0.184 0.368 0.368 0.184

0.368 0.000 0.368 0.368

0.368 0.000 0.000 0.368

Recordando que cada fila corresponde a un Espacio Muestral definido.

Se debe analizar (ó simular) fila por fila de la matriz, según la información requerida acerca del proceso

1 0.632 0.264 0.080

fda (función de distribución acumulada) para la Fila 1 y Fila 4 Resultados posibles

LA EVOLUCIÓN DE UN PROCESO ESTOCASTICO Comportamiento simulado de los inventarios en cada una de las siguientes 100 semanas

Xo =3

Para simular la Semana 1,ó X1, se inicia simulando la Fila 4, dado que se observará la transición desde el estado 3. Pasos a seguir:

1 0.632 0.264 0.080

a) Genere un aleatorio entre 0 y 1 en Excel fda Fila 4

Simular lo que sucedería en las demás semanas

b) Tomo la decisión con este criterio: • Si ALEATORIO() ≤ 0.08

X1=0

• Si 0.08 < ALEATORIO() ≤ 0.264

X1=1

• Si 0.264 < ALEATORIO() ≤ 0.632 • Si 0.632 < ALEATORIO() ≤ 1

X1=2 X1=3

LA MATRIZ P(n) Y LOS ÁRBOLES DE DECISIÓN

A MATRIZ DE TRANSICIÓN DE UN PASO

0.2 0.5 0.3

P=

A B C

0.2 0.5 0.3

B

C

0.2 0.5 0.7 0.2 0.3 0.6

0.3 0.1 0.1

0.48 0.38 0.14 P(2)= P. P = 0.7 0.2 0.1 x 0.7 0.2 0.1 = 0.31 0.45 0.24 0.51 0.33 0.16 0.3 0.6 0.1 0.3 0.6 0.1

LA MATRIZ P(n) Y LOS ÁRBOLES DE DECISIÓN

0.2

A

0.2

A

0.5

B

0.3

C

0.7

A

0.2

B

0.1

C

0.3

A

0.6

B

0.1

C

0.5

B

A t=0

0.3

C t=1

Transición de t = 0 a t = 1

t=2

Transición de t = 1 a t = 2

LA MATRIZ P(n) Y LOS ÁRBOLES DE DECISIÓN Si se simbolizan los elementos de la matriz P(2) como:

A A

P(2) =

B C

p p p

( 2) AA ( 2)

BA ( 2)

CA

B ( 2)

p

AB

p p

( 2) BB ( 2)

CB

C ( 2)

p

AC

p p

( 2) BC ( 2)

CC

PAA(2)= (0.2) (0.2) + (0.5) (0.7) + (0.3) (0.3) = 0.48

PAB(2)= (0.2) (0.5) + (0.5) (0.2) + (0.3) (0.6) = 0.38 PAC(2)= (0.2) (0.3) + (0.5) (0.1) + (0.3) (0.1) = 0.14

TIEMPOS DE PRIMERA PASADA Con frecuencia es conveniente poder hacer afirmaciones en términos de probabilidades sobre el número de transiciones que hace el proceso al ir de un estado i a un estado j por primera vez.

Este lapso se llama tiempo de primera pasada al ir del estado i al estado j

TIEMPOS DE PRIMERA PASADA

Cuando j=1, este tiempo de primera pasada es justo el número de transiciones hasta que el proceso regresa al estado inicial i Ejemplo En el ejemplo del almacén de cámaras xi representa el número de cámaras al iniciar la semana t {xt} para t=1, 2, … , n es un proceso estocástico

El número posible de cámaras en inventario al final de la semana t son: Estados posibles del sistema [ 0 1 2 3 ] Suponga que ocurrió lo siguiente:

X0=3, X1=2, X2=1, X3=0, X4=3, X5=1, En este caso, • el tiempo de primera pasada para ir del estado 3 al estado 1 es dos semanas • Y el tiempo de recurrencia del estado 3 es cuatro semanas • El tiempo de primera pasada para ir del estado 3 al estado 0 es de tres semanas

TIEMPOS DE PRIMERA PASADA

0.48 0.38 0.14 0.31 0.45 0.24 (2) P = 0.51 0.33 0.16 Detalle el segundo elemento de la primera columna de la matriz P(2), 0.31, y el árbol de decisión del cual resulta. Note que, según el árbol

p

(2)

BA

( 0.7 )( 0.2 ) ( 0.2 )( 0.7 ) ( 0.1 )( 0.3 ) 0.31

Ahora, si se desea encontrar la probabilidad de pasar por primera vez del estado B al estado A, después de 2 períodos de tiempo, ésta probabilidad viene dada por:

f

(2) BA

( 0.2 )( 0.7 ) ( 0.1 )( 0.3 ) 0.17

f

(2) BA

(2) pBA

1 1) f BA p(AA 0,31 0,14 0,17

PROBABILIDADES DE PRIMERA PASADA 0.2 0.7

A B C

0.5

A

0.3 0.7

B

0.2

B

A B C

0.2 0.1 0.3

t=0 0.1

t=1

p

(n)

ij

f

(n) ij

p p

f

ij

*

p

( n 1) ji

f f

(2)

ij

t=2

(1)

(1)

ij

A B C

0.6 0.1

C

fij(n) denota la probabilidad de que el tiempo de primera pasada del estado i al estado j sea n

f

(2) ij

*

p

(1) ij (2) ij

(n 2) ji

p f

ij

...

(1) ij

f

*

p

( n 1) ij

jj

*

p

ji

PROBABILIDADES DE PRIMERA PASADA

f f

f

(n) ij

p

(n)

ij

f

(1) ij

(1)

(1)

p p

ij (2) ij

*

p f

ij

ij

(2)

ij

p

( n 1) ji

f

(1) ij

(2) ji

*

*

p

p

ji

(n 2) ji

...

f

( n 1) ij

*

p

ji

PROBABILIDADES DE PRIMERA PASADA

Para i y j fijos las fij son números no negativos tales que

n 1 Si

n 1

Si

n 1

(n) f ij

(n) f ij

(n) f ij

1

1

Un proceso que al iniciar en i puede no llegar nunca al estado j

1

Las fij(n) para n=1, 2, … pueden considerarse como una distribución de probabilidad para la variable aleatoria, el tiempo de primera pasada

TIEMPOS DE PRIMERA PASADA

Mientras que puede ser difícil calcular fij(n) para toda n, es relativamente sencillo obtener el tiempo esperado de primera pasada del estado i al estado j

si

(n)

1

(n)

1

nfij n 1

ij

nfij n 1

(n)

si

nfij n 1

TIEMPOS DE PRIMERA PASADA

Valor esperado del tiempo de primera pasada del estado i al estado j

nfij (n) 1

si n 1

ij

1

pik k j

kj

TIEMPOS DE PRIMERA PASADA

Ejemplo P=

0.080 0.632 0.264 0.080

0.184 0.368 0.368 0.184

0.368 0.000 0.368 0.368

ij

Para calcular el tiempo esperado hasta que ya no se tengan cámaras en el almacén podemos usar las anteriores ecuaciones

0.368 0.000 0.000 0.368

1

pik

kj

k j

30 20

10

1 p31 1 p21 1 p11

10 10

10

p32 p22 p12

20 20

20

p33 30 p23 30 p13 30

TIEMPOS DE PRIMERA PASADA

La solución simultanea a este sistema es:

El tiempo esperado para que el almacén se quede sin cámaras es 1.58, 2.51 y 3.50 semanas, dado que el proceso inicia con 1, 2 o 3 cámara respectivamente

DIAGRAMA DE TRANSICIÓN DE ESTADOS

El diagrama de transición de estados (DTE) de una Cadena de Markov es un grafo dirigido cuyos nodos son los estados de la Cadena y cuyos arcos se etiquetan con la probabilidad de transición entre los estados que unen. Si dicha probabilidad es nula, no se pone arco.

i

qij

j

EJEMPLO: LÍNEA TELEFÓNICA Sea una línea telefónica de estados ocupado=1 y desocupado=0. Si en el instante t está ocupada, en el instante t+1 estará ocupada con probabilidad 0,7 y desocupada con probabilidad 0,3. Si en el instante t está desocupada, en el t+1 estará ocupada con probabilidad 0,1 y desocupada con probabilidad 0,9.

Q

0,9 0,1 0,3 0,7

0,1 0,9

0

1 0,3

0,7

GRAFOS

Clasificación de Estados

CLASIFICACIÓN DE ESTADOS DE UNA CADENA DE MARKOV EJEMPLO: Suponga que un jugador tiene $1 y que cada jugada paga $1 con probabilidad p>0 ó pierde $1 con probabilidad 1-p. El juego termina cuando el jugador acumula $3 ó bien cuando quiebra. Este juego es una cadena de Markov en la que los estados posibles son la fortuna del jugador, es decir, $0, $1, $2 y $3.

P=

Estados accesibles

0 1 2 3

0 1 1-p 0 0

1 0 0 1-p 0

2 0 p 0 0

3 0 0 p 1

Un estado j es accesible desde un estado i si Pij(n)>0 para alguna n. Ej: el estado 2 no es accesible desde el 3, mientras que el estado 3 si es accesible desde el 2.

Estados que se comunican

Si el estado i es accesible desde el estado j, y el estado j es accesible desde el estado i, entonces se dice que los estados j e i se comunican. Ej: en el ejemplo del jugador observe que el estado 2 es accesible desde el estado 1, y el estado 1 es accesible desde el estado 2, por lo tanto los estados 1 y 2 se comunican.

2. Si el estado i se comunica con el estado j, el estado j se comunica con el estado 1

3. Si el estado i se comunica con el estado j y el estado j se comunica con el estado k, entonces el estado i se comunica con el estado k

Definición de Clase

Si varios estados se comunican entre sí se dice que ellos forman una Clase. Por lo tanto, en el espacio de estados de una Cadena de Markov pueden haber varias clases. Ej: En el ejemplo del jugador existen 3 clases: Clase 1: Estados 1 y 2, Clase 2: Estado 3 y Clase 3: Estado 0.

Clases recurrentes

Una clase es recurrente si no es posible saltar a otra clase a partir de ella. Ej: En el ejemplo del jugador, las clases 2 y 3 son recurrentes. En general, en las clases ó estados recurrentes, la probabilidad de que el proceso habiendo salido de un estado i regrese en cualquier tiempo a ese mismo estado es 1. Las clases 2 y 3 anteriores son tipos especiales de clases recurrentes y se les llama generalmente clases recurrentes absorbentes.

Clases Transitorias

Una clase es transitoria si a partir de ella es posible saltar a otra clase. Ej: En el ejemplo del jugador, la clase 1 es transitoria.

Cadena de Markov Irreducible

Una cadena de markov es irreducible si todos los estados se comunican, formando así una única clase, siendo por tanto ésta una clase recurrente.

Se demuestra que una Cadena Markov sólo puede pasar por un estado transitorio como máximo una cantidad finita de veces. En cambio, si visitamos un estado recurrente, entonces lo visitaremos infinitas veces.

Las clases recurrentes están formadas por estados recurrentes Las clases transitorias están formadas por estados transitorios

Cerrada: Si desde un estado interior no se puede alcanzar ningún estado exterior a la Clase. Un estado absorbente es una clase cerrada con un único estado

Irreducible: Clase cerrada tal que ninguna subclase propia es cerrada. En otros términos, la única clase cerrada es la de todos los estados •Dos estados pertenecen a un mismo conjunto si se comunican • Dos clases deben ser disjuntas, pues si existe algún elemento común, los estados de una clase se puedan comunicar con los de la otra y así resultan de la misma clase

El concepto de comunicación divide el espacio de estados en clase ajenas, es decir, que 2 clases son idénticas o disjuntas Ningún estado puede pertenecer a dos clases distintas

De dos estados que se comunican entres si se dicen que pertenecen a la misma clase

i

i

j k

j i

n n n

j k k

Sólo hay una clase (por transitividad)

Definición Una matriz de una clase se dice irreducible

0

1

2

1/4 1/2

0 12 12 0 P 1 1 2 14 14 2 0 1 2 3 3 0 1 P 2 3

0 1 2 3 1 1 2 2 0 0 1 1 2 2 0 0 1 1 1 1 4 4 4 4 0 0 0 1

1

1/2 1/2

1/4

0

2/3

Sólo hay una clase

2 1/3 1/2

1/2 0

1

Hay tres clases

1/2 1/4

1/4

1/4

1/4 2

3 1

Definición Sea para un estado i, fii la probabilidad de que el proceso regrese al estado i dado que comienza en el estado i

• El estado i se llama recurrente sí fii = 1 • El estado i se llama transitorio sí fii < 1

Un caso especial de un estado recurrente es un estado absorbente sí una vez que se entra en él no se puede abandonar

0

1 2 3 4 0 1 3 4 4 0 0 0 1 1 1 2 2 0 0 0 P 2 0 0 1 0 0 3 0 0 1 2 0 3 3 4 1 0 0 0 0

Ejemplo

1/2

1/2 1 1/4

1 2 1/3

3/4

0

3

1 4

2/3

El estado 2 es un estado absorbente (por lo tanto un estado recurrente), porque una vez que el proceso entra al estado 2 nunca regresará

Los estados 3 y 4 son transitorios porque una vez que el proceso se encuentra en el estado 3, existe una probabilidad positiva de que nunca regresará

Los estados 0 y 1 son recurrentes. Se puede demostrar que f00=1 y f11 = 1. Esto no es sencillo y puede mostrar de la siguiente manera

Observe que la matriz de n pasos es de esta forma, en donde los asteriscos (*) representan números positivos

0 1 P 2 3 4

0 * * 0 0 1

1 * * 0 0 0

2 0 0 1 * 0

3 0 0 0 * 0

4 0 0 0 0 0

Es intuitivamente evidente que el estar en el estado 0 o 1 se regresará a estos mismos Hacer en Excel

Una clase es recurrente si no se puede salir de ella.

Una clase es transitoria si se puede salir de ella y no hay forma de regresar

Definición El periodo de un estado i se define como el entero t (t > 1) si Piin = 0 para todos los valores de n distintos de t, 2t, 3t, /// y t es el entero más grande con esa propiedad

El estado i sólo puede ser visitado en pasos múltiples de t

Ejemplo 0 1 2 0 0 12 12 P 1 1 0 0 2 1 0 0

Realización:

0 1 0

1 0

1 1/2

1/2 1

2

Sólo hay una clase recurrente con período 2

2 0 2 0 1 0 2 0

Siempre se pasa en un número múltiplo de 2

0 P

2

2

0 1 0 0 1 0 12 12 2 0 1 1 2 2

0 P4

1

1

P3

0 1 2 0 0 12 12 1 1 0 0 2 1 0 0

2

0 1 0 0 1 0 12 12 2 0 1 1 2 2

El proceso tiene período 2 P2n+1 = P P2n = P2

PERIODICIDAD DE LAS CLASES RECURRENTES

Para una clase recurrente se puede obtener el período (p) como el máximo común divisor (MCD) de las longitudes de los ciclos que pueden encontrarse en esa clase. Partiendo de la observación de un grafo, un ciclo es una ruta que sale de un estado y regresa a él mismo. Vamos a digerir un poco este concepto con ejemplos...

PERIODICIDAD DE LAS CLASES RECURRENTES

Para determinar el periodo de esta y de cualquier clase recurrente pueden obviares los valores de las probabilidades a los arcos y únicamente observar los ciclos existentes. Las longitudes de dichos ciclos son •Ciclos de longitud 2 (3 – 4 – 3 o 5 – 4 – 5 • Ciclos de longitud 3 (3 – 4 – 5 – 3) MCD (2, 3) = 1, ] el periodo es 1

PERIODICIDAD DE LAS CLASES RECURRENTES

A

B

D

C

En este caso pueden observarse las siguientes longitudes de ciclo

•Ciclos de longitud 2 B – C – B • Ciclos de longitud 4(B – C – D – A – B) •Ciclos de longitud 6(A – B – C – D – C – B – A) MCD (2, 4, 6)= 2 ] Periodo p=2

PERIODICIDAD DE LAS CLASES RECURRENTES

A

B

D

C

En este caso por existir un ciclo de longitud 1 (B – B), el máximo común divisor será de cualquier forma también igual a 1, y por tanto se dice que esta clase recurrente tiene periodo p=1

EJEMPLO DE UNA CADENA PERIÓDICA DE PERIODO K=3

A2

A1

A3

CADENAS ERGÓDICAS a

b 0

c

d 0

e 0 0

Clasificación de estados

1 a 12 2 b 0 14 0 3 4 Q c 0 0 13 0 2 3 d 14 12 0 14 0 e 13 0 13 0 13

Recurrentes

a, c, e

Transitorios

b, d

Periódicos

ninguno

Absorbentes ninguno

1/3

1/4 1/2

b 1/2

a

3/4

d 1/4

1/4

c

1/2

2/3

1/3

1/3

e 1/3

QUE TIPO DE CADENA ES? 1.

2. Irreducible, aperiódica, recurrente y ergódica.

Irreducible, recurrente y periódica de periodo 3. No es ergódica.

3. Irreducible, aperiódica, recurrente y ergódica

QUE TIPO DE CADENA ES? 4.

1

2 5.

4

3

No es irreducible, y por tanto no es de ninguno de los demás tipos. 1 y 4 son recurrentes; 2 y 3 son transitorios

Irreducible, recurrente y periódica de periodo 3. No es ergódica

PERIODICIDAD DE LAS CLASES RECURRENTES Clase recurrente aperiódica: aquella que tenga período p = 1. Clase recurrente periódica: aquella que tenga período p > 1. Cuando una cadena de markov finita homogénea posee una única clase la cual es recurrente aperiódica, se dice que la cadena es ergódica ó totalmente aleatoria. Una cadena de markov finita homogénea es semiergódica si tiene varias clases, entre las cuales pueden haber una o más clases transitorias pero tan solo una clase recurrente aperiodica.

PERIODICIDAD DE LAS CLASES RECURRENTES

• Si hay varias clases recurrentes, todas ellas aperiodicas, se tiene una cadena de markov semiregular. • Si hay una ó varias clases recurrentes, todas ellas periódicas, se tiene una cadena de markov policíclica. • Si hay varias clases recurrentes, algunas periódicas y otras aperiodicas, se tiene una cadena de markov mixta.

ESTADOS ABSORBENTES Y PROBABILIDADES DE ABSORCIÓN El estado k es absorbente si pkk=1 fik: Probabilidad de llegar al estado k dado que en algún momento se encontraba en el estado i Considera todas las probabilidades de la primera transición Considera la probabilidad condicional de absorción al estado k

M

f ik

pij f jk j 0

Sujeta a las condiciones:

f kk f ik

1 0,

si el estadoi es recurrentei k

i

ESTADOS ABSORBENTES Y PROBABILIDADES DE ABSORCIÓN Si se inicia en el estado 2, la probabilidad de perder todo, es decir pasar al estado 0 viene dada por

f 00 1 f10

2 1 f 00 f 20 3 3

f 20

2 1 f10 f 30 3 3

f 30

2 1 f 20 f 40 3 3

f 40 0

f 20

2 2 1 f 20 3 3 3

1 2 1 f 20 (0) 3 3 3

f 20 1 / 5 0

1

2

3

4

0

1

0

0

0

0

1

2/3

0

1/3

0

0

2

0

2/3

0

1/3

0

3

0

0

2/3

0

1/3

4

0

0

0

0

1

ESTADOS ABSORBENTES Y PROBABILIDADES DE ABSORCIÓN Si se inicia en el estado 2, la probabilidad de ganar todo, es decir pasar al estado 4 viene dada por

f 04 0 f14

2 1 f04 f 24 3 3

f 24

2 1 f14 f 34 3 3

f 34

2 1 f 24 f 44 3 3

f 44 1

f 24

2 1 f 24 3 3

1 2 1 f 24 3 3 3

f24 1 / 5

PROBABILIDADES DE ESTADO ESTABLE Es de interés ahora conocer la probabilidad de hallar el sistema en un estado determinado cuando lleva evolucionando el proceso un tiempo indefinidamente largo. A tales probabilidades se les denomina probabilidad de estado estable. El estudio de las probabilidades de estado estable se entiende por tanto como el estudio del comportamiento a largo plazo de las Cadenas de Markov. A las probabilidades estacionarias se les simboliza como πj

P=

0.080 0.632 0.264 0.080

0.184 0.368 0.368 0.184

0.368 0.000 0.368 0.368

0.368 0.000 0.000 0.368

(8)

P* = P =

π0

π1

0.286 0.286 0.286 0.286

0.285 0.285 0.285 0.285

π2

0.264 0.264 0.264 0.264

π3

0.166 0.166 0.166 0.166

CONCEPTO DE ERGODICIDAD DE BOLTZMAN Ejemplo de ergodicidad comentado por Caldentey y Mondschein de la Universidad de Chile. Supongamos que disponemos de dos estanques A y B unidos por una tubería, la que contiene una llave de paso originalmente cerrada. un equilibrio se alcanza

el estado final que ha alcanzado el sistema es independiente de las condiciones iniciales

El estanque A contiene oxigeno a una presión Pa y el B helio a una presión Pb. Si la válvula se abre las moléculas de oxigeno evolucionan hacia el estanque B, mientras que las de helio lo hacen hacia el estanque A.

CÁLCULO DE PROBABILIDADES ESTACIONARIAS Forma 1 de Calculo

Multiplicando por si misma a la Matriz inicial de Probabilidades de Transición, hasta que la matriz resultante después de muchas transiciones se estabilice en unos valores de probabilidad definidos.

Forma 2 de Calculo

Empleando el simple concepto de Probabilidad Total

P(A) = P(A) P(A/A)+P(B) P(A/B) + P(C) P(A/C) + P(D) P(A/D) + … π0 = π0 poo + π1 p1o + π2 p2o + π3 p3o π1 = π0 po1 + π1 p11 + π2 p21 + π3 p31 π2 = π0 po2 + π1 p12 + π2 p22 + π3 p32 π3 = π0 po3 + π1 p13 + π2 p23 + π3 p33 π0 + π1 + π2 + π3 =1

M j

i

pij

i 0

M i i 0

1

j

CÁLCULO DE PROBABILIDADES ESTACIONARIAS

P=

0.080 0.632 0.264 0.080

0.184 0.368 0.368 0.184

0.368 0.000 0.368 0.368

0.368 0.000 0.000 0.368

π0 = 0.286

π1 = 0.285

π2 = 0.264

π3 = 0.166

CÁLCULO DE PROBABILIDADES ESTACIONARIAS Con las probabilidades estacionarias ya calculadas, puede calcularse el tiempo de la primera recurrencia de un estado, es decir, el tiempo de que un estado i vuelva a ese mismo estado por primera vez. A estos tiempos suelen denominarse tiempos de primera pasada y se simbolizan por μjj.

1 jj j

El caso de la movilidad de clases sociales. Suponga

que

en

la

sociedad

sólo

existen

los

estratos

económicos Alto, Medio y Bajo

A continuación se muestra la matriz de transición de un

paso,

es

decir

la

probabilidad de pasar en una generación de una

clase social a otra

Estado 0 Clase Alta Estado 1 Clase Media Estado 2 Clase Baja

Hijos A M B A 0.45 0.48 0.07 P M 0.05 0.7 0.25 B 0.01 0.5 0.49

Por ejemplo, el 1% de las personas que tuvieron padres de clase Baja logran ser personas de clase Alta

Recordar que

= P

0.45 0.48 0.07 * 0.05 0.7 0.25 0.01 0.5 0.49 Las ecuaciones del estado estable

B

P A PAM A PAB

A

M

A M

A AA

B

PMA M PMM M PMB 1

M

P

B BA

P B PBB

B BM