Cadenas de Markov (Ejercicios Resueltos)

26/10/2019  Cadenas de Markov (Ejercicios Resueltos) Navigation Gestión de Operaciones Blog sobre la Gestión e Inve

Views 338 Downloads 0 File size 653KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

26/10/2019



Cadenas de Markov (Ejercicios Resueltos)

Navigation

Gestión de Operaciones Blog sobre la Gestión e Investigación de Operaciones con tutoriales y ejercicios resueltos.

   

Cadenas de Markov (Ejercicios Resueltos) por GEO Tutoriales el 31/08/2015 en Cadenas de Markov

189

1

Un proceso estocástico en tiempo discreto se denomina una Cadena de Markov en tiempo discreto si y solo sí se satisface la Propiedad Markoviana (esto es básicamente que el futuro t=n+1 es independiente del pasado dado el presente t=n) y Propiedad Estacionaria (la probabilidad de pasar de un estado

46

i a un estado j al cabo de una etapa no depende de la etapa n). A continuación presentamos un conjunto de problemas resueltos de Cadenas de Markov que sirvan de complemento para los estudios de nuestros usuarios.

Ejercicios Resueltos de Cadenas de Markov Ejercicio N°1: Una empresa esta considerando utilizar Cadenas de Markov para analizar los cambios en las preferencias de los usuarios por tres marcas distintas de un determinado producto. El estudio ha arrojado la siguiente estimación de la matriz de probabilidades de cambiarse de una marca a otra cada mes: BÚSQUEDAS PATROCINADAS

ejemplo de plan de empresa

analisis de estudio de mercado

aplicacion para ventas

ecuaciones problemas resueltos

Si en la actualidad la participación de mercado es de 45%, 25% y 30%, respectivamente. ¿Cuales serán las participaciones de mercado de cada marca en dos meses más?. En primer lugar definimos la variable aleatoria

que representa la marca que adquiere un cliente

cualquiera en el mes n. Dicha variable aleatoria puede adoptar los valores 1,2,3 en el mes n=0,1,2,3,.. https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

1/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

Alkosto

Adicionalmente conocemos cuál es la distribución inicial y la matriz de probabilidades de transición en una etapa tal como se observa a continuación:

189

46

Luego para conocer la distribución de las participaciones de mercado al cabo de 2 meses (2 etapas) podemos utilizar la fórmula

:

Se concluye que las cuotas de mercado (participaciones de mercado) en dos meses a cambiado de un 45% a un 40.59%; de un 25% a un 33.91% y de un 30% a un 25.50%, para las marcas 1,2 y 3 respectivamente. Ejercicio N°2: ¿Cuál es la cuota de mercado en el largo plazo para cada una de las marcas descritas en el Ejercicio N°1?. La Cadena de Markov del Ejercicio N°1 es irreducible (es decir todos los estados se comunican entre sí) con estados recurrentes positivos y aperiódicos. Lo anterior se concluye luego de la Clasificación de Estados de una Cadena de Markov en Tiempo Discreto. Verificado lo anterior podemos obtener la Distribución Límite de una Cadena de Markov en Tiempo Discreto a través del siguiente sistema de ecuaciones:

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

2/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

Alkosto

189

46

La

solución

del

sistema

corresponde

a:

y

,

,

que

representan las cuotas de mercado en el largo plazo para las marcas 1,2 y 3, respectivamente. Notar que las actuales participaciones de mercado difieren significativamente de las cuotas obtenidas en el largo plazo lo cual sugiere que de alguna manera deban ser corregidas las probabilidades de transición. Ejercicio N°3: En una Unidad de Cuidados Intensivos en un determinado hospital, cada paciente es clasificado de acuerdo a un estado crítico, serio o estable. Estas clasificaciones son actualizadas cada mañana por un médico internista, de acuerdo a la evaluación experimentada por el paciente. Las probabilidades con las cuales cada paciente se mueve de un estado a otro se resumen en la tabla que sigue:

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

3/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

Volver a reproducir

189

46

¿Cuál es la probabilidad que un paciente en estado crítico un día Jueves esté estable el día Sábado?.

Sea

la variable aleatoria que indica el estado que se

encuentra un paciente cualquiera en el hospital en el día n. Los valores posibles para dicha variable son C, S y E, representando los estados crítico, serio y estable, respectivamente. Un grafo que representa dicho proceso estocástico dada la tabla anterior es:

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

4/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

189

46

La probabilidad de que un paciente esté en estado crítico el día Jueves y que el día Sábado esté

estable, esta dado por:

, es decir, la probabilidad de

pasar del estado crítico al estado estable al cabo de 2 etapas (días).

Notar

que

de

forma

equivalente

se

pueden

utilizar

las

ecuaciones

matriciales

:

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

5/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

Se comprueba que la probabilidad de pasar del estado crítico al estado estable al cabo de 2 etapas es de un 17%. ¿Cuál es la probabilidad que un paciente que está en estado estable el Lunes experimente alguna complicación y no esté estable nuevamente el Miércoles?. 189 En este caso cambia la distribución inicial respecto al escenario anterior (ahora el paciente está en estado estable), no obstante, también resulta de nuestro interés analizar qué sucede al cabo de 2 46 etapas.

Con color verde se marca la probabilidad de que comenzando en un estado estable al cabo de 2 días un paciente se encuentre en estado crítico o serio. La suma de dichas probabilidades es un 66% que da respuesta a la interrogante anterior. ¿Qué porcentaje de la Unidad de Cuidados Intensivos usted diseñaría y equiparía para pacientes en estado crítico?. Naturalmente se desea estimar la probabilidades de estado en el largo plazo independiente de la distribución inicial. La cadena es irreducible con estados recurrentes positivos aperiódicos. Utilizando las ecuaciones de estado estable presentadas en el Ejercicio N°2 se obtiene que

,

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

y

6/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

, que representan la probabilidad de que un individuo se

encuentre en estado crítico, serio y estable, respectivamente. El software Interactive Operations Research Tutorial (IORTutorial) permite estimar las probabilidades de largo plazo luego de ingresar la matriz de probabilidades de transición según se 189 muestra a continuación:

46

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

7/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

189

46



Comentarios: En el Blog hemos desarrollado otros ejercicios resueltos que recomendamos revisar, entre ellos uno que aborda una Política de Gestión de Inventarios a través de Cadenas de Markov en Tiempo Discreto y Ejemplo de una Cadena de Markov en Tiempo Discreto. Adicionalmente en la categoría de contenidos de Cadenas de Markov periódicamente estamos publicando nuevo material didáctico sobre dicha materia. Esperamos que este material sea de utilidad para tus estudios y te agradecemos puedas ayudarnos a difundir éste a través de las redes sociales.

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

8/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

189

46

sssss

Rating: 5.0/5. From 8 votes.

¿Te intereso este Artículo? Suscríbete a nuestro Newsletter y únete a los otros que reciben periódicamente las novedades del Blog en su Email. Es GRATIS y sólo te tomará unos segundos. Email

ENVIAR

    Artículos Relacionados: Programación Lineal (Método Gráfico) Distribución Estacionaria de una Cadena de Markov en Tiempo Continuo Preguntas Frecuentes de Cadenas de Markov Cómo Resolver Gráficamente un Modelo de Programación Lineal con TORA Cómo Resolver Gráficamente un Modelo de Programación Lineal con IORTutorial

 Cadenas de Markov, distribución estacionaria, distribución inicial, estados, IORTutorial, matriz de transición, variable aleatoria

 Problema de Producción y Mezcla de Café en Programación Lineal Ejemplo Resuelto MRP (Plan de Requerimiento de Materiales) 

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

9/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

Un Comentario para Cadenas de Markov (Ejercicios Resueltos) Sandra Teresa Paterno

25/08/2017 en 4:54 #

RESPONDER 

Me ayudó la explicación. Mi trabajo se enfoca en un estudio sobre cantidad de trabajadores y juicios presentados. Saludos.

189

Deja un comentario 46

Nombre (requerido) Email (no será publicado) (requerido) Página Web

ENVIAR COMENTARIO

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

10/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

¿Qué Quieres Saber?. Busca en la Base de Datos de Gestión de Operaciones



Buscar...

POPULAR

ÚLTIMOS

TAGS

Cómo utilizar una Regresión Lineal para realizar un Pronóstico de Demanda 22/02/2014

Cálculo de Índice de Habilidad Cp e Índice de Capacidad Cpk en el Control Estadístico de

189

Procesos 05/01/2015

Ejemplo del Plan de Requerimientos de Materiales (MRP) 46

16/08/2011

Método de Descomposición aplicado para un Pronóstico de Demanda 02/06/2013

Cálculo del MAD y la Señal de Rastreo para un Pronóstico de Demanda 23/07/2011

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

11/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

BÚSQUEDAS PATROCINADAS

ejemplo de plan de empresa analisis de estudio de mercado aplicacion para ventas sistema de control de inventarios gestion inventario 189 Busca Artículos por Categoría 46

Cadenas de Markov (7) Congresos y Seminarios (3) Control de Gestión (1) Control Estadístico de Procesos (7) Estadística (7) General (7) Gestión de Calidad (20) Gestión de la Cadena de Suministro (7) Inventarios (23) Líneas de Espera (9) Mantenimiento (1) Plan de Requerimientos de Materiales (MRP) (8) Plan Maestro de la Producción (PMP) (7) Procesos (19) Programación de Trabajos (13) Programación Entera (42) Programación Lineal (84) Programación No Lineal (13) Proyección de Demanda (24) Proyectos (11) Revenue Management (4)

Busca Artículos por Etiquetas

análisis de sensibilidad asignación capacidad Carta Gantt costo de almacenamiento costo emisión CPM demanda distribución exponencial eoq estadística geogebra gestión de calidad gestión de operaciones grafico demanda inventarios

operaciones Producción (PMP)

Líneas de Espera MAD media móvil MRP

excel

investigación de

método simplex Plan Maestro de la

procesos producción programación de trabajos programación

programación entera mixta

entera

programación lineal programación no lineal proyeccion

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

12/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

de demanda Proyectos resolución gráfica ruta crítica series de tiempo solución básica factible

solver tiempo de ciclo transporte tutoriales ventas What'sBest! WINQSB Youtube Conéctate con Gestión de Operaciones Suscríbete a nuestro Newsletter y únete a los otros

que reciben periódicamente las novedades del

Blog en su Email. Es GRATIS y sólo te tomará unos segundos. ENVIAR

Email

   

189

46

Gestión de Operaciones Me gusta esta página

7576 Me gusta

Sé el primero de tus amigos en indicar que te gusta.

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

13/14

26/10/2019

Cadenas de Markov (Ejercicios Resueltos)

189

46

© 2019 Gestión de Operaciones. Todos los Derechos Reservados Nuestro Sitio esta Alojado en Bluehost

https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/

14/14