Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

CADENAS DE MARKOV CONCEPTOS BASICOS, Diapositivas de Investigación de Operaciones

CADENAS DE MARKOV, CONCEPTOS BASICOS, INTRODUCCION

Tipo: Diapositivas

2022/2023

Subido el 25/04/2023

jessica-alejandra-osuna-rocha
jessica-alejandra-osuna-rocha 🇲🇽

1 documento

1 / 16

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Osuna Rocha Jessica Alejandra
Introducció
n a las
cadenas de
Markov
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff

Vista previa parcial del texto

¡Descarga CADENAS DE MARKOV CONCEPTOS BASICOS y más Diapositivas en PDF de Investigación de Operaciones solo en Docsity!

Osuna Rocha Jessica Alejandra

Introducció n a las cadenas de Markov

Definición de cadenas de Markov Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad,…

Proceso

s

Estocás

ticos

  • Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad.
  • Normalmente el índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t.
  • El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo.
  • Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...}
  • (^) Serie mensual de ventas de un producto
  • (^) Estado de una máquina al final de cada semana

(funciona/averiada)

  • (^) Nº de clientes esperando en una cola cada 30

segundos

  • (^) Marca de detergente que compra un consumidor

cada vez que hace la compra. Se supone que

existen 7 marcas diferentes

  • (^) Nº de unidades en almacén al finalizar la semana

Elementos de una cadena de Markov Probabilidad es de transición Distribución inicial M estados Ciclo de markov (“paso”) Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Entre estados, en un ciclo (matriz P) Del sistema entre los M estados posibles 01 02 03 04

PROPIEDAD MARKOVIANA P(n) es la matriz de transición en n pasos, de orden (M+1)x(M+1)

PROPIEDAD MARKOVIANA

LAS CADENAS DE MARKOV SON UN CASO PARTICULAR DE MODELOS DE MARKOV

Tipos de modelos de Markov: Procesos de Markov (Modelos semi-markovianos): Las probabilidades de transición entre estados pueden variar a medida que transcurren más ciclos Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad Cadenas de Markov: Las probabilidades de transición se suponen constantes a lo largo del tiempo