









Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
CADENAS DE MARKOV, CONCEPTOS BASICOS, INTRODUCCION
Tipo: Diapositivas
1 / 16
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Introducció n a las cadenas de Markov
Definición de cadenas de Markov Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad,…
Elementos de una cadena de Markov Probabilidad es de transición Distribución inicial M estados Ciclo de markov (“paso”) Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Entre estados, en un ciclo (matriz P) Del sistema entre los M estados posibles 01 02 03 04
PROPIEDAD MARKOVIANA P(n) es la matriz de transición en n pasos, de orden (M+1)x(M+1)
PROPIEDAD MARKOVIANA
LAS CADENAS DE MARKOV SON UN CASO PARTICULAR DE MODELOS DE MARKOV
Tipos de modelos de Markov: Procesos de Markov (Modelos semi-markovianos): Las probabilidades de transición entre estados pueden variar a medida que transcurren más ciclos Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad Cadenas de Markov: Las probabilidades de transición se suponen constantes a lo largo del tiempo