Want to create interactive content? It’s easy in Genially!

Get started free

Cadenas de Markov ECR

Edgar Cruz

Created on September 20, 2023

Start designing with a free template

Discover more than 1500 professional designs like these:

Audio tutorial

Pechakucha Presentation

Desktop Workspace

Decades Presentation

Psychology Presentation

Medical Dna Presentation

Geometric Project Presentation

Transcript

cadenas de markov

Autor/a: Cruz Rodriguez Edgar
20/09/2023

Matemático(1856 Ryazan, Rusia, 1922 San Petersburgo, Rusia) Andrei Andreyevich Markov nació el 14 de junio de 1856 en Ryazan, Rusia y murió el 20 de julio de 1922 en Petrogrado, ahora San Petersburgo.

¿que son?

01. RESUMEN

Cadenas de markov

Una cadena de Marvok es un proceso evolutivo que consiste de un número finito de estados en cual la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior con unas probabilidades que están fijas

caracteristicas principales

caracteristicas

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria, "Recuerdan" el ultimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra,los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

donde se aplica

En ingeniería de carreteras, las cadenas de Markov se han aplicado principalmente en el desarrollo de modelos probabilísticos para estimar el deterioro de pavimentos y de otros activos viales. Estas aplicaciones han sido recurrentes en los Estados Unidos de América y en otros países desarrollados, sin embargo, en México no parece haber experiencia alguna al respecto. Lo anterior resulta en cierto modo paradójico ya que, por una parte, nuestro país adolece la falta de modelos de deterioro adaptados a las condiciones de nuestras carreteras y, por otra, la aplicación de las cadenas de Markov es relativamente sencilla, si bien es cierto que su uso generalizado requiere de un volumen importante de información histórica que, en muchos casos, no se encuentra disponible.

¿cual es el objetivo de aplicacion?

04. HIPÓTESIS

Una cadena de Markov se puede utilizar para modelar el estado de los equipos, como una máquina utilizada en un proceso de fabricación. Supongamos que los estados posibles para la máquina son Trabajo inactivo y en espera (I) Trabajo en un trabajo/tarea (W) Roto (B) En reparación (R) La máquina es monitoreada a intervalos regulares para determinar su estado; para facilitar la interpretación en este problema, asumimos que el estado se monitorea cada hora. La matriz de transición se muestra a continuación:

¿como se usa?

Considere las matrices de transición C y D para las cadenas Markov que se muestran a continuación. ¿Cuál de las siguientes cadenas de Markov es una cadena de Markov absorbente? \ [\ mathrm {C} =\ left [\ begin {array} {llll} .1 & .3 & .4 & .2\ 0 & .2 & .1 & .7\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 1 \ end {array}\ derecha]\ quad\ mathrm {D} =\ left [\ begin {array} {lllll} 1 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0\\ .2 & .2 & .2 & .2 & .2\\ 0 & 0 & 0 & 0 & 0 & 0 & .3 & .7\ 0 & 0 & 0 & 0 & .6 & .4 \ end {array}\ derecho]\ nonumber\] Solución C es una cadena de Markov absorbente pero D no es una cadena de Markov absorbente. La matriz C tiene dos estados absorbentes, S 3 y S 4, y es posible llegar al estado S 3 y S4 desde S 1 y S2. La matriz D no es una cadena de Markov absorbente. Tiene dos estados absorbentes, S 1 y S2, pero nunca es posible llegar a ninguno de esos estados absorbentes desde S 4 o S 5. Si se encuentra en el estado S 4 o S 5, siempre permanece en transición entre los estados S 4 o S 5m y nunca podrá ser absorbido en ninguno de los estados S1 o S2 En el resto de esta sección, examinaremos la absorción de las cadenas de Markov con dos problemas clásicos: el problema de la caminata del borracho aleatorio y el problema de la ruina del jugador. Y finalmente concluiremos con un modelo absorbente de Markov aplicado a una situación del mundo real.