Entradas

Cadenas de Markov absorbentes

  Una cadena de Markov absorbente es un tipo de cadena en la que algunos estados son "absorbentes", es decir, una vez que se alcanzan estos estados, la cadena permanece en ellos indefinidamente. En otras palabras, estos estados actúan como trampas para la cadena, y una vez que se alcanzan, la cadena no puede salir de ellos. En este tipo de cadena, la matriz de transición tendrá algunos valores de probabilidad de 1 en la diagonal correspondientes a los estados absorbentes.   A continuación, describiré un ejemplo detallado de una cadena de Markov absorbente para modelar el proceso de una célula que se divide.   Supongamos que queremos modelar el proceso de una célula que se divide en dos células hijas. Supongamos que en cada iteración de este proceso, la célula puede estar en uno de tres estados: "viva", "en división" o "muerta". También supongamos que, una vez que la célula entra en el estado "en división", es absorbida en este e

Diagrama de recorrido del proceso - DRP

Matriz con probabilidades de estado estable

Diagrama de operaciones del proceso - DOP

Matriz de transición en "n" pasos

Introducción a los diagramas de procesos

Matriz de transición en un solo paso

Tipos de fuegos y como combatirlos

Estados de una cadena de Markov