Tiempo discreto Cadenas de Markov

Dificultad
Fácil 25%

Tiempo discreto Cadenas de Markov

Cuando estamos en presencia de un fenómeno aleatorio, notamos que el futuro depende solo del presente. Es en esta condición que se pueden modelar las cadenas de Markov en tiempo discreto.

Deje (Xno) una secuencia de variables aleatorias con valores en un conjunto finito de J estados, Xt= j es el estado del sistema en el tiempo t. Decimos que Xno es una cadena de Markov de transición si qq es n, qq es i0,…, In + 1 :

P (X(n + 1)= yo(n + 1) | Xno = yono,…, X0= yo0) = P (X(n + 1) = yo(n + 1) | Xno = yono)

Se dice que tal proceso no tiene memoria. El valor de esta probabilidad se denota por pn (n + 1).

Notamos que X0 no está fijada por la definición, esta ley se llama ley inicial. El vector de las probabilidades iniciales se denota por π, con πj= P (S0= j) con j incluido en el conjunto finito y la suma de πj=1.

El vector de probabilidades de transición se denota por vI (pagi0,…, PAGij) con j incluido en el conjunto finito y la suma de pij=1.

La matriz de probabilidad de transición es la concatenación de los vectores de probabilidad de transición. Por lo tanto, todos los términos son positivos o cero, la suma de los términos en una línea es igual a 1. Las potencias de una matriz de transición (o matriz estocástica) son matrices estocásticas.

Cadenas de Markov de tiempo discreto homogéneas

Se dice que una cadena de Markov es homogénea en el tiempo si las probabilidades de transición no se ven afectadas por una traducción a lo largo del tiempo. Es decir, no depende de n. Las probabilidades de transición permanecen estacionarias a lo largo del tiempo.

Pongamos un ejemplo. Siempre que un jugador tenga dinero, juega apostando £ 1. Gana £ 1 con una probabilidad de py pierde su apuesta con una probabilidad (1-p) con p entre 0 y 1. El juego termina cuando tiene £ 3.

Podemos definir cuatro estados: 0, 1, 2, 3, que representan el dinero que tiene. La matriz de transición es la siguiente:

tiempo discreto cadenas de Markov

Las cadenas de Markov en tiempo discreto pueden tener una ley inicial que se presenta en forma de vector estocástico (la suma es igual a 1). Esta ley representa la distribución en el origen.

Representación de cadenas de Markov en tiempo discreto

El gráfico asociado con un proceso de markov está formado por los puntos que representan los estados del proceso del conjunto finito, y por los arcos correspondientes a las posibles transiciones pij.

Tiempo discreto markov

Tiempo discreto markov

Denotemos por Q la matriz de transición. Una secuencia de estados (x1, X2,. . . , Xmetro) define un camino de longitud m que va desde x1 a xmetro en el gráfico asociado con la cadena de Markov homogénea si y solo si Q (x1, X2) Q (x3, X4). . .Q (xm-1, Xmetro)> 0.

Cuando intentamos simular los primeros estados de cadenas de Markov en tiempo discreto homogéneo (Xno) del espacio de estados finito X = {1 ,. . . , N} descrito solo por su ley inicial y su matriz de transición Q podemos usar el siguiente algoritmo:

Tiempo discreto markov

La probabilidad de estar en un estado j desde un estado i después de n iteraciones equivale a multiplicar la matriz de transición Qno por el vector inicial. La respuesta es entonces Qno(yo, j).

Gráficos reducidos de cadenas de Markov de tiempo discreto

Un estado j es accesible desde un estado i si existe una probabilidad estrictamente positiva de alcanzar el estado j desde el estado i en un número finito de transiciones. Desde un punto de vista de Teoría de grafos, j es accesible desde un estado i si hay un camino entre i y j.

Si el estado j es accesible desde el estado i y, a la inversa, el estado i es accesible desde el estado j, entonces decimos que los estados i y j se comunican. Esto da como resultado el hecho de que i y j están en el mismo circuito.

Un gráfico reducido es una partición de una cadena de Markov en clases de equivalencia, de modo que todos los estados de una clase se comunican entre sí.

Las clases de equivalencia son las siguientes:

  • se dice que una clase es transitoria si es posible dejarla, pero en este caso, el proceso nunca podrá volver a ella;
  • se dice que una clase es recurrente o persistente si no se puede abandonar. si un clase recurrente se compone de un solo estado, se dice que es absorbente.

Tiempo discreto markov

Si la partición en clases de equivalencia induce solo una clase recurrente, se dice que la cadena de Markov es irreducible. Una cadena de Markov tiene al menos una clase recurrente.

Ejemplo de cadenas de Markov de tiempo discreto

Estamos interesados en el desarrollo de un bosque natural en una región templada en una parcela. Nuestro modelo tiene 3 estados. El estado 1 es el de vegetación compuesta por pastos u otras especies con bajo balance de carbono; l'état 2 correspond à la présence d'arbustes dont le développement rapide nécessite un ensoleillement maximal et dont le rendement carbone sera maximale, et l'état 3 celui d'arbres plus gros qui peuvent se développer dans un environnement semi ensoleillé (considéré comme un bosque). Si estos tres estados se denotan respectivamente por h, a, f (para hierba, arbustos, bosque), el conjunto de estados posibles para un punto dado de esta gráfica es el conjunto s={h, a, f}. En la parcela, se identifican en el suelo un gran número de puntos distribuidos en una cuadrícula regular y se registra el estado de la vegetación en cada uno de estos puntos a intervalos de tiempo fijos. Este tipo de programa se llama autómata celular.

Al observar la evolución durante un intervalo de tiempo, se puede determinar para cada estado i∈S la proporción de puntos que pasaron al estado j∈S, y anotar pij esta proporción. Si las diferentes proporciones así señaladas (hay 9) cambian poco de un intervalo de tiempo al siguiente, podemos suponer que no cambian con el tiempo y podemos mirar las probabilidades para cualquier punto de pasar del estado i en el estado j para un intervalo de tiempo. Supongamos, por ejemplo, que en este gráfico, estas probabilidades son las siguientes:

Tiempo discreto markov

Si X0 indicar el estado de un punto en el tiempo t = 0 y X1 el estado del mismo punto en t = 1, por ejemplo, tenemos la probabilidad de pasar del estado de arbusto en t = 0 al estado de bosque en t = 1 se escribe P (X1= f: X0= a) es igual a 0, 4.

El conjunto de estados S y la matriz de transición P constituyen un ejemplo de cadena de Markov. También podemos representar esta cadena de Markov mediante el siguiente gráfico:

Tiempo discreto markov

En este modelo, podemos entonces calcular la probabilidad de cualquier sucesión de estados, llamada trayectoria de la cadena de Markov. Por ejemplo, la probabilidad de que en un punto de la gráfica observemos la sucesión de estados (h, h, a, f, f) se calcula de la siguiente manera:

Tiempo discreto markov

donde π0 es la probabilidad de estar en el estado en el momento inicial t = 0.

Observación del estado en el que se ubican los distintos puntos de la parcela en el tiempo inicial t0 permite determinar las proporciones iniciales de cada uno de los 3 estados. Para eso, se anota para cada punto el estado en el que se encuentra y se calcula la proporción de puntos de cada uno de los estados posibles. Podemos ver cada proporción como la probabilidad de que un punto de la gráfica se encuentre en uno de los estados en el instante inicial. Así, si tenemos por ejemplo π0 = (0.5, 0.25, 0.25), esto significa que la mitad de los puntos de la parcela están inicialmente en el estado h, una cuarta parte en el estado ay una cuarta parte en el estado f. Pero también podemos interpretar esto considerando que cualquier estado tiene una probabilidad 50% de estar en el estado h, 25% de estar en el estado ay 25% de estar en el estado f. Es por esto que la proporción de individuos de la población estudiada ubicados en cada uno de los estados,

Tiempo discreto markov

se llama ley de probabilidad inicial o distribución inicial. Cuando uno elige un modelado por una cadena de Markov, el objetivo a menudo es determinar la evolución de la distribución de estados a lo largo del tiempo. Por ejemplo, si la parcela considerada arriba está cubierta por un tercio de bosque en el momento inicial, ¿crecerá esta proporción, tenderá a 100%, por el contrario tenderá a cero o se acercará a un valor? Tipo límite de equilibrio ecológico?

Veremos que si conocemos la distribución inicial podemos calcular la distribución en el tiempo t = 1, luego en el tiempo t = 2 y así sucesivamente. Calculemos para t = 1:

Tiempo discreto markov

Deducimos que π1(h) es el producto escalar del vector π0  con la primera columna de la matriz P. Del mismo modo, comprobamos que π1(a) es el producto escalar del vector con la segunda columna de la matriz P y que π1(f) es el producto escalar del vector con la tercera columna de la matriz P. Resumimos esto: π1= π0pag.

Tiempo discreto markov