{"id":3051,"date":"2016-02-25T10:30:31","date_gmt":"2016-02-25T09:30:31","guid":{"rendered":"http:\/\/smart--grid.net\/?page_id=3051"},"modified":"2022-12-03T22:59:03","modified_gmt":"2022-12-03T21:59:03","slug":"chaines-de-markov-en-temps-discret","status":"publish","type":"page","link":"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/cadenas-de-markov-en-tiempo-discreto\/","title":{"rendered":"Tiempo discreto Cadenas de Markov"},"content":{"rendered":"<div data-elementor-type=\"wp-page\" data-elementor-id=\"3051\" class=\"elementor elementor-3051\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-ec5be09 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"ec5be09\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-33 elementor-top-column elementor-element elementor-element-af43361\" data-id=\"af43361\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-6f68148 elementor-align-justify elementor-widget elementor-widget-button\" data-id=\"6f68148\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"button.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<div class=\"elementor-button-wrapper\">\n\t\t\t\t\t<a class=\"elementor-button elementor-button-link elementor-size-sm\" href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/\">\n\t\t\t\t\t\t<span class=\"elementor-button-content-wrapper\">\n\t\t\t\t\t\t\t\t\t<span class=\"elementor-button-text\">Proceso de Markov<\/span>\n\t\t\t\t\t<\/span>\n\t\t\t\t\t<\/a>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t<div class=\"elementor-column elementor-col-33 elementor-top-column elementor-element elementor-element-6fb1ba4\" data-id=\"6fb1ba4\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-1cfc1f1 elementor-align-justify elementor-widget elementor-widget-button\" data-id=\"1cfc1f1\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"button.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<div class=\"elementor-button-wrapper\">\n\t\t\t\t\t<a class=\"elementor-button elementor-button-link elementor-size-sm\" href=\"https:\/\/complex-systems-ai.com\/es\/\">\n\t\t\t\t\t\t<span class=\"elementor-button-content-wrapper\">\n\t\t\t\t\t\t\t\t\t<span class=\"elementor-button-text\">Pagina de inicio<\/span>\n\t\t\t\t\t<\/span>\n\t\t\t\t\t<\/a>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t<div class=\"elementor-column elementor-col-33 elementor-top-column elementor-element elementor-element-13df541\" data-id=\"13df541\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-6f849ca elementor-align-justify elementor-widget elementor-widget-button\" data-id=\"6f849ca\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"button.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<div class=\"elementor-button-wrapper\">\n\t\t\t\t\t<a class=\"elementor-button elementor-button-link elementor-size-sm\" href=\"https:\/\/fr.wikipedia.org\/wiki\/Cha%C3%AEne_de_Markov\" target=\"_blank\" rel=\"noopener\">\n\t\t\t\t\t\t<span class=\"elementor-button-content-wrapper\">\n\t\t\t\t\t\t\t\t\t<span class=\"elementor-button-text\">Wiki<\/span>\n\t\t\t\t\t<\/span>\n\t\t\t\t\t<\/a>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-35272cc elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"35272cc\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-6c5c480\" data-id=\"6c5c480\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-ab637cf elementor-widget elementor-widget-progress\" data-id=\"ab637cf\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"progress.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t<span class=\"elementor-title\" id=\"elementor-progress-bar-ab637cf\">\n\t\t\t\tDificultad\t\t\t<\/span>\n\t\t\n\t\t<div aria-labelledby=\"elementor-progress-bar-ab637cf\" class=\"elementor-progress-wrapper\" role=\"progressbar\" aria-valuemin=\"0\" aria-valuemax=\"100\" aria-valuenow=\"25\" aria-valuetext=\"25% (Facile)\">\n\t\t\t<div class=\"elementor-progress-bar\" data-max=\"25\">\n\t\t\t\t<span class=\"elementor-progress-text\">F\u00e1cil<\/span>\n\t\t\t\t\t\t\t\t\t<span class=\"elementor-progress-percentage\">25%<\/span>\n\t\t\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-2f301a4a elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"2f301a4a\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-76ca6f63\" data-id=\"76ca6f63\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-55d659f7 elementor-widget elementor-widget-text-editor\" data-id=\"55d659f7\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p><\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Contenido<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Tabla de contenido alternativo\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Palanca<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/cadenas-de-markov-en-tiempo-discreto\/#Chaines-de-Markov-en-temps-discret\" >Tiempo discreto Cadenas de Markov<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/cadenas-de-markov-en-tiempo-discreto\/#Chaines-de-Markov-en-temps-discret-homogenes\" >Cadenas de Markov de tiempo discreto homog\u00e9neas<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/cadenas-de-markov-en-tiempo-discreto\/#Representation-des-chaines-de-Markov-en-temps-discret\" >Representaci\u00f3n de cadenas de Markov en tiempo discreto<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/cadenas-de-markov-en-tiempo-discreto\/#Graphes-reduits-des-chaines-de-Markov-en-temps-discret\" >Gr\u00e1ficos reducidos de cadenas de Markov de tiempo discreto<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/cadenas-de-markov-en-tiempo-discreto\/#Exemple-sur-les-chaines-de-Markov-en-temps-discret\" >Ejemplo de cadenas de Markov de tiempo discreto<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Chaines-de-Markov-en-temps-discret\"><\/span>Tiempo discreto Cadenas de Markov<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Cuando estamos en presencia de un fen\u00f3meno aleatorio, notamos que el futuro depende solo del presente. Es en esta condici\u00f3n que se pueden modelar las cadenas de Markov en tiempo discreto.<\/p>\n<p><\/p>\n<div style=\"padding: 5px; background-color: #d5edff; border: 2px solid #3c95e8; -moz-border-radius: 9px; -khtml-border-radius: 9px; -webkit-border-radius: 9px; border-radius: 9px;\">\n<p>Deje (X<sub>no<\/sub>) una secuencia de variables aleatorias con valores en un conjunto finito de J estados, X<sub>t<\/sub>= j es el estado del sistema en el tiempo t. Decimos que X<sub>no<\/sub> es una cadena de Markov de transici\u00f3n si qq es n, qq es i<sub>0<\/sub>,\u2026, I<sub>n + 1<\/sub> :<\/p>\n<p>P (X<sub>(n + 1)<\/sub>= yo<sub>(n + 1)<\/sub> | X<sub>no<\/sub> = yo<sub>no<\/sub>,\u2026, X<sub>0<\/sub>= yo<sub>0<\/sub>) = P (X<sub>(n + 1)<\/sub> = yo<sub>(n + 1)<\/sub> | X<sub>no<\/sub> = yo<sub>no<\/sub>)<\/p>\n<p>Se dice que tal proceso no tiene memoria. El valor de esta probabilidad se denota por p<sub>n (n + 1)<\/sub>.<\/p>\n<\/div>\n<p><\/p>\n<p>Notamos que X<sub>0<\/sub> no est\u00e1 fijada por la definici\u00f3n, esta ley se llama ley inicial. El vector de las probabilidades iniciales se denota por <b><span lang=\"grc\">\u03c0<\/span><\/b>, con <b><span lang=\"grc\">\u03c0<\/span><\/b><sub>j<\/sub>= P (S<sub>0<\/sub>= j) con j incluido en el conjunto finito y la suma de <b><span lang=\"grc\">\u03c0<\/span><\/b><sub>j<\/sub>=1.<\/p>\n<p><\/p>\n<div style=\"padding: 5px; background-color: #d5edff; border: 2px solid #3c95e8; -moz-border-radius: 9px; -khtml-border-radius: 9px; -webkit-border-radius: 9px; border-radius: 9px;\">El vector de probabilidades de transici\u00f3n se denota por v<sub>I<\/sub> (pag<sub>i0<\/sub>,\u2026, PAG<sub>ij<\/sub>) con j incluido en el conjunto finito y la suma de p<sub>ij<\/sub>=1.<\/div>\n<p><\/p>\n<p>La matriz de probabilidad de transici\u00f3n es la concatenaci\u00f3n de los vectores de probabilidad de transici\u00f3n. Por lo tanto, todos los t\u00e9rminos son positivos o cero, la suma de los t\u00e9rminos en una l\u00ednea es igual a 1. Las potencias de una matriz de transici\u00f3n (o matriz estoc\u00e1stica) son matrices estoc\u00e1sticas.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Chaines-de-Markov-en-temps-discret-homogenes\"><\/span>Cadenas de Markov de tiempo discreto homog\u00e9neas<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<div style=\"padding: 5px; background-color: #d5edff; border: 2px solid #3c95e8; -moz-border-radius: 9px; -khtml-border-radius: 9px; -webkit-border-radius: 9px; border-radius: 9px;\">Se dice que una cadena de Markov es homog\u00e9nea en el tiempo si las probabilidades de transici\u00f3n no se ven afectadas por una traducci\u00f3n a lo largo del tiempo. Es decir, no depende de n. Las probabilidades de transici\u00f3n permanecen estacionarias a lo largo del tiempo.<\/div>\n<p><\/p>\n<p>Pongamos un ejemplo. Siempre que un jugador tenga dinero, juega apostando \u00a3 1. Gana \u00a3 1 con una probabilidad de py pierde su apuesta con una probabilidad (1-p) con p entre 0 y 1. El juego termina cuando tiene \u00a3 3.<\/p>\n<p><\/p>\n<p>Podemos definir cuatro estados: 0, 1, 2, 3, que representan el dinero que tiene. La matriz de transici\u00f3n es la siguiente:<\/p>\n<p><\/p>\n<div>\n<figure><img fetchpriority=\"high\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2016\/02\/markov5.png\" alt=\"tiempo discreto cadenas de Markov\" width=\"388\" height=\"240\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>Las cadenas de Markov en tiempo discreto pueden tener una ley inicial que se presenta en forma de vector estoc\u00e1stico (la suma es igual a 1). Esta ley representa la distribuci\u00f3n en el origen.<\/p>\n<p><\/p>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Representation-des-chaines-de-Markov-en-temps-discret\"><\/span>Representaci\u00f3n de cadenas de Markov en tiempo discreto<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<div style=\"padding: 5px; background-color: #d5edff; border: 2px solid #3c95e8; -moz-border-radius: 9px; -khtml-border-radius: 9px; -webkit-border-radius: 9px; border-radius: 9px;\">El gr\u00e1fico asociado con un <a href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/\">proceso de markov<\/a> est\u00e1 formado por los puntos que representan los estados del proceso del conjunto finito, y por los arcos correspondientes a las posibles transiciones p<sub>ij<\/sub>.<\/div>\n<p><\/p>\n<div>\n<figure><img decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2016\/02\/markovchain.png\" alt=\"Tiempo discreto markov\" width=\"512\" height=\"203\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<div>\n<figure><img decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2016\/02\/markov4.png\" alt=\"Tiempo discreto markov\" width=\"426\" height=\"222\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>Denotemos por Q la matriz de transici\u00f3n. Una secuencia de estados (x<sub>1<\/sub>, X<sub>2<\/sub>,. . . , X<sub>metro<\/sub>) define un camino de longitud m que va desde x<sub>1<\/sub> a x<sub>metro<\/sub> en el gr\u00e1fico asociado con la cadena de Markov homog\u00e9nea si y solo si Q (x<sub>1<\/sub>, X<sub>2<\/sub>) Q (x<sub>3<\/sub>, X<sub>4<\/sub>). . .Q (x<sub>m-1<\/sub>, X<sub>metro<\/sub>)&gt; 0.<\/p>\n<p><\/p>\n<p>Cuando intentamos simular los primeros estados de cadenas de Markov en tiempo discreto homog\u00e9neo (X<sub>no<\/sub>) del espacio de estados finito X = {1 ,. . . , N} descrito solo por su ley inicial y su matriz de transici\u00f3n Q podemos usar el siguiente algoritmo:<\/p>\n<p><\/p>\n<h2 class=\"wp-block-heading\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/06\/markov1.png\" alt=\"Tiempo discreto markov\" width=\"557\" height=\"149\" title=\"\"><\/h2>\n<p><\/p>\n<p>La probabilidad de estar en un estado j desde un estado i despu\u00e9s de n iteraciones equivale a multiplicar la matriz de transici\u00f3n Q<sup>no<\/sup> por el vector inicial. La respuesta es entonces Q<sup>no<\/sup>(yo, j).<\/p>\n<p><\/p>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Graphes-reduits-des-chaines-de-Markov-en-temps-discret\"><\/span>Gr\u00e1ficos reducidos de cadenas de Markov de tiempo discreto<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Un estado j es accesible desde un estado i si existe una probabilidad estrictamente positiva de alcanzar el estado j desde el estado i en un n\u00famero finito de transiciones. Desde un punto de vista de <a href=\"https:\/\/complex-systems-ai.com\/es\/teoria-de-grafos\/\">Teor\u00eda de grafos<\/a>, j es accesible desde un estado i si hay un camino entre i y j.<\/p>\n<p><\/p>\n<div style=\"padding: 5px; background-color: #ffdcd3; border: 2px solid #ff7964; -moz-border-radius: 9px; -khtml-border-radius: 9px; -webkit-border-radius: 9px; border-radius: 9px;\">Si el estado j es accesible desde el estado i y, a la inversa, el estado i es accesible desde el estado j, entonces decimos que los estados i y j se comunican. Esto da como resultado el hecho de que i y j est\u00e1n en el mismo circuito.<\/div>\n<p><\/p>\n<p>Un gr\u00e1fico reducido es una partici\u00f3n de una cadena de Markov en clases de equivalencia, de modo que todos los estados de una clase se comunican entre s\u00ed.<\/p>\n<p><\/p>\n<div style=\"padding: 5px; background-color: #d5edff; border: 2px solid #3c95e8; -moz-border-radius: 9px; -khtml-border-radius: 9px; -webkit-border-radius: 9px; border-radius: 9px;\">\n<p>Las clases de equivalencia son las siguientes:<\/p>\n<ul>\n<li>se dice que una clase es transitoria si es posible dejarla, pero en este caso, el proceso nunca podr\u00e1 volver a ella;<\/li>\n<li>se dice que una clase es recurrente o persistente si no se puede abandonar. si un <a href=\"https:\/\/complex-systems-ai.com\/es\/proceso-de-markov\/criterios-de-recurrencia-y-transicion\/\">clase recurrente<\/a> se compone de un solo estado, se dice que es absorbente.<\/li>\n<\/ul>\n<\/div>\n<p><\/p>\n<div>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2016\/02\/markov1.png\" alt=\"Tiempo discreto markov\" width=\"801\" height=\"363\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>Si la partici\u00f3n en clases de equivalencia induce solo una clase recurrente, se dice que la cadena de Markov es irreducible. Una cadena de Markov tiene al menos una clase recurrente.<\/p>\n<p><\/p>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Exemple-sur-les-chaines-de-Markov-en-temps-discret\"><\/span>Ejemplo de cadenas de Markov de tiempo discreto<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><\/p>\n<p>Estamos interesados en el desarrollo de un bosque natural en una regi\u00f3n templada en una parcela. Nuestro modelo tiene 3 estados. El estado 1 es el de vegetaci\u00f3n compuesta por pastos u otras especies con bajo balance de carbono; l&#039;\u00e9tat 2 correspond \u00e0 la pr\u00e9sence d&#039;arbustes dont le d\u00e9veloppement rapide n\u00e9cessite un ensoleillement maximal et dont le rendement carbone sera maximale, et l&#039;\u00e9tat 3 celui d&#039;arbres plus gros qui peuvent se d\u00e9velopper dans un environnement semi ensoleill\u00e9 (consid\u00e9r\u00e9 comme un bosque). Si estos tres estados se denotan respectivamente por h, a, f (para hierba, arbustos, bosque), el conjunto de estados posibles para un punto dado de esta gr\u00e1fica es el conjunto s={h, a, f}. En la parcela, se identifican en el suelo un gran n\u00famero de puntos distribuidos en una cuadr\u00edcula regular y se registra el estado de la vegetaci\u00f3n en cada uno de estos puntos a intervalos de tiempo fijos. Este tipo de programa se llama <a href=\"https:\/\/complex-systems-ai.com\/es\/teoria-del-lenguaje\/\">aut\u00f3mata<\/a> celular.<\/p>\n<p><\/p>\n<p>Al observar la evoluci\u00f3n durante un intervalo de tiempo, se puede determinar para cada estado i\u2208S la proporci\u00f3n de puntos que pasaron al estado j\u2208S, y anotar p<sub>ij<\/sub> esta proporci\u00f3n. Si las diferentes proporciones as\u00ed se\u00f1aladas (hay 9) cambian poco de un intervalo de tiempo al siguiente, podemos suponer que no cambian con el tiempo y podemos mirar las probabilidades para cualquier punto de pasar del estado i en el estado j para un intervalo de tiempo. Supongamos, por ejemplo, que en este gr\u00e1fico, estas probabilidades son las siguientes:<\/p>\n<p><\/p>\n<div>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/09\/proba31.png\" alt=\"Tiempo discreto markov\" width=\"340\" height=\"111\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>Si X<sub>0<\/sub> indicar el estado de un punto en el tiempo t = 0 y X<sub>1<\/sub> el estado del mismo punto en t = 1, por ejemplo, tenemos la probabilidad de pasar del estado de arbusto en t = 0 al estado de bosque en t = 1 se escribe P (X<sub>1<\/sub>= f: X<sub>0<\/sub>= a) es igual a 0, 4.<\/p>\n<p><\/p>\n<p>El conjunto de estados S y la matriz de transici\u00f3n P constituyen un ejemplo de cadena de Markov. Tambi\u00e9n podemos representar esta cadena de Markov mediante el siguiente gr\u00e1fico:<\/p>\n<p><\/p>\n<div>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/09\/proba32.png\" alt=\"Tiempo discreto markov\" width=\"489\" height=\"201\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>En este modelo, podemos entonces calcular la probabilidad de cualquier sucesi\u00f3n de estados, llamada trayectoria de la cadena de Markov. Por ejemplo, la probabilidad de que en un punto de la gr\u00e1fica observemos la sucesi\u00f3n de estados (h, h, a, f, f) se calcula de la siguiente manera:<\/p>\n<p><\/p>\n<div>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/09\/proba33.png\" alt=\"Tiempo discreto markov\" width=\"540\" height=\"70\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>donde \u03c0<sub>0<\/sub> es la probabilidad de estar en el estado en el momento inicial t = 0.<\/p>\n<p><\/p>\n<p>Observaci\u00f3n del estado en el que se ubican los distintos puntos de la parcela en el tiempo inicial t<sub>0<\/sub> permite determinar las proporciones iniciales de cada uno de los 3 estados. Para eso, se anota para cada punto el estado en el que se encuentra y se calcula la proporci\u00f3n de puntos de cada uno de los estados posibles. Podemos ver cada proporci\u00f3n como la probabilidad de que un punto de la gr\u00e1fica se encuentre en uno de los estados en el instante inicial. As\u00ed, si tenemos por ejemplo \u03c0<sub>0<\/sub> = (0.5, 0.25, 0.25), esto significa que la mitad de los puntos de la parcela est\u00e1n inicialmente en el estado h, una cuarta parte en el estado ay una cuarta parte en el estado f. Pero tambi\u00e9n podemos interpretar esto considerando que cualquier estado tiene una probabilidad 50% de estar en el estado h, 25% de estar en el estado ay 25% de estar en el estado f. Es por esto que la proporci\u00f3n de individuos de la poblaci\u00f3n estudiada ubicados en cada uno de los estados,<\/p>\n<p><\/p>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/09\/proba34.png\" alt=\"Tiempo discreto markov\" width=\"271\" height=\"54\" title=\"\"><\/figure>\n<p><\/p>\n<p>se llama ley de probabilidad inicial o distribuci\u00f3n inicial. Cuando uno elige un modelado por una cadena de Markov, el objetivo a menudo es determinar la evoluci\u00f3n de la distribuci\u00f3n de estados a lo largo del tiempo. Por ejemplo, si la parcela considerada arriba est\u00e1 cubierta por un tercio de bosque en el momento inicial, \u00bfcrecer\u00e1 esta proporci\u00f3n, tender\u00e1 a 100%, por el contrario tender\u00e1 a cero o se acercar\u00e1 a un valor? Tipo l\u00edmite de equilibrio ecol\u00f3gico?<\/p>\n<p><\/p>\n<p>Veremos que si conocemos la distribuci\u00f3n inicial podemos calcular la distribuci\u00f3n en el tiempo t = 1, luego en el tiempo t = 2 y as\u00ed sucesivamente. Calculemos para t = 1:<\/p>\n<p><\/p>\n<div>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/09\/proba35.png\" alt=\"Tiempo discreto markov\" width=\"621\" height=\"82\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\n<p>Deducimos que \u03c0<sub>1<\/sub>(h) es el producto escalar del vector \u03c0<sub>0<\/sub>\u00a0 con la primera columna de la matriz P. Del mismo modo, comprobamos que \u03c0<sub>1<\/sub>(a) es el producto escalar del vector con la segunda columna de la matriz P y que \u03c0<sub>1<\/sub>(f) es el producto escalar del vector con la tercera columna de la matriz P. Resumimos esto: \u03c0<sub>1<\/sub>= \u03c0<sub>0<\/sub>pag.<\/p>\n<p><\/p>\n<div>\n<figure><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/complex-systems-ai.com\/wp-content\/uploads\/2018\/09\/proba36.png\" alt=\"Tiempo discreto markov\" width=\"579\" height=\"79\" title=\"\"><\/figure>\n<\/div>\n<p><\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>Proceso de Markov P\u00e1gina de inicio Wiki Dificultad F\u00e1cil 25% Cadenas de Markov en tiempo discreto Cuando estamos en presencia de un fen\u00f3meno aleatorio, notamos que\u2026 <\/p>","protected":false},"author":1,"featured_media":0,"parent":5007,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-3051","page","type-page","status-publish","hentry"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/pages\/3051","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/comments?post=3051"}],"version-history":[{"count":12,"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/pages\/3051\/revisions"}],"predecessor-version":[{"id":18444,"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/pages\/3051\/revisions\/18444"}],"up":[{"embeddable":true,"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/pages\/5007"}],"wp:attachment":[{"href":"https:\/\/complex-systems-ai.com\/es\/wp-json\/wp\/v2\/media?parent=3051"}],"curies":[{"name":"gracias","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}